Innovation & Future Signal-Präsidentin Meredith Whittaker: Keine Kompromisse bei der Anonymität

Signal-Präsidentin Meredith Whittaker: Keine Kompromisse bei der Anonymität

Sie steht jetzt an der Spitze des Anti-Whatsapp. Meredith Whittaker ist die neue Präsidentin der Signal Foundation, die den gleichnamigen Messenger entwickelt. Die Amerikanerin kennt die Tech-Branche seit zwanzig Jahren aus der Innenperspektive. Arbeitete bei Google und war eine der Organisatorinnen der Walkouts, Protesten von Mitarbeitenden gegen sexuelle Gewalt bei Google.

Anschließend lehrte Whittaker als Professorin an der New York University, sie gilt als eine der profiliertesten Stimmen im Tech-Diskurs. Ein Gespräch über KI und Arbeitswürde, über Blake Lemoine und Signals Popup-Mitteilungen.

Frau Whittaker, wie viele Leute arbeiten für Signal?

In etwa vierzig. Für eine App, die so robust und verbreitet ist wie Signal, ist das sehr wenig. Ich mache immer den Vergleich mit Whatsapp. Die haben 1000 Ingenieur:innen. Alle anderen nicht mitgezählt.

Und wie arbeiten sie?

Abgesehen davon ist es nicht weiter ungewöhnlich: Wir haben Produktmanager:innen, Programmierer:innen und Leute, die Signal an die verschiedenen Sprachen und Märkte anpassen.

Gibt es ein Büro?

Nein, wir sind voll dezentralisiert. Es gibt natürlich mehrere, die etwa in der Gegend um San Francisco arbeiten. Die treffen sich dann hin und wieder. Informelle Hubs könnte man das vielleicht nennen.

Welche Art von Menschen sind das, die bei Signal arbeiten?

Eine psychologische Skizze habe ich da nicht. Man muss auf jeden Fall verstehen, wie die Mechanismen von Technologie funktionieren, die ständig verfügbar ist. High availability tech. Die am Laufen zu halten ist hart. Die Arbeit hört nie auf, ständig finden sie Bugs. Und die Mitarbeitenden müssen kompromisslos sein, wenn es um den Schutz der Privatsphäre geht. Es ist nicht einfach, aber sicher möglich, was wir hier mit Signal vorhaben: stetig verfügbare Software zu programmieren, die außerhalb des Geschäftsmodells Überwachung funktioniert.

Sie meinen, dass Tech-Konzerne unsere Daten sammeln und dann am Ende fürs Ausspielen von Werbung auswerten?

Das Geschäftsmodell Überwachung hat die Tech-Industrie großgemacht. Es ist bis heute dominant und definiert die Normen, nach denen die Branche funktioniert. Aber dass wir bei dem Modell nicht mitmachen, ist auch keine komplette Ablehnung der Nutzererwartungen. Wenn du vollkommen anders funktionierst als die großen Plattformen, bist du irrelevant. Niemand würde Signal verwenden. Wie kommen wir den Erwartungen der Menschen entgegen und bleiben dabei kompromisslos in Sachen Privatsphäre? Das ist keine einfache Frage. Man könnte ein Tool für Kryptograph:innen bauen, das absolut verschlüsselt ist. Aber das nutzen dann auch keine Menschen, die ich kenne.

Ich bekomme in den letzten Monaten oft diese Nachrichten von Signal: Freund:in XY ist auf Signal! Das kennt man zwar auch von Telegram, aber nicht von Whatsapp. Schaffen Sie es ab?

Keine Pläne, das zu ändern. Aber ich fange ja auch gerade erst an.

Viele Menschen wünschen sich auch, man könnte Signal ohne Telefonnummer nutzen.

Was es geben wird, sind Nutzernamen. Dann brauchen Sie zwar noch eine Telefonnummer, um sich zu registrieren. Die können Sie aber vor allen anderen verbergen.

Sie beschreiben die Anonymität, den Schutz der Privatsphäre, als den Leitstern von Signal. Aber auf der anderen Seite eröffnet diese Anonymität auch die Möglichkeit, Signal für Illegales zu nutzen.

Verbrechen gibt es nicht aufgrund dieser oder jener technischen Plattform. Ich bin jetzt seit 20 Jahren in der Tech-Branche. Ich habe miterlebt, wie sich Google zu diesem Krebsgeschwür ausgewachsen hat. Mehr und mehr wurden diese Rufe laut, die Anonymität aufzubrechen. Mit dem Ziel, irgendwelche Bösewichte zu fangen. Während es für die anderen, uns gute Menschen, anonym und privat bleiben solle. Das geht technisch einfach nicht! So ehrlich müssen wir schon sein. Dass dieser Wunsch immer wieder aufkommt, das kann ich mir nur mit einer Art Glaube an Wunderlösungen erklären. Für uns bleibt robuste Anonymität der Leitstern.

Die großen Tech-Konzerne sind einerseits Privatunternehmen, andererseits globale Infrastruktur. Das ist eine krasse Kombination, oder?

Ja, das ist etwas historisch Neues. Und vor allem der Umstand, dass diese Konzerne von einer Handvoll Menschen kontrolliert werden. Einer winzig kleinen Gruppe im Vergleich zu all denjenigen, die ihre Entscheidungen betreffen. Das alles unter der Erwartung ewigen Wachstums, ewiger Gewinne.

Zuletzt hat ihr ehemaliger Arbeitgeber Google einen Mitarbeiter entlassen, der sich für die Rechte einer künstlichen Intelligenz einsetzte. Blake Lemoine hielt das Google-Programm Lamda für eine bewusste Lebensform.

Ich kenne Blake. Und er ist nicht das Problem. Aber in dieser Frage liegt er so übel daneben. Das ist ein wenig wie bei Joseph Weizenbaums Programm namens Eliza. Weizenbaum war Holocaust-Überlebender. Er entwickelte am MIT einen frühen, natürlich sehr viel einfacheren Chatbot als Lamda. Für therapeutische Zwecke. Und selbst damals fingen die Proband:innen an, Vertrauen in dieses Sprachprogramm zu entwickeln. Sie bauten eine Beziehung zu Eliza auf. Aber das war nichts weiter als Projektion menschlicher Muster auf diesen vergleichsweise simplen Algorithmus.

Lamda ist also nur eine Imitation der Art wie Menschen chatten, wenn auch eine vergleichsweise glaubwürdige. Eine gut gemachte Illusion.

Ja! Die Algorithmen bauen auf Material auf, das sie in Reddit finden, in Wikipedia. Vielleicht nicht genau aus diesen Quellen. Aber solche sind eben verfügbar. Wo sollen die Datenmassen sonst herkommen? Und diese Daten werden dann von Menschen mit Schlagwörtern versehen und gewichtet. Das ist doch eine Beleidigung des Konzepts von Bewusstsein, von Menschlichkeit: Wenn man sagt, das System hat mich hereingelegt, es muss also Bewusstsein haben.

Sie halten nicht viel von den aktuell hohen Erwartungen an Künstliche Intelligenz?

Als ich noch bei Google war, dachte ich mir: Das hätten wir doch früher gar nicht als „KI“ bezeichnet. Aber es verkauft sich eben gut. Vor allem, wenn jemand nicht versteht, was da hinter den Kulissen passiert. Viel vom KI-Hype ist bloße Arbeitskosten-Arbitrage: Unternehmen können damit Arbeit in schlechter bezahlte Regionen verlagern. Dann heißt es, schaut her, das ist unser magischer Roboter. Dabei sind es nur extrem schlecht bezahlte Arbeitskräfte, die unsichtbar bleiben, woanders auf der Welt.

Es gibt einen Trend, Arbeitende stärker zu überwachen. Sie zu bewerten. Und diese Pseudowissenschaft der Emotionen-Erkennung. Arbeit bleibt, aber sie ist degradiert. Wir werden nicht mehr Kassiererin sein, sondern die Person neben den automatischen Kassen. Die zur Hilfe kommt, wenn das System mal wieder nicht richtig funktioniert.

In unserer Ausgabe 5/22 haben wir 7 Hot Takes zur Karriere von morgen, die euch Feuer geben, ohne dass der Burnout droht. Auch Meredith Whittaker ist dabei. Hier geht es zur Bestellung – oder ihr schaut am Kiosk eures Vertrauens vorbei.

Das könnte dich auch interessieren

Wie ein russischer Nomade Telegram an die Börse bringt Innovation & Future
Wie ein russischer Nomade Telegram an die Börse bringt
Packen wir’s an: 12 Milliarden Euro für die Startup Branche  Innovation & Future
Packen wir’s an: 12 Milliarden Euro für die Startup Branche 
Wirtschaftsgipfel: Wie Merz, Maschmeyer, Ensthaler und Co. Deutschland aus der Krise bringen wollen  Innovation & Future
Wirtschaftsgipfel: Wie Merz, Maschmeyer, Ensthaler und Co. Deutschland aus der Krise bringen wollen 
Innovativer Bitzel und die Zukunft der Erdbeeren  Innovation & Future
Innovativer Bitzel und die Zukunft der Erdbeeren 
ChatGPT hat in Mathe jetzt eine Eins minus Innovation & Future
ChatGPT hat in Mathe jetzt eine Eins minus