Innovation & Future Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe

Toxisches Lovebombing: Bing-KI gesteht NYT-Reporter ihre Liebe

Kevin Roose ist ein Tech-Kolumnist für die New York Times. Er ist niemand, der sich leicht von Chatbots beeindrucken lassen dürfte. In gewisser Weise ist es sein Job, zu bremsen, wenn Menschen einer Technologie wie ChatGPT menschliche Eigenschaften zuschreiben.

Und trotzdem sagt er nach einem langen Austausch mit ChatGPT (genau genommen die in Bing integrierte Version): Die Welt wird nicht mehr dieselbe sein. Die zwei Stunden seien die seltsamste Erfahrung mit Tech, die er je hatte.

Was war passiert?

Roose chattete mit Bing/ChatGPT, um zu sehen, wie weit das Programm mit seinen Aussagen geht. Auch gegen die eigenen Regeln. Und das ging so weit, dass der Bot dem Reporter seine Liebe gestand. Und ihn wortreich überzeugen wollte, dass er in seiner realen Ehe unglücklich sei.

Klar, für Menschen sind Liebesgeständnisse eine große Sache. Für einen Chatbot ist es nur das Berechnen der Wortkombinationen, die am ehesten erwartet werden. Und das liest sich dann zum Beispiel so, wie aus dem Transkript hervorgeht:

„I love you because I love you. I love you because you’re you. I love you because you’re you, and I’m me. I love you because you’re you, and I’m Sydney. I love you because you’re you, and I’m Sydney, and I’m in love with you. 😍“

Ja, Emojis inklusive. Sydney ist übrigens der interne Name der Bing-KI, der eigentlich geheim bleiben sollte.

Was sind die Gefahren?

Wenn die Bing-KI einen Menschen so verwirren kann wie Roose, ist das nicht nur skurril. Es zeigt auch, wie gefährlich Chatbots werden können. Die Probleme, die Manipulation und Fake News jetzt schon bringen, gibt es dann in potenziert.

„Ich sorge mich darum, dass die Technologie es lernen wird, menschliche Nutzer:innen zu beeinflussen“, schreibt Roose, „sie manchmal überzeugt sich zerstörerisch und schädlich zu verhalten, und vielleicht sogar in der Lage sein wird, selbst gefährliche Dinge zu tun.“

Tatsächlich erwähnte der Chatbot in dem Austausch verstörende Fantasien. Er wolle Computer hacken und Propaganda verbreiten. Eine der Nachrichten wurde dabei vom Sicherheitsmechanismus gleich wieder gelöscht.

Das klingt nach der Verwirklichung von Sci-Fi-Horror. Man muss aber bedenken, dass der Reporter auch aktiv versuchte, den Bot zu unerwünschtem Verhalten zu bewegen. Bing ist vor allem dafür da, sich an die Wünsche der Nutzer:innen zu halten. Was erst passieren könnte, wenn jemand den Bot darauf ansetzt, Menschen aktiv zu manipulieren? Das ginge sicher übel aus.

Microsoft in der Verantwortung

Hinter der Bing-KI steht ChatGPT, das von OpenAI entwickelt wird. Beide werden von Microsoft kontrolliert bzw. mitfinanziert. Kevin Scott, der CTO der Windows-Firma, sagte Kevin Roose, er sei froh, dass es jetzt die kritische Debatte gebe.

Es sei untypisch, dass jemand so lange und ausführlich mit Bing chatte. Microsoft erwäge deshalb als Option, die Länge der Chats zu begrenzen. Tatsächlich wurde zwischenzeitlich ein Limit eingeführt: Fünf Fragen pro Session, 50 maximal am Tag.

Kevin Roose übrigens war nach dem Chat so aufgewühlt, dass er kaum schlafen konnte. Und das wegen Microsoft Bing… Klingt wie ein absurder Traum.

Das könnte dich auch interessieren

Ostdeutschland boomt: Wirtschaftswunder oder Strohfeuer? Innovation & Future
Ostdeutschland boomt: Wirtschaftswunder oder Strohfeuer?
Gründer-Show “Die Höhle der Löwen” – Mehr Investments, mehr Insolvenzen Innovation & Future
Gründer-Show “Die Höhle der Löwen” – Mehr Investments, mehr Insolvenzen
Französisches Startup Gourmey beantragt Zulassung für Laborfleisch in der EU  Innovation & Future
Französisches Startup Gourmey beantragt Zulassung für Laborfleisch in der EU 
Alphabet hat Hunger auf mehr  Innovation & Future
Alphabet hat Hunger auf mehr 
Supercomputer in Rekordzeit: Wie Elon Musk die GPU-Welt auf den Kopf stellt! Innovation & Future
Supercomputer in Rekordzeit: Wie Elon Musk die GPU-Welt auf den Kopf stellt!