Innovation & Future Warum wir nicht von „KI-Halluzinationen“ sprechen sollten

Warum wir nicht von „KI-Halluzinationen“ sprechen sollten

Halluzinationen sind Wahrnehmungen von etwas, das es nicht gibt. Der Ausdruck kommt vom lateinischen Wort für Träumerei. Dass sich die KI-Bubble angewöhnt hat, falsche Informationen ihrer Modelle als Halluzination zu bezeichnen, ist deshalb absoluter Unsinn.

Darauf geht Rachel Metz in einem vielzitierten Bloomberg-Text ein. Der Punkt ist einfach: KI halluziniert nicht, sondern sie bastelt Sätze zusammen, die gut klingen, aber aus Lügen bestehen.

Vermenschlichung an der falschen Stelle

Menschen neigen dazu, alles Mögliche zu vermenschlichen. Deshalb werden Artikel über Künstliche Intelligenz bis heute immer wieder mit Fotos von niedlichen Robotern illustriert. Obwohl Expert:innen so oft es geht betonen, dass diese Bildsprache verwirrend bis gefährlich ist.

Immer wieder kommt so die Frage auf, ob KI Bewusstsein habe oder sich gegen uns wenden könnte. Aber das ist nicht die echte Gefahr. „Es geht doch um etwas ganz anderes: schlecht gebaute KI, und der Einsatz von KI für Aufgaben, die sich schlichtweg nicht mit KI lösen lassen“, sagte Frederike Kaltheuner von Human Rights Watch uns schon lange vor dem Hype im Interview.

Halluzinationen sind ein Konzept, das eng mit unserem Verständnis von Wahrheit und Menschlichkeit zusammenhängt. Sie auf KI-Systeme zu beziehen, fördert nur die unsinnige Vermenschlichung.

Schlechtes Framing

Wenn man ein neues Phänomen bennennt, kommt es auf gute Vergleiche an. Klar ist eine Glühbirne nicht dasselbe wie ein Stück Obst. Wenn man einen Vergleich findet, der mehr verwirrt als aufklärt, dann ist das entweder schlechtes Framing. Oder sogar absichtliche Täuschung.

Aus Unterlagen von OpenAI geht hervor, dass sich die Macher:innen von ChatGPT und Dall-E bewusst sind, dass der Ausdruck Halluzination nicht richtig passt. In einer Fußnote steht:

„Wir verwenden den Begriff ,Halluzinationen‘, obwohl wir uns bewusst sind, dass diese Formulierung eine Vermenschlichung nahelegen kann, die wiederum zu Schäden oder falschen Gedankenmodellen darüber, wie das Modell lernt, führen kann.“

Das hält die Autor:innen aber nicht davon ab, den Ausdruck trotzdem mehr als 30-mal zu verwenden. Wie man statt „Halluzination“ sagen könnte? Begriffe wie „Lügengeschichten“ oder „Fake News“ klingen ja auch nach menschlichen Absichten.

Also braucht es vielleicht etwas ganz Neues. Vorschlag: Algo-Noise.

Das könnte dich auch interessieren

Foto für Reisepass und Personalausweis: Wichtige Änderungen im Mai 2025 Innovation & Future
Foto für Reisepass und Personalausweis: Wichtige Änderungen im Mai 2025
Boom bei deutschen Startups: 2024 sprudelten die Milliarden! Innovation & Future
Boom bei deutschen Startups: 2024 sprudelten die Milliarden!
KI im Job: Darf ich das so machen? Innovation & Future
KI im Job: Darf ich das so machen?
Die Zukunft der Lebensmittelproduktion: Deutsches FoodTech-Startup vGreens expandiert nach Asien  Innovation & Future
Die Zukunft der Lebensmittelproduktion: Deutsches FoodTech-Startup vGreens expandiert nach Asien 
Endlich ist es soweit! Die erste Ausgabe von AnlagePunk erscheint am 13. April Innovation & Future
Endlich ist es soweit! Die erste Ausgabe von AnlagePunk erscheint am 13. April