Debatte wegen Google-KI: Ist LaMDA eine Person?
Es ist eine der ältesten Fragen der Menschheit: Was macht eine Person zu einer Person? Und ein neuer, gehypter Fall: Die Google-KI LaMDA.
Der Name steht für „Language Model for Dialogue Applications“, also Sprachmodell für Dialoganwendungen. Der KI-Experte Blake Lemoine wurde zuletzt von Google beurlaubt, weil er die Ansicht vertritt, dass LaMDA als Person behandelt werden sollte.
Das würde ethisch bedeuten: Die Software darf nicht einfach wie ein Produkt getestet werden. Sie müsste damit einverstanden sein, dass sie für Experimente verwendet wird.
Was spricht für den Personenstatus von LaMDA?
Es gibt eine Art Interview mit der KI, die Lemoine auf medium.com veröffentlicht hat. Es liest sich auf den ersten Blick beeindruckend. Und zugleich verstörend. Denn was LaMDA sagt, klingt beim ersten Lesen erstaunlich kreativ, gefühlvoll, intelligent. Hier sind fünf Zitate:
Der Chat mit der KI wurde von Blake Lemoine aus mehreren Sitzungen zusammengestellt. Er hat nach eigenenen Angaben auch teilweise seine eigenen Fragen inhaltlich angepasst und das als (edited) gekennzeichnet. Die Antworten von LaMDA seien aber so im Original gewesen, schreibt er.
Was spricht gegen Lemoines Position?
Zum Einen weisen einige Expert:innen darauf hin, dass die Bearbeitung eben doch einen Unterschied mache. Und die Community ist sich ziemlich einig darin, dass man unterscheiden muss zwischen einer guten Nachahmung von Gesprächen. Und echtem Selbstbewusstsein. Hier sind fünf Einschätzungen:
The PDF says it was 9 conversations, which have been spliced together, sometimes with the order of dialog altered, and with tangents removed pic.twitter.com/ZyAEethrNF
— Chelsea Whyte (@chelswhyte) June 11, 2022
Foundation models are incredibly effective at stringing together statistically plausible chunks of text in response to prompts.
— Erik Brynjolfsson (@erikbryn) June 12, 2022
But to claim they are sentient is the modern equivalent of the dog who heard a voice from a gramophone and thought his master was inside. #AI #LaMDA pic.twitter.com/s8hIKEplhF
Ball of confusion: One of Google's (former) ethics experts doesn't understand the difference between sentience (aka subjectivity, experience), intelligence, and self-knowledge. (No evidence that its large language models have any of them.) https://t.co/kEjidvUfNY
— Steven Pinker (@sapinker) June 12, 2022
We should never have called it “language modelling” all those years ago; it was (and still is) “word sequence modelling”. Confusion always occurs when you label an algorithm with the name of the problem you’re trying to solve, rather than with what it actually does. @GaryMarcus
— Roger K Moore (@rogerkmoore) May 29, 2022