Innovation & Future Streit um Sicherheit: Deutscher Top-Manager kündigt Sam Altman seine Dienste

Streit um Sicherheit: Deutscher Top-Manager kündigt Sam Altman seine Dienste

Jan Leike war bis eben Sicherheitschef bei ChatGPT. Er war dafür verantwortlich, dass die Künstliche Intelligenz nicht außer Rand und Band gerät. Weil er für sein Projekt nicht genügend Rechenleistung im Konzern zugeteilt bekommen hat, schmeißt er jetzt hin – mit warnenden Worten.

Schmutzige Wäsche wäscht man normalerweise zu Hause. Dies gilt jedoch nicht für OpenAI, das Unternehmen aus San Francisco, das ChatGPT entwickelt hat und damit der weltweit einflussreichste Konzern im Bereich der generativen künstlichen Intelligenz geworden ist.

Nach dem Rücktritt des ehemaligen wissenschaftlichen Direktors Ilya Sutskever – wegen offensichtlicher Unvereinbarkeit seiner Ideen mit denen von ChatGPT-Chef Sam Altman – verlässt jetzt auch der einzige deutsche Top-Manager das Unternehmen im Streit: Jan Leike. Die Personalien sind heikel: Sutskever und Leike waren nämlich die beiden Leiter des Projekts „Superalignment“ von OpenAI, das im Juli 2023 ins Leben gerufen wurde, um hochentwickelte künstliche Intelligenzsysteme sicher mit menschlichen Zielen und Werten in Einklang zu bringen. Das Forscherteam sollte effiziente Methoden entwickeln, um „künstliche Intelligenzsysteme, die viel intelligenter sind als Menschen“, unter Kontrolle zu halten. Zu diesem Zweck, so heißt es in dem Dokument, das den Zweck von „Superalignment“ beschreibt, plante OpenAI, 20 Prozent seiner verfügbaren Rechenleistung einzusetzen. Alles sa anfangs danach aus, dass Altman hier eine Initiative gestartet hatte, um verantwortlich mit der Technologie umzugehen. Dann aber lief nichts nach Plan.

„Ich war Leiter von OpenAIs Superalignment und diesen Job aufzugeben, ist eines der schwersten Dinge, die ich je getan habe“, schreibt Jan Leike in X, „denn wir müssen dringend herausfinden, wie wir KI-Systeme, die schlauer sind als wir, steuern und kontrollieren können. Ich bin zu OpenAI gekommen, weil ich dachte, es sei der beste Ort der Welt, um diese Art von Forschung zu betreiben“,  er hinzu, „Allerdings bin ich seit einiger Zeit mit den Prioritäten, die die Unternehmensführung setzt, nicht einverstanden. Ich bin der Meinung, dass ein Großteil unseres Könnens für Sicherheit, Überwachung, optimale Ausrichtung und die sozialen Auswirkungen der nächsten Generation von KI-Modellen verwendet werden sollte. Aber in den letzten Monaten musste mein Team darum kämpfen, die für diese wichtige Forschung benötigte Rechenleistung zu erhalten.“ Er schließt: „OpenAI hat eine Verantwortung gegenüber der Menschheit“, sagte Leike weiter, „aber in den letzten Jahren sind Kultur und Prozesse in Bezug auf Sicherheit hinter glänzenden Produkten zurückgeblieben.“

Seite 1 / 2
Nächste Seite

Das könnte dich auch interessieren

„Wir waren noch nie Weltspitze“ Innovation & Future
„Wir waren noch nie Weltspitze“
Nach Absage vom Bund: Lilium Insolvenz nimmt Fahrt auf Innovation & Future
Nach Absage vom Bund: Lilium Insolvenz nimmt Fahrt auf
Revolutionäre 15-Minuten-Stadt: Die Zukunft des urbanen Lebens? Innovation & Future
Revolutionäre 15-Minuten-Stadt: Die Zukunft des urbanen Lebens?
Gar nicht mal so “spaßig”: Musks KI-Chatbot Grok-2 sorgt international für Aufregung  Innovation & Future
Gar nicht mal so “spaßig”: Musks KI-Chatbot Grok-2 sorgt international für Aufregung 
Hi Punks, oder: Wenn Männer Bienen kauen Innovation & Future
Hi Punks, oder: Wenn Männer Bienen kauen