Einer der wichtigsten KI-Experten des ChatGPT-Erfinders OpenAI verlässt das Unternehmen. Der Mitgründer und bisherige Forschungschef Ilya Sutskever schrieb am Dienstag bei der Online-Plattform X, er wolle sich einem Projekt widmen, das für ihn persönlich von Bedeutung sei. Details dazu wolle er später bekannt geben.
Sutskever, ein 37-jähriger Informatiker, gilt als KI-Guru. Er hat auch wiederholt vor den Gefahren einer Allgemeinen Künstlichen Intelligenz (AGI) gewarnt, obwohl eine solche Super-KI bislang reine Zukunftsmusik ist.
Der aus Russland stammende und in Israel aufgewachsene KI-Forscher arbeitete nach dem Studium zunächst bei der kanadischen Firma DNNResearch, die von Google übernommen wurde. Ende 2015 überzeugte ihn Elon Musk, dass sich der Techkonzern zu wenig um die Sicherheitsrisiken der künstlichen Intelligenz kümmere und er besser Mitgründer der Firma OpenAI werde.
Sutskever gehörte im vergangenen November zu den Mitgliedern des Verwaltungsrates von OpenAI, die überraschend die Ablösung des Firmenchefs Sam Altman durchsetzten.
Der interne Streit bei OpenAI drehte sich um die forcierte Kommerzialisierung des Forschungsunternehmens. Sutskever sah darin ein grosses Sicherheitsrisiko.
Nur wenige Tage später kehrte Altman aber nach dem Einschreiten von Angestellten und Grossinvestoren wie Microsoft ins Unternehmen zurück. Auch Sutskever änderte seine Meinung und schrieb, er bedauere seinen Vorstoss.
Der «New York Times» zufolge blieb Sutskever danach zwar weiterhin ein Beschäftigter von OpenAI, kehrte aber nicht zum Arbeiten zurück. Es sei ein «emotionaler Tag», sagte Altman der Zeitung zum Abgang Sutskevers. «OpenAI würde ohne ihn nicht existieren und wurde auf jeden Fall von ihm geprägt.»
ChatGPT ist der Chatbot, der vor über einem Jahr den Hype um Künstliche Intelligenz auslöste. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen trainiert und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen. Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte.
Solche KI-Chatbots sind aber auch fehleranfällig und können täuschend echt wirkende Falschinformationen ausgeben, was in der Fachwelt als Halluzinieren bezeichnet wird. Daneben warnen unabhängige Fachleute auch vor massiven gesellschaftlichen Risiken durch unregulierte generative KI: Die Technologie kann für die Verbreitung von Desinformation und für andere kriminelle Zwecke missbräuchlich eingesetzt werden.
(dsc/sda/dpa)