ChatGPT-Entwickler schwurbeln von digitaler «Superintelligenz» – das steckt dahinter
Die ChatGPT-Entwicklerfirma OpenAI macht sich angeblich Gedanken darüber, wie Menschen eine potenzielle digitale «Superintelligenz» kontrollieren könnten. Das Ziel sei, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen.
Was sagt OpenAI?
«Menschen werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz zu beaufsichtigen, die viel klüger als wir sind», behauptet die Firma aus San Francisco in einem Blogeintrag vom Mittwoch. Deshalb solle ein automatisiertes Verfahren dafür ausgearbeitet werden.
OpenAI wolle dafür ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden. Das Entwicklerteam solle vom Chefwissenschaftler Ilya Sutskever mit angeführt werden.
Auch wenn die «Superintelligenz» aus dem Computer derzeit noch in weiter Ferne zu sein scheine, halte OpenAI sie noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme lösen helfen und die folgenschwerste Erfindung der Menschheit sein.
Wo ist das (echte) Problem?
Der deutsche Techjournalist und KI-Kenner Sebastian Meineck kritisiert, die Debatte um Künstliche Intelligenz und ChatGPT führe dramatisch in die Irre.
Das «Hype-Theater», wie es Meineck nennt, begleite «ein Wettrennen um die Marktmacht bei neuartigen KI-Systemen». Er ruft in Erinnerung, dass Microsoft zehn Milliarden US-Dollar in Sam Altmans Firma OpenAI investiert hat. Wer Milliarden-Summen einsammeln möchte, müsse die Investoren von der eigenen Relevanz überzeugen. «Und wohl nichts erzeugt mehr Relevanz als die Erzählung vom Weltuntergang.»
Die am 28. Juni eingereichte Klage nenne als Grund «das illegale und schädliche Verhalten der Angeklagten bei der Entwicklung, Vermarktung und Nutzung ihrer KI-Produkte». Die Datenauswertung sei ohne die Zustimmung von hunderten Millionen betroffenen Internet-Usern erfolgt.
Die nicht namentlich genannten Verfasser der Klage seien zudem der Ansicht, dass «OpenAI ohne diesen beispiellosen Diebstahl von privaten und urheberrechtlich geschützten Informationen, die realen Personen gehören», nicht Milliarden von Dollar hätte einnehmen können.
OpenAI reagierte nicht auf Medienanfragen zum Fall. Microsoft lehnte eine Stellungnahme ab, wie das US-Online-Medium Motherboard («Vice») berichtete.
Kritik an Warnungen
Der Vorstoss von OpenAI folgt auf eine Warnung von Branchenexperten, aus deren Sicht Künstliche Intelligenz mit dem Risiko existenzieller Gefahren verbunden ist. Zu den Unterzeichnern gehört OpenAI-Chef Sam Altman.
Die angebliche Bedrohung wurde dabei nicht näher erläutert – und Kritiker hielten den Unterzeichnern vor, solche Warnungen lenkten von bereits heute existierenden Problemen Künstlicher Intelligenz wie Diskriminierung in Algorithmen ab.
Sebastian Meineck spricht vom «Tunnelblick-Problem»: Während sich der grosse Teil der aktuellen KI-Debatte auf Chatbots fokussiere, würden andere KI-Probleme in den Hintergrund geraten.
Das seien die KI-Probleme der Gegenwart. «Sie betreffen die Schicksale von Menschen, sie richten Schaden an. Nicht in einer spekulativen Science-Fiction-Zukunft, sondern jetzt.»
OpenAI entwickelt unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind.
Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.
Quellen
(dsc/sda/dpa)
