06.07.2023, 06:3111.07.2023, 08:50
Die ChatGPT-Entwicklerfirma OpenAI macht sich angeblich Gedanken darüber, wie Menschen eine potenzielle digitale «Superintelligenz» kontrollieren könnten. Das Ziel sei, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen.
Was sagt OpenAI?
«Menschen werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz zu beaufsichtigen, die viel klüger als wir sind», behauptet die Firma aus San Francisco in einem Blogeintrag vom Mittwoch. Deshalb solle ein automatisiertes Verfahren dafür ausgearbeitet werden.
OpenAI wolle dafür ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden. Das Entwicklerteam solle vom Chefwissenschaftler Ilya Sutskever mit angeführt werden.

Sam Altman, Boss von OpenAI.Bild: keystone
Auch wenn die «Superintelligenz» aus dem Computer derzeit noch in weiter Ferne zu sein scheine, halte OpenAI sie noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme lösen helfen und die folgenschwerste Erfindung der Menschheit sein.
Wo ist das (echte) Problem?
Der deutsche Techjournalist und KI-Kenner Sebastian Meineck kritisiert, die Debatte um Künstliche Intelligenz und ChatGPT führe dramatisch in die Irre.
«Die Erzählung von der Rettung oder Zerstörung der Menschheit verengt die Debatte auf eine Entweder-oder-Frage: Bringt die KI enormes Glück oder enormen Schrecken? In den Hintergrund rücken dabei alle sonstigen Zwischentöne. Und die Frage, inwiefern grosse Teile des Hypes bloss heisse Luft sind.»
quelle: netzpolitik.org
Das «Hype-Theater», wie es Meineck nennt, begleite «ein Wettrennen um die Marktmacht bei neuartigen KI-Systemen». Er ruft in Erinnerung, dass Microsoft zehn Milliarden US-Dollar in Sam Altmans Firma OpenAI investiert hat. Wer Milliarden-Summen einsammeln möchte, müsse die Investoren von der eigenen Relevanz überzeugen. «Und wohl nichts erzeugt mehr Relevanz als die Erzählung vom Weltuntergang.»
Sammelklage gegen OpenAI und Microsoft
In Kalifornien ist eine Sammelklage gegen OpenAI und Microsoft eingereicht worden, wie netzwoche.ch diese Woche berichtete. «Die Kläger geben an, dass die Entwickler von ChatGPT gestohlene private Informationen illegal ausnutzen, um ihre ‹Large Language Models› zu trainieren.»
Die am 28. Juni eingereichte Klage nenne als Grund «das illegale und schädliche Verhalten der Angeklagten bei der Entwicklung, Vermarktung und Nutzung ihrer KI-Produkte». Die Datenauswertung sei ohne die Zustimmung von hunderten Millionen betroffenen Internet-Usern erfolgt.
Die nicht namentlich genannten Verfasser der Klage seien zudem der Ansicht, dass «OpenAI ohne diesen beispiellosen Diebstahl von privaten und urheberrechtlich geschützten Informationen, die realen Personen gehören», nicht Milliarden von Dollar hätte einnehmen können.
OpenAI reagierte nicht auf Medienanfragen zum Fall. Microsoft lehnte eine Stellungnahme ab, wie das US-Online-Medium Motherboard («Vice»)
berichtete.
Kritik an Warnungen
Der Vorstoss von OpenAI folgt auf eine Warnung von Branchenexperten, aus deren Sicht Künstliche Intelligenz mit dem Risiko existenzieller Gefahren verbunden ist. Zu den Unterzeichnern gehört OpenAI-Chef Sam Altman.
Die angebliche Bedrohung wurde dabei nicht näher erläutert – und Kritiker hielten den Unterzeichnern vor, solche Warnungen lenkten von bereits heute existierenden Problemen Künstlicher Intelligenz wie Diskriminierung in Algorithmen ab.
Sebastian Meineck spricht vom «Tunnelblick-Problem»: Während sich der grosse Teil der aktuellen KI-Debatte auf Chatbots fokussiere, würden andere KI-Probleme in den Hintergrund geraten.
«Kameras in der Stadt sollen angeblich verdächtige Bewegungsmuster erfassen. Software in der Personalabteilung soll angeblich schlechte Bewerbungen aussortieren. Rechenprogramme sollen der Polizei verraten, wo angeblich kriminelle Menschen wohnen. Lügendetektoren an der EU-Aussengrenze sollen bestimmen, ob Asylsuchende die Wahrheit sagen. Autopiloten sollen bewaffnete Drohnen steuern, bevor sie angebliche Feinde in die Luft sprengen.»
Das seien die KI-Probleme der Gegenwart. «Sie betreffen die Schicksale von Menschen, sie richten Schaden an. Nicht in einer spekulativen Science-Fiction-Zukunft, sondern jetzt.»
OpenAI entwickelt unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind.
Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.
Quellen
(dsc/sda/dpa)
Wenn sich KI-Bilder viral verbreiten
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Beeindruckend: Schweizer KI-Künstler visualisiert die Geschichte des Krieges
Video: watson
Das könnte dich auch noch interessieren:
Bezahlbarer Einstiegspreis, grosser Akku, alltagstaugliche Reichweite: Der Kia EV3 gibt ein grosses Versprechen ab. Im Langstreckentest muss er es einhalten.
Lange gab bei E-Autos nur diese Wahl: Entweder entschied man sich für einen bezahlbaren Stromer und musste dafür geringere Reichweiten und niedrige Ladeleistungen in Kauf nehmen – oder man musste deutlich mehr Geld ausgeben. Mittlerweile scheint es so, als würden auch Kompaktmodelle wie der Kia EV3 die Langstrecke beherrschen – mit grossen Akkus und Ladeleistungen, mit denen die Ladestopps kaum länger als eine Kaffeepause dauern. Funktioniert das in der Realität? Ein Wochenendtrip von Berlin nach Passau (rund 620 Kilometer) soll es klären.
KI kann schon heute sehr viel. Wir sehen nur nicht alles davon.