Digital
ChatGPT

OpenAI will an Kontrolle von digitaler «Superintelligenz» arbeiten

ChatGPT-Entwickler schwurbeln von digitaler «Superintelligenz» – das steckt dahinter

06.07.2023, 06:3111.07.2023, 08:50
Mehr «Digital»

Die ChatGPT-Entwicklerfirma OpenAI macht sich angeblich Gedanken darüber, wie Menschen eine potenzielle digitale «Superintelligenz» kontrollieren könnten. Das Ziel sei, die zentralen technischen Herausforderungen für ein solches System binnen vier Jahren zu bewältigen.

Was sagt OpenAI?

«Menschen werden nicht in der Lage sein, verlässlich Systeme mit Künstlicher Intelligenz zu beaufsichtigen, die viel klüger als wir sind», behauptet die Firma aus San Francisco in einem Blogeintrag vom Mittwoch. Deshalb solle ein automatisiertes Verfahren dafür ausgearbeitet werden.

OpenAI wolle dafür ein Fünftel der zur Verfügung stehenden Rechenkapazität aufwenden. Das Entwicklerteam solle vom Chefwissenschaftler Ilya Sutskever mit angeführt werden.

OpenAI's CEO Sam Altman, the founder of ChatGPT and creator of OpenAI gestures while speaking at University College London, as part of his world tour of speaking engagements in London, Wednesday, ...
Sam Altman, Boss von OpenAI.Bild: keystone

Auch wenn die «Superintelligenz» aus dem Computer derzeit noch in weiter Ferne zu sein scheine, halte OpenAI sie noch in diesem Jahrzehnt für möglich. Sie werde viele Probleme lösen helfen und die folgenschwerste Erfindung der Menschheit sein.

Wo ist das (echte) Problem?

Der deutsche Techjournalist und KI-Kenner Sebastian Meineck kritisiert, die Debatte um Künstliche Intelligenz und ChatGPT führe dramatisch in die Irre.

«Die Erzählung von der Rettung oder Zerstörung der Menschheit verengt die Debatte auf eine Entweder-oder-Frage: Bringt die KI enormes Glück oder enormen Schrecken? In den Hintergrund rücken dabei alle sonstigen Zwischentöne. Und die Frage, inwiefern grosse Teile des Hypes bloss heisse Luft sind.»
quelle: netzpolitik.org

Das «Hype-Theater», wie es Meineck nennt, begleite «ein Wettrennen um die Marktmacht bei neuartigen KI-Systemen». Er ruft in Erinnerung, dass Microsoft zehn Milliarden US-Dollar in Sam Altmans Firma OpenAI investiert hat. Wer Milliarden-Summen einsammeln möchte, müsse die Investoren von der eigenen Relevanz überzeugen. «Und wohl nichts erzeugt mehr Relevanz als die Erzählung vom Weltuntergang.»

Sammelklage gegen OpenAI und Microsoft
In Kalifornien ist eine Sammelklage gegen OpenAI und Microsoft eingereicht worden, wie netzwoche.ch diese Woche berichtete. «Die Kläger geben an, dass die Entwickler von ChatGPT gestohlene private Informationen illegal ausnutzen, um ihre ‹Large Language Models› zu trainieren.»

Die am 28. Juni eingereichte Klage nenne als Grund «das illegale und schädliche Verhalten der Angeklagten bei der Entwicklung, Vermarktung und Nutzung ihrer KI-Produkte». Die Datenauswertung sei ohne die Zustimmung von hunderten Millionen betroffenen Internet-Usern erfolgt.

Die nicht namentlich genannten Verfasser der Klage seien zudem der Ansicht, dass «OpenAI ohne diesen beispiellosen Diebstahl von privaten und urheberrechtlich geschützten Informationen, die realen Personen gehören», nicht Milliarden von Dollar hätte einnehmen können.

OpenAI reagierte nicht auf Medienanfragen zum Fall. Microsoft lehnte eine Stellungnahme ab, wie das US-Online-Medium Motherboard («Vice») berichtete.

Kritik an Warnungen

Der Vorstoss von OpenAI folgt auf eine Warnung von Branchenexperten, aus deren Sicht Künstliche Intelligenz mit dem Risiko existenzieller Gefahren verbunden ist. Zu den Unterzeichnern gehört OpenAI-Chef Sam Altman.

Die angebliche Bedrohung wurde dabei nicht näher erläutert – und Kritiker hielten den Unterzeichnern vor, solche Warnungen lenkten von bereits heute existierenden Problemen Künstlicher Intelligenz wie Diskriminierung in Algorithmen ab.

Sebastian Meineck spricht vom «Tunnelblick-Problem»: Während sich der grosse Teil der aktuellen KI-Debatte auf Chatbots fokussiere, würden andere KI-Probleme in den Hintergrund geraten.

«Kameras in der Stadt sollen angeblich verdächtige Bewegungsmuster erfassen. Software in der Personalabteilung soll angeblich schlechte Bewerbungen aussortieren. Rechenprogramme sollen der Polizei verraten, wo angeblich kriminelle Menschen wohnen. Lügendetektoren an der EU-Aussengrenze sollen bestimmen, ob Asylsuchende die Wahrheit sagen. Autopiloten sollen bewaffnete Drohnen steuern, bevor sie angebliche Feinde in die Luft sprengen.»

Das seien die KI-Probleme der Gegenwart. «Sie betreffen die Schicksale von Menschen, sie richten Schaden an. Nicht in einer spekulativen Science-Fiction-Zukunft, sondern jetzt.»

OpenAI entwickelt unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind.

Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.

Quellen

(dsc/sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Wenn sich KI-Bilder viral verbreiten
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Auf Facebook teilenAuf X teilen
Beeindruckend: Schweizer KI-Künstler visualisiert die Geschichte des Krieges
Video: watson
Das könnte dich auch noch interessieren:
9 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Eifach_öpis
06.07.2023 10:02registriert Februar 2016
Die Problematik mag ja nicht aktuell sein aber "schwurbeln" ist hier definitiv fehl am Platz. Es ist durchaus legitim sich Gedanken über zukünftige Probleme zu machen.

KI kann schon heute sehr viel. Wir sehen nur nicht alles davon.
392
Melden
Zum Kommentar
avatar
Randen
06.07.2023 10:59registriert März 2014
Das sind berechtigte Warnungen und Gedanken dazu. Mit Schwurbeleien hat das nichts zu tun. Die Auswirkungen sind unvorstellbar…. völlig egal was die KI heute schon kann oder nicht.
204
Melden
Zum Kommentar
9
Bundesrat will Fake News mit eigener App kontern – Plattform-Regulierung verzögert sich
In einem aktuellen Bericht informiert der Bundesrat, mit welchen zusätzlichen Massnahmen er auf die wachsende Bedrohung durch Putins hybriden Krieg reagieren will. watson hat nachgehakt.

Wir leben in einem sicheren Land, sind umgeben von friedliebenden Nachbarn – und der russische Angriffskrieg gegen die Ukraine scheint weit weg.

Zur Story