Digital
Künstliche Intelligenz

ChatGPT: OpenAI-Chef Sam Altman warnt vor KI – und fordert Regulierungen

«Keine nur gute Geschichte»: OpenAI-Chef warnt vor KI – und fordert Regulierungen

22.02.2024, 03:29
Mehr «Digital»

Der Chef des ChatGPT-Entwicklers OpenAI geht davon aus, dass es künftig mehr von Künstlicher Intelligenz als von Menschen erstellte Inhalte geben wird. Die Gesellschaft müsse sich auch auf negative Folgen des KI-Booms vorbereiten.

OpenAI CEO Sam Altman participates in the "Technology in a turbulent world" panel discussion during the annual meeting of the World Economic Forum in Davos, Switzerland, Thursday, Jan. 18, 2 ...
OpenAI-Chef Sam Altman.Bild: keystone

Das betonte Sam Altman am Mittwoch bei einer Veranstaltung des Chip-Riesen Intel. So könne es in absehbarer Zukunft potenziell negative Auswirkungen auf Wahlen geben. Man nehme auch Risiken zum Beispiel bei Cybersicherheit und Biowaffen ernster. Künstliche Intelligenz werde «keine nur gute Geschichte sein», sagte Altman im Gespräch mit Intel-Chef Pat Gelsinger. Aber unterm Strich werde es eine positive Entwicklung, zeigte er sich überzeugt.

Denn mit Hilfe Künstlicher Intelligenz werde man wissenschaftliche Forschung beschleunigen, Krankheiten heilen und Bildung verbessern können, betonte Altman. «Ich denke, es ist schwierig, sich heute vorzustellen, wie viel besser die Zukunft sein wird.»

Altman: Regierungen müssen regulieren – jetzt

Man brauche aber noch mehr als bei anderen Technologien eine regulierende Rolle von Regierungen – und zwar jetzt, während die KI-Modelle noch relativ schwach seien. Es dürfe nicht so laufen, dass zum Beispiel OpenAI heimlich im Keller eine KI entwickele, die schlauer als Menschen sei und sie plötzlich auf die Welt loslasse. Die Gesellschaft und ihre Institutionen müssten die Zeit bekommen, sich schrittweise an die Entwicklung anzupassen.

ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen. Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte.

Manchmal völlig falsche Antworten

Ein Nachteil: Die Software gibt manchmal auch völlig falsche Antworten aus, selbst wenn sie nur korrekte Informationen als Basis hatte. Am Dienstag etwa produzierte ChatGPT durch einen Programmierfehler zeitweise zum Teil völlig sinnlose Sätze. Die Software-Entwicklung wird inzwischen oft mit KI-Hilfe erfolgreich automatisiert.

OpenAI wisse, dass das aktuelle GPT4-Modell hinter ChatGPT «nicht besonders gut» sei, räumte Altman ein. Aber die Technologie werde sich mit jeder Generation verbessern. Der OpenAI-Chef widersprach einem jüngst erschienenen Medienbericht, wonach die Firma Kapital für die Bestellung von Halbleitern im Wert von mehreren Billionen Dollar mobilisieren wolle. Es stimme aber, dass die Welt viel mehr Rechenleistung für Künstliche Intelligenz als heute brauchen werde. (sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
34 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
34
Bund warnt: Achtung vor diesem AHV-Betrug

Die Eidgenössische Finanzmarktaufsicht (Finma) ist offenbar Gegenstand von Betrügereien im Internet. Laut einer Mitteilung vom Dienstag gehen Phishing-E-Mails mit gefälschtem Finma-Absender um. Die Betrüger geben sich als Mitarbeitende der Aufsichtsbehörde aus.

Zur Story