Digital
Analyse

Gefährliche KI: Diese Experten schätzen den öffentlichen Brief Musks ein

OpenAI CEO Sam Altman speaks to members of the media during the Introduction of the integration of the Microsoft Bing search engine and Edge browser with OpenAI on Tuesday, Feb. 7, 2023, in Redmond. M ...
Nein, der Chef von OpenAI, dem Unternehmen hinter ChatGPT, hat den offenen Brief nicht unterzeichnet. Und auch Xi Jinping wurde fälschlicherweise aufgeführt.Bild: keystone
Analyse

Gefährliche KI: Diese Experten-Reaktionen auf den offenen Brief lassen tief blicken

Der öffentliche Warnbrief von KI-Fachleuten, Forschenden und Tech-Führungskräften löste nicht nur Zustimmung, sondern auch heftigen Widerspruch aus. Und dies von Koryphäen auf dem Gebiet.
30.03.2023, 18:5604.04.2023, 08:16
Mehr «Digital»

Mit dem in der Nacht auf Mittwoch veröffentlichten und von vielen Fachleuten unterzeichneten offenen Brief ist Elon Musk ein PR-Coup gelungen. Medien weltweit haben die eindringliche Warnung vor unkontrollierbarer künstlicher Intelligenz aufgegriffen und die Aktion hat ihrerseits heftige Reaktionen weit über die Fachwelt hinaus ausgelöst.

Gefälschte Unterzeichner
Trotz eines Überprüfungsprozesses wurde eine ganze Reihe von Persönlichkeiten fälschlicherweise als Unterzeichner des offenen Briefes aufgelistet, wie «Vice» berichtete. Darunter waren Personen, die sich als OpenAI-Chef Sam Altman und als chinesischer Präsident Xi Jinping ausgaben, bevor die online zugängliche Liste bereinigt wurde.

Im Brief wird vorrangig das Wettrüsten zwischen grossen Techkonzernen wie Microsoft und Google angeprangert, das mit der Lancierung von leistungsfähiger, frei zugänglicher KI-Technologie begonnen hat. In dem offenen Brief ist von «einem gefährlichen Wettlauf» zu «immer grösseren, unvorhersehbaren Black-Box-Modellen» die Rede.

Die Expertinnen und Experten warnten vor einer Flut von Propaganda und Fake News, der Vernichtung vieler Arbeitsplätze und einem generellen Kontrollverlust.

Es sind aber längst nicht alle KI-Fachleute mit dem Inhalt des Briefes einverstanden. Dies zeigen etwa die Äusserungen der Linguistik-Professorin Emily M. Bender von der University of Washington. Die renommierte Expertin twitterte, der offene Brief «triefe» förmlich «vor KI-Hype».

Und Arvind Narayanan, ausserordentlicher Professor für Informatik in Princeton, fand deutliche Worte:

«Dieser offene Brief schürt – ironischerweise, aber nicht überraschend – den Hype um die KI weiter und erschwert es, gegen reale, bereits auftretende KI-Schäden vorzugehen. Ich vermute, dass er den Unternehmen zugutekommt, die er regulieren soll, und nicht der Gesellschaft.»

Eine weitere Kritik lautet, dass die Verfasser keine konkreten Massnahmen gegen die bereits bestehenden gesellschaftlichen Schäden durch KI ansprechen. Der geforderte sechsmonatige Entwicklungsstopp helfe hierbei nichts.

Vorwurf 1: Die Verfasser betreiben Panikmache und befeuern den KI-Hype

Im Brief heisst es:

«KI-Systeme mit menschlicher Wettbewerbsintelligenz können ein tiefgreifendes Risiko für die Gesellschaft und die Menschheit darstellen, wie umfangreiche Forschungen gezeigt haben.»
Emily M. Bender, Linguistik-Professorin und KI-Expertin.
Emily M. Bender, Linguistik-Professorin und KI-Expertin.Bild: linguistics.washington.edu

Die amerikanische Sprachwissenschaftlerin Bender, die zu den absoluten Koryphäen auf ihrem Gebiet gehört, sagt, der Brief missbrauche ihre Forschungsergebnisse.

Sie kontert, dass sich ihre Forschung speziell auf aktuelle grosse Sprachmodelle (LLM) konzentriere und auf «deren Verwendung in repressiven Systemen» hinweise – das sei viel konkreter und drängender als zukünftige KI.

Dem pflichtet die Wissenschaftlerin Sascha Luccioni bei, eine führende Forscherin auf dem Gebiet der ethischen künstlichen Intelligenz und Klimaleiterin bei Hugging Face. Es sei ein Fehler, die Aufmerksamkeit auf hypothetische Kräfte und Schäden zu lenken und «einen sehr vagen und ineffektiven Weg vorzuschlagen», sie anzugehen.

Vorwurf 2: Die realen KI-Probleme werden nicht adressiert

Im Brief heisst es:

«Sollten wir alle Jobs automatisieren, einschliesslich der erfüllenden? Sollten wir nichtmenschliche Köpfe entwickeln, die uns schliesslich zahlenmässig übertreffen, überlisten, obsolet machen und ersetzen könnten? Sollten wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?»

Informatik-Professor Narayanan erwiderte, diese sehr weit hergeholten Fragen seien «Unsinn» und «lächerlich».

Dass Computer die menschliche Zivilisation übernehmen werden, sei Teil einer langfristigen Denkweise, die uns von aktuellen Problemen rund um ChatGPT und Co. ablenkt.

Konkret sind dies laut Emily Bender:

  • Die KI-Technologie bedeute eine «Machtkonzentration» in den Händen von wenigen Menschen.
  • Die KI reproduziere «Unterdrückungssysteme».
  • Die KI schädige das «Informationsökosystem» – sprich: die Medien und den öffentlichen Diskurs in Demokratien – durch Desinformation, Deepfakes und mehr.
  • Die KI schädige das natürliche Ökosystem – durch verschwenderischen Umgang mit Energieressourcen. Sprich: Die KI-Rechenzentren verbrauchen unglaublich viel Strom, die Betreiber schweigen sich darüber aus.

In einem am 17. März bei netzpolitik.org publizierten Interview hatte die deutsche Soziologin und Computerwissenschaftlerin Milagros Miceli auf ein KI-Problem hingewiesen, das vielen Usern nicht bewusst sein dürfte: Die angeblich so leistungsfähige künstliche Intelligenz funktioniert nur, weil die Tools von Menschenhand betrieben werden.

«Hinter den Kulissen leisten Legionen von Menschen die Drecks- und Fleissarbeit, ohne die man solche Technologien gar nicht bauen könnte.»
quelle: netzpolitik.org

Weil die Welt nach ethisch korrekter KI verlange, bezahlten die Anbieter «eine Armee von Arbeiter:innen», die gewalttätige und unangemessene Inhalte kennzeichnen. Aber dazu müssten sie mit diesen Inhalten konfrontiert werden – und das sei sehr schädlich für ihre psychische Gesundheit.

Vorwurf 3: Der Brief basiert auf einer fragwürdigen Weltanschauung

Der offene Brief wurde auf der Website des Future of Life Institute veröffentlicht, einer gemeinnützigen Organisation mit der Mission, «globale katastrophale und existenzielle Risiken durch leistungsstarke Technologien zu reduzieren».

Und damit sind wir bei einer Weltanschauung, «einer Art säkularer Religion, die von vielen Mitgliedern der Technologieelite des Silicon Valley gefördert wird», wie das amerikanische Online-Medium «Vice» kommentierte.

Die Rede ist von Longtermism.

Klingt kompliziert – und ist brandgefährlich.

Es geht um eine Theorie, die von einer Gruppe junger Oxford-Philosophieprofessoren entwickelt wurde. Einer neuen Ethik für künftige Generationen.

Ihre Vordenker sagen, dass sich der Wert einer Handlung vor allem daran bemesse, welche Konsequenzen sie für die Menschen hat, die erst in Zukunft leben werden.

«Es geht nicht um die nächsten hundert, sondern Millionen oder gar Milliarden Jahre. In dieser Zeit, so die Annahme der Longtermisten, wird die Lebensqualität der Menschen stetig weiter steigen, sodass zukünftige Menschen einen höheren Lebensstandard geniessen können als die Reichsten von heute.»
quelle: philomag.de

Gemäss dieser Logik sollten wir uns weniger um die Klimakrise sorgen, da «Roboterapokalypsen und intergalaktische Kriege die grösseren Gefahren darstellen».

Das Future of Life Institute ist ein Sammelbecken für Anhänger des Longtermism. Zu den Gründern und Unterstützern der Organisation gehört Skype-Mitbegründer Jaan Tallinn, der wie Elon Musk den Brief mitunterzeichnet hat.

Tatsächlich ziehen sich der Longtermism und die Superreichen magisch an, wie unschwer zu verstehen ist. Denn das Ultra-Langzeitdenken liefert ihnen eine «ethische Entschuldigung», warum sie lieber in die Besiedelung des Mars investieren, statt den Welthunger zu bekämpfen.

PS: Ein weiterer Anhänger des Longtermism ist der von der US-Justiz angeklagte FTX-Gründer Sam Bankman-Fried.

Quellen

Mit Material der Nachrichtenagentur SDA

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
KI-Bilder verbreiten sich viral
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Auf Facebook teilenAuf X teilen
So könnten unsere letzten Selfies auf der Erde aussehen
Video: watson
Das könnte dich auch noch interessieren:
103 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
GGeorge
30.03.2023 21:00registriert März 2021
Mehr Regulierung für die grossen Techgiganten wäre dringend angezeigt. Egal, was in diesem Brief steht.
852
Melden
Zum Kommentar
avatar
metall
30.03.2023 20:44registriert Januar 2014
Interessant zu sehen wie Musk und co. nervös werden wenn Microsoft wieder einmal die Nase vorn hat. Es bleibt spannend.
6919
Melden
Zum Kommentar
avatar
Mg.
30.03.2023 21:12registriert März 2019
Was mir thematisiert wird, aber meiner Meinung nach sehr wichtig ist. Wir sollten uns überlegen, wie wir technische Leistungen besteuern wollen. Dazu benötigt es globalen Konsens. Wenn irgendwann die Maschinen alles machen, was bleibt uns noch um Geld zu verdienen?
479
Melden
Zum Kommentar
103
Robotaxi oder Günstig-Tesla? Musk setzt alles auf eine Karte

Was baut Tesla als Nächstes: ein günstiges Elektroauto oder ein selbstfahrendes Robotaxi? Firmenchef Elon Musk setzt alles auf die Robotaxi-Karte. Es sei die logische Entscheidung, glaubt Musk. Die für Dienstag angekündigten Quartalszahlen könnten nun etwas mehr Klarheit bringen, wie es um das Projekt steht.

Zur Story