Mit dem in der Nacht auf Mittwoch veröffentlichten und von vielen Fachleuten unterzeichneten offenen Brief ist Elon Musk ein PR-Coup gelungen. Medien weltweit haben die eindringliche Warnung vor unkontrollierbarer künstlicher Intelligenz aufgegriffen und die Aktion hat ihrerseits heftige Reaktionen weit über die Fachwelt hinaus ausgelöst.
Im Brief wird vorrangig das Wettrüsten zwischen grossen Techkonzernen wie Microsoft und Google angeprangert, das mit der Lancierung von leistungsfähiger, frei zugänglicher KI-Technologie begonnen hat. In dem offenen Brief ist von «einem gefährlichen Wettlauf» zu «immer grösseren, unvorhersehbaren Black-Box-Modellen» die Rede.
Die Expertinnen und Experten warnten vor einer Flut von Propaganda und Fake News, der Vernichtung vieler Arbeitsplätze und einem generellen Kontrollverlust.
Es sind aber längst nicht alle KI-Fachleute mit dem Inhalt des Briefes einverstanden. Dies zeigen etwa die Äusserungen der Linguistik-Professorin Emily M. Bender von der University of Washington. Die renommierte Expertin twitterte, der offene Brief «triefe» förmlich «vor KI-Hype».
Und Arvind Narayanan, ausserordentlicher Professor für Informatik in Princeton, fand deutliche Worte:
Eine weitere Kritik lautet, dass die Verfasser keine konkreten Massnahmen gegen die bereits bestehenden gesellschaftlichen Schäden durch KI ansprechen. Der geforderte sechsmonatige Entwicklungsstopp helfe hierbei nichts.
Die amerikanische Sprachwissenschaftlerin Bender, die zu den absoluten Koryphäen auf ihrem Gebiet gehört, sagt, der Brief missbrauche ihre Forschungsergebnisse.
Sie kontert, dass sich ihre Forschung speziell auf aktuelle grosse Sprachmodelle (LLM) konzentriere und auf «deren Verwendung in repressiven Systemen» hinweise – das sei viel konkreter und drängender als zukünftige KI.
Dem pflichtet die Wissenschaftlerin Sascha Luccioni bei, eine führende Forscherin auf dem Gebiet der ethischen künstlichen Intelligenz und Klimaleiterin bei Hugging Face. Es sei ein Fehler, die Aufmerksamkeit auf hypothetische Kräfte und Schäden zu lenken und «einen sehr vagen und ineffektiven Weg vorzuschlagen», sie anzugehen.
Informatik-Professor Narayanan erwiderte, diese sehr weit hergeholten Fragen seien «Unsinn» und «lächerlich».
Dass Computer die menschliche Zivilisation übernehmen werden, sei Teil einer langfristigen Denkweise, die uns von aktuellen Problemen rund um ChatGPT und Co. ablenkt.
Konkret sind dies laut Emily Bender:
In einem am 17. März bei netzpolitik.org publizierten Interview hatte die deutsche Soziologin und Computerwissenschaftlerin Milagros Miceli auf ein KI-Problem hingewiesen, das vielen Usern nicht bewusst sein dürfte: Die angeblich so leistungsfähige künstliche Intelligenz funktioniert nur, weil die Tools von Menschenhand betrieben werden.
Weil die Welt nach ethisch korrekter KI verlange, bezahlten die Anbieter «eine Armee von Arbeiter:innen», die gewalttätige und unangemessene Inhalte kennzeichnen. Aber dazu müssten sie mit diesen Inhalten konfrontiert werden – und das sei sehr schädlich für ihre psychische Gesundheit.
Der offene Brief wurde auf der Website des Future of Life Institute veröffentlicht, einer gemeinnützigen Organisation mit der Mission, «globale katastrophale und existenzielle Risiken durch leistungsstarke Technologien zu reduzieren».
Und damit sind wir bei einer Weltanschauung, «einer Art säkularer Religion, die von vielen Mitgliedern der Technologieelite des Silicon Valley gefördert wird», wie das amerikanische Online-Medium «Vice» kommentierte.
Die Rede ist von Longtermism.
Klingt kompliziert – und ist brandgefährlich.
Es geht um eine Theorie, die von einer Gruppe junger Oxford-Philosophieprofessoren entwickelt wurde. Einer neuen Ethik für künftige Generationen.
Ihre Vordenker sagen, dass sich der Wert einer Handlung vor allem daran bemesse, welche Konsequenzen sie für die Menschen hat, die erst in Zukunft leben werden.
Gemäss dieser Logik sollten wir uns weniger um die Klimakrise sorgen, da «Roboterapokalypsen und intergalaktische Kriege die grösseren Gefahren darstellen».
Das Future of Life Institute ist ein Sammelbecken für Anhänger des Longtermism. Zu den Gründern und Unterstützern der Organisation gehört Skype-Mitbegründer Jaan Tallinn, der wie Elon Musk den Brief mitunterzeichnet hat.
Tatsächlich ziehen sich der Longtermism und die Superreichen magisch an, wie unschwer zu verstehen ist. Denn das Ultra-Langzeitdenken liefert ihnen eine «ethische Entschuldigung», warum sie lieber in die Besiedelung des Mars investieren, statt den Welthunger zu bekämpfen.
PS: Ein weiterer Anhänger des Longtermism ist der von der US-Justiz angeklagte FTX-Gründer Sam Bankman-Fried.
Mit Material der Nachrichtenagentur SDA