Super-KI als Gefahr für die Menschheit? Was wir aus dem OpenAI-Schlamassel lernen
Wenn wir beim Affentheater um OpenAI etwas mit Sicherheit wissen, dann das: Wir müssen die Super-Nerds aus dem Silicon Valley in die Schranken weisen.
Und zwar möglichst frühzeitig.
Wer noch immer an freie Märkte mit möglichst wenig staatlicher Kontrolle glaubt, sei an die bis dato bekanntesten Super-Nerds erinnert. Respektive an die superreichen Tech-Oligarchen, und wo wir ihretwegen heute stehen:
- Mark Zuckerberg
- Larry Page und Sergey Brin
- Bill Gates
- Jeff Bezos
- Elon Musk
Was die Obengenannten gemeinsam haben, sind unanständige Privatvermögen – und Plattformen, die eine Gefahr für freiheitlich-demokratische Gesellschaften darstellen und als Quasi-Monopole jegliche Konkurrenz plattmachen.
Und dann kommt auch noch KI hinzu.
Wir müssen über das Worst-Case-Szenario reden💀
Der KI-Hype-Zug war in den vergangenen Tagen mal wieder voll am Rollen.
Mitverantwortlich dafür ist Tomas Pueyo. Einigen dürfte er noch von seinen vielbeachteten Essays zur Bekämpfung der Covid-19-Pandemie in Erinnerung sein.
Nun konzentriert sich der US-Autor auf die angeblich grösste Bedrohung für die Menschheit: eine KI, die heimlich superintelligent wird und völlig aus dem Ruder läuft.
Ein aktuelles Posting von Pueyo wurde bereits millionenfach geklickt und unter anderem von Elon Musk gelikt. Es trägt den dramatischen Titel: «OpenAI und die grösste Bedrohung in der Geschichte der Menschheit».
Das Problem: Es gibt dafür keine Fakten, sondern lediglich Vermutungen und wilde Spekulationen.
Julian Togelius, ausserordentlicher Professor für KI an der New York University, bringt es auf den Punkt:
Und wie kommt es dann, dass KI-Forschende bei OpenAI angeblich auch intern vor einer «Bedrohung für die Menschheit» gewarnt haben, wie Reuters berichtete?
Das Schreiben sei «eine wichtige Entwicklung» gewesen, die in der Entlassung von Sam Altman, dem Gründer und Chef von OpenAI, durch den Vorstand mündete, hiess es. Kurz darauf erklärte jedoch eine «mit der Angelegenheit vertraute Person» gegenüber dem US-Medium The Verge, dass der Vorstand nie einen Brief über einen solchen KI-Durchbruch erhalten habe und dass der Forschungsfortschritt des Unternehmens bei Altmans plötzlicher Entlassung keine Rolle gespielt habe.
Es gibt also verschiedene öffentliche Darstellungen, was sich bei OpenAI hinter den Kulissen abgespielt hat. Im Kern geht es wohl um einen Richtungsstreit bezüglich KI-Entwicklung: Wie schnell soll man vorgehen, und wie sicher ist das?
Dazu muss man wissen, dass vier Mitglieder des inzwischen abgesetzten OpenAI-Vorstandes – die Forscherin Helen Toner, der CEO von Quora, Adam D'Angelo, die Wissenschaftlerin Tasha McCauley und der Mitbegründer von OpenAI, Ilya Sutskever – einer philosophischen Weltanschauung nahestehen, die höchst umstritten ist: Effektiver Altruismus.
Effektive Altruisten berechnen die Auswirkungen jeder Entscheidung und tun in der Folge nur das, was auf sehr lange Sicht den Fortbestand unserer Spezies sichert.
Gemäss der verqueren Logik dieser philosophischen Nischenbewegung sollten wir uns weniger um die aktuelle Klimakrise sorgen, da zukünftige Roboterapokalypsen und intergalaktische Kriege die grösseren Gefahren seien.
Das ist natürlich grundfalsch. Tatsächlich braucht die Welt keine Untergangspropheten, sondern Lösungen für die realen KI-Probleme, die sich immer stärker abzeichnen.
Der neue Steve Jobs und die realen KI-Gefahren
Die entsetzten Reaktionen auf Sam Altmans Entlassung machten deutlich, dass die Marke OpenAI untrennbar mit der seines Mitbegründers und CEOs verbunden ist.
Als ChatGPT ab Ende 2022 «viral ging» und ein exponentielles Wachstum hinlegte, wurde Altman von einer im Silicon Valley bekannten Persönlichkeit zum weltweiten Gesicht der KI-Entwicklung. Mittlerweile wird der 38-Jährige mit Steve Jobs verglichen. Etwa von der «New York Times», die beide als «visionäre Firmengründer» bezeichnet hat und daran erinnert, dass auch der Apple-Chef († 2011) in seinen wilden Jahren aus dem eigenen Unternehmen gedrängt worden war.
Altmans Popularität darf uns jedoch nicht von aktuellen Problemen rund um generative KI ablenken, für die er massgeblich mitverantwortlich ist. Als Kind des Silicon Valley konzentriert er sich darauf, innovative Produkte zu entwickeln, die schnell skalieren und Monsterprofite abwerfen.
Nur Wachstum zählt. Gesellschaftliche Kollateralschäden werden bei einer solchen Vorgehensweise, die für Zuckerberg und Co. typisch ist, bewusst in Kauf genommen.
Darum sei an dieser Stelle an die kritischen Worte der Linguistik-Professorin Emily M. Bender erinnert, die sich schon länger intensiv mit Ethikfragen rund um generative KI und die sogenannt grossen Sprachmodelle (LLM) beschäftigt. Sie sagt: Dass Computer die menschliche Zivilisation übernehmen werden, sei Teil einer langfristigen Denkweise, die uns von aktuellen Problemen rund um ChatGPT und Co. ablenkt.
- Die KI-Technologie bedeutet eine ungeheure «Machtkonzentration» in den Händen weniger Menschen.
- Hinter dem Hype um die generative KI steckt eine Geschichte von Ausbeutung im Globalen Süden. Arbeiterinnen und Arbeiter in Billiglohnländern machen die Drecksarbeit. Sie sind quasi die menschlichen Schutzfilter, indem sie schädliche Texte und Bilder sichten und klassifizieren.
- KI-Systeme wie ChatGPT sind eine Blackbox, was das Datensammeln und die Datenverarbeitung betrifft. Dies verunmöglicht bislang jegliche externe Kontrolle.
- Es ist unklar, ob OpenAI die Rechte von Betroffenen und die Datensicherheit (wie versprochen) ausreichend gewährleistet – dies gilt vor allem bei Kindern und Jugendlichen.
- Generative KI liefert auf Knopfdruck in grossem Umfang authentisch wirkende Texte, wie die europäische Polizeibehörde Europol warnte. Damit sei es eine ideale Waffe für Propaganda- und Desinformationszwecke.
Es gibt aber auch beträchtliche systemische Risiken, wenn wir generative KI weiter unreguliert auf das Internet loslassen, wie Bender in einem kritischen Essay betont:
Was ist zu tun?
Wie also können wir die Super-Nerds in die Schranken weisen und noch schlimmere KI-Auswüchse verhindern?
Die Antwort ist einfach: Wir müssen ihren Einflussbereich und das Schadenspotenzial ihrer Plattformen mit demokratischen Mitteln begrenzen und sie für die gesellschaftlichen Kollateralschäden direkt zur Verantwortung ziehen.
An die Adresse der Politik schreibt Emily M. Bender, sie würde gerne sehen, dass politische Entscheidungsträger mehr mit den Menschen sprechen, die sich mit den tatsächlichen Schäden der sogenannten «KI» auskennen.
Und sie wünsche sich Politikerinnen und Politiker, «die nicht auf das Narrativ hereinfallen, dass sich die Technologie zu schnell entwickelt, um reguliert zu werden». Denn Regulierung schütze Rechte, und diese bleiben bestehen.
Quellen
- thedailybeast.com: The OpenAI Saga Proved Just How Incestuous Silicon Valley Is (22. November)
- unchartedterritories.tomaspueyo.com: OpenAI and the Biggest Threat in the History of Humanity (21. November)
- forbes.com: Effective Altruism Contributed To The Fiasco At OpenAI (20. November)
- buzzsprout.com: Mystery AI Hype Theater 3000 (Podcast mit Emily M. Bender)
- netzpolitik.org: Das Hype-Theater um moderne Chatbots (Juli 2023)
- netzpolitik.org: Prekäre Klickarbeit hinter den Kulissen von ChatGPT (Januar 2023)
