Wenn wir beim Affentheater um OpenAI etwas mit Sicherheit wissen, dann das: Wir müssen die Super-Nerds aus dem Silicon Valley in die Schranken weisen.
Und zwar möglichst frühzeitig.
Wer noch immer an freie Märkte mit möglichst wenig staatlicher Kontrolle glaubt, sei an die bis dato bekanntesten Super-Nerds erinnert. Respektive an die superreichen Tech-Oligarchen, und wo wir ihretwegen heute stehen:
Was die Obengenannten gemeinsam haben, sind unanständige Privatvermögen – und Plattformen, die eine Gefahr für freiheitlich-demokratische Gesellschaften darstellen und als Quasi-Monopole jegliche Konkurrenz plattmachen.
Und dann kommt auch noch KI hinzu.
Der KI-Hype-Zug war in den vergangenen Tagen mal wieder voll am Rollen.
Mitverantwortlich dafür ist Tomas Pueyo. Einigen dürfte er noch von seinen vielbeachteten Essays zur Bekämpfung der Covid-19-Pandemie in Erinnerung sein.
Nun konzentriert sich der US-Autor auf die angeblich grösste Bedrohung für die Menschheit: eine KI, die heimlich superintelligent wird und völlig aus dem Ruder läuft.
Ein aktuelles Posting von Pueyo wurde bereits millionenfach geklickt und unter anderem von Elon Musk gelikt. Es trägt den dramatischen Titel: «OpenAI und die grösste Bedrohung in der Geschichte der Menschheit».
Das Problem: Es gibt dafür keine Fakten, sondern lediglich Vermutungen und wilde Spekulationen.
Julian Togelius, ausserordentlicher Professor für KI an der New York University, bringt es auf den Punkt:
Und wie kommt es dann, dass KI-Forschende bei OpenAI angeblich auch intern vor einer «Bedrohung für die Menschheit» gewarnt haben, wie Reuters berichtete?
Das Schreiben sei «eine wichtige Entwicklung» gewesen, die in der Entlassung von Sam Altman, dem Gründer und Chef von OpenAI, durch den Vorstand mündete, hiess es. Kurz darauf erklärte jedoch eine «mit der Angelegenheit vertraute Person» gegenüber dem US-Medium The Verge, dass der Vorstand nie einen Brief über einen solchen KI-Durchbruch erhalten habe und dass der Forschungsfortschritt des Unternehmens bei Altmans plötzlicher Entlassung keine Rolle gespielt habe.
Es gibt also verschiedene öffentliche Darstellungen, was sich bei OpenAI hinter den Kulissen abgespielt hat. Im Kern geht es wohl um einen Richtungsstreit bezüglich KI-Entwicklung: Wie schnell soll man vorgehen, und wie sicher ist das?
Dazu muss man wissen, dass vier Mitglieder des inzwischen abgesetzten OpenAI-Vorstandes – die Forscherin Helen Toner, der CEO von Quora, Adam D'Angelo, die Wissenschaftlerin Tasha McCauley und der Mitbegründer von OpenAI, Ilya Sutskever – einer philosophischen Weltanschauung nahestehen, die höchst umstritten ist: Effektiver Altruismus.
Effektive Altruisten berechnen die Auswirkungen jeder Entscheidung und tun in der Folge nur das, was auf sehr lange Sicht den Fortbestand unserer Spezies sichert.
Gemäss der verqueren Logik dieser philosophischen Nischenbewegung sollten wir uns weniger um die aktuelle Klimakrise sorgen, da zukünftige Roboterapokalypsen und intergalaktische Kriege die grösseren Gefahren seien.
Das ist natürlich grundfalsch. Tatsächlich braucht die Welt keine Untergangspropheten, sondern Lösungen für die realen KI-Probleme, die sich immer stärker abzeichnen.
Die entsetzten Reaktionen auf Sam Altmans Entlassung machten deutlich, dass die Marke OpenAI untrennbar mit der seines Mitbegründers und CEOs verbunden ist.
Als ChatGPT ab Ende 2022 «viral ging» und ein exponentielles Wachstum hinlegte, wurde Altman von einer im Silicon Valley bekannten Persönlichkeit zum weltweiten Gesicht der KI-Entwicklung. Mittlerweile wird der 38-Jährige mit Steve Jobs verglichen. Etwa von der «New York Times», die beide als «visionäre Firmengründer» bezeichnet hat und daran erinnert, dass auch der Apple-Chef († 2011) in seinen wilden Jahren aus dem eigenen Unternehmen gedrängt worden war.
Altmans Popularität darf uns jedoch nicht von aktuellen Problemen rund um generative KI ablenken, für die er massgeblich mitverantwortlich ist. Als Kind des Silicon Valley konzentriert er sich darauf, innovative Produkte zu entwickeln, die schnell skalieren und Monsterprofite abwerfen.
Nur Wachstum zählt. Gesellschaftliche Kollateralschäden werden bei einer solchen Vorgehensweise, die für Zuckerberg und Co. typisch ist, bewusst in Kauf genommen.
Darum sei an dieser Stelle an die kritischen Worte der Linguistik-Professorin Emily M. Bender erinnert, die sich schon länger intensiv mit Ethikfragen rund um generative KI und die sogenannt grossen Sprachmodelle (LLM) beschäftigt. Sie sagt: Dass Computer die menschliche Zivilisation übernehmen werden, sei Teil einer langfristigen Denkweise, die uns von aktuellen Problemen rund um ChatGPT und Co. ablenkt.
Es gibt aber auch beträchtliche systemische Risiken, wenn wir generative KI weiter unreguliert auf das Internet loslassen, wie Bender in einem kritischen Essay betont:
Wie also können wir die Super-Nerds in die Schranken weisen und noch schlimmere KI-Auswüchse verhindern?
Die Antwort ist einfach: Wir müssen ihren Einflussbereich und das Schadenspotenzial ihrer Plattformen mit demokratischen Mitteln begrenzen und sie für die gesellschaftlichen Kollateralschäden direkt zur Verantwortung ziehen.
An die Adresse der Politik schreibt Emily M. Bender, sie würde gerne sehen, dass politische Entscheidungsträger mehr mit den Menschen sprechen, die sich mit den tatsächlichen Schäden der sogenannten «KI» auskennen.
Und sie wünsche sich Politikerinnen und Politiker, «die nicht auf das Narrativ hereinfallen, dass sich die Technologie zu schnell entwickelt, um reguliert zu werden». Denn Regulierung schütze Rechte, und diese bleiben bestehen.
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Des Weiteren: ja, Regulierung dieser Dinger ist dringend notwendig. Allerdings ist die derzeitige Entwicklung, die jegliche Gefahren ignoriert, nur ein weiteres Symptom eines von Gier getriebenem Superkapitalismus, dessen Wesen es ist, immer zuerst an den Profit und erst viel später an mögliche Gefahren zu denken. DAS ist m.E. der eigentliche Elefant im Raum, über den sich aber keiner getraut zu sprechen.