Wissen
Digital

Googles DeepMind nutzte Jürgen Habermas Namen ohne sein Wissen

Der Soziologe und Philosoph Jürgen Habermas.
Der Soziologe und Philosoph Jürgen Habermas.

Google-KI klaut Namen von Star-Philosoph Jürgen Habermas – der wehrt sich

Google hat die «Habermas-Maschine» für Streitschlichtung entwickelt. Dumm nur: Der weltberühmte Philosoph Jürgen Habermas wusste davon nichts - und schwingt nun die Streitaxt.
29.04.2025, 13:2829.04.2025, 13:28
Raffael Schuppisser / ch media

Kann künstliche Intelligenz die Welt ein bisschen menschlicher machen? Kann sie die Menschen zusammenführen, Streit schlichten? Daran glaubt Google und hat in seiner KI-Abteilung DeepMind ein Tool zur Streitschlichtung lanciert: die «Habermas-Maschine», benannt nach dem deutschen Philosophen Jürgen Habermas.

Nun hat aber just dieses KI-Tool einen Streit befördert: Denn der weltberühmte Philosoph wurde von Google offenbar nie gefragt, ob sein Name für die «Habermas-Maschine» genutzt werden darf.

Von der Sache erfuhr Habermas von einem deutschen Journalisten. Matthias Pfeffer machte den Philosophen in einer E-Mail auf Googles «Habermas-Maschine» aufmerksam. Auf Habermas' Wunsch, so berichtete die «Süddeutsche Zeitung», leitete Pfeffer den E-Mail-Austausch an Googles KI-Abteilung weiter.

Go spielen, Proteine falten – und Streit schlichten?

DeepMind sorgte 2015 für Schlagzeilen, als das britische Start-up, das kurz nach seiner Gründung von Google übernommen wurde, den besten Go-Spieler schlug. Etwas, was bis dahin viele Experten nicht für möglich gehalten hatten, da das chinesische Brettspiel ungleich mehr Möglichkeiten kennt als Schach.

Letztes Jahr wurde DeepMind-Gründer Demis Hassabis zusammen mit zwei Protein-Forschern der Nobelpreis für Chemie verliehen. Seiner künstlichen Intelligenz AlphaFold gelang es, die Struktur von komplizierten Proteinen im dreidimensionalen Raum präzise vorherzusagen – etwas, was für die Erforschung von Krankheiten und die Entwicklung von neuen Medikamenten essenziell ist.

Kann, wer «eines der grössten biologischen Rätsel» («Der Spiegel») löst, auch eines der grössten menschlichen Probleme lösen? Was taugt die künstliche Intelligenz als Streitschlichter? Für Habermas ist klar, dass es nicht möglich ist, den Prozess der menschlichen Konfliktlösung an eine Technik zu delegieren. Denn, so zitiert die «Süddeutsche Zeitung» Habermas aus dem Mail-Verkehr: «Jedem Diskursteilnehmer wird in persona die anspruchsvolle Aufgabe einer sensiblen gegenseitigen Perspektivenübernahme zugemutet.»

In seiner «Theorie des kommunikativen Handelns» formuliert Habermas Idealbedingungen für eine Debatte, in der alle Teilnehmer gleichberechtigt sind und sich deshalb stets das beste Argument durch rationale Überzeugungskraft und ohne äusseren Druck durchsetzt. Oder anders gesagt: Es herrscht der «zwanglose Zwang des besseren Arguments».

12 Prozent besser als menschliche Mediatoren

Bei der «Habermas-Maschine», die nun nicht mehr so heissen darf, soll die KI zwischen den Streitenden moderieren und dafür sorgen, dass möglichst ideale Diskursbedingungen herrschen. Gemäss einer in der Fachzeitschrift «Science»veröffentlichten Studie funktioniert das gar nicht so schlecht. So erreichte die Maschine als Vermittlerin zwischen zwei Gruppen mit unterschiedlichen Meinungen bessere Resultate als menschliche Mediatoren. Die von der KI vorgeschlagene Konsensmeinung wurde durchschnittlich von 56 Prozent der Teilnehmer akzeptiert – jene der Mediatoren nur von 44 Prozent.

Auch Jürgen Habermas und Google sind in ihrem Streit zu einem Konsens gelangt. Google verzichtet künftig auf die Nutzung des Namens, versichert, dass dieser aus Respekt gewählt worden sei, und bedauere zutiefst, dass Habermas damit nicht einverstanden war. Nicht bekannt ist, ob die von Google verfassten verständnisvollen und vermittelnden Worte mit der ehemaligen «Habermas-Maschine» zustande gekommen sind.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Einmaliger Gebrauch: Neuste KI-Googlesuche
Video: extern
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
2 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
2
Neues Motorola-Handy überrascht mit Preis und riesigem Akku
Für Vieltelefonierer: Das Motorola Moto G57 hat einen leistungsstarken Akku, der besonders lang halten soll. Auch der Preis ist aussergewöhnlich. Dennoch gibt es einen Haken.
Längst vorbei sind die Zeiten, in denen Telefone tagelang nicht mit dem Ladegerät verbunden werden mussten. Seit dem Siegeszug der Smartphones und deren erhöhtem Strombedarf müssen Nutzer die Geräte im Schnitt jeden Tag aufladen. Es gibt auch Ausnahmen. Das Moto G57 von Motorola ist so eine.
Zur Story