Wissen
Digital

Googles DeepMind nutzte Jürgen Habermas Namen ohne sein Wissen

Der Soziologe und Philosoph Jürgen Habermas.
Der Soziologe und Philosoph Jürgen Habermas.

Google-KI klaut Namen von Star-Philosoph Jürgen Habermas – der wehrt sich

Google hat die «Habermas-Maschine» für Streitschlichtung entwickelt. Dumm nur: Der weltberühmte Philosoph Jürgen Habermas wusste davon nichts - und schwingt nun die Streitaxt.
29.04.2025, 13:2829.04.2025, 13:28
Raffael Schuppisser / ch media
Mehr «Wissen»

Kann künstliche Intelligenz die Welt ein bisschen menschlicher machen? Kann sie die Menschen zusammenführen, Streit schlichten? Daran glaubt Google und hat in seiner KI-Abteilung DeepMind ein Tool zur Streitschlichtung lanciert: die «Habermas-Maschine», benannt nach dem deutschen Philosophen Jürgen Habermas.

Nun hat aber just dieses KI-Tool einen Streit befördert: Denn der weltberühmte Philosoph wurde von Google offenbar nie gefragt, ob sein Name für die «Habermas-Maschine» genutzt werden darf.

Von der Sache erfuhr Habermas von einem deutschen Journalisten. Matthias Pfeffer machte den Philosophen in einer E-Mail auf Googles «Habermas-Maschine» aufmerksam. Auf Habermas' Wunsch, so berichtete die «Süddeutsche Zeitung», leitete Pfeffer den E-Mail-Austausch an Googles KI-Abteilung weiter.

Go spielen, Proteine falten – und Streit schlichten?

DeepMind sorgte 2015 für Schlagzeilen, als das britische Start-up, das kurz nach seiner Gründung von Google übernommen wurde, den besten Go-Spieler schlug. Etwas, was bis dahin viele Experten nicht für möglich gehalten hatten, da das chinesische Brettspiel ungleich mehr Möglichkeiten kennt als Schach.

Letztes Jahr wurde DeepMind-Gründer Demis Hassabis zusammen mit zwei Protein-Forschern der Nobelpreis für Chemie verliehen. Seiner künstlichen Intelligenz AlphaFold gelang es, die Struktur von komplizierten Proteinen im dreidimensionalen Raum präzise vorherzusagen – etwas, was für die Erforschung von Krankheiten und die Entwicklung von neuen Medikamenten essenziell ist.

Kann, wer «eines der grössten biologischen Rätsel» («Der Spiegel») löst, auch eines der grössten menschlichen Probleme lösen? Was taugt die künstliche Intelligenz als Streitschlichter? Für Habermas ist klar, dass es nicht möglich ist, den Prozess der menschlichen Konfliktlösung an eine Technik zu delegieren. Denn, so zitiert die «Süddeutsche Zeitung» Habermas aus dem Mail-Verkehr: «Jedem Diskursteilnehmer wird in persona die anspruchsvolle Aufgabe einer sensiblen gegenseitigen Perspektivenübernahme zugemutet.»

In seiner «Theorie des kommunikativen Handelns» formuliert Habermas Idealbedingungen für eine Debatte, in der alle Teilnehmer gleichberechtigt sind und sich deshalb stets das beste Argument durch rationale Überzeugungskraft und ohne äusseren Druck durchsetzt. Oder anders gesagt: Es herrscht der «zwanglose Zwang des besseren Arguments».

12 Prozent besser als menschliche Mediatoren

Bei der «Habermas-Maschine», die nun nicht mehr so heissen darf, soll die KI zwischen den Streitenden moderieren und dafür sorgen, dass möglichst ideale Diskursbedingungen herrschen. Gemäss einer in der Fachzeitschrift «Science»veröffentlichten Studie funktioniert das gar nicht so schlecht. So erreichte die Maschine als Vermittlerin zwischen zwei Gruppen mit unterschiedlichen Meinungen bessere Resultate als menschliche Mediatoren. Die von der KI vorgeschlagene Konsensmeinung wurde durchschnittlich von 56 Prozent der Teilnehmer akzeptiert – jene der Mediatoren nur von 44 Prozent.

Auch Jürgen Habermas und Google sind in ihrem Streit zu einem Konsens gelangt. Google verzichtet künftig auf die Nutzung des Namens, versichert, dass dieser aus Respekt gewählt worden sei, und bedauere zutiefst, dass Habermas damit nicht einverstanden war. Nicht bekannt ist, ob die von Google verfassten verständnisvollen und vermittelnden Worte mit der ehemaligen «Habermas-Maschine» zustande gekommen sind.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Einmaliger Gebrauch: Neuste KI-Googlesuche
Video: extern
Das könnte dich auch noch interessieren:
2 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
2
    Corona-Impfungen im selben Arm haben gemäss Studie bessere Wirkung

    Corona-Impfungen wirken besser, wenn beide Dosen im selben Arm verabreicht werden, wie eine Studie im Fachblatt «Cell» zeigt. Die Forschung stammt von Tri Phan der Universität New South Wales und dem australischen Garvan Institute of Medical Research.

    Zur Story