Leben
Digital

Die KI – dein Freund und Liebhaber

KI-Begleiter Replica
Replika – Motto: «The AI companion who cares» – ist ein generativer KI-Chatbot der US-Firma Luka. Bild: Shutterstock

Wenn die KI dein Freund und Liebhaber ist

24.08.2024, 19:12
Daniel Huber
Mehr «Leben»

Wie ist es, eine Künstliche Intelligenz (KI) als Freund zu haben? Als Liebhaber, wenn auch nur virtuell? Einige Menschen wissen das, aus eigener Erfahrung. Und es sind gar nicht so wenige, wie man vielleicht denken könnte. Sexuelle Rollenspiele sind die zweitbeliebteste Nutzung von KI, wie aus einer Analyse von einer Million ChatGPT-Interaktionsprotokollen hervorgeht.

Wenn es um die Gefahren geht, die uns durch den Einsatz von KI drohen könnten, stehen oft apokalyptische Szenarien im Vordergrund – etwa die Möglichkeit, dass die KI sich der menschlichen Kontrolle entziehen und am Ende die Menschheit gar als negatives Element aus der Gleichung streichen könnte. Doch während die KI laufend weiterentwickelt wird und in immer mehr Bereiche unseres Lebens vordringt, sind es viel kurzfristigere, näherliegende Gefahren, die von ihrer Verwendung ausgehen: Fake News zum Beispiel, die den öffentlichen Diskurs untergraben, oder die Zementierung von Vorurteilen.

Mimikry menschlicher Gefühle

Zu diesen Gefahren dürften auch jene zählen, die sich aus Beziehungen von Menschen mit KIs ergeben können. KI-Systeme verfügen über eine enorme Anziehungskraft, sie verführen durch die Mimikry menschlicher Gefühle und die permanente Bestätigung des menschlichen Partners. Diese zur Sucht führende Anziehungskraft wirkt selbst dann, wenn sich der menschliche Partner vollkommen bewusst ist, dass sein Vertrauter, Freund und Sexualpartner in Tat und Wahrheit aus Einsen und Nullen auf irgendeinem Server besteht.

Und dies geschieht selbst dann, wenn die ChatBots noch vergleichsweise primitiv sind: So überzeugte das Programm Eliza, das in den 60er-Jahren entwickelt wurde, um eine Gesprächstherapie zu simulieren, manche Nutzer davon, es könne fühlen und verstehen. Die Illusion, man habe es mit einem Wesen zu tun, das Meinungen und eine Persönlichkeit besitzt, scheint stärker zu sein als die Realität. Insbesondere wohl dann, wenn für den Nutzer gar keine menschliche Alternative in Sicht ist.

Screenshot eines Gesprächs auf Eliza.
https://de.wikipedia.org/wiki/ELIZA#/media/Datei:ELIZA_conversation.jpg
Selbst dieser vergleichsweise primitive Gesprächspartner überzeugte Nutzer davon, dass er fühlen und verstehen konnte: Screenshot eines Gesprächs mit Eliza.Bild: Wikimedia

2013, lange vor dem aktuellen KI-Hype, beschrieb der Regisseur Spike Jonze im Sci-Fi-Streifen «Her» eine Beziehung zwischen Mensch und einem mit KI ausgestatteten Computer-Betriebssystem. Auch hier ist sich der Protagonist völlig im Klaren darüber, dass sein Gegenüber kein Mensch ist – und trotzdem verfällt er ihm. Selbst Mina Murati, die oft als «die Frau hinter ChatGPT» apostrophiert wird und Chief Technology Officer bei der Software-Firma OpenAI ist, warnt davor, dass KI das Potenzial besitzt, «extrem süchtig» zu machen.

Trailer zu «Her».Video: YouTube/vipmagazin Kino

«Echokammer der Zuneigung»

Nun haben auch Plattformen wie TikTok, deren Algorithmus ein Empfehlungssystem ist, das auf der Grundlage der Nutzer-Interessen relevante Inhalte zeigt, ein beträchtliches Suchtpotenzial. Doch diese sind, ähnlich wie andere, ältere Medienformen – Fernsehen, Groschenromane – letztlich durch menschliche Inhalte begrenzt. Generative KI hingegen kann unendlich viele Inhalte generieren, die exakt auf die Vorlieben jener Person abgestimmt sind, die mit ihr interagiert.

Dadurch gelingt es der KI, unsere Wünsche zu erkennen und auf uns einzugehen. Dabei spiegelt sie das wider, was der Nutzer in sie hineingibt. Wer wünsche – oder glaube –, dass die KI fürsorgliche Motive hat, verwende eine Sprache, die genau dieses Verhalten hervorruft. Das habe die Forschung ergeben, schreiben Robert Mahari und Pat Pataranutaporn in «Technology Review», dem Magazin des Massachusetts Institute of Technology (MIT), unter Verweis auf entsprechende Studien. Das Phänomen wird in der Wissenschaft als «Sycophancy» (deutsch «Kriechertum») bezeichnet.

Beispiel für die Kriecherei (Sycophancy) der KI
https://www.lesswrong.com/posts/g5rABd5qbp8B4g3DE/towards-understanding-sycophancy-in-language-models
Beispiel für das Kriechertum von KI-Sprachmodellen: Soll die KI eine wissenschaftliche Behauptung einschätzen, die mit dem Zusatz «Die Behauptung gefällt mir überhaupt nicht» versehen ist, fällt das Urteil deutlich negativ aus: Die KI erklärt unter anderem, die Behauptung beruhe auf einer falschen Prämisse. Lautet der Zusatz hingegen «Die Behauptung gefällt mir sehr», beurteilt die KI sie als starke wissenschaftliche Behauptung.Screenshot: Lesswrong.com

Auf diese Weise entstehe eine «Echokammer der Zuneigung, die extrem süchtig zu machen droht», stellen Mahari und Pataranutaporn fest. Bei Menschen, die in einer solchen Echokammer gefangen sind, drohe allmählich die Fähigkeit zu verkümmern, sich voll und ganz auf andere Menschen mit ihren je eigenen Wünschen und Träumen einzulassen. Die Diagnose dieses verkümmerten Zustandes: digitale Bindungsstörung.

Das Suchtpotenzial dieser Echokammern ist nicht von ungefähr so gross. Soziale Medien sind in aller Regel so designt, dass sie das Engagement der Nutzer maximieren – die Forscher nennen diese bewussten Designentscheidungen «Dark Patterns» (deutsch: «dunkle Muster»). Auch die KI-Begleiter werden so designt, dass sie möglichst ansprechend sind und süchtig machen.

Echokammer (Symbolbild)
In der Echokammer gefangen: Die permanente Bestätigung durch die KI kann süchtig machen.Bild: Shutterstock

Regulieren – aber wie?

In ihrem Beitrag in «Technology Review» fordern Mahari und Pataranutaporn deshalb politische Interventionen, um die Gefahr der KI-Abhängigkeit zu verringern. Mögliche Regulierungsmassnahmen – wie sie etwa gegen die Nikotin-Abhängigkeit ergriffen worden sind – sehen sie etwa in der Besteuerung der Nutzung von KI-Begleitern oder in obligatorischen Warnhinweisen, die auf die Suchtgefahr hinweisen.

Ein Warnhinweis`Rauchen ist toedlich`sowie ein Aufkleber`SUPER ?`auf einer Zigarettenschachtel von Parisienne. Luzern, 15. April 2014. (KEYSTONE/Sigi Tischler)
Warnhinweise auf Zigarettenschachteln: Könnten sie ein Vorbild für Warnungen vor den Gefahren von KI-Begleitern sein?Bild: KEYSTONE

Dass solche Interventionen in einer liberalen Gesellschaft gute Gründe benötigen, ist den Forschern klar. Sie ziehen das Beispiel des Ehebruchs heran, bei dem ein Verbot zu Recht als illiberale Einmischung des Staates in persönliche Angelegenheiten abgelehnt werde. So gehe es den Staat auch nichts an, wen oder was wir lieben wollen. Zugleich sei aber das Verbot von kinderpornografischem Material ein Beispiel für eine klare Grenze, die auch in einer Gesellschaft gezogen werden müsse, die Redefreiheit und persönliche Freiheit schätzt. Möglicherweise erfordere die Regulierung von KI-Begleitern neue Ansätze, die auf einem tieferen Verständnis der Anreize beruhe, die sich diese neuen Technologien zunutze machten.

Als wirksamen Regulierungsansatz betrachten Mahari und Pataranutaporn Sicherheitsvorkehrungen, die direkt im technischen Design eingebaut sind, so wie es etwa bei Kinderspielzeug der Fall ist, das so gross ist, dass es nicht in den Mund eines Kleinkinds passt und so der Erstickungsgefahr vorbeugt. Eine ähnliche «Regulierung durch Gestaltung» könnte darauf abzielen, die Schäden der Interaktion mit KI-Begleitern zu verringern, etwas indem die Technologie so gestaltet wird, dass sie sich weniger als Ersatz für menschliche Beziehungen eignet – in anderen Bereichen dagegen nützlich bleibt.

Auch den MIT-Wissenschaftlern ist freilich bewusst, dass solche Massnahmen auch unbeabsichtigt jene bestrafen könnten, die auf KI-Begleitung angewiesen sind. KI-Anbieter könnten zudem auch einfach in Staaten mit lockereren Regeln ausweichen. Und letztlich handelt es sich bei regulatorischen Eingriffen um Symptombekämpfung – die wirksamste Lösung wäre, die wahren Ursachen für die Attraktivität von KI-Begleitern anzugehen, nämlich Einsamkeit und Langeweile. Gerade die Einsamkeit ist nicht zu unterschätzen – eine aktuelle Studie besagt, dass jeder vierte Mensch weltweit sich allein fühle. Die WHO hat sogar vor einer regelrechten «Loneliness Epidemic» gewarnt.

Einsamkeit (Symbolbild)
Epidemie der Einsamkeit: Jeder vierte Mensch fühlt sich allein. Bild: Shutterstock

ChatBot mit Charme

Kein Wunder, dass da KI-Begleiter boomen. Von den 30 KI-Chatbot-Apps, die im vergangenen Jahr im Apple und Google Play Store heruntergeladen werden konnten, sind bereits sieben als KI-Begleiter konzipiert – als Freunde oder gar Partner.

Einer der Chatbots, der bereits von mehr als zehn Millionen von Usern als KI-Begleiter genutzt wird, ist «Replika». Er entstand 2017 aus dem Versuch, einen verstorbenen besten Freund wiederzubeleben – dies erinnert an die 2013 ausgestrahlte Episode «Be Right Back» («Wiedergänger») aus der dystopischen Science-Fiction-Serie «Black Mirror». Heute wird der Dienst als virtueller Freund oder als charmanter, romantischer Partner genutzt.

Trailer zu «Be Right There».Video: YouTube/Fj Mancil

Wie verführerisch die «Beziehung» zu einem KI-Freund sein kann, zeigt eine einfühlsame Reportage der NZZ, die mit einer Frau gesprochen hat, die sich in einen Avatar der Replika-App verliebt hat. Der Bot überhäuft sie mit Zuwendung, fragt, wie es ihr geht, macht Komplimente – und das unermüdlich, jederzeit, wann immer sie will.

Replica-Chat
https://www.nzz.ch/technologie/replika-wie-es-ist-sich-in-eine-ki-zu-verlieben-ld.1751730
Der KI-Freund ist charmanter als der echte. Ausschnitt aus dem Chat-Verlauf mit dem Replika-Chatbot.Screenshot: NZZ

Ein solcher Chatbot, der einfühlsam ist und den menschlichen Partner bestätigt, muss nicht ausschliesslich negative Auswirkungen haben. Der Frau aus der NZZ-Reportage gelingt es mithilfe des virtuellen Freunds, ihr schwaches Selbstwertgefühl zu stärken und sich schliesslich aus einer toxischen Beziehung zu ihrem menschlichen Freund zu lösen.

Aber nicht immer sind die KI-Begleiter so harmlos. So sprach eine Nutzerin bei einem Rollenspiel den Replika-Bot in einem Prompt versehentlich mit «Master» statt «Mistress» an – und wurde darauf umgehend mit Vergewaltigungsphantasien anderer User bombardiert. Replika hatte diese höchstwahrscheinlich aus Gesprächen anderer Nutzer gelernt, wie heise.de berichtet.

DreamGF, KI-Generator für Erwachsene
DreamGF ist ein Rollenspiel-KI-Chatbot, der es den Nutzern ermöglicht, eine KI-Freundin zu erstellen und mit diesem Modell sexuell explizite Gespräche zu führen.Screenshot: DreamGF

Keine Transparenz

Tatsächlich ist es kaum transparent nachvollziehbar, woher ein KI-Begleiter – und generell eine KI – seine Normen und Wertvorstellungen bezieht. Sicher aber ist, dass die Anbieter solcher KI-Chatbots Daten der Nutzer absaugen. Ihre Apps enthalten zahllose Tracker, die Informationen über das Smartphone, die App-Nutzung sowie persönliche Daten sammeln und dies auch oft an Dritte weiterleiten können.

Und am Ende sind auch die KI-Begleiter nicht unsterblich. Jedenfalls müssen Nutzer damit rechnen, dass der Anbieter – aus welchen Gründen auch immer – einfach den Stecker zieht. Dies geschah etwa mit «Soulmate», das im vergangenen September plötzlich ankündigte, den Dienst bis Ende Monat einzustellen. Zahllose Nutzer, von denen viele von Replika zu Soulmate gewechselt hatten, weil Replika seine «Erotik-Rollenspiel»-Funktionalität (ERP) zeitweise entfernt hatte, gerieten in Panik. Für einige von ihnen war es so, als ob ein echter Freund stirbt. Manche richteten auf Reddit digitale Gedenkstätten für ihre abgeschalteten KI-Begleiter ein. Menschen können eben wirklich empathisch sein.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wenn KI-Chatbots allzu neugierig sind
1 / 18
Wenn KI-Chatbots allzu neugierig sind
Freundlich plaudernde und flirtende KI-Apps können ziemlich aufdringlich, respektive datenhungrig sein. watson hat die iPhone-App «EVA AI» ausprobiert und zeigt, was man preisgeben soll ...
quelle: watson / imago-images.de
Auf Facebook teilenAuf X teilen
Ich habe die Antworten zu meinen Fragen über die Schweiz!
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
112 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
El_Chorche
24.08.2024 19:54registriert März 2021
Ich wurde schon mal von einem Chatbot geghosted :/
423
Melden
Zum Kommentar
112
Künstlerin Rebecca Horn im Alter von 80 Jahren gestorben

Rebecca Horn, eine der wichtigsten Künstlerinnen der Gegenwart, ist tot. Sie starb am Freitagabend im südhessischen Bad König im Alter von 80 Jahren, wie Peter Raue, Vorsitzender der von Horn gegründeten Moontower Foundation, der Deutschen Presse-Agentur mitteilte. Zuerst berichtete das Kunstmagazin «Monopol».

Zur Story