Wie ist es, eine Künstliche Intelligenz (KI) als Freund zu haben? Als Liebhaber, wenn auch nur virtuell? Einige Menschen wissen das, aus eigener Erfahrung. Und es sind gar nicht so wenige, wie man vielleicht denken könnte. Sexuelle Rollenspiele sind die zweitbeliebteste Nutzung von KI, wie aus einer Analyse von einer Million ChatGPT-Interaktionsprotokollen hervorgeht.
Wenn es um die Gefahren geht, die uns durch den Einsatz von KI drohen könnten, stehen oft apokalyptische Szenarien im Vordergrund – etwa die Möglichkeit, dass die KI sich der menschlichen Kontrolle entziehen und am Ende die Menschheit gar als negatives Element aus der Gleichung streichen könnte. Doch während die KI laufend weiterentwickelt wird und in immer mehr Bereiche unseres Lebens vordringt, sind es viel kurzfristigere, näherliegende Gefahren, die von ihrer Verwendung ausgehen: Fake News zum Beispiel, die den öffentlichen Diskurs untergraben, oder die Zementierung von Vorurteilen.
Zu diesen Gefahren dürften auch jene zählen, die sich aus Beziehungen von Menschen mit KIs ergeben können. KI-Systeme verfügen über eine enorme Anziehungskraft, sie verführen durch die Mimikry menschlicher Gefühle und die permanente Bestätigung des menschlichen Partners. Diese zur Sucht führende Anziehungskraft wirkt selbst dann, wenn sich der menschliche Partner vollkommen bewusst ist, dass sein Vertrauter, Freund und Sexualpartner in Tat und Wahrheit aus Einsen und Nullen auf irgendeinem Server besteht.
Und dies geschieht selbst dann, wenn die ChatBots noch vergleichsweise primitiv sind: So überzeugte das Programm Eliza, das in den 60er-Jahren entwickelt wurde, um eine Gesprächstherapie zu simulieren, manche Nutzer davon, es könne fühlen und verstehen. Die Illusion, man habe es mit einem Wesen zu tun, das Meinungen und eine Persönlichkeit besitzt, scheint stärker zu sein als die Realität. Insbesondere wohl dann, wenn für den Nutzer gar keine menschliche Alternative in Sicht ist.
2013, lange vor dem aktuellen KI-Hype, beschrieb der Regisseur Spike Jonze im Sci-Fi-Streifen «Her» eine Beziehung zwischen Mensch und einem mit KI ausgestatteten Computer-Betriebssystem. Auch hier ist sich der Protagonist völlig im Klaren darüber, dass sein Gegenüber kein Mensch ist – und trotzdem verfällt er ihm. Selbst Mina Murati, die oft als «die Frau hinter ChatGPT» apostrophiert wird und Chief Technology Officer bei der Software-Firma OpenAI ist, warnt davor, dass KI das Potenzial besitzt, «extrem süchtig» zu machen.
Nun haben auch Plattformen wie TikTok, deren Algorithmus ein Empfehlungssystem ist, das auf der Grundlage der Nutzer-Interessen relevante Inhalte zeigt, ein beträchtliches Suchtpotenzial. Doch diese sind, ähnlich wie andere, ältere Medienformen – Fernsehen, Groschenromane – letztlich durch menschliche Inhalte begrenzt. Generative KI hingegen kann unendlich viele Inhalte generieren, die exakt auf die Vorlieben jener Person abgestimmt sind, die mit ihr interagiert.
Dadurch gelingt es der KI, unsere Wünsche zu erkennen und auf uns einzugehen. Dabei spiegelt sie das wider, was der Nutzer in sie hineingibt. Wer wünsche – oder glaube –, dass die KI fürsorgliche Motive hat, verwende eine Sprache, die genau dieses Verhalten hervorruft. Das habe die Forschung ergeben, schreiben Robert Mahari und Pat Pataranutaporn in «Technology Review», dem Magazin des Massachusetts Institute of Technology (MIT), unter Verweis auf entsprechende Studien. Das Phänomen wird in der Wissenschaft als «Sycophancy» (deutsch «Kriechertum») bezeichnet.
Auf diese Weise entstehe eine «Echokammer der Zuneigung, die extrem süchtig zu machen droht», stellen Mahari und Pataranutaporn fest. Bei Menschen, die in einer solchen Echokammer gefangen sind, drohe allmählich die Fähigkeit zu verkümmern, sich voll und ganz auf andere Menschen mit ihren je eigenen Wünschen und Träumen einzulassen. Die Diagnose dieses verkümmerten Zustandes: digitale Bindungsstörung.
Das Suchtpotenzial dieser Echokammern ist nicht von ungefähr so gross. Soziale Medien sind in aller Regel so designt, dass sie das Engagement der Nutzer maximieren – die Forscher nennen diese bewussten Designentscheidungen «Dark Patterns» (deutsch: «dunkle Muster»). Auch die KI-Begleiter werden so designt, dass sie möglichst ansprechend sind und süchtig machen.
In ihrem Beitrag in «Technology Review» fordern Mahari und Pataranutaporn deshalb politische Interventionen, um die Gefahr der KI-Abhängigkeit zu verringern. Mögliche Regulierungsmassnahmen – wie sie etwa gegen die Nikotin-Abhängigkeit ergriffen worden sind – sehen sie etwa in der Besteuerung der Nutzung von KI-Begleitern oder in obligatorischen Warnhinweisen, die auf die Suchtgefahr hinweisen.
Dass solche Interventionen in einer liberalen Gesellschaft gute Gründe benötigen, ist den Forschern klar. Sie ziehen das Beispiel des Ehebruchs heran, bei dem ein Verbot zu Recht als illiberale Einmischung des Staates in persönliche Angelegenheiten abgelehnt werde. So gehe es den Staat auch nichts an, wen oder was wir lieben wollen. Zugleich sei aber das Verbot von kinderpornografischem Material ein Beispiel für eine klare Grenze, die auch in einer Gesellschaft gezogen werden müsse, die Redefreiheit und persönliche Freiheit schätzt. Möglicherweise erfordere die Regulierung von KI-Begleitern neue Ansätze, die auf einem tieferen Verständnis der Anreize beruhe, die sich diese neuen Technologien zunutze machten.
Als wirksamen Regulierungsansatz betrachten Mahari und Pataranutaporn Sicherheitsvorkehrungen, die direkt im technischen Design eingebaut sind, so wie es etwa bei Kinderspielzeug der Fall ist, das so gross ist, dass es nicht in den Mund eines Kleinkinds passt und so der Erstickungsgefahr vorbeugt. Eine ähnliche «Regulierung durch Gestaltung» könnte darauf abzielen, die Schäden der Interaktion mit KI-Begleitern zu verringern, etwas indem die Technologie so gestaltet wird, dass sie sich weniger als Ersatz für menschliche Beziehungen eignet – in anderen Bereichen dagegen nützlich bleibt.
Auch den MIT-Wissenschaftlern ist freilich bewusst, dass solche Massnahmen auch unbeabsichtigt jene bestrafen könnten, die auf KI-Begleitung angewiesen sind. KI-Anbieter könnten zudem auch einfach in Staaten mit lockereren Regeln ausweichen. Und letztlich handelt es sich bei regulatorischen Eingriffen um Symptombekämpfung – die wirksamste Lösung wäre, die wahren Ursachen für die Attraktivität von KI-Begleitern anzugehen, nämlich Einsamkeit und Langeweile. Gerade die Einsamkeit ist nicht zu unterschätzen – eine aktuelle Studie besagt, dass jeder vierte Mensch weltweit sich allein fühle. Die WHO hat sogar vor einer regelrechten «Loneliness Epidemic» gewarnt.
Kein Wunder, dass da KI-Begleiter boomen. Von den 30 KI-Chatbot-Apps, die im vergangenen Jahr im Apple und Google Play Store heruntergeladen werden konnten, sind bereits sieben als KI-Begleiter konzipiert – als Freunde oder gar Partner.
Einer der Chatbots, der bereits von mehr als zehn Millionen von Usern als KI-Begleiter genutzt wird, ist «Replika». Er entstand 2017 aus dem Versuch, einen verstorbenen besten Freund wiederzubeleben – dies erinnert an die 2013 ausgestrahlte Episode «Be Right Back» («Wiedergänger») aus der dystopischen Science-Fiction-Serie «Black Mirror». Heute wird der Dienst als virtueller Freund oder als charmanter, romantischer Partner genutzt.
Wie verführerisch die «Beziehung» zu einem KI-Freund sein kann, zeigt eine einfühlsame Reportage der NZZ, die mit einer Frau gesprochen hat, die sich in einen Avatar der Replika-App verliebt hat. Der Bot überhäuft sie mit Zuwendung, fragt, wie es ihr geht, macht Komplimente – und das unermüdlich, jederzeit, wann immer sie will.
Ein solcher Chatbot, der einfühlsam ist und den menschlichen Partner bestätigt, muss nicht ausschliesslich negative Auswirkungen haben. Der Frau aus der NZZ-Reportage gelingt es mithilfe des virtuellen Freunds, ihr schwaches Selbstwertgefühl zu stärken und sich schliesslich aus einer toxischen Beziehung zu ihrem menschlichen Freund zu lösen.
Aber nicht immer sind die KI-Begleiter so harmlos. So sprach eine Nutzerin bei einem Rollenspiel den Replika-Bot in einem Prompt versehentlich mit «Master» statt «Mistress» an – und wurde darauf umgehend mit Vergewaltigungsphantasien anderer User bombardiert. Replika hatte diese höchstwahrscheinlich aus Gesprächen anderer Nutzer gelernt, wie heise.de berichtet.
Tatsächlich ist es kaum transparent nachvollziehbar, woher ein KI-Begleiter – und generell eine KI – seine Normen und Wertvorstellungen bezieht. Sicher aber ist, dass die Anbieter solcher KI-Chatbots Daten der Nutzer absaugen. Ihre Apps enthalten zahllose Tracker, die Informationen über das Smartphone, die App-Nutzung sowie persönliche Daten sammeln und dies auch oft an Dritte weiterleiten können.
Und am Ende sind auch die KI-Begleiter nicht unsterblich. Jedenfalls müssen Nutzer damit rechnen, dass der Anbieter – aus welchen Gründen auch immer – einfach den Stecker zieht. Dies geschah etwa mit «Soulmate», das im vergangenen September plötzlich ankündigte, den Dienst bis Ende Monat einzustellen. Zahllose Nutzer, von denen viele von Replika zu Soulmate gewechselt hatten, weil Replika seine «Erotik-Rollenspiel»-Funktionalität (ERP) zeitweise entfernt hatte, gerieten in Panik. Für einige von ihnen war es so, als ob ein echter Freund stirbt. Manche richteten auf Reddit digitale Gedenkstätten für ihre abgeschalteten KI-Begleiter ein. Menschen können eben wirklich empathisch sein.