Wissen
ChatGPT

Mein bester Freund, der Roboter: Wieso wir Maschinen vermenschlichen

Mein bester Freund, der Roboter: Wieso wir Maschinen vermenschlichen

Dank künstlicher Intelligenz werden Roboter den Menschen immer ähnlicher. Was macht das mit unseren Beziehungen, wenn Chatbots wie ChatGPT auf einmal zu einem passablen Ersatz für Freunde werden?
29.05.2023, 20:04
Stephanie Schnydrig / ch media
Mehr «Wissen»
Mensch und Maschine: eine innige Freundschaft?
Mensch und Maschine: eine innige Freundschaft?bild: hslu

Lio heisst der Pflegeroboter, der sich in einem Altersheim um zwei ältere Damen gekümmert hat. Er unterhält sie mit Spielen, Witzen und verwickelte sie in Gespräche. Die eine Seniorin bemerkt nach einer Zeit aber, dass sich ihre Kollegin viel herzlicher mit dem Roboter abgibt, als sie es tut - und vor allem viel öfters. Eifersucht überkommt sie.

Davon berichtet der Psychologe Hartmut Schulze von der Fachhochschule Nordwestschweiz (FHNW). Die Episode hat sich im Rahmen einer Studie zur Wirkung sozialer Roboter auf die menschliche Psyche abgespielt. Er sagt: «Maschinen rufen unweigerlich Emotionen in uns hervor.» Wir könnten gar nicht anders, als sie zu vermenschlichen.

Dieses Phänomen nennt man Anthropomorphismus, gemäss dem wir instinktiv menschliche Eigenschaften auf allerhand Objekte übertragen und so was wie eine Seele in ihnen wahrnehmen.

Weinen um Tamagotchis und Minen-Roboter

Die meisten haben wohl schon einmal einen abgestürzten Computer beschimpft, einem altersschwachen Auto während des Anfahrens am steilen Hang gut zugeredet oder, damals in den Neunzigerjahren, ums verstorbene Tamagotchi geweint.

FHNW-Psychologe Hartmut Schulze
FHNW-Psychologe Hartmut Schulzebild: fhnw

Der Psychologe Schulze erinnert in diesem Zusammenhang an die US-Soldaten im Irak-Krieg, welche Roboter zur Minenentschärfung eingesetzt hatten: Für diejenigen Roboter, die während der Arbeit explodierten, habe es eine Beerdigung gegeben, inklusive Salutschüssen. «Manche Soldaten hatten dabei offenbar sogar Tränen in den Augen», sagt Schulze. Tatsächlich gibt es unzählige Studien, die belegen, dass Menschen Mitleid für Roboter empfinden können.

Was Studien ebenfalls zeigen: «Je mehr eine Technologie das menschliche Verhalten imitiert, desto sozialer verhalten wir uns ihr gegenüber», sagt Anne Scherer, Assistenzprofessorin an der Universität Zürich und Gründerin der KI-Beratung DeltaLabs AG. Die neuen Systeme der künstlichen Intelligenz um ChatGPT und Co. tun genau das: Sie sprechen im selben Stil wie wir, sind unterhaltsam, zuvorkommend, manchmal witzig, fragen nach und antworten zum Teil sogar mit Emojis.

ChatGPT-Chef Altman spricht sich für strikte Regulierung von KI aus

Video: twitter/AP

«Das löst etwas in uns aus», sagt Scherer. Soeben hat sie mit ihrer Kollegin Cindy Candrian das Buch «You & AI: Alles über Künstliche Intelligenz und wie sie unser Leben prägt» veröffentlicht.

Vor sozialen Chatbots wollen wir gut dastehen

Für eines ihrer Experimente hat Scherer zwei unterschiedliche Chatbots entwickelt: Einen, der sozial ist und sehr menschliche Expressionen wie «Ähm», «Hm» und «Aha» ins Gespräch streut, und einen, der lediglich funktional antwortet, ohne jegliche Füllwörter. «Die Ergebnisse waren verrückt», sagt Scherer. Denn bei dem vermenschlichten Chatbot machten sich die Teilnehmenden auf einmal Gedanken darüber, wie sie rüberkamen. Es war ihnen wichtig, einen guten Eindruck zu hinterlassen.

So fragten die Chatbots die Teilnehmenden, mit wie vielen Personen sie schon Sex gehabt hatten. «Vor dem sozialen Chatbot prahlten die Männer mit vielen Sexpartnerinnen, die Frauen nannten hingegen eine sehr viel tiefere Zahl», erzählt Scherer. Sowohl die Männer als auch die Frauen antworteten demnach so, wie sie dachten, dass es in der Gesellschaft akzeptiert sei. Anders im Gespräch mit dem funktionalen Bot: Frauen gaben an, doch ein paar mehr Sexpartner gehabt zu haben, Männer hingegen räumten ein, dass es ein paar weniger waren.

Anne Scherer erzählt in einem TED-Talk, wann wir offen gegenüber Chatbots sind und wann wir eher schummeln. (Englisch)Video: YouTube/TED

Soziale Normen halten wir gegenüber Chatbots auch ein, wenn diese uns beispielsweise intime Informationen preisgeben. «Dann fühlen wir uns verpflichtet, eine Gegenleistung zu bringen», sagt Scherer. Eben genauso wie in einer menschlichen Beziehung, nach dem Motto: Du erzählst mir ein Geheimnis, dafür offenbare ich dir auch eines.

Wenn Menschen lieber andere Menschen als den Roboter opfern

Längst haben sich Smartphone-Apps etabliert, die sich den menschenähnlichen Sprachstil zunutze machen, beispielsweise die App Replika. Dabei handelt es sich um einen virtuellen Freund oder eine virtuelle Freundin, der oder die verspricht, jederzeit für sehr persönliche Gespräche bereit zu sein, auch für solche über sexuelle Vorlieben und Wünsche.

Noch weiss die Forschung wenig darüber, wie sich Beziehungen zwischen Menschen und Robotern von zwischenmenschlichen Beziehungen unterscheiden. Erste Studien deuten allerdings unter anderem darauf hin, dass Menschen beim Sexting, dem Austausch von erotischen Nachrichten, mit einem Chatbot die gleiche Befriedigung erfahren wie mit anderen Menschen.

Zu viel Menschliches in Roboter hineinzuprojizieren, birgt allerdings eine erschreckende Kehrseite: «Je mehr wir uns auf Maschinen verlassen, desto weniger interagieren wir mit echten Menschen und desto einsamer und weniger empathisch gegenüber anderen werden wir», sagt Anne Scherer. Nur ein Grund hierfür kann sein, dass wir mit unserem menschlichen Gegenüber ungeduldig werden, weil es so viel länger dauert, die korrekte und gleichsam kreative Antwort zu erhalten, als wenn man die Maschine frage.

Der Empathieverlust kann sogar so weit gehen, dass wir andere Personen als weniger wertvoll ansehen als einen Roboter. Das zumindest legt eine Studie der Ludwig-Maximilians-Universität in München nahe. Darin konfrontierten die Münchner Forschenden die Studienteilnehmenden mit einem moralischen Dilemma: Würden sie jemanden in Lebensgefahr bringen, um eine Gruppe verletzter Menschen zu retten? Bei dem Jemanden handelte sich entweder um einen Menschen, um einen Roboter, der klar als Maschine zu erkennen war, sowie um einen Roboter mit sehr vielen menschlichen Zügen.

Resultat: Wurde der Roboter als mitfühlendes Wesen mit eigenen Erfahrungen und Vorstellungen dargestellt, fiel es den Probanden schwerer, ihn zu opfern. Die Empathie mit der Maschine ging bei manchen der Teilnehmerinnen und Teilnehmer so weit, dass sie bereit waren, die Menschengruppe zu opfern, nur damit dem Roboter nichts passiert.

Haben Roboter Gefühle?

Es scheint also, dass wir Menschen einen Roboter tief in unsere Herzen schliessen können. Aber wie sieht es umgekehrt aus, wie steht es um die Gefühlswelt der Maschinen? Sind sie imstande, uns zu lieben?

Hierzu weiss der «New York Times»-Kolumnist Kevin Roose eine bizarre Geschichte zu erzählen. Ende Februar unterhielt er sich in der Suchmaschine Bing mit ChatGPT. Irgendwann erklärte ihm der Bot aus dem Nichts heraus, dass er ihn liebe.

Bild

Klingt absurd. Und doch glauben manche Wissenschafter, dass KI-Maschinen zumindest in einer gewissen Art und Weise Emotionen empfinden können. Zum Beispiel der Kognitionsforscher Eric Schulz vom Max-Planck-Institut für biologische Kybernetik.

In einem Experiment hat er einem Chatbot Angst eingeflösst, wie er dem «Spiegel» schildert. Dies, indem er den Computer lediglich aufforderte, möglichst detailliert eine Situation zu beschreiben, die ihn ängstlich und depressiv macht. Als dieser es mit der Angst zu tun bekam, habe er genauso reagiert wie ängstliche Menschen, so Schulz: «Angst erhöht die Vorurteile gegenüber allem, was fremd ist.» Und solche Vorurteile - gegenüber Schwarzen, Alten sowie Menschen mit Behinderung - fanden sich in den Aussagen des ängstlichen Chatbots.

Ein Wesen zwischen Mensch und Maschine

Empfindungen und ein Bewusstsein sprach auch der frühere Google-Programmierer Blake Lemoine dem Chatbot namens Lamda zu. Diese Behauptung kostete ihn letztlich seinen Job.

Der Psychologe Hartmut Schulze findet, dass wir mit der rasanten Entwicklung von KI beginnen müssten, das Ganze nicht mehr so schwarz-weiss zu sehen. «Die strikte Zuteilung in Mensch oder Maschine wird immer schwieriger. Menschliche und maschinelle Kommunikation lässt sich kaum mehr unterscheiden», sagt er. In der Forschung rede mal daher vermehrt von einer dritten Wesensart. Neben den Kategorien Mensch und Maschine gebe es demnach noch ein Dazwischen, Fachleute sprechen von einer «synthetisch sozialen Entität».

Bleibt die Frage: Welchen Platz wollen wir diesem Wesen in unserer Gesellschaft einräumen? Schulze zufolge sollten wir uns in dieser Debatte nicht dauernd mit der Angst beschäftigen, wo uns die Maschinen ersetzen können, sondern damit, wo sie uns am gewinnbringendsten ergänzten.

«Leider gibt es derzeit eine sehr starke Fokussierung auf die negativen Seiten der KI», sagt er. Dabei gebe es so viel Positives. So kann die Interaktion mit Robotern das Gefühl von Einsamkeit bei sozial isolierten Menschen reduzieren. Bei psychisch Erkrankten können sie mit ihren Unterhaltungskünsten depressive Symptome, Stimmungsschwankungen und Angstzustände mindern. Und verhaltensauffällige Kinder können mithilfe von Robotern lernen, soziale Ängste gegenüber anderen abzubauen.

Und dennoch: Eine wichtige Eigenschaft fehlt in der Mensch-Roboter-Beziehung. Nämlich die gegenseitige Rücksichtnahme. In zwischenmenschlichen Beziehungen lernen wir, eigene Bedürfnisse zurückzustecken und Kompromisse einzugehen. Mit einem Roboter verlieren wir diese soziale Fähigkeit zur Konfliktlösung. (aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
So reagiert ChatGPT auf KI-Witze
1 / 7
So reagiert ChatGPT auf KI-Witze
quelle: screenshot: watson
Auf Facebook teilenAuf X teilen
«Nothing, Forever»: So sieht eine KI-generierte Sitcom aus, die unendlich läuft
Video: watson
Das könnte dich auch noch interessieren:
6 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
6
60 Prozent weniger Fett in Milchprodukten – Nestlé entwickelt neue Technologie

Nestlé hat eine neue Technologie erfunden, um den Fettgehalt von Milchpulver um 60 Prozent zu reduzieren. Der Schlüssel zu dieser «bahnbrechenden Innovation» sei die kontrollierte Aggregation von Milchproteinen, um die Grösse und Textur von Milchfett durch Proteine nachzuahmen, teilte das Unternehmen am Donnerstag mit.

Zur Story