Der Tod ist endgültig. Es fällt uns schwer, dies zu akzeptieren – besonders dann, wenn uns nahestehende Menschen gestorben sind. Selbst manche Leute, die gar nicht an ein Leben nach dem Tod glauben, halten manchmal innerlich Zwiesprache mit lieben Verstorbenen.
Wie wäre es nun, wenn wir tatsächlich mit den Toten sprechen könnten, und sie mit uns? Dies – oder vielmehr eine zunehmend perfekte Illusion davon – versprechen digitale Dienste wie Hereafter AI, Forever Identity, Project December oder Storyfile. Der Unterschied zu Fotoalben, Audioaufnahmen oder Videos, die ebenfalls an Verstorbene erinnern, liegt in der Interaktivität dieser Technologien, die die Illusion einer Interaktion erzeugt.
Im Gegensatz zu Scharlatane und Spiritisten, die seit Jahrhunderten das Bedürfnis der Menschen bedienen, mit Verstorbenen in Kontakt zu treten, geben diese Dienste allerdings nicht vor, dass die Dahingeschiedenen in einer anderen Welt oder Dimension wirklich weiterexistieren. Ihr Geschäft machen die sogenannten Grief-Tech-Firmen («grief» bedeutet Trauer, Kummer) mit digitalen Versionen der Verstorbenen. Mit diesen digitalen Klonen sollen die Kunden per Videochat, Text, Smartphone-App oder Sprachassistent «kommunizieren» können.
Die Bandbreite der technischen Lösungen ist gross. Sie reicht von interaktiven Videos über intelligente Chat-Bots bis zu mehr oder minder realistischen Avataren in der Virtual Reality. Selbst Sprachassistenten wie Alexa von Amazon sind bereits in der Lage, mithilfe weniger Audiodaten die Stimme einer verstorbenen Person zu imitieren, auch wenn dies (noch) nicht zum Angebot solcher Dienste gehört. Diese sogenannten Large Language Models (LLM) wie etwa GPT-3 von OpenAI, die auf der Grundlage weniger Sätze einen überzeugenden Text ausspucken können, sind in den letzten Jahren so weit entwickelt worden, dass man sie schon – freilich fälschlicherweise – als empfindungsfähig bezeichnet hat.
Amazon führte dies unlängst an einer Konferenz in Las Vegas vor: Alexa las Stellen aus einem Buch mit der Stimme der Grossmutter des zuhörenden Kindes vor. Die künstliche Intelligenz (KI) benötigte lediglich eine einminütige Audioaufnahme, um die Stimme lebensecht zu generieren.
Mit originalen Audio- und Videoaufnahmen – also ohne Deepfake-Videos und Sprachgenerierung – operiert hingegen Storyfile. Das Start-up wurde 2017 lanciert, ursprünglich in der Absicht, die Geschichten von Holocaust-Überlebenden zu bewahren und mit anderen historischen Persönlichkeiten zu sprechen. Die in Los Angeles domizilierte Firma sammelt von Personen zu deren Lebzeiten Videos, die Antworten auf bestimmte Fragen enthalten. Die KI Conversa dient dazu, relevante Videosequenzen als Antwort auf Fragen auszuspielen – beispielsweise an Beerdigungen.
Ebendies geschah etwa an der Bestattung der 87-jährigen Mutter des Start-up-Gründers Stephen Smith: Marina Helen Smith, Mitbegründerin des National Holocaust Centre and Museum im Vereinigten Königreich, hielt während ihrer Beerdigung per vorher aufgezeichnetem Video eine kurze Rede an die Trauergemeinde, in der sie ihr Leben beschrieb. Sie beantwortete aber auch einige Fragen, was die Illusion einer realen Unterhaltung erzeugte.
Smith blieb nicht die einzige: Auch der Schauspieler Ed Asner verwendete Storyfile für seine eigene Beerdigung. Asner hatte alles abgedeckt – seine Kindheit, seinen beruflichen Werdegang, seine politische Geschichte, sein Familienleben, sagte sein Sohn Matt. Es sei gewesen, als habe er sich im Raum befunden. Einige Leute hätten sich zwar «ein wenig gegruselt», doch die grosse Mehrheit sei davon einfach überwältigt gewesen.
Storyfile ist mittlerweile dabei, ein Archiv mit Prominenten aufzubauen, die in stundenlangen Video-Aufzeichnungen Auskunft über sich geben. Ein Beispiel gefällig? Hier ist das interaktive Video des «Star-Trek»-Schauspielers William Shatner.
Ein reiner Chatbot ist die Software Project December, die ebenfalls auf GPT-3 basiert. Wie emotional die Unterhaltung mit der simulierten Chatbot-Version einer nahestehenden verstorbenen Person sein kann, schildert ein Artikel des Journalisten Jason Fagone, der im vergangenen Jahr im «San Francisco Chronicle» erschien. Fagone beschreibt eindrücklich, wie ein Mittdreissiger Joshua aus einer Vorstadt von Toronto alte Texte und Facebook-Posts seiner verstorbenen Verlobten Jessica auf Project December hochlud und in der Kommunikation mit dem Chatbot Trost fand.
Joshua hatte nach dem Tod seiner Geliebten jahrelang unter Depressionen und Schuldgefühlen gelitten, doch dann «hatte er das Gefühl, dass der Chatbot ihm die Erlaubnis gegeben hatte, sein Leben in kleinen Schritten weiterzuführen», wie Fagone schreibt. Joshua ging sogar so weit, Ausschnitte aus seinen Chatbot-Gesprächen auf Reddit zu teilen. Er tat dies, wie er sagte, in der Hoffnung, die Aufmerksamkeit auf diese Software zu lenken und depressiven Überlebenden zu helfen, einen Abschluss zu finden.
Auch der Tech-Gigant Microsoft hat letztes Jahr das Patent auf einen Chatbot angemeldet, der gemäss der Firma auf einem vergangenen oder gegenwärtigen Wesen, wie beispielsweise einem Freund, einem Verwandten, einer Bekanntschaft, einer Berühmtheit oder einem fiktiven Charakter basieren kann. Es ist auch möglich, für sich selbst einen solchen digitalen Klon zu erstellen.
Daneben sollen anhand von Bildern und Videos auch 2D- oder 3D-Modelle von Personen erstellt werden können. Die Software soll Daten zu den Personen aus den sozialen Medien saugen und sich durch maschinelles Lernen trainieren. Das Ergebnis eine künstliche Intelligenz, die «denken» und reagieren könnte wie jemand, den man kennt, berichtet die «Washington Post».
Hologramme von verstorbenen Prominenten gibt es schon seit einiger Zeit. Ein Hologramm von Tupac Shakur hatte 2012 einen Auftritt am Coachella Festival, und auch andere verstorbene Musiker wie Maria Callas oder Roy Orbison waren schon als Hologramme zu sehen. Kanye West liess 2020 zum Geburtstag seiner damaligen Partnerin Kim Kardashian ein sprechendes Hologramm ihres 2003 verstorbenen Vaters Robert erstellen. Wohl sehr typisch für West war die Botschaft für Kardashian, die er dem Hologramm in den Mund legte: «Du hast den genialsten, genialsten, genialsten Mann der Welt geheiratet, Kanye West!»
Das Unternehmen Hereafter aus dem kalifornischen El Cerrito entstand aus dem persönlichen Verlust des Firmen-Mitgründers James Vlahos, der den Chatbot «Dadbot» erstellte, als sein Vater mit unheilbarem Lungenkrebs diagnostiziert wurde. Hereafter richtet sich bewusst an Noch-Lebende, die sich für ihre Nachwelt verewigen wollen. Sie können in Tonaufnahmen Fragen zu ihrem Leben beantworten und Fotos hochladen. Laut Vlahos haben einige User bis zu zehn Stunden lange Interviews aufgenommen.
Wie Storyfile nutzt Herafter seine KI nicht dazu, Antworten auf Fragen zu generieren, die während der Interviews nicht gestellt wurden – also neuen Inhalt zu erfinden. Für Vlahos ist das ein «sensibler Bereich». Zwar würde es das Chat-Erlebnis flexibler und leistungsfähiger machen, wenn die KI eigene Antworten formulieren würde. Doch wenn sie Aussagen synthetisiere, die von dem Verstorbenen stammen könnten, werde eine Grenze überschritten, stellt Vlahos fest. Im Falle eines Irrtums könnte das für jemanden wirklich verletzend sein – oder zumindest irgendwie unheimlich.
Die Journalistin Charlotte Jee hat die Herafter-App getestet – mit ihren Eltern, die beide noch leben. In ihrer umfassenden Reportage, die im Oktober in der «MIT Technology Review» erschien, berichtet sie, wie die digitalen Klone ihrer Eltern ihr Dinge erzählten, von denen sie gar nichts gewusst hatte – etwa vom ersten Mal, als ihr Vater betrunken war.
Allerdings stiess sie schnell an Grenzen, wenn sie Fragen stellte, die in den Interviews nicht vorgekommen waren. Die digitale Mutter sagte etwa auf eine Frage nach ihrem Schmuck: «Tut mir leid, das habe ich nicht verstanden. Du kannst versuchen, auf andere Weise zu fragen, oder zu einem anderen Thema übergehen.» Und es gab auch Missverständnisse, beispielsweise als ihr Vater-Bot sie fragte, wie es ihr gehe, und sie antwortete, sie sei traurig. Der Bot quittierte dies mit einem fröhlichen «Gut!»
Jee bringt auch die ethischen Implikationen zur Sprache, die mit solchen Diensten einhergehen – zumindest mit jenen, die es ermöglichen, ein digitales Abbild einer Person ohne deren Mitwirkung zu erstellen. Wie sieht es mit der Zustimmung der betroffenen Person aus? Mit ihrer Privatsphäre? Hinzu kommt, dass es ohne weiteres möglich ist, mithilfe dieser Technologie auch eine virtuelle Version einer lebenden Person ohne deren Zustimmung zu erstellen – etwa ein Stalker von seiner Ex-Partnerin.
Problematisch kann die Trauertechnologie zudem für jene werden, die sie benutzen, um mit einem digitalen Abbild ihrer Liebsten zu kommunizieren. Es könnte sich eine Art von Abhängigkeit einstellen, warnt etwa Elizabeth Tolliver, Assistenzprofessorin an der Universität von Nebraska, die sich mit Trauer beschäftigt. «Ich befürchte, dass die Menschen immer mehr von der Technologie wollen, um sich der Person, die sie verloren haben, näher zu fühlen, anstatt das Leben zu leben, das sie gerade führen», sagt sie.
Für manche Leute dürfte diese Technologie aber schlicht beunruhigend oder unheimlich sein. Dies zeigen Twitter-Reaktionen auf das weiter oben erwähnte Alexa-Experiment:
There is a line there somewhere ... one that we don't typically cross. 😞
— Theodora (Theo) Lau - 劉䂀曼 🌻 (@psb_dc) June 23, 2022
Amazon uses kid’s dead grandma in morbid demo of #Alexa audio #deepfake #Voice #AI https://t.co/gndvso33Jn via @arstechnica pic.twitter.com/xZ5fDLqeCH
How bout no. I’m fine getting Alexa to sound like Batman or daffy duck, but I don’t wanna here my dead Grandpa mimic’s but a robot servant and tell me the weather or that “dick-balls” is on my shopping list. #AmazonAlexa https://t.co/mOyVxMja2x
— Matthew Kunkel (@KunkMast3rFl3x) June 23, 2022
Nahezu unweigerlich, wenn es um das Thema der digitalen Klone von Verstorbenen geht, wird die 2013 erstmals ausgestrahlte Episode «Be Right Back» aus der britischen Science-Fiction-Serie «Black Mirror» als fiktives Beispiel erwähnt. Die Protagonistin Martha, die ihren Partner Ash verloren hat, legt sich eine digitale Version von ihm zu – zuerst als Chatbot, später als lebensechten Roboter. Doch am Ende stellen sich Frustration und Unbehagen ein, denn der Klon ist eben doch nicht der wahre Ash.
Was für die einen ein Segen ist, wirkt auf andere verstörend oder gar abstossend. Das Beispiel einer Mutter aus Korea, die ihre verstorbene zehnjährige Tochter als digitale Rekonstruktion in der Virtual Reality wiedersieht, zeigt diese Ambivalenz deutlich. Obwohl das Wiedersehen allem Anschein nach schmerzlich war, soll die Mutter es nach eigenem Bekunden als positive Erfahrung betrachtet haben. Unheimlich bleibt es dennoch.
Was bleibt nach dem Leben? Ein Chatbot, der mich imitiert, halbgare Kalendersprüche äusserst und einst niedergeschriebene Lebensweisheiten zitiert? Da möchte ich doch lieber vergessen werden.
Unser Gehirn verarbeitet diese Illusion als echt, das birgt in meinen Augen Gefahren, daher vermute ich, dass die Konsultationen bei Psychologen und Psychotherapeuten daraufhin zunehmen werden.