«Es ist eine tragische Geschichte des Grauens, welche die ganze Nation in ihren Grundfesten erschüttert hat», sagt eine kindlich hohe, aber unnatürliche Stimme. Der Kopf eines Mädchens bewegt sich leicht nach oben und unten, um die Illusion zu schaffen, man sehe einem echten Menschen zu. Dann fährt die Stimme fort: «Mein Name ist Becky Watts. Ich kam 1998 in Bristol, England, als ältestes von fünf Geschwistern auf die Welt. Meine Kindheit war aber nur wenig idyllisch, stattdessen war sie geprägt von Verwahrlosung und Missbrauch durch eben jene Menschen, die mich lieben und beschützen sollten. Mit 16 wurde mein Leben dann ein realer Albtraum. Mein Stiefbruder Nathan Matthews und seine Partnerin Shauna Hoare begannen ihre Terrorkampagne: Sie stahlen meine Sachen und sperrten mich stundenlang in meinem Zimmer ein.»
In diesem Stile beginnen hunderte Videos auf TikTok. Dabei berichten von einer KI generierte Kinder von ihrer eigenen Ermordung oder Entführung. Im oben geschilderten Beispiel geht es um die 2016 von ihrem eigenen Stiefbruder ermordete Becky Watts, die Geschichte ist grösstenteils wahr. Bei kleineren Details wird zum Teil von der Wahrheit abgewichen oder diese ausgeschmückt. Zum Beispiel ist nirgends vermerkt, dass sie das älteste von fünf Kindern war.
Am Ende der Videos bedanken sich die Kinder fürs Zuhören und bitten darum, dass man ihnen, beziehungsweise dem TikTok-Kanal, folgt. Die Videos sind meist mit epischer oder dramatischer Musik unterlegt.
Unter dem Hashtag #animatedhistory finden sich auf TikTok hunderte Videos von Kindern, die Opfer von Gewaltverbrechen wurden. Dazu gibt es auch noch einige Videos von historischen Figuren, wie Tupac, JFK oder der Queen, die als KI-Figuren die Geschichte ihres Lebens erzählen.
Gegenüber Rolling Stones kommentierte der Assistenz-Professor für Strafrecht der Universität New Haven Paul Bleakley die True-Crime-Videos.
Solche Videos können laut Bleakley für Opfer und Verwandte von Opfern schwierig zu verarbeiten sein. «Die Möglichkeit, dass Opfer erneut traumatisiert werden, besteht», warnt Bleakley. «Stellen Sie sich vor, Sie wären ein Elternteil oder ein Verwandter eines der Kinder in diesen KI-Videos. Sie gehen ins Internet und sehen plötzlich ein KI-generiertes Bild, das Ihrem verstorbenen Kind nachempfunden ist, begleitet von einer seltsamen, hohen Stimme, die detailliert beschreibt, was mit Ihrem Kind passiert ist. Das kann extrem verstörend sein.»
Bleakley merkte auch an, dass die KI-Videos nicht bei sprechenden Porträts aufhören müssen. Es wäre auch denkbar, dass True-Crime-Fans ganze Verbrechen mithilfe von Künstlicher Intelligenz nachstellen könnten.
Auch sonst sind die Videos nicht ganz unproblematisch. Laut Rechtsanwalt und Experte für Recht im digitalen Raum Martin Steiger sind Deepfakes von noch lebenden Personen zivilrechtlich belangbar. Als Privatperson besitzen sie einen Persönlichkeitsschutz. Nach dem Tod erlischt dieser jedoch. Falls der Urheber der Deepfakes nicht greifbar ist, sind ebenfalls die Vertreiber, in diesem Fall also TikTok, haftbar.
Bei verstorbenen Personen kann aber immer noch eine strafbare Ehrverletzung vorliegen. Die Angehörigen können dann Anklage erheben. Wenn keine Ehrverletzung vorliegt, sind die Angehörigen von verstorbenen Personen aber machtlos.
Rechtsanwalt Martin Steiger bestätigte ebenfalls, dass es in der Schweiz keine speziellen Regulierungen bezüglich Deepfakes gibt. Bei der Darstellung von verbotener Gewalt oder harter Pornografie gelten aber allgemeine Straftatbestände.
Das letzte, was ich dafür brauche, ist ein virtueller "Grabstein", mit dem man am Ende auch noch kommunizieren kann (Sprachbot).
Für Aussenstehende oder zur Darstellung historischer Personen mag das ja interessant sein. Aber als Angehöriger brauche ich sowas definitiv nicht!