Er sieht aus wie Tom Cruise, doch ist er es nicht: Ein Video auf Twitter zeigt einen Mann mit dem Gesicht des US-Schauspielers, der hinfällt und über Gorbatschow spricht. Das Video ist ein sogenannter Deepfake, ein mit künstlicher Intelligenz (KI) hergestelltes Video und geht gerade viral.
See this video of Tom Cruise?
— Mckay Wrigley (@mckaywrigley) February 25, 2021
Well, it’s not Tom Cruise.
It’s AI generated synthetic media that portrays Tom Cruise onto a TikTok user using Deepfakes.
Seeing is no longer believing. pic.twitter.com/CRix0hD9OH
Bislang galten Videos und Audioaufnahmen als Beweise für die Realität: Das, was wir mit eigenen Augen sehen, muss aber nicht länger der Wahrheit entsprechen. Deepfakes sehen aus wie realistische Aufnahmen: Mit einfachster Software können auch Laien Gesichter vertauschen und Personen täuschend echt sprechen und handeln lassen.
Welch schwerwiegende Auswirkungen Deepfakes in Zeiten von Wahlmanipulation und Hetze im Internet haben können, ist bisher nur zu erahnen.
Es ist so verstörend, wie wenig überraschend: Gemäss dem niederländischen Unternehmen Deeptrace handelt es sich bei 96 Prozent aller Deepfake-Videos um pornografische Inhalte. Dabei werden in den allermeisten Fällen bekannte Frauen aus dem Film- und Musikgeschäft in bereits vorhandene Sexvideos eingesetzt.
Doch nicht nur Personen des öffentlichen Lebens sind von solchen Übergriffen betroffen, es kann auch Privatpersonen treffen, wie das Beispiel von Noelle Martin verdeutlicht: Die damals 17-jährige Australierin wurde Opfer eines Deepfakes, als ihr Gesicht in pornographische Bildern montiert wurde.
Die heutige Aktivistin kämpfte in ihrem Land für eine Verschärfung der Gesetzeslage – und gewann. Seit dem Jahr 2018 können Deepfakes in Australien mit einer mehrjährigen Haftstrafe geahndet werden.
Das Missbrauchspotential ist riesig, der Name (Fake) Programm. Die Sozialen Medien sind bekannt für die rasend schnelle Verbreitung von Nachrichten, die nur in seltenen Fällen auf die Wahrheit ihres Inhaltes hin geprüft werden.
Gerade im Bereich der Politik können solche Deepfake-Videos zur Meinungsmache missbraucht werden, in dem Politiker oder Politikerinnen instrumentalisiert werden: Eine Angela Merkel oder ein Joe Biden beispielsweise, die in Videos von Dingen sprechen, die sie so nie gesagt haben. Die Imitationen bergen enormes Spaltungs- und Konfliktpotential. Der Fantasie sind keine Grenzen gesetzt; auch der hasserfüllten nicht.
Die grossen Plattformen wie Twitter, Facebook oder Youtube kennen das Problem und haben den Deepfakes mit Löschaktionen den Kampf angesagt. Besonders die Rolle der genannten Online-Dienste in Zeiten der Pandemie (Coronavirus) oder Wahlen (Sturm auf das Kapitol) hebt hervor, welch fatale Wirkung gezielt verstreute Falschmeldungen haben können.
Nun stehen wir aber vor dem Problem, dass Deepfakes auch andersrum gut funktionieren: Ein Schuldiger, der beispielsweise seine Tat auf Video gesteht oder eine Straftat vor laufender Kamera begeht (Straches Ibiza-Skandal lässt grüssen), kann diesen Beweis nun als Fälschung abtun.
So geschehen ist dies beispielsweise auch bei Ex-Präsident Donald Trump. Dieser hat nach der Publizierung einer Tonaufnahme, in der er sich abfällig gegenüber Frauen geäussert hatte («grab 'em by the pussy») zuerst entschuldigt, um kurz darauf zu behaupten, die Aufnahme sei nicht echt.
Alles in allem sind Deepfakes nur wenig positive Seiten abzugewinnen – von ein paar wenigen, satirischen Ausnahmen vielleicht einmal abgesehen.
Was denkst du über das Thema Deepfake? Schreib es in die Kommentare!
Die Schwierigkeit wird sein, dass in dieser schnelllebigen Zeit, die Gesetze mit dem Fortschritt der Technik mithalten können.
Aber mal ganz ehrlich, bei seichter Unterhaltung ist es ja noch okey, aber sobald man sich eine wirkliche Meinung zu einem Thema bildet, sollte man seine Infos immer über verschiedene Kanäle prüfen.