International
Digital

Der gefälschte Tom Cruise: Darum sollten uns Deepfakes beunruhigen

Der gefälschte Tom Cruise: Darum sollten uns Deepfakes beunruhigen

Immer leichter zu fälschen, immer öfters anzutreffen: Deepfakes verbreiten sich im Internet. Weshalb das für uns gefährlich ist, in drei Punkten erklärt.
26.02.2021, 22:4826.02.2021, 23:33
Mehr «International»

Er sieht aus wie Tom Cruise, doch ist er es nicht: Ein Video auf Twitter zeigt einen Mann mit dem Gesicht des US-Schauspielers, der hinfällt und über Gorbatschow spricht. Das Video ist ein sogenannter Deepfake, ein mit künstlicher Intelligenz (KI) hergestelltes Video und geht gerade viral.

Bislang galten Videos und Audioaufnahmen als Beweise für die Realität: Das, was wir mit eigenen Augen sehen, muss aber nicht länger der Wahrheit entsprechen. Deepfakes sehen aus wie realistische Aufnahmen: Mit einfachster Software können auch Laien Gesichter vertauschen und Personen täuschend echt sprechen und handeln lassen.

Welch schwerwiegende Auswirkungen Deepfakes in Zeiten von Wahlmanipulation und Hetze im Internet haben können, ist bisher nur zu erahnen.

Gefälschte Pornografie

Es ist so verstörend, wie wenig überraschend: Gemäss dem niederländischen Unternehmen Deeptrace handelt es sich bei 96 Prozent aller Deepfake-Videos um pornografische Inhalte. Dabei werden in den allermeisten Fällen bekannte Frauen aus dem Film- und Musikgeschäft in bereits vorhandene Sexvideos eingesetzt.

Doch nicht nur Personen des öffentlichen Lebens sind von solchen Übergriffen betroffen, es kann auch Privatpersonen treffen, wie das Beispiel von Noelle Martin verdeutlicht: Die damals 17-jährige Australierin wurde Opfer eines Deepfakes, als ihr Gesicht in pornographische Bildern montiert wurde.

Die heutige Aktivistin kämpfte in ihrem Land für eine Verschärfung der Gesetzeslage – und gewann. Seit dem Jahr 2018 können Deepfakes in Australien mit einer mehrjährigen Haftstrafe geahndet werden.

Politischer Hexenkessel

Das Missbrauchspotential ist riesig, der Name (Fake) Programm. Die Sozialen Medien sind bekannt für die rasend schnelle Verbreitung von Nachrichten, die nur in seltenen Fällen auf die Wahrheit ihres Inhaltes hin geprüft werden.

Gerade im Bereich der Politik können solche Deepfake-Videos zur Meinungsmache missbraucht werden, in dem Politiker oder Politikerinnen instrumentalisiert werden: Eine Angela Merkel oder ein Joe Biden beispielsweise, die in Videos von Dingen sprechen, die sie so nie gesagt haben. Die Imitationen bergen enormes Spaltungs- und Konfliktpotential. Der Fantasie sind keine Grenzen gesetzt; auch der hasserfüllten nicht.

Die grossen Plattformen wie Twitter, Facebook oder Youtube kennen das Problem und haben den Deepfakes mit Löschaktionen den Kampf angesagt. Besonders die Rolle der genannten Online-Dienste in Zeiten der Pandemie (Coronavirus) oder Wahlen (Sturm auf das Kapitol) hebt hervor, welch fatale Wirkung gezielt verstreute Falschmeldungen haben können.

Ein Beispiel:

Video von Channel 4.Video: YouTube/Channel 4

Der falsche Umkehrschluss

Nun stehen wir aber vor dem Problem, dass Deepfakes auch andersrum gut funktionieren: Ein Schuldiger, der beispielsweise seine Tat auf Video gesteht oder eine Straftat vor laufender Kamera begeht (Straches Ibiza-Skandal lässt grüssen), kann diesen Beweis nun als Fälschung abtun.

So geschehen ist dies beispielsweise auch bei Ex-Präsident Donald Trump. Dieser hat nach der Publizierung einer Tonaufnahme, in der er sich abfällig gegenüber Frauen geäussert hatte («grab 'em by the pussy») zuerst entschuldigt, um kurz darauf zu behaupten, die Aufnahme sei nicht echt.

KI versus KI:
Forschende entwickeln Deepfake-Erkennungssysteme, indem sie KI mit KI bekämpfen: Diese Systeme erkennen, was für das menschliche Auge unsichtbar ist. Beispielsweise werden vermehrt Programme eingesetzt, die gefälschte Videos anhand eines unnatürlichen Blinzelrythmus' erkennen sollen. Das Problem: Die Deepfake-Sofwares lernen ebenfalls und können teilweise bereits einen realistischen Blinzel-Effekt erzielen. Ein technischer Wettlauf hat begonnen.

Alles in allem sind Deepfakes nur wenig positive Seiten abzugewinnen – von ein paar wenigen, satirischen Ausnahmen vielleicht einmal abgesehen.

Was denkst du über das Thema Deepfake? Schreib es in die Kommentare!

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Digitale Animationstechnik macht riesen Fortschritte
Video: srf
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
43 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Liebu
26.02.2021 23:30registriert Oktober 2020
Eine neue Dimension von Cyber-Mobbing, Das Leben der Betroffenen wird nicht mehr dasselbe sein.
Die Schwierigkeit wird sein, dass in dieser schnelllebigen Zeit, die Gesetze mit dem Fortschritt der Technik mithalten können.
1796
Melden
Zum Kommentar
avatar
stuck
26.02.2021 22:17registriert März 2018
Traue keiner Statistik, ähh ich meine keinem Video, dass du nicht selber gefälscht hast!
Aber mal ganz ehrlich, bei seichter Unterhaltung ist es ja noch okey, aber sobald man sich eine wirkliche Meinung zu einem Thema bildet, sollte man seine Infos immer über verschiedene Kanäle prüfen.
10917
Melden
Zum Kommentar
avatar
Dani B.
27.02.2021 00:19registriert August 2018
Bilder logen schon immer. --- Ausser die von Blitzkästen.
444
Melden
Zum Kommentar
43
Waldbrand in Malibu ausser Kontrolle – auch mehrere Promis flüchten

Der Waldbrand in der kalifornischen Küstenstadt Malibu wütet weiter. Mehr als 1000 Feuerwehrleute waren auch am Dienstagabend (Ortszeit) im Einsatz, allerdings erschwerten starke Winde und das hügelige Gelände die Arbeit, so die Behörden.

Zur Story