Wissen
Digital

KI-generierte Deepnudes: Wie Künstliche Intelligenz Frauen bedroht

A comparison of an original and deepfake video of Facebook CEO Mark Zuckerberg. (Elyse Samuels/The Washington Post via Getty Images)
Ein Vergleich eins Originalvideos und eines Deepfakes von Facebook-CEO Mark Zuckerberg.bild: getty images

KI-generierte Deepnudes – wie Künstliche Intelligenz Frauen bedroht

Programme wie ChatGPT erleben aktuell einen regelrechten Hype. Doch mit Künstlicher Intelligenz halten auch Probleme Einzug in unser Leben. Einige Frauen berichten aktuell, wie sie zu Opfern wurden.
02.05.2023, 20:1803.05.2023, 12:20
Mehr «Wissen»
Ein Artikel von
t-online

Den Tränen nahe präsentiert sich TikTok-Nutzerin rache.lzh5 ihren knapp 50'000 Followern. Sie wisse nicht, wie sie beschreiben soll, was ihr in den vergangenen 48 Stunden passiert sei, erzählt sie.

Vor zwei Tagen habe ihr ein anonymer Account Bilder übersendet, auf denen sie nackt ist. Das Skurrile: Die Bilder hat sie selbst aufgenommen – voll bekleidet.

Mittlerweile hat das Video mehr als eine Million Aufrufe. In den Kommentaren finden sich neben Solidaritätsbekundungen auch Frauen, die von ähnlichen Erfahrungen berichten. Viele wurden angeblich Opfer von Deepnudes, einer besonders perfiden Art der Deepfakes.

Wie erkennt man Deepfakes?

1 / 9
Wie erkennt man Deepfakes?
Deepfakes sind realistisch wirkende digitale Medieninhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden. Das Erkennen solcher Fake-Bilder wird immer schwieriger...
Auf Facebook teilenAuf X teilen

Von bekannten Persönlichkeiten wie Will Smith, Donald Trump oder auch dem Papst wurden bereits Deepfakes angefertigt – also Aufnahmen, die mithilfe von KI-Anwendungen digital manipuliert wurden.

Seit einigen Jahren werden diese regelmässig im Internet verbreitet. Viele lassen sich schnell als Fake entlarven. Einige sind sogar recht amüsant. Doch so mancher Fake ist täuschend echt und kann ernste Konsequenzen haben.

Im März 2022 kursierte beispielsweise ein Video eines vermeintlichen Kapitulationsaufrufs des ukrainischen Präsidenten Selenskyj auf Facebook. Ein Fake, wie das Unternehmen später mitteilte. Auch in anderen Bereichen können solche Fälschungen grossen Schaden anrichten.

In der Vergangenheit warnte daher unter anderem Europol vor der Deepfake-Nutzung durch Kriminelle. Dabei benannte man vor allem Erpressungs- und Betrugsdelikte oder Dokumentenfälschungen. Aber auch vor Deepnudes wurde in diesem Zusammenhang gewarnt.

Denn die Deepnude-Technologie, der auch die TikTok-Nutzerin zum Opfer fiel, ist bei Weitem nichts Neues. Im Jahr 2019 veröffentlichte ein Entwickler namens «Alberto» ein Tool namens Deepnude. Die Anwendung versprach Nutzern, aus Bildern von bekleideten Frauen Nacktbilder zu generieren.

Im Netz sorgte die Anwendung für einen heftigen Shitstorm. Nur wenige Tage nach der Veröffentlichung nahm «Alberto» die Software daher wieder offline. Es sei ihm klargeworden, dass die Möglichkeiten zum Missbrauch zu hoch seien, liess er damals bei Twitter verlauten.

Die Einsicht kam allerdings zu spät: Die Technologie verbreitete sich im Netz und schnell machten ähnliche Programme die Runde. Vor allem in Telegram-Gruppen werden seither fleissig Deepnude-Kreationen ausgetauscht.

Mit dem neuerlichen Aufschwung von KI-Programmen erfreut sich nun die Deepnude-Technologie auch ausserhalb von Telegram wieder grösserer Beliebtheit.

Zwar ergaben Stichproben der BBC, dass die Ergebnisse der Software nicht besonders realistisch waren, allerdings war dies für Betroffene wohl kein grosser Trost. Denn dass es sich bei den Bildern um Fakes handelt, wissen lediglich der Ersteller und die abgebildete Person, nicht aber mögliche Dritte.

A woman in Washington, DC, views a manipulated video on January 24, 2019, that changes what is said by President Donald Trump and former president Barack Obama, illustrating how deepfake technology ca ...
Potenzial für neue Arten von Falschinformationen mit verheerenden Folgen: Deepfake-Videos werden dank der Fortschritte im Bereich der Künstlichen Intelligenz immer realistischer.bild: getty images

Kursiert ein Foto erst einmal im Netz, ist es fast unmöglich, dieses wieder zu entfernen. Somit kann das Programm Frauen weltweit schaden. Betroffene könnten durch die Fotos ihre Arbeit und somit ihren Lebensunterhalt verlieren.

«Im Grunde genommen werden diese Deepfakes entweder dazu benutzt, um eine kranke Fantasie eines verschmähten Liebhabers, Freundes oder eines Perversen zu erfüllen», sagte die politische Analystin Nina Jankowicz zu «BuzzFeed News», «oder sie werden als potenzielles Erpressungsmaterial benutzt».

Auch strafrechtlich könnte die Verbreitung von Deepnudes relevant werden. Laut § 63 des deutschen Datenschutzgesetzes kann das Verbreiten schutzwürdiger Daten mit einer Freiheitsstrafe von bis zu einem Jahr bestraft werden. Ob dies auch für Daten gilt, die durch Künstliche Intelligenz abgeändert wurden, ist allerdings unklar.

Quellen

(t-online/dsc/bal)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
So reagiert ChatGPT auf KI-Witze
1 / 7
So reagiert ChatGPT auf KI-Witze
quelle: screenshot: watson
Auf Facebook teilenAuf X teilen
Diese Deepfakes musst du gesehen haben
Video: watson
Das könnte dich auch noch interessieren:
56 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Sauäschnörrli
02.05.2023 21:02registriert November 2015
Zum Glück sind Deepnudes von Männern völlig unproblematisch.
23241
Melden
Zum Kommentar
avatar
Catstopherus
02.05.2023 21:29registriert Dezember 2018
Vielleicht ist das ein versteckter Segen, hat man doch plötzlich die perfekte Ausrede für das Auftauchen echter Nacktaufnahmen …
9820
Melden
Zum Kommentar
avatar
G.Oreb
02.05.2023 21:23registriert September 2014
Ich denke das Gegenteil wird der Fall sein.

Kein Mensch wird – mit Ausnahme der ersten paar Shitstorms – diese Nudes für bahre Münze nehmen.

Ich kann mit Photoshop schon seit Jahren den Kopf einer Kollegin auf einen auf ihren Umriss gemorphten Frauenkörper legen. Dauert 2min in Photoshop und das Ergebnis ist mit blossem Auge nicht unterscheidbar – also Fotorealistisch. Machen wir also schon seit Jahren so.

Früher hiess es halt gephotoshoppt – in Zukunft wird man wohl midjurnen oder wir entlehnen einen anderen Begriff irgendwoher. Googlen war ja auch gestern #Bing
9330
Melden
Zum Kommentar
56
Frauen mit etwas geringerer Sterberate bei Ärztin statt Arzt

Ältere Frauen, die im Spital von einer Ärztin statt von einem Arzt behandelt werden, haben bei bestimmten Erkrankungen eine geringere Sterblichkeitsrate. Zu diesem Schluss kommt eine japanische Studie.

Zur Story