Den Tränen nahe präsentiert sich TikTok-Nutzerin rache.lzh5 ihren knapp 50'000 Followern. Sie wisse nicht, wie sie beschreiben soll, was ihr in den vergangenen 48 Stunden passiert sei, erzählt sie.
Vor zwei Tagen habe ihr ein anonymer Account Bilder übersendet, auf denen sie nackt ist. Das Skurrile: Die Bilder hat sie selbst aufgenommen – voll bekleidet.
Mittlerweile hat das Video mehr als eine Million Aufrufe. In den Kommentaren finden sich neben Solidaritätsbekundungen auch Frauen, die von ähnlichen Erfahrungen berichten. Viele wurden angeblich Opfer von Deepnudes, einer besonders perfiden Art der Deepfakes.
Von bekannten Persönlichkeiten wie Will Smith, Donald Trump oder auch dem Papst wurden bereits Deepfakes angefertigt – also Aufnahmen, die mithilfe von KI-Anwendungen digital manipuliert wurden.
Seit einigen Jahren werden diese regelmässig im Internet verbreitet. Viele lassen sich schnell als Fake entlarven. Einige sind sogar recht amüsant. Doch so mancher Fake ist täuschend echt und kann ernste Konsequenzen haben.
Im März 2022 kursierte beispielsweise ein Video eines vermeintlichen Kapitulationsaufrufs des ukrainischen Präsidenten Selenskyj auf Facebook. Ein Fake, wie das Unternehmen später mitteilte. Auch in anderen Bereichen können solche Fälschungen grossen Schaden anrichten.
In der Vergangenheit warnte daher unter anderem Europol vor der Deepfake-Nutzung durch Kriminelle. Dabei benannte man vor allem Erpressungs- und Betrugsdelikte oder Dokumentenfälschungen. Aber auch vor Deepnudes wurde in diesem Zusammenhang gewarnt.
Denn die Deepnude-Technologie, der auch die TikTok-Nutzerin zum Opfer fiel, ist bei Weitem nichts Neues. Im Jahr 2019 veröffentlichte ein Entwickler namens «Alberto» ein Tool namens Deepnude. Die Anwendung versprach Nutzern, aus Bildern von bekleideten Frauen Nacktbilder zu generieren.
Im Netz sorgte die Anwendung für einen heftigen Shitstorm. Nur wenige Tage nach der Veröffentlichung nahm «Alberto» die Software daher wieder offline. Es sei ihm klargeworden, dass die Möglichkeiten zum Missbrauch zu hoch seien, liess er damals bei Twitter verlauten.
Die Einsicht kam allerdings zu spät: Die Technologie verbreitete sich im Netz und schnell machten ähnliche Programme die Runde. Vor allem in Telegram-Gruppen werden seither fleissig Deepnude-Kreationen ausgetauscht.
Mit dem neuerlichen Aufschwung von KI-Programmen erfreut sich nun die Deepnude-Technologie auch ausserhalb von Telegram wieder grösserer Beliebtheit.
Zwar ergaben Stichproben der BBC, dass die Ergebnisse der Software nicht besonders realistisch waren, allerdings war dies für Betroffene wohl kein grosser Trost. Denn dass es sich bei den Bildern um Fakes handelt, wissen lediglich der Ersteller und die abgebildete Person, nicht aber mögliche Dritte.
Kursiert ein Foto erst einmal im Netz, ist es fast unmöglich, dieses wieder zu entfernen. Somit kann das Programm Frauen weltweit schaden. Betroffene könnten durch die Fotos ihre Arbeit und somit ihren Lebensunterhalt verlieren.
«Im Grunde genommen werden diese Deepfakes entweder dazu benutzt, um eine kranke Fantasie eines verschmähten Liebhabers, Freundes oder eines Perversen zu erfüllen», sagte die politische Analystin Nina Jankowicz zu «BuzzFeed News», «oder sie werden als potenzielles Erpressungsmaterial benutzt».
Auch strafrechtlich könnte die Verbreitung von Deepnudes relevant werden. Laut § 63 des deutschen Datenschutzgesetzes kann das Verbreiten schutzwürdiger Daten mit einer Freiheitsstrafe von bis zu einem Jahr bestraft werden. Ob dies auch für Daten gilt, die durch Künstliche Intelligenz abgeändert wurden, ist allerdings unklar.
(t-online/dsc/bal)
Kein Mensch wird – mit Ausnahme der ersten paar Shitstorms – diese Nudes für bahre Münze nehmen.
Ich kann mit Photoshop schon seit Jahren den Kopf einer Kollegin auf einen auf ihren Umriss gemorphten Frauenkörper legen. Dauert 2min in Photoshop und das Ergebnis ist mit blossem Auge nicht unterscheidbar – also Fotorealistisch. Machen wir also schon seit Jahren so.
Früher hiess es halt gephotoshoppt – in Zukunft wird man wohl midjurnen oder wir entlehnen einen anderen Begriff irgendwoher. Googlen war ja auch gestern #Bing