bedeckt
DE | FR
Digital
Online-Sicherheit

DeepNude: App erzeugt gefälschte Nacktbilder aus Fotos von Frauen

Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal und kann strafrechtlich verfolgt werden
Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal und kann strafrechtlich verfolgt werdenscreenshot: motherboard

Die DeepNude-App zieht Frauen aus – ohne Einwilligung der Betroffenen

02.07.2019, 10:2603.05.2023, 07:38
Mehr «Digital»
«Diese schreckliche App zieht das Foto einer beliebigen Frau mit einem einzigen Klick aus.»
Titel des Online-Mediums Motherboard

Was ist DeepNude?

Ein Programmierer hat eine App entwickelt, mit der sich Fotos von Frauen in Nacktbilder umwandeln lassen.

Dabei handelt es sich selbstverständlich um Fälschungen. Aber um gut gemachte, die je nach Vorlage täuschend realistisch aussehen können.

Möglich ist dies dank raffinierter Algorithmen, die bei der automatischen Bildbearbeitung zum Einsatz kommen. Ein sogenanntes neuronales Netzwerk wurde darauf trainiert, Aufnahmen von bekleideten weiblichen Körpern so zu manipulieren, dass realistisch wirkende Nacktbilder entstehen.

Wer steckt dahinter?

Ein Programmierer aus Estland.

Das Online-Medium Motherboard berichtete am 26. Juni über DeepNude, nachdem der Programmierer begonnen hatte, die Software für 50 Dollar zu verkaufen.

Bild
screenshot: motherboard.com

Am darauffolgenden Tag nahm der Programmierer, der unter dem Pseudonym Alberto auftritt, die Website offline. Angeblich wegen des unerwartet grossen Ansturms und wegen potenzieller Gefahren.

Via E-Mail liess der DeepNude-Programmierer verlauten, er habe moralische und ethische Bedenken. Da er nicht für eine solche Technologie verantwortlich sein wolle, habe er entschieden, die Arbeit daran einzustellen.

Die Website www.deepnude.com verweist lediglich auf ein gleichnamiges Twitter-Profil. Dort schreibt der mutmassliche Entwickler, trotz der Sicherheitsmassnahmen (digitales Wasserzeichen etc.) sei das Missbrauchspotenzial zu gross. Er habe darum das Projekt gestoppt. Und:

«Die Welt ist noch nicht bereit für DeepNude.»
Unbekannter Entwickler

Was ist das Problem?

Die Software ist bereits im Umlauf und wird im Internet weiterverbreitet.

Am Montagmorgen sperrte die Chat-Plattform Discord einen ersten Kanal, der eine Version von DeepNude verkaufte. Seither wurden zahlreiche Kanäle gesperrt, deren Adressen bei Reddit publiziert wurden und die zum Teil damit lockten, aus Privataufnahmen von Usern Nacktbilder zu erstellen.

Laut Discord verstösst DeepNude gegen die Community-Richtlinien der Plattform. Diese verbieten das Teilen oder Verlinken von Inhalten «mit der Absicht, eine andere Person zu beschämen oder zu erniedrigen», wie auch die Förderung sexuell eindeutiger Inhalte ohne Zustimmung der betroffenen Person.

Wie viele Kopien von der DeepNude-Software bereits in Umlauf sind, ist nicht bekannt. Ab dem 23. Juni konnte eine für Windows 10 und für Linux verfügbare Gratis-Version von der DeepNude-Website heruntergeladen werden.

Motherboard konnte das Programm laut eigenen Angaben auf einem Windows-Rechner testen. Es erforderte keine technischen Kenntnisse. In der kostenlosen Version der App seien die erstellten Nacktbilder teilweise mit einem grossen (digitalen) Wasserzeichen versehen gewesen.

Es wird bereits davor gewarnt, die DeepNude-Software von unbekannten Quellen herunterzuladen. Tatsächlich stösst man bei der Web-Suche auf zahlreiche Links, die angeblich eine entsprechende Android-App (APK) bieten. Dabei handle es sich um betrügerische Angebote, um Usern Geld aus der Tasche zu ziehen oder Malware zu verbreiten.

Was hat DeepNude mit DeepFake zu tun?

Als DeepFake werden täuschend echt wirkende Videos bezeichnet, bei denen das Gesicht einer Person durch das einer anderen Person ersetzt wird («Face Swap»). Die technische Vorgehensweise ist die gleiche. Das heisst, es wird künstliche Intelligenz missbräuchlich verwendet, um Fake-Videos ohne Einwilligung der Betroffenen zu erstellen.

Motherboard hatte Ende 2017 über das Phänomen berichtet und die Bezeichnung DeepFake bekannt gemacht.

Auch wenn sich der DeepNude-Erschaffer nur als «ein Programmierer mit einem Interesse am maschinellen Lernen» darstellt: Seine Arbeit könne das Leben unschuldiger Opfer zur Hölle machen, hält Motherboard fest. Dies habe die Verbreitung gefälschter Rachepornos gezeigt, die mit der DeepFake-Technologie erstellt wurden. Das Herumbasteln an Frauenkörpern sei ein schädliches, manchmal lebenzerstörendes Unterfangen für die Opfer solcher «Enthusiasten».

Macht man sich mit DeepNude strafbar?

Das Herunterladen, Installieren und Ausprobieren der App an sich ist nicht verboten. Der Programmierer hat seine Software auch nicht urheberrechtlich schützen lassen.

Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal, kann strafrechtlich verfolgt werden und zu einer Verurteilung führen.

Wer DeepNude-Aufnahmen weiterverbreitet, die von Dritten erstellt wurden, macht sich ebenfalls strafbar. Dies gilt auch für Bilder, die via WhatsApp verschickt werden.

Wie gut funktioniert das?

Motherboard hat die DeepNude-App (für Windows) getestet. Mit mehr als einem Dutzend Bilder von Frauen und Männern, in unterschiedlich bekleidetem Zustand – von vollständig angezogen bis zum «Schnurbikini» – und mit einer Vielzahl von Hauttönen. Die Ergebnisse variierten dramatisch.

Wenn man ein gut beleuchtetes, hochauflösendes Bild einer Frau im Bikini mit direktem Blick auf die Kamera verwende, seien die gefälschten Nacktbilder durchaus realistisch, hält Motherboard fest. Der Algorithmus fülle Details genau aus, wo vorher Kleidung war, oder die Position der Brüste unter der Kleidung, Brustwarzen und Schatten.

Die DeepNude-Software funktioniere alles andere als fehlerfrei. Bei den meisten Bildern, und insbesondere bei Bildern mit niedriger Auflösung, gebe es visuelle Artefakte. Und im Test scheiterte die Software komplett an Aufnahmen mit ungewöhnlicher Beleuchtung oder Kleidung. Dies scheine das verwendete neuronale Netzwerk massiv zu stören.

Folgt eine Version für Männer-Körper?

Durchaus möglich.

Der Algorithmus funktioniere nur mit Frauen, weil Bilder von nackten Frauen einfacher online zu finden seien, liess der anonyme Programmierer von DeepNude gegenüber Motherboard verlauten. Aber er hoffe, auch eine männliche Version zu erstellen, sagte er, bevor das Projekt grosse Wellen schlug. Ob er an diesem Plan festhält, ist nicht bekannt.

Laut seinen Angaben basiert die Software auf pix2pix, einem Open-Source-Algorithmus, der 2017 von Forschern der University of California in Berkeley entwickelt wurde.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Wurden diese Fotos manipuliert?
1 / 9
Wurden diese Fotos manipuliert?
Ist dieses Bild eine Fälschung? Es wurde bei einer Studie von Wissenschaftlern der University of Warwick in Grossbritannien zur Erforschung von Bildmanipulationen genutzt.
Auf Facebook teilenAuf X teilen
Diese Deepfakes musst du gesehen haben
Video: watson
Das könnte dich auch noch interessieren:
90 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Dong
02.07.2019 10:46registriert Oktober 2016
Yeah, geil, 50$ für eine App, die allerdings nur dann gute Ergebnisse liefert, wenn die Person auf dem Foto schon (fast) nackt ist.
Das ist in etwa so seriös wie Penisvergrösserungscrème ...
47915
Melden
Zum Kommentar
avatar
Atzepeng (:ᘌꇤ⁐ꃳ~
02.07.2019 11:55registriert September 2015
Ist das dieser Jamba Nacktscanner, der nebst dem Crazy Frog vor ca. 10 Jahren brutal nervtötend im TV beworben wurde? 😂😂😂
1373
Melden
Zum Kommentar
avatar
Randalf
02.07.2019 10:59registriert Dezember 2018
Diese App ist überflüssig. Es gibt ja die "Röntgenbrille".😉
901
Melden
Zum Kommentar
90
Grosse Plattformen verkaufen ihre User-Inhalte an KI-Entwickler – mit Folgen
Populäre amerikanische Online-Plattformen haben eine neue Möglichkeit entdeckt, die von den eigenen Usern (kostenlos) erstellten Inhalte zu Geld zu machen. Widerspruch zwecklos?

Es ist nur die neuste Randnotiz in einem schmutzigen Spiel, das viele Nutzerinnen und Nutzer, die Wert auf Datenschutz und Privatsphäre legen, entgeistert mitverfolgen: Tumblr und WordPress bereiten sich gemäss einem Enthüllungsbericht vom Dienstag darauf vor, grosse Teile ihre Nutzerdaten an Midjourney und OpenAI zu verkaufen.

Zur Story