Ein Programmierer hat eine App entwickelt, mit der sich Fotos von Frauen in Nacktbilder umwandeln lassen.
Dabei handelt es sich selbstverständlich um Fälschungen. Aber um gut gemachte, die je nach Vorlage täuschend realistisch aussehen können.
Möglich ist dies dank raffinierter Algorithmen, die bei der automatischen Bildbearbeitung zum Einsatz kommen. Ein sogenanntes neuronales Netzwerk wurde darauf trainiert, Aufnahmen von bekleideten weiblichen Körpern so zu manipulieren, dass realistisch wirkende Nacktbilder entstehen.
Ein Programmierer aus Estland.
Das Online-Medium Motherboard berichtete am 26. Juni über DeepNude, nachdem der Programmierer begonnen hatte, die Software für 50 Dollar zu verkaufen.
Am darauffolgenden Tag nahm der Programmierer, der unter dem Pseudonym Alberto auftritt, die Website offline. Angeblich wegen des unerwartet grossen Ansturms und wegen potenzieller Gefahren.
Via E-Mail liess der DeepNude-Programmierer verlauten, er habe moralische und ethische Bedenken. Da er nicht für eine solche Technologie verantwortlich sein wolle, habe er entschieden, die Arbeit daran einzustellen.
Die Website www.deepnude.com verweist lediglich auf ein gleichnamiges Twitter-Profil. Dort schreibt der mutmassliche Entwickler, trotz der Sicherheitsmassnahmen (digitales Wasserzeichen etc.) sei das Missbrauchspotenzial zu gross. Er habe darum das Projekt gestoppt. Und:
Die Software ist bereits im Umlauf und wird im Internet weiterverbreitet.
Am Montagmorgen sperrte die Chat-Plattform Discord einen ersten Kanal, der eine Version von DeepNude verkaufte. Seither wurden zahlreiche Kanäle gesperrt, deren Adressen bei Reddit publiziert wurden und die zum Teil damit lockten, aus Privataufnahmen von Usern Nacktbilder zu erstellen.
Laut Discord verstösst DeepNude gegen die Community-Richtlinien der Plattform. Diese verbieten das Teilen oder Verlinken von Inhalten «mit der Absicht, eine andere Person zu beschämen oder zu erniedrigen», wie auch die Förderung sexuell eindeutiger Inhalte ohne Zustimmung der betroffenen Person.
Wie viele Kopien von der DeepNude-Software bereits in Umlauf sind, ist nicht bekannt. Ab dem 23. Juni konnte eine für Windows 10 und für Linux verfügbare Gratis-Version von der DeepNude-Website heruntergeladen werden.
Motherboard konnte das Programm laut eigenen Angaben auf einem Windows-Rechner testen. Es erforderte keine technischen Kenntnisse. In der kostenlosen Version der App seien die erstellten Nacktbilder teilweise mit einem grossen (digitalen) Wasserzeichen versehen gewesen.
Es wird bereits davor gewarnt, die DeepNude-Software von unbekannten Quellen herunterzuladen. Tatsächlich stösst man bei der Web-Suche auf zahlreiche Links, die angeblich eine entsprechende Android-App (APK) bieten. Dabei handle es sich um betrügerische Angebote, um Usern Geld aus der Tasche zu ziehen oder Malware zu verbreiten.
Als DeepFake werden täuschend echt wirkende Videos bezeichnet, bei denen das Gesicht einer Person durch das einer anderen Person ersetzt wird («Face Swap»). Die technische Vorgehensweise ist die gleiche. Das heisst, es wird künstliche Intelligenz missbräuchlich verwendet, um Fake-Videos ohne Einwilligung der Betroffenen zu erstellen.
Die DeepNude-Story ist auf vielen Ebenen eklig. Was ich nicht weiß: Wissen die Nutzer, dass sie nur eine Fantasie betrachten? Auch mit KI gibt es keine Röntgenbrille. Ein Computer malt einen X-beliebigen nackten Körper.
— Public Torsten (@publictorsten) 2. Juli 2019
Motherboard hatte Ende 2017 über das Phänomen berichtet und die Bezeichnung DeepFake bekannt gemacht.
Auch wenn sich der DeepNude-Erschaffer nur als «ein Programmierer mit einem Interesse am maschinellen Lernen» darstellt: Seine Arbeit könne das Leben unschuldiger Opfer zur Hölle machen, hält Motherboard fest. Dies habe die Verbreitung gefälschter Rachepornos gezeigt, die mit der DeepFake-Technologie erstellt wurden. Das Herumbasteln an Frauenkörpern sei ein schädliches, manchmal lebenzerstörendes Unterfangen für die Opfer solcher «Enthusiasten».
Das Herunterladen, Installieren und Ausprobieren der App an sich ist nicht verboten. Der Programmierer hat seine Software auch nicht urheberrechtlich schützen lassen.
Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal, kann strafrechtlich verfolgt werden und zu einer Verurteilung führen.
Wer DeepNude-Aufnahmen weiterverbreitet, die von Dritten erstellt wurden, macht sich ebenfalls strafbar. Dies gilt auch für Bilder, die via WhatsApp verschickt werden.
Motherboard hat die DeepNude-App (für Windows) getestet. Mit mehr als einem Dutzend Bilder von Frauen und Männern, in unterschiedlich bekleidetem Zustand – von vollständig angezogen bis zum «Schnurbikini» – und mit einer Vielzahl von Hauttönen. Die Ergebnisse variierten dramatisch.
Wenn man ein gut beleuchtetes, hochauflösendes Bild einer Frau im Bikini mit direktem Blick auf die Kamera verwende, seien die gefälschten Nacktbilder durchaus realistisch, hält Motherboard fest. Der Algorithmus fülle Details genau aus, wo vorher Kleidung war, oder die Position der Brüste unter der Kleidung, Brustwarzen und Schatten.
Die DeepNude-Software funktioniere alles andere als fehlerfrei. Bei den meisten Bildern, und insbesondere bei Bildern mit niedriger Auflösung, gebe es visuelle Artefakte. Und im Test scheiterte die Software komplett an Aufnahmen mit ungewöhnlicher Beleuchtung oder Kleidung. Dies scheine das verwendete neuronale Netzwerk massiv zu stören.
Durchaus möglich.
Der Algorithmus funktioniere nur mit Frauen, weil Bilder von nackten Frauen einfacher online zu finden seien, liess der anonyme Programmierer von DeepNude gegenüber Motherboard verlauten. Aber er hoffe, auch eine männliche Version zu erstellen, sagte er, bevor das Projekt grosse Wellen schlug. Ob er an diesem Plan festhält, ist nicht bekannt.
Laut seinen Angaben basiert die Software auf pix2pix, einem Open-Source-Algorithmus, der 2017 von Forschern der University of California in Berkeley entwickelt wurde.
Das ist in etwa so seriös wie Penisvergrösserungscrème ...