Leben
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Stell dir vor, dein Sexvideo taucht im Internet auf – dabei hast du gar nie eines gedreht

Kennst du «Face Swap»? Diese App, die dein Gesicht auf den Kopf einer anderen Person pflanzt? Mit ähnlichen Technologien können nun Bilder aus Social Media in Pornos montiert werden. Was natürlich auch getan wird.

02.02.18, 16:08 03.02.18, 09:39


Stell dir vor, du bist ein Star. Ein Pornostar. Gewollt hast du das natürlich nicht. Aber dank modernster Computerprogramme könnte das schon bald Realität werden. Denn was mit Heimanwendungen für Fotos schon lange kein Problem mehr ist – nämlich Köpfe auf fremde Körper zu montieren – hält nun auch in der Videobearbeitung Einzug.

Dabei ist viel weniger erschreckend, dass dies immer perfekter gelingt, sondern viel mehr, wie verhältnismässig einfach es mittlerweile selbst für den Computerlaien ist. Auf Community-Plattformen wie «Reddit» oder «Discord» tauschen sich bereits zehntausende User über die Möglichkeit aus, Gesichter in Videos zu montieren. Und immer geht es dabei um Pornografie.

Daisy Ridley Fake App
https://motherboard.vice.com/en_us/article/bjye8a/reddit-fake-porn-app-daisy-ridley

Prominentes Opfer: Schauspielerin Daisy Ridleys Gesicht auf dem Körper einer Pornodarstellerin. Bild: motherboard

Der Antrieb ist dabei oft der gleiche: Eine Person nackt zu sehen, die der betreffende Nutzer sonst wohl nie unverhüllt zu Gesicht bekäme. Als wäre es das Normalste der Welt wird ganz unverhohlen darüber diskutiert, wie man Gesichter von Ex-Geliebten, Schulfreundinnen oder Nachbarinnen möglichst perfekt in einen Pornoclip integrieren kann.

«Bis jetzt funktioniert es nur mit einfachen Videos ohne grosse Kopfbewegungen wirklich gut. Ich habe ein ziemlich gutes Video hingekriegt, von einem Mädchen, mit welchem ich zur High School ging. Ich habe dazu nur etwa 380 Fotos benötigt, die ich alle von ihrem Insta- und Facebook-Account heruntergeladen habe.»

Ein User teilt auf «Discord» seine Erfahrungen.

Ein User wird zum Synonym für Fake-Pornos

Versuche, gefälschte Filmpornografie herzustellen, gibt es schon lange, doch erst seit kurzem nimmt das Dimensionen an, die schon bald ausser Kontrolle geraten werden. Angestossen hat dies ein User namens «deepfakes». Auf «Reddit» stellte er ein Video online, mit welchem er demonstrierte, wozu man mit geeigneten Computerprogrammen und genügend Bildmaterial fähig ist. 

Beim Video handelt es sich natürlich um einen Porno. Darin zu sehen ist Model und Schauspielerin Gal Gadot. Auch wenn solch ein Video durchaus echt sein könnte, hat Gadot nie darin mitgewirkt. Dies musste sie nicht einmal abstreiten, denn «deepfakes» erklärte stolz, dass dieses Video eine Fälschung sei, die er nur aus Bild- und Videomaterial der Schauspielerin zusammengebastelt hat.

Gal Gadot wurde das erste prominente Opfer von User «deepfakes».

Bild: motherboard via giphy

Wobei von Basteln hier eigentlich nicht mehr die Rede sein kann. Denn bei der Vorgehensweise kommt modernste Computer-Intelligenz zum Einsatz. «Deepfakes» gibt an, dass er sich für seine Fake-Videos die künstliche Intelligenz zunutze macht. Intelligente Computerprogramme, die ansonsten Namen wie Siri oder Alexia tragen und uns unseren Alltag erleichtern sollen, werden nun dazu missbraucht, einen digitalen Albtraum wahr werden zu lassen.

Bereits kurz nach seinem Outing gab es einen Subreddit namens «deepfakes», der nach zwei Monaten schon über 15'000 Abonnenten zählt. Das Interesse, selbst über die Hauptdarstellerin eines Pornos entscheiden zu können, ist gross. Inzwischen ist das Wort «deepfakes» zum Synonym für Pornovideos geworden, deren Darsteller mit anderen Personen ersetzt wurden.

Der Geltungsdrang unserer modernen Gesellschaft macht alles einfacher

Ein Computer-Genie braucht man dafür nicht zu sein. Um auch Laien die Möglichkeit zu geben, «deepfakes» von Menschen ihrer Wahl machen zu können, hat ein anonymer User extra ein Tool programmiert. «Fake App» nennt sich das Programm schlicht. Damit soll sich jeder seinen ganz persönlichen Pornofilm zusammenklicken können – theoretisch.

Im Moment scheitern viele Versuche noch an der simplen Tatsache, dass die künstliche Intelligenz noch zu wenig schlau ist, um Gesichter selbst zu verändern und beispielsweise Gesichtsausdrücke glaubhaft zu simulieren. Es braucht also eine Pornodarstellerin, welche dem Fälschungsopfer möglichst ähnlich sieht, sowie sehr viele Fotos, welche das Gesicht des Opfers aus den unterschiedlichsten Blickwinkeln zeigen. Im Idealfall hochauflösende Videos, mit einer Rundumansicht des Kopfes.

Das Programm sucht dann für jedes Einzelbild des Pornoclips nach einem passenden Bild des Opfers, das vom Ausdruck und Blickwinkel her passt, und kopiert es auf den Kopf der Pornodarstellerin. 

Fake App
https://imgur.com/GBhKB91

Interface der «Fake App». Bild: Imgur

Lange wird dies nicht ein Problem bleiben, denn dank modernster Smartphones landet immer mehr geeignetes Material auf Instagram und Co. 

«480 Pixel+ sollte gehen, aber ich hab bisher alles in HD gemacht. Glücklicherweise haben meine Instagram-Freunde sehr gute Kameras. LMAO.»

Ein User berät einen anderen über das benötigte Ausgangsmaterial

Gleichzeitig werden die Tools, die es ermöglichen, unsere Identität zu missbrauchen, immer vielfältiger. Eine einfache Erweiterung für Chrome erlaubt es beispielsweise mit nur einem Klick sämtliche Fotos eines öffentlichen Instagram-Profils herunterzuladen. Das Gleiche bei Facebook. Und Screenshots von Snapchat-Nachrichten zu machen, ohne dass die App den Sender darüber informiert, ist schon lange kein Problem mehr.

Wohin geht die Reise?

Wie es mit der Technologie weitergehen könnte, erklärt Peter Eckersley, Chief Computer Scientist bei der Electronic Frontier Foundation, gegenüber dem Onlinemagazin Motherboard:

«Ich denke, wir stehen an der Schwelle zu einer Zeit, in welcher diese Technologie sehr einfach zu bedienen und weit verbreitet sein wird. Du kannst schon heute «deepfake»-Videos machen, aber Leute werden erkennen, dass es eine Fälschung ist, wenn sie genau genug hinschauen. Einige der involvierten Technologien sind noch immer ziemlich kompliziert. In ein, zwei Jahren wird das wohl aber nicht mehr der Fall sein.»

Vermutlich wird es eher ein, denn zwei Jahre dauern, bis gefälschte Videos kaum mehr von echten zu unterscheiden sind. Bereits jetzt kursieren im Internet unzählige Videos und GIFs, welche teilweise verblüffende Resultate von «deepfake» zeigen.

Reddit-User «Unobtrusive Bot» benutzte Fake App, um das Gesicht von Jessica Alba auf den Körper von Pornodarstellerin Melanie Rios zu pflanzen. gif: motherboard via Giphy

Wie bei vielen neuen Technologien ist die Pornografie dabei nur der Nährboden, der ihr zum Durchbruch verhilft. Was sonst noch alles möglich ist, lässt sich bereits nach kurzem Nachdenken erahnen. Auf YouTube zeigt ein User in einem Video ein kurze Sequenz, in welcher er das Gesicht von Schauspieler Bruno Ganz, der in «Der Untergang» Adolf Hitler spielt, auf Argentiniens Präsident Mauricio Macri montiert hat.

Zwar ist deutlich erkennbar, dass es sich um eine Fälschung handelt, doch man stelle sich vor, wohin das führt, wenn in zwei Jahren jeder Laie mit einer einfachen App solche Reden faken könnte. Denn auch das Fälschen von Stimmen wird immer einfacher.

Dies dürfte sozialen Medien, Datenschützern und vor allem Gerichten bald sehr viel Kopfzerbrechen bereiten. Vor allem auch, da das Ganze auch in die andere Richtung funktioniert. Sprich: Leute stellen echte Videos online, vornehmlich von Politikern, und behaupten, es sei ein Fake.

Die Plattform Discord hat inzwischen Gruppen, welche sich mit «deepfake» beschäftigen gesperrt. Ein Tropfen auf den heissen Stein. Im besten Fall wird die Technologie in Zukunft nur von 14-jährigen Teenagern verwendet, um sich in ein Video ihres Idols zu montieren.

Wozu bewusste Fehlinformationen dienen – wir erklären es dir

Video: watson

Auch ein bisschen Fake: So heissen Promis in Wirklichkeit

Mehr zum Thema Leben gibt's hier:

Die zwei beliebtesten Chaos-Familien der Welt kommen endlich (wieder) ins Kino

12 Salate, die du diesen Sommer über essen solltest

Vagina, Vulva, Hauptsache Italien? Frauen, lernt die Namen für eure Geschlechtsteile!

Wegen diesen fiesen Memes? «Pu der Bär» kommt in China nicht ins Kino

Das Mädchen von der Babyfarm

«Ich trage jeden Tag Crocs»  – die 15 lustigsten Gründe, warum Singles Singles sind

Wenn ich noch einen alten Kerl mit einer jungen Frau vögeln sehe ...

Athleticum wird verschwinden – so wie diese 7 Schweizer Ladenketten

Dir ist heiss? Diese 10 eiskalten Filme senken deine Temperatur

Rasieren wie anno dazumal: So gelingt dir die perfekte Nassrasur

In diese Gemeinden musst du ziehen, um so viel freie Tage wie möglich abzustauben

Die Netflix-Serie «Insatiable» ist eine kranke Krise aus Glitzer

Wenn du nicht mindestens 7 Sternbilder erkennst, frisst dich der Grosse Bär 😱

«Dackel drauf!» ist das perfekte Spiel, um deine Ferien in Schwung zu bringen

24 richtig hässliche Handys, die du tatsächlich einmal kaufen konntest

90-jähriger «Selfie-Star» erobert das Internet

Heiss, heisser, Hitzesommer: Wer von der Gluthitze profitiert

Erkennst du diese Schweizer Städte anhand ihres Strassennetzes?

Nochmal 20 Zitate von wichtigen Menschen, die du fürs Leben brauchst. Eventuell.

Airbnb weiss, wo die nettesten Schweizer wohnen. (Spoiler: nicht im Kanton Zürich)

Stadtzürcher zum ersten Mal an der Street Parade: «Es hatte sogar Leute aus Bülach»

12 Jugendliche erzählen, wie sie als Erwachsene auf keinen Fall sein wollen

Liebe Männer: Warum seid ihr eigentlich Single?

Wegen dieser Nachricht werden «Star Trek»-Fans gerade in Ekstase versetzt

20 Zitate von wichtigen Menschen, die du fürs Leben brauchst. Eventuell.

Einmal Entschleunigen, bitte! 6 Gebiete der Slow-Bewegung und ihre Widersprüche

Wir haben unser Leben lang Bier falsch gezapft. So geht’s richtig

präsentiert von

Das sind Bill & Hazel. Sie machen etwas, was dir sicher auch gut tun würde

«Der Sex mit ihm hat mir noch nie Spass gemacht»

Wer diese 15 Serien nicht an einem Bild erkennt, darf nur noch RTL gucken

Hier soll man(n) in Paris pinkeln – und warum die Bevölkerung daran keine Freude hat

7 heisse Spieleneuheiten, die du dir auf keinen Fall entgehen lassen darfst!

15 leckere Supermarkt-Produkte, die ihr von den Frankreich-Ferien heimnehmen solltet

Diese 15 Filmposter zeigen dir, wie schamlos China bei Hollywood abkupfert

Fan twittert über seine Depressionen – so berührend reagiert der Fussballklub <3

«Kein Leben, kein Geld und einen kaputten Körper» – so hart ist es, eine Ballerina zu sein

Pubertät mit zehn, elf oder zwölf Jahren: Geht das jetzt schon los?

Migros und Coop sind im Fitnessfieber – und die kleinen Studios leiden

Diesen Mann kennen wir alle. Er verbrennt am liebsten Dämonen

Apple bastelt an einem eigenen Netflix. 4 Fragen und Antworten dazu

Alle Artikel anzeigen

Hol dir die App!

Brikne, 20.7.2017
Neutrale Infos, Gepfefferte Meinungen. Diese Mischung gefällt mir.

Abonniere unseren Daily Newsletter

37
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
37Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • mrlila 03.02.2018 20:01
    Highlight Wo ist der Link von Gal Gadot's Porno. Ich frage für einen Freund. 😬
    7 1 Melden
  • elmono 02.02.2018 21:25
    Highlight Somit kann ich auch meine blasse weisse Birne auf den Lexington Steele Körper montieren...
    29 2 Melden
  • Joseph Dredd 02.02.2018 19:42
    Highlight "Intelligente Computerprogramme, die ansonsten Namen wie Siri oder Alexia tragen und uns unseren Alltag erleichtern sollen, werden nun dazu missbraucht, einen digitalen Albtraum wahr werden zu lassen."

    Hat irgendjemand etwas anderes erwartet?
    62 3 Melden
    • Hallosager 03.02.2018 03:53
      Highlight Und Siri und Alexa verkaufen dich und all deine angegebenen Daten weiter. Ob das in naher Zukunft besser enden wird? :-)
      6 0 Melden
  • Hugo Wottaupott 02.02.2018 18:50
    Highlight Mein Sexvideo will niemand sehen. Nur Hand und Enis!
    18 11 Melden
    • Marlon Mendieta 02.02.2018 21:37
      Highlight Pass auf!
      Gehst du Handrea nur einmal fremd, ist alles aus
      7 1 Melden
  • UrGamer 02.02.2018 18:47
    Highlight Hab' dieses Faceapp bereits selber getestet und komme zu folgendem Fazit:
    - So mehr Zeit man hat, desto besser funktioniert es.

    Ich habe gestern das Programm für 14h laufen lassen und ich muss sagen, dass Endresultat war verblüffend. Trotzdem hat man noch erkannt, dass es fake ist.

    Wenn sich diese Technik rasant weiterentwickelt, weiss man schon bald nicht mehr, ob es ein reales oder fake video ist.
    32 1 Melden
  • bebby 02.02.2018 18:45
    Highlight Ein Grund mehr, weder von sich noch von seinen Kindern Fotos auf irgendeiner Sozialen Plattform hochzuladen. Das Missbrauchspotential ist enorm und geht auch in Richtung identity theft. Theoretisch kann man so online mit einer falschen Identität Bankkonten eröffnen oder gar räumen.
    66 3 Melden
    • Flötist 02.02.2018 19:06
      Highlight Dafür ist es für viele Leute bereits zu spät.
      49 2 Melden
  • Theor 02.02.2018 18:32
    Highlight Habt ihr euch schon einmal überlegt, das Videos im Grunde genommen auch nur Daten aus Nullern und Einsern sind? Ist es in ferner Zukunft nicht auch möglich, ein Sexvideo komplett fiktiv zu erfinden, ohne dass die Szene jemals mit einem Videorecorder aufgenommen wurde? Wenn die KI genug gut wird um sowas zu berechnen?
    47 9 Melden
    • Flötist 02.02.2018 19:07
      Highlight 2 Jahre, dann sind wir so weit. Bereits heute sehen gewisse Games sehr realitätsnah aus. Aber noch erkennt man, dass es Simulationen sind. Nicht mehr lange.
      29 3 Melden
    • seventhinkingsteps 02.02.2018 19:11
      Highlight Du meinst nicht über 3D Modellierungen sondern eine AI die Pixel konstruiert aber ohne Wissen über Winkel, Licht u.s.w. sondern nur trainiert mit Videodaten? Bin kein Experte, aber domänen spezifisch sollte das möglich sein, also z.Bsp. bewegendes Wasser.
      23 1 Melden
    • Theor 02.02.2018 19:31
      Highlight Ich bin absolut kein Profi, aber ausgehend von dem Wissen dass ein Video auf binärcode-Ebene auch nur eine Ansammlung von 0 und 1 ist, müsste es doch möglich sein, irgendwann Szenen zu simulieren, die man errechnet anstatt aufzeichnet?

      D.h. auch mein wunderschönes Gesicht ist als AVI-Datei nur eine Ansammlung von 0 und 1. Gib ner genug starken K.I ein foto von mir und sag ihr, sie soll ein Video erschaffen, dass mich nackt auf einem Bett zeigt und ne Frau auf mir drauf? Aktuell sicher noch Zukunftsmusik, aber irgendwann haben wir doch die Rechenpower für sowas?
      20 2 Melden
    • äti 02.02.2018 20:36
      Highlight ".... ein Sexvideo komplett fiktiv zu erfinden ..." - mach ich schon längst - im Kopf.
      45 1 Melden
    • seventhinkingsteps 02.02.2018 22:08
      Highlight @Theor

      Wenn wir die Rechenpower hätten um das zu tun wäre es aber viel einfacher die Szene mit 3D Modellen, Texturen, Ray Casting, Shading etc. nachzustellen und zu rendern.
      5 5 Melden
    • x4253 03.02.2018 21:28
      Highlight Wäre doch super. Auf Netflix können dann Genre, Schauspieler, Altersfreigabe, Länge und andere Attribute gewählt werden, und die KI baut daraus einen Film ;)
      4 0 Melden
  • Boadicea 02.02.2018 18:05
    Highlight Die Kommentatoren scheinen das mehrheitlich lustig zu finden. Männer faken Frauen in Pornovideos. Ist doch egal. Sind nur Frauen. Beängstigend sind nur politische Probleme.

    Es gibt kein Sexismus-Problem. Das behaupten nur Frauen, um Männer noch mehr zu unterdrücken. Dabei beherrschen diese hysterischen Emanzen längst die Welt. Wacht endlich auf! Männer sind das wahre Opfer.
    25 107 Melden
    • Flötist 02.02.2018 19:09
      Highlight @Boadicea Kühl dich mal besser ein bisschen ab. Niemand hat hier gesagt, dass er es lustig findet, nur wenn Männer Frauen auf Videos faken, das hast du einfach so allen unterstellt. Don't do that!
      36 2 Melden
    • NotWhatYouExpect 02.02.2018 19:44
      Highlight Wer am meisten gefaket wird ist wohl Nicolas Cage. Auch gibt es Frauen bereits Frauen auf Reddit die nach Pornos mit Schauspielern gefragt haben. Diese werden natürlich auch bedient ;) jeder soll was davon abhaben!
      23 2 Melden
    • raues Endoplasmatisches Retikulum 02.02.2018 20:00
      Highlight @Boadicea
      Was sind des das für Reflexe?
      Man kann diese Videos auch als Fan-Art sehen. Bei Harry Potter zB gibt es Fanfiction, die sich mit Liebesgeschichten zwischen verschiedenen Charakteren ausseinandersetzt, dabei gibt es auch überrascheden Konstellationen zB Potter und Malfoy. Dies wurden teilweise auch mit Bilder versehen und natürlich orientieren sich die Zeichner dabei auch an Radcliffe und Felton.
      Nun gibt es einfach eine Technik mit der man den Bildern leben einhauchen kann.
      Nur die Technik ist neu, sonst hat sich nichts geändert und ich sehe auch kein Problem.
      7 11 Melden
  • blablup 02.02.2018 17:51
    Highlight Oooch und ich habe mich schon auf die Nicolas Cage fakes gefreut! Fehlanzeige!
    25 7 Melden
    • NotWhatYouExpect 02.02.2018 19:45
      Highlight GIbt es :) Nicolas Cage als Superman usw. nur danach suchen.
      6 1 Melden
  • Pana 02.02.2018 17:01
    Highlight Eigentlich ganz gut, dann kann man jedes Sextape, dass ausversehen im Internet landet, kategorisch als Fake bezeichnen.
    197 8 Melden
    • NotWhatYouExpect 02.02.2018 19:40
      Highlight Ja am besten machst du jetzt schon direkt ein paar Fake Videos mit deinem Gesicht davon!
      17 1 Melden
  • bullygoal45 02.02.2018 16:53
    Highlight Bald ist Sexting nicht mehr so schlimm...

    „Bildet euch nichts ein, dieser „Schnäbi-Snap“ im Internet ist nur Photoshop..“
    45 3 Melden
  • TheNormalGuy 02.02.2018 16:47
    Highlight deepfake... soso...hmm...ähm... ich... ich muess mal churz wo ane....
    119 21 Melden
  • Olaf! 02.02.2018 16:44
    Highlight Hier ein recht gutes SFW Beispiel.

    Original SNL Sketch welcher sich über Lana Del Rey lustig macht:


    Fake mit Lanas "echtem" Gesicht:
    http://sendvid.com/cu75t3d6

    2 8 Melden
    • Olaf! 02.02.2018 16:56
      Highlight Nicht zu vergessen, die Videos mit Nicolas Cage in diversen Filmen in denen er leider nicht mitgespielt hat ;)

      18 2 Melden
    • schuldig 02.02.2018 20:49
      Highlight Ach was?! Es gibt also auch Filme in denen Cage
      mitgemacht hat?
      8 1 Melden
  • oma-schubser 02.02.2018 16:34
    Highlight Es gibt ein Video welches Studenten zeigt, die mit einer ähnlichen Technik Präsidenten wie Merkel oder Putin in Echtzeit nachahmen können.



    Auch nur leicht erschreckend...
    33 2 Melden
  • Lindaa 02.02.2018 16:31
    Highlight Den mit „Gal Gadot“ muss ich schauen...
    85 18 Melden
    • Olaf! 02.02.2018 16:47
      Highlight Reddit.com -> r/deepfakes
      13 4 Melden
    • TanookiStormtrooper 02.02.2018 19:09
      Highlight Aber Lindaa.... 😱

      (darf ich mitkucken? 😜)
      11 6 Melden

Mit Tinder-Tim im Tal der Tränen

In einer schlaflosen Nacht swiped sich Emma mal wieder durch Tinder, wo sie Tim matcht. Was vielversprechend beginnt, endet heulend am Idaplatz.

Auf seinem Profil steht, dass er 190 cm gross ist. Sonst nichts. Auch hat Tim nur ein Bild auf Tinder. Dieses hat's aber in sich. Blaue Augen, dunkelblonde Locken, braungebranntes Gesicht, volltätowierte Arme. Der Anblick macht mich mindestens so glücklich wie der Fakt, dass er seine Persönlichkeit nicht mit Surf-, Bergsteig- und Reise-Bildern untermalt.

Mein Blick schweift auf die Uhr: 3.28 Uhr. Ich kann nicht schlafen. Der Grund könnte sein, dass ich erst gerade nach Hause gekommen bin, wo ich …

Artikel lesen