Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

screenshot: motherboard

Die DeepNude-App zieht Frauen aus – ohne Einwilligung der Betroffenen



«Diese schreckliche App zieht das Foto einer beliebigen Frau mit einem einzigen Klick aus.»

Titel des Online-Mediums Motherboard

Was ist DeepNude?

Ein Programmierer hat eine App entwickelt, mit der sich Fotos von Frauen in Nacktbilder umwandeln lassen.

Dabei handelt es sich selbstverständlich um Fälschungen. Aber um gut gemachte, die je nach Vorlage täuschend realistisch aussehen können.

Möglich ist dies dank raffinierter Algorithmen, die bei der automatischen Bildbearbeitung zum Einsatz kommen. Ein sogenanntes neuronales Netzwerk wurde darauf trainiert, Aufnahmen von bekleideten weiblichen Körpern so zu manipulieren, dass realistisch wirkende Nacktbilder entstehen.

Wer steckt dahinter?

Ein Programmierer aus Estland.

Das Online-Medium Motherboard berichtete am 26. Juni über DeepNude, nachdem der Programmierer begonnen hatte, die Software für 50 Dollar zu verkaufen.

Bild

screenshot: motherboard.com

Am darauffolgenden Tag nahm der Programmierer, der unter dem Pseudonym Alberto auftritt, die Website offline. Angeblich wegen des unerwartet grossen Ansturms und wegen potenzieller Gefahren.

Via E-Mail liess der DeepNude-Programmierer verlauten, er habe moralische und ethische Bedenken. Da er nicht für eine solche Technologie verantwortlich sein wolle, habe er entschieden, die Arbeit daran einzustellen.

Die Website www.deepnude.com verweist lediglich auf ein gleichnamiges Twitter-Profil. Dort schreibt der mutmassliche Entwickler, trotz der Sicherheitsmassnahmen (digitales Wasserzeichen etc.) sei das Missbrauchspotenzial zu gross. Er habe darum das Projekt gestoppt. Und:

«Die Welt ist noch nicht bereit für DeepNude.»

Unbekannter Entwickler

Was ist das Problem?

Die Software ist bereits im Umlauf und wird im Internet weiterverbreitet.

Am Montagmorgen sperrte die Chat-Plattform Discord einen ersten Kanal, der eine Version von DeepNude verkaufte. Seither wurden zahlreiche Kanäle gesperrt, deren Adressen bei Reddit publiziert wurden und die zum Teil damit lockten, aus Privataufnahmen von Usern Nacktbilder zu erstellen.

Laut Discord verstösst DeepNude gegen die Community-Richtlinien der Plattform. Diese verbieten das Teilen oder Verlinken von Inhalten «mit der Absicht, eine andere Person zu beschämen oder zu erniedrigen», wie auch die Förderung sexuell eindeutiger Inhalte ohne Zustimmung der betroffenen Person.

Wie viele Kopien von der DeepNude-Software bereits in Umlauf sind, ist nicht bekannt. Ab dem 23. Juni konnte eine für Windows 10 und für Linux verfügbare Gratis-Version von der DeepNude-Website heruntergeladen werden.

Motherboard konnte das Programm laut eigenen Angaben auf einem Windows-Rechner testen. Es erforderte keine technischen Kenntnisse. In der kostenlosen Version der App seien die erstellten Nacktbilder teilweise mit einem grossen (digitalen) Wasserzeichen versehen gewesen.

Es wird bereits davor gewarnt, die DeepNude-Software von unbekannten Quellen herunterzuladen. Tatsächlich stösst man bei der Web-Suche auf zahlreiche Links, die angeblich eine entsprechende Android-App (APK) bieten. Dabei handle es sich um betrügerische Angebote, um Usern Geld aus der Tasche zu ziehen oder Malware zu verbreiten.

Was hat DeepNude mit DeepFake zu tun?

Als DeepFake werden täuschend echt wirkende Videos bezeichnet, bei denen das Gesicht einer Person durch das einer anderen Person ersetzt wird («Face Swap»). Die technische Vorgehensweise ist die gleiche. Das heisst, es wird künstliche Intelligenz missbräuchlich verwendet, um Fake-Videos ohne Einwilligung der Betroffenen zu erstellen.

Motherboard hatte Ende 2017 über das Phänomen berichtet und die Bezeichnung DeepFake bekannt gemacht.

Auch wenn sich der DeepNude-Erschaffer nur als «ein Programmierer mit einem Interesse am maschinellen Lernen» darstellt: Seine Arbeit könne das Leben unschuldiger Opfer zur Hölle machen, hält Motherboard fest. Dies habe die Verbreitung gefälschter Rachepornos gezeigt, die mit der DeepFake-Technologie erstellt wurden. Das Herumbasteln an Frauenkörpern sei ein schädliches, manchmal lebenzerstörendes Unterfangen für die Opfer solcher «Enthusiasten».

Macht man sich mit DeepNude strafbar?

Das Herunterladen, Installieren und Ausprobieren der App an sich ist nicht verboten. Der Programmierer hat seine Software auch nicht urheberrechtlich schützen lassen.

Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal, kann strafrechtlich verfolgt werden und zu einer Verurteilung führen.

Wer DeepNude-Aufnahmen weiterverbreitet, die von Dritten erstellt wurden, macht sich ebenfalls strafbar. Dies gilt auch für Bilder, die via WhatsApp verschickt werden.

Wie gut funktioniert das?

Motherboard hat die DeepNude-App (für Windows) getestet. Mit mehr als einem Dutzend Bilder von Frauen und Männern, in unterschiedlich bekleidetem Zustand – von vollständig angezogen bis zum «Schnurbikini» – und mit einer Vielzahl von Hauttönen. Die Ergebnisse variierten dramatisch.

Wenn man ein gut beleuchtetes, hochauflösendes Bild einer Frau im Bikini mit direktem Blick auf die Kamera verwende, seien die gefälschten Nacktbilder durchaus realistisch, hält Motherboard fest. Der Algorithmus fülle Details genau aus, wo vorher Kleidung war, oder die Position der Brüste unter der Kleidung, Brustwarzen und Schatten.

Die DeepNude-Software funktioniere alles andere als fehlerfrei. Bei den meisten Bildern, und insbesondere bei Bildern mit niedriger Auflösung, gebe es visuelle Artefakte. Und im Test scheiterte die Software komplett an Aufnahmen mit ungewöhnlicher Beleuchtung oder Kleidung. Dies scheine das verwendete neuronale Netzwerk massiv zu stören.

Folgt eine Version für Männer-Körper?

Durchaus möglich.

Der Algorithmus funktioniere nur mit Frauen, weil Bilder von nackten Frauen einfacher online zu finden seien, liess der anonyme Programmierer von DeepNude gegenüber Motherboard verlauten. Aber er hoffe, auch eine männliche Version zu erstellen, sagte er, bevor das Projekt grosse Wellen schlug. Ob er an diesem Plan festhält, ist nicht bekannt.

Laut seinen Angaben basiert die Software auf pix2pix, einem Open-Source-Algorithmus, der 2017 von Forschern der University of California in Berkeley entwickelt wurde.

Wurden diese Fotos manipuliert?

Diese Deepfakes musst du gesehen haben

Play Icon

Mehr zu Deepfakes

Deepfake gerät ausser Kontrolle – wie dieser falsche Tom Cruise zeigt 😱

Link zum Artikel

Die DeepNude-App zieht Frauen aus – ohne Einwilligung der Betroffenen

Link zum Artikel

Stell dir vor, dein Sexvideo taucht im Internet auf – dabei hast du gar nie eines gedreht

Link zum Artikel

Dreht Obama durch? Dieses Video zeigt eine der grössten Gefahren für Demokratien

Link zum Artikel

«Absolut krass und krank»: Schweizer Internet-User werden mit Kinderpornos erpresst

Link zum Artikel

«Fake News? Vielleicht brauchen wir einfach bessere Leser»

Link zum Artikel

Diese Deepfakes musst du gesehen haben 😂

Link zum Artikel
Alle Artikel anzeigen

Abonniere unseren Newsletter

126
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
126Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Mr.No Name 03.07.2019 20:17
    Highlight Highlight So eine App besitze ich schon lange. Bei mir heisst sie Hirn und der Code Gedanken.
  • El Pepedente 03.07.2019 15:34
    Highlight Highlight falsch falsch falsch^^ die ap zieht niemanden aus^^ dieses programm was es übrigens schon seit einigen jahren gibt (einfach nur in photoshop) es rechnet und schätzt etwa dein aussehen also kurz gesagt es zeichnet was es denkt^^ das einzige was effektiv übernommen wird ist deine hautfarbe aber der rest ist einfach nur ein ratespiel das so gut perfektioniert wurde das es real erscheint^^ aber unter einem einfach test im photoshop sehe ich innert wenigen sekunden das es isch nicht um ein orginal handelt^^
  • amade.ch 03.07.2019 06:05
    Highlight Highlight Ich hege ja die total naive Hoffnung, dass wir uns nicht zuletzt wegen solchen Apps endlich mal ein wenig entspannen, was Nacktheit anbelangt. Nacktbilder könnten so ihr Erpressungspotential verlieren.
  • Elmas Lento 02.07.2019 20:14
    Highlight Highlight Das Resultat dürfte in den meisten Fällen recht weit von der Realität entfernt sein. Um den Algorithmus zu trainieren braucht es eine Menge Fotos von Frauen welche erst bekleidet, dann nackt sind. Wo findet man das? In Pornos. Also wird das Resultat auch etwa einer durchschnittlichen Pornodarstellerin entsprechen. Den meisten hier ist wohl auch bewusst dass es zwischen einem Porno und der Realität (zum Glück) noch einen gewaltigen Unterschied gibt 😉
    • Deep Blender 02.07.2019 22:00
      Highlight Highlight Leider ist es heute nicht mehr notwendig, dass die an- und ausgezogenen Bilder von derselben Frau/Person sind.
      CycleGAN is eine Technik mit der beispielsweise Pferde in Zebras und umgekehrt umgewandelt werden können. Das funktioniert auch für viele andere Beispiele, wie Winter- und Sommer-Landschaften und kann leider auch für angezogene und ausgezogene Personen missbraucht werden.
  • Thomas_54 02.07.2019 18:34
    Highlight Highlight Kleine Anmerkung an den Autor: "Der Programmierer hat seine Software auch nicht urheberrechtlich schützen lassen." dürfte falsch sein, er hat das Urheberrecht an der Software bis er dies abtritt und z. B. unter einer freien Lizenz allen zur Verfügung stellt. Die Verbreitung ist also an sich vermutlich bereits eine Urheberrechtsverletzung.
  • Ofi 02.07.2019 18:03
    Highlight Highlight Funktioniert die APP auch umgekehrt? Fahre jetzt dann bald an die cote d‘Azur und möchte gerne all die FKK- ler Phototechnisch bekleiden !
    • Deep Blender 02.07.2019 22:01
      Highlight Highlight Obwohl die Frage nicht ernst gemeint ist lautet die Antwort höchstwahrscheinlich ja :)
    • El Pepedente 03.07.2019 15:42
      Highlight Highlight egal was du für eine idee hast andere hatten sie schon lange und haben sie meist umgesetzt^^ mich wunderts oft was ich so alles im netzt finde^^ zum glück nicht in dem netz wo die meisten verkehren :D
  • giandalf the grey 02.07.2019 17:22
    Highlight Highlight 1. Uuuh der Entwickler veröffentlich es nicht mehr... In 30 min fand ich einen vertrauenswürdigen Download. Wer glaubt, die Welt sei jetzt von dieser Software befreit träumt.

    2. Ich habs also mal getestet (for research purposes of course) und ganz ehrlich... Wer diese Resultate für echt hält, hat noch nie einen Menschen gesehen 😂

    Fazit: Viel Drama um gar nichts.
  • Deep Blender 02.07.2019 17:13
    Highlight Highlight Ich bin der Meinung, dass wir einen Weg finden müssen mit dieser Art von Programmen umgehen zu können, egal wie schlimm das klingen mag.

    Ich arbeite selbst mit maschinellem Lernen. Ein Ansatz, der sich in den letzten Jahren massiv verbessert hat heisst "Neural Style Transfer". Die Idee ist, dass man beispielsweise ein Photo hat und dieses in einen (Kunst-)Stil umwandelt. Für Designer kann das eine sehr hilfreiche Anwendung sein um Ideen auszuprobieren.
    Gleichzeitig ist es aber nur eine Frage der Zeit, bis diese Anwendungen gut genug werden, um als "Stil" ein Nacktbild zu verwenden.
    • El Pepedente 03.07.2019 15:45
      Highlight Highlight aber die menscheit geht in letzter zeit gar nicht mit problemenn um da wird nur gejammert und alle schreien unbewusst nach dikatatur da sie allen anderen ihren spass verbieten wollen^^ und aja ich empfehle ihnen von blender auf maya zu wechslen^^ kostet zwar etwas geld aber ist welten besser :D udn ich wette ich kann dort diese app integrieren und anahnd den daten avatere erstellen :D ne spass bei seite :D geht sicher werde ich aber nicht machen :D
  • Gustav.s 02.07.2019 15:30
    Highlight Highlight Habs gerade getestet. Ergab eine Ansammlung von Aliens. Brust auf Schulter, Bauchnabel usw
    Nur Bilder aus der Google Bikini Suche mit Modellartigen Aussehen ergaben wirklich etwas das man kurz für echt halten könnte.
  • Aha2 02.07.2019 15:30
    Highlight Highlight Ich finds geil.
    • El Pepedente 03.07.2019 15:45
      Highlight Highlight welche art von geil :D XD
  • Don Huber 02.07.2019 15:01
    Highlight Highlight Ich kapiers nicht auf https://www.deepnude.com/ ist die Seite offline nur noch das Logo. Wie kann man den Service jetzt benutzen ? Weil ein Kumpel von mir möchte dies unbedingt mal ausprobieren.
    • mänsch 02.07.2019 15:23
      Highlight Highlight ein kumpel ja? 😂
    • Don Huber 02.07.2019 21:59
      Highlight Highlight 😇 App fand ich auch nicht. Gibts das nicht mehr ?
    • El Pepedente 03.07.2019 15:46
      Highlight Highlight ich poste hier sicher keine links aber mit etwas googlen findest du alles
  • Nony 02.07.2019 14:58
    Highlight Highlight Vielleicht würde es die Situation entspannen, wenn von allen Menschen eine Unzahl von Nacktbildern im Internet wären. Auf diese Weise könnten vielleicht höchstens noch die betroffenen Personen selber mit einigermassen vernünftiger Sicherheit sagen, ob sie jetzt wirklich abgebildet sind, oder ob es sich um ein Fake handelt. Dann müsste auch kein Promi mehr Angst haben, dass seine Cloud gehackt wird.
    • Snowy 02.07.2019 18:19
      Highlight Highlight Top Idee!

      Auf gehts!!
  • Futon Snek 02.07.2019 14:36
    Highlight Highlight Discord schert sich wenigstens noch dafür, was auf der eigenen Platform geteilt wird👍
    • JimmyNieCricket 02.07.2019 19:01
      Highlight Highlight Tun sie nicht, sie regieren nur auf massive Proteste. Wenn die Leute wüssten wofür es alles Server gibt dort.... werde manchmal zu sehr abstrusen Gruppen eingeladen, da ich schon „immer“ auf discord war und viele Leute kenne. Da ist DAS hier etwas vom harmlosesten ^^
  • ChiliForever 02.07.2019 14:34
    Highlight Highlight Das klingt für mich wie der feuchte Traum 17jähriger Pennäler... wird man nicht irgendwann erwachsen?
    • Ueli der Knecht 02.07.2019 16:28
      Highlight Highlight hofflich nicht ;)
    • Snowy 02.07.2019 18:20
      Highlight Highlight .
      Benutzer Bild
    • Hallosager 02.07.2019 21:16
      Highlight Highlight @Ueli: Dazu das Profilbild 😂😂😂👍
  • slash 02.07.2019 14:29
    Highlight Highlight Ich brauche keine App, um mir einen bekleideten Menschen nackt vorstellen zu können.
  • das Geflüster 02.07.2019 13:37
    Highlight Highlight Shit. Das tönt interessant. Wieso schreibst du nicht, wo ich dieses Ding downloaden kann?
    • El Pepedente 03.07.2019 15:47
      Highlight Highlight findest du nicht mehr offiziel aber mit etwas googlen wirst du es finden^^
  • Magnum44 02.07.2019 13:05
    Highlight Highlight Und welcher Straftatbestand soll hier genau einschlägig sein, wenn NUR ein entsprechendes Bild erstellt wird? Oder wird hier die Urheberrechtsverletzung angesprochen?
    • lilie 02.07.2019 18:52
      Highlight Highlight @Magnum: Die KI benötigt Vorlagen, um ein entsprechendes Bild herzustellen. Diese stammen scheinbar aus dem Internet. Diese dürfen aber nur mit Einwilligung der abgebildeten Person verwendet werden.

      Die App benötigt zudem ja ein Foto von der "auszuziehenden" Person. Jemanden ohne dessen Einwilligung zu fotografieren ist zumindest nicht sehr anständig.

      Das am Ende generierte Bild könnte aufs Internet gestellt werden und damit der (angeblich) abgebildeten Person schaden.

      Oder der Appbenutzer könnte versuchen, die Fakebilder an die Medien zu verkaufen.

      Das ist alles rechtlich relevant.
    • JimmyNieCricket 02.07.2019 19:04
      Highlight Highlight Manipulation an fremden Material ist in vielen Ländern verboten, selbst wenn nicht veröffentlicht. Ist natürlich absurd da nicht nachweisbar aber gibt eine Grundlage falls man jetzt sehr.... abscheuliche Manipulationen finden würde.

      Ist aber auch piepegal, das kann heute jeder 16 jährige nach zwei YT Tutorials besser und erst noch genau so, wie er/sie es will....

      Verstehe darum auch die Aufregung nicht. Kommt mir persönlich vor wie wenn plötzlich einer mal im Garten kifft und dann alle so „waaaas, das geht ja garnicht“. Dabei ist es überhaupt nichts Neues, da gibts schon lange Software....
  • El Pepedente 02.07.2019 13:03
    Highlight Highlight das gibt es bei photoshop schon lange und die bilder sind keine orginale^^ nur der kopf ist von de rperson, der rest ist einfach nur gerechnet und geraten vom programm. eis meiner sicht als informatiker also einfach kein orginal aber jurist bin ich nicht
  • Lörrlee 02.07.2019 12:53
    Highlight Highlight "Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal, kann strafrechtlich verfolgt werden und zu einer Verurteilung führen."

    Ob dies in diesem Fall tatsächlich wirken wird, ist allerdings fraglich, schliesslich wäre im Falle eines solchen Fake-nudes praktisch nur der Kopf, also nur ein Bruchteil des Körpers, Besitz der betroffenen Person. Ob diese dann für das Nacktbild als Betroffene Person klagen darf, ist dann wiederum fraglich, insbesondere wenn es vielleicht Bilder des Kopfes sind, welche die Person in Facebook etc. hochgeladen hatte...
    • giandalf the grey 02.07.2019 17:25
      Highlight Highlight Naja ich würde sagen, das Recht am eigenen Bild beinhaltet auch das Recht, bestimmen zu dürfen wie das Bild bearbeitet wird. Und als Bearbeitung würde ich das schon bezeichnen.
    • JimmyNieCricket 02.07.2019 19:06
      Highlight Highlight Doch doch, genau diese Fälle zielt es an, nur dass man dazu vor 5 Jahren noch halbwegs ein Programm beherrschen musste. Es gab schon in den 90ern viele „celebrity fakes“ im internet. Big news ^ ^
  • Alnothur 02.07.2019 12:40
    Highlight Highlight Sprich es ist etwa so gut wie eine mittelmässige Photoshop-Arbeit.

    "Das Herumbasteln an Frauenkörpern sei ein schädliches, manchmal lebenszerstörendes Unterfangen für die Opfer solcher «Enthusiasten»"

    So wie ich Vice kenne, fänden sie die App, gäbe es sie für Männer, obergeil.
  • Olmabrotwurst vs. Schüblig 02.07.2019 12:39
    Highlight Highlight Wow.. komischerweise finde ich nackte frauen nicht so anziehend, wenn sie jedoch gut bekleidet ist uiuiuiui... ^_^ da hat man doch gleich mehr freude, aber nackt sind wir alle gleich...
  • Der Tom 02.07.2019 12:05
    Highlight Highlight funktioniert recht gut habs bei mir ausprobiert ...
    Benutzer Bild
  • lilie 02.07.2019 11:57
    Highlight Highlight Jeder kann sich eine andere Person straffrei nackt vorstellen, dazu brauchts nun wirklich keine App.

    Was ich mich aber frage, ist, ob all die Frauen, deren Bilder als Vorlage für die KI hergehalten haben, auch um ihre Erlaubnis gefragt wurden, ob die Bilder verwendet werden dürfen?

    So oder so: Da lebt jemand komplett am Zeitgeist vorbei - auf mehr als nur einer Ebene. 🤦‍♀️
    • NotWhatYouExpect 02.07.2019 12:05
      Highlight Highlight Meiner Meinung lebt diese Person doch genau mit dem Zeitgest zumindest so wie ich diesen über die letzten Jahre erlebt habe.
    • JimmyNieCricket 02.07.2019 19:09
      Highlight Highlight Wir könnten diskutieren, wie gut du und ich persönlich den Zeitgeist finden, das wäre spannend und sinnvoll. Aber du hast m.M.n. nicht viel Ahnung was der Zeitgeist aktuell ist.... dein persönlicher Mikrokosmos ist nicht der Zeitgeist. Herrje die ganze Schweiz entspricht (zum Glück) nicht sehr dem Zeitgeist. Aber offene Augen darf man trotzdem haben und wissen, was auf der Welt abgeht hilft enorm. Auch wenn man vieles davon hoffentlich schrecklich findet.
  • tronic_fx 02.07.2019 11:55
    Highlight Highlight Ist das dieser Jamba Nacktscanner, der nebst dem Crazy Frog vor ca. 10 Jahren brutal nervtötend im TV beworben wurde? 😂😂😂
    • Aldi 02.07.2019 15:15
      Highlight Highlight Hat den eigentlich mal jemand getestet? Wie war der?
  • Snowy 02.07.2019 11:52
    Highlight Highlight Probiere es heute Abend mit meinem Date aus.

    Gebe euch dann Bescheid, wie nahe die App der Wirklichkeit kommt.
    • Lightning makes you Impotent (LMYI) 02.07.2019 19:39
      Highlight Highlight Hast noch Träume? 😊
  • Mr. Stärneföifi 02.07.2019 11:50
    Highlight Highlight Das Ding kaufe ich mir erst, wenn es im Jamba-Spar-Abo enthalten ist - zusammen mit dem Ergebnis, ob meine Freundin auch wirklich treu ist 😉
    • DasGlow 02.07.2019 12:21
      Highlight Highlight Zum treu sein gehören immer zwei ;) viel Spass mit der App
  • JoJodeli 02.07.2019 11:40
    Highlight Highlight Wäre doch witzig, die App an Männerbildern auszuprobieren 😅
    • Asmodeus 02.07.2019 12:06
      Highlight Highlight Wurde von Leuten getestet, die sich wirklich mit der App auseinandergesetzt haben.

      Ergab Kerle mit Brüsten.
    • DemonCore 02.07.2019 13:15
      Highlight Highlight Dann ist die App aber noch recht schlecht. Es sollte ein Leichtes sein der App beizubringen zwischen Männer- und Frauenkörpern zu unterscheiden und enstsprechend bei den Männern andere Brustpartien auszuwählen. Gesichtsbehaarung und nur schon die Form des Oberkörpers unterscheiden sich ja in Natura deutlich.
    • JimmyNieCricket 02.07.2019 19:10
      Highlight Highlight Demoncore : nächstes mal den ganzen Artikel lesen vor dem Posten? Nur so eine ganz dumme Idee :-D nix für ungut
  • Miicha 02.07.2019 11:33
    Highlight Highlight Ich bin intelligent und könnte etwas programmieren, dass die Welt rettet! Ach nein, ich mach doch lieber eine Nackedei-App 🤦
    • NotWhatYouExpect 02.07.2019 12:06
      Highlight Highlight @Miicha: Nuja jeder hat halt andere Interessen.

      Ich könnte auch etwas anderes Programmieren aber ne ich mach einem Freund einen gefallen und entwickle für Ihn ein Server Plugin für ein Multiplayer Game.
    • DasGlow 02.07.2019 12:22
      Highlight Highlight Lieber ein paar Stutz auf dem Konto von einer Nackedei-App als Weltfrieden und arm.
    • Miicha 02.07.2019 13:00
      Highlight Highlight Das hat nichts mehr mit anderen Interessen zu tun sondern mit Verschwendung von Potential.
    Weitere Antworten anzeigen
  • efrain 02.07.2019 11:23
    Highlight Highlight Grundsätzlich kann sich jeder ja eine andere Person nackt vorstellen, diese "Bilder" sind also eigentlich nichts neues. Nur fehlt den meisten das Talent, dies zB zeichnerisch auszudrücken und mit andern zu teilen. Dadurch können derzeit durchaus Probleme entstehen.

    Die Ursache des Problems sehe ich aber eher in unserer nach wie vor vernknorksten Haltung gegenüber Nacktheit und Sexualität. Jemand, der in einem Porno (o.Ä.) auftritt, wird gesellschaftlich geächtet. Mir ist nicht ganz klar, weshalb das so sein muss.
    • Baccaralette 02.07.2019 12:40
      Highlight Highlight Weil NIEMAND Pornos guckt! NIEMAND! Verstehst du?
  • Carl Gustav 02.07.2019 11:15
    Highlight Highlight Meine Güte
    Leute beruhigt euch
    Schon vor 100 Jahren konnte man eine Portraitphotografie über eine wissenschaftliche Zeichnung einer nackten Frau halten🤤🤤🤤
    Wer sich ab dieser App empören kann, dem oder der ist definitiv nicht mehr zu helfen
  • andrew1 02.07.2019 11:14
    Highlight Highlight Ein hoch auf die wissenschaft!
    https://images.app.goo.gl/JJm527tYQC3ayjFr9 🤣
  • drKish 02.07.2019 11:09
    Highlight Highlight Dieser Beitrag wurde gelöscht. Bitte bleibe beim Thema und beachte die Kommentarregeln.
  • DieFeuerlilie 02.07.2019 11:05
    Highlight Highlight Wie pubertierend muss man(n) eigentlich sein, um so viel Zeit und Geld in eine App zu investieren, nur weil man(n) noch mehr nackte Frauen sehen will?
    Deckt das Internet dieses Bedürfnis nicht schon zur Genüge ab?

    Aber offenbar nicht, wenn ich hier Kommentare wie “her damit“ lese..

    Ich frage mich halt immer wieder, ob diese Menschen wirklich nichts besseres zu tun haben, als dauern an nackte Frauen zu denken, sie sehen zu wollen.
    Aus meiner Sicht halt sehr eindimensional.
    • DemonCore 02.07.2019 11:31
      Highlight Highlight Ich glaube hier wird ein grundsätzliches Missverständnis unter Frauen über Männer sichtbar.

      Mit grösster Wahrscheinlichkeit hat der männliche Programmierer einfach nur testen wollen, was technisch möglich ist. Wie glaubwürdig das Resultat wird, ähnlich einem Künstler, der verschieden Techniken testet um die Güte seiner Kunstwerke zu verbessern.

      Der Software ist es egal ob sie einen Mann oder eine Frau (virtuell) auszieht.

      Ganz ehrlich, die Phantomschmerzen, die hier zelebriert werden, sind aber mindestens so fragwürdig wie die App.
    • JimmyNieCricket 02.07.2019 11:33
      Highlight Highlight Wieso dauernd? Wieso ist man pubertierend wenn man „spitz“ ist? Hört das mit 18 auf bei dir? Wieso eindimensional, alles ist eindimensional, für sich alleine betrachtet. Auch 365 Tage lang Bedürftigen helfen wär ja eindimensional.

      Hmm. Wo ist dein Problem?
    • überflüssig 02.07.2019 12:26
      Highlight Highlight hey jungs: hättet ihr freude, wenn fake-nacktbilder von euch gemacht würden?
      aber leider - wieso wohl auch?- funktioniert es nur bei frauen ...
    Weitere Antworten anzeigen
  • Jazzdaughter 02.07.2019 11:02
    Highlight Highlight Widerlich. Als Frau macht mir das Angst.
    • Ciri 02.07.2019 11:26
      Highlight Highlight Was sollen diese Blitze?
      Im Ernst? Natürlich macht das Angst. Die unzähligen Dick Pics auf dem Natel sind das eine, aber die Vorstellung, dass all diese Vollpfosten eine nackte Version von mir auf die Schnelle bekommen und darauf einen wichsen. Wow mol. Super!
      Was ist nur los mit euch?
    • DemonCore 02.07.2019 12:07
      Highlight Highlight Die Kontrolle darüber was jemand mit deinem Bild macht, und sei es nur in seinem/ihrem Kopf vorhanden, hast du sowieso nicht. Ich nicht, niemand. Was passiert wirklich schlimmes wenn Person A sich befriedigt mit dem gedanklichen/elektronischen/chemischen Bild der Person B?
    • iFaasi 02.07.2019 12:08
      Highlight Highlight Aber es bist ja eben nicht du...
    Weitere Antworten anzeigen
  • Randalf 02.07.2019 10:59
    Highlight Highlight
    Diese App ist überflüssig. Es gibt ja die "Röntgenbrille".😉
  • DemonCore 02.07.2019 10:57
    Highlight Highlight Unabhängig davon was man von echter, bzw. virtueller Nacktheit hält, wird man ja in der Öffentlichkeit gerne mit Pseudonacktheit konfrontiert: Hautenge und kurze Kleidung, so dass eigentlich nur die Färbung der Körperpartien den Unterschied zu echter Nacktheit herstellt. Sind das dieselben Leute, die sich über so eine App aufregen?
    • JaneSodaBorderless 02.07.2019 11:35
      Highlight Highlight Die Frage ist doch, ob es freiwillig oder unfreiwillig geschieht.
    • DemonCore 02.07.2019 12:08
      Highlight Highlight Also ich werde unfreiwillig mit Pseudonacktheit konfrontiert. Was jetzt?
    • DerTaran 02.07.2019 14:01
      Highlight Highlight Burka für alle?
  • Iltis 02.07.2019 10:56
    Highlight Highlight Patchwork, collage oder was auch immer, sicher nichts aufregendes.
  • Dong 02.07.2019 10:46
    Highlight Highlight Yeah, geil, 50$ für eine App, die allerdings nur dann gute Ergebnisse liefert, wenn die Person auf dem Foto schon (fast) nackt ist.
    Das ist in etwa so seriös wie Penisvergrösserungscrème ...
    • Baron von Eberstein 02.07.2019 11:02
      Highlight Highlight was, die hilft nicht 😳??
    • Bort? 02.07.2019 11:21
      Highlight Highlight @Baron
      Bin auch grad zutiefst betruebt !!

      Wollte mir doch ein drittes Bein "herbei cremen"
      :-D
    • Rainer Winkler 02.07.2019 11:28
      Highlight Highlight Woher weisst du, dass Penisvergrösserungscrème nicht funktioniert?
    Weitere Antworten anzeigen
  • DemonCore 02.07.2019 10:44
    Highlight Highlight Andere Frage: Warum haben wir solche Angst vor Nacktheit? Alle anderen Tiere auf dem Planeten sind nackt und es stört niemanden.

    Bei der zunehmenden Hitze müssten wir unseren Bekleidungswahn doch mal überdenken.
    • ingmarbergman 02.07.2019 11:00
      Highlight Highlight Es geht nicht um Nacktheit sondern darum dass jeder selber entscheiden soll, wem oder wer er/sie sich nackt zeigen will.

      Wenn man sich mal mit Mobbing beschäftigt weiss man, wie gefährlich so etwas sein kann.
    • auloniella 02.07.2019 11:01
      Highlight Highlight Tiere haben oft kein Bewusstsein für sich selbst, erkennen z.b sich nicht im Spiegel. Wir sind hier meistens nicht nackt aufgrund der Temperaturen. Kann man daher nicht vergleichen. Das Schamgefühl haben nur Menschen, und es sollte nicht einfach so verletzt werden. Sich freiwillig nackt zu zeigen ist nicht das Gleiche wie (unfreiwillig und digital) ausgezogen zu werden. Die fehlende Entscheidungsmöglichkeit greift in das recht auf den eigenen Körper ein. Die Entscheidung darüber hat jeder Mensch, ja auch Männer, selbst zu treffen.
    • who cares? 02.07.2019 11:09
      Highlight Highlight Stell dir vor, die Schulkollegen deiner 12jährigen Tochter schicken Nacktfotos von ihr herum. Der 18jährige Bruder des Schulkollegen holt sich noch einen dazu runter. Wie fühlt sich das an?
    Weitere Antworten anzeigen
  • lilie 02.07.2019 10:38
    Highlight Highlight Ooooh, ich warte sehnsüchtig auf die Version für Männer, damit ich mir all die Dickpics, die ich nie sehen wollte, gleich selber beschaffen kann... 🤦‍♀️

    Wie kommt ein Mensch auf die hirnrissige Idee, eine solche App vertreiben zu wollen und zu glauben, dass das akzeptiert wird?

    "Die Welt ist noch nicht bereit dafür" - ich würde eher sagen, die Welt ist über das Stadium hinaus, wo solch unverhohlener Sexismus noch geduldet wird. 😒
    • Ciri 02.07.2019 10:49
      Highlight Highlight da bin ich mir nicht so sicher..
      wenn ich mit die vielen gesperrten nr auf meinem natel anschaue.
    • DemonCore 02.07.2019 10:51
      Highlight Highlight Nackt ist natürlich und der Software ist es egal ob da ein Mann oder eine Frau virtuell ausgezogen wird. Wie dem auch sei, ich glaube eher dass unser Bekleidungswahn krankhaft ist, als das Interesse an Nacktbildern.
    • andrew1 02.07.2019 11:18
      Highlight Highlight Um nacktheit wird insbesondere von frauen ein grosses geheimnis gemacht. Mir zum beispiel ist es egal in eine gemischte sauna zu gehen, den meisten frauen allerdings nicht. Darum sind dort wohl jeweils 95% der anwesenden männer. Das selbe wie bei der forschung zum urknall oder wikileaks. Wenn um etwas verbissen ein geheimniss gemacht wird oder es ein geheimnis ist, wird es umso interessanter.
    Weitere Antworten anzeigen

Zwei Brüder (4/6) verwüsten Ort in Bayern: Brandstiftung, Vandalismus, Sachbeschädigungen

Zwei kleine Brüder im Alter von vier und sechs Jahren haben auf einer Verwüstungstour im bayerischen Kulmbach rund 15'000 Euro Schaden angerichtet – und gleich mehrere Polizeistreifen auf den Plan gerufen.

Die beiden Jungen büxten am Montagnachmittag von zu Hause aus und zündelten auf ihrem schadensträchtigen Ausflug im Ortsteil Ziegelhütten zunächst an einem Carport, wie die Polizei am Dienstag mitteilte.

Dabei legten sie mit einem Gasbrenner und brennbaren Flüssigkeiten einen Brand, der aber …

Artikel lesen
Link zum Artikel