Digital
Apple

Die «Nude»-App sucht Nacktbilder auf dem iPhone und schützt sie vor Zugriff

«Nude»-App starten – und Algorithmen übernehmen angeblich den Rest.
«Nude»-App starten – und Algorithmen übernehmen angeblich den Rest.bild: watson

Der Nacktbild-Scanner sucht «heikle» Fotos auf dem iPhone – ein Selbstversuch 😳

Die «Nude»-App soll iPhone-User vor peinlichen Momenten bewahren. Nun ja ...
19.10.2017, 20:18
Mehr «Digital»

Wer kennt das nicht: Frisch erholt aus den Ferien zurück, will man einem Arbeitskollegen, dem Grosi (oder wem auch immer) ein paar harmlose Schnappschüsse zeigen. Man startet das Smartphone und reicht es zur Ansicht weiter ...

Ein falscher Swipe und 🙈

Das Wichtigste in Kürze

  • Die iPhone-App «Nude» scannt die auf dem Gerät gespeicherte Foto-Mediathek nach intimen Inhalten und und schützt vor unerwünschten Blicken bzw. Zugriff.
  • Nacktbilder etc. lassen sich ohne zusätzlichen Aufwand in einem PIN-gesicherten Bereich der App ablegen. Und zwar zusätzlich verschlüsselt.
  • Entwickelt wurde die iOS-App von zwei Informatik-Studenten der Universität von Kalifornien, in Berkley.
  • Die App kann 30 Tage gratis getestet werden. Dann kostet der Service einen Dollar pro Monat (Jahresabo: 10$).
  • Nude will sich durch schlaue Bildanalyse-Algorithmen und automatisches Aussortieren der sensiblen Inhalte von herkömmlichen Tresor-Apps («File Vault») abheben.
  • Dank Machine Learning soll das automatisierte Erkennen von nackten Körperpartien immer präziser werden.
  • Entscheidend ist der Datenschutz: Es werden keine Fotos, sondern nur verschlüsselte (und anonymisierte) Daten zwecks Bildanalyse auf den Server übertragen.
  • Vorläufig funktioniert's nur mit Fotos. In einer späteren Version sollen laut The Verge auch Videos analysiert werden.
  • Eine Android-Version sei in Vorbereitung.
Schon der App-Name ist fragwürdig. Aber was soll das saublöde «The Sexiest App Ever»?
Schon der App-Name ist fragwürdig. Aber was soll das saublöde «The Sexiest App Ever»?screenshot: itunes.apple.com

Der Praxistest

Den Überblick, was alles in meiner Foto-Mediathek gespeichert ist, habe ich schon vor Jahren verloren. Woche für Woche kommen Hunderte Bilder hinzu und ich nehme mir seit langem vor, die Bildersammlung so richtig auszumisten.

Da kam mir die «Nude»-App gerade gelegen.

Ja klar, ich könnte die zehntausenden Aufnahmen und an die tausend Videos von Hand sichten. Aber irgendwie fehlt mir immer die Zeit, und ganz ehrlich, ich ging davon aus, dass keine wirklich peinlichen Shots zu finden sein würden.

Wie es scheint, ist doch das eine oder andere nicht ganz jugendfreie Bild in meiner Mediathek gelandet.

Wie zum Teufel sollte ich das hier sonst erklären?
Keine Ahnung, wie das in meiner Mediathek landete. Ich tippe mal auf WhatsApp und die Auto-Speicherung.
Keine Ahnung, wie das in meiner Mediathek landete. Ich tippe mal auf WhatsApp und die Auto-Speicherung.bild: watson

Abgesehen vom Überraschungstreffer oben gilt festzuhalten, dass die im Juni lancierte App noch nicht perfekt funktioniert. Im ersten Durchlauf gab es einige «False Positives», so wurden auch wirklich harmlose Bilder mit (leicht) bekleideten Personen vom Scanner erfasst. Nackte Oberarme und kaum behaarte Hinterköpfe irritierten das System und warum auch das folgende Foto als heikel angezeigt wurde, weiss der Geier ...

Bild
screenshot: watson

Zur Bedienung gilt es nicht viel zu sagen. Die App ist mehr oder weniger selbsterklärend. Aufpassen sollte man mit der Löschen-Funktion («Delete»). Wenn man eine Aufnahme aus der App entfernt, verschwindet sie auch aus der Mediathek.

Bild

Weitere Feststellungen:

  • Die Bildanalyse fordert den Prozessor, so dass mein iPhone ziemlich warm wurde und den Akku (fast) leerte. 
  • Die Analyse von 30'000 Fotos dauerte auf einem iPhone 7 mehr als 90 Minuten.
  • Auf dem iPhone 8 Plus stürzte die App immer wieder ab, ein Bilder-Scan (ohne WLAN) war nicht möglich.

Die «Nude»-App wird durch einen vierstelligen Zahlencode geschützt, den man jedes Mal beim Aufrufen der App eingeben muss. In den App-Einstellungen kann man den Fingerabdruck-Scanner (Touch ID) aktivieren, um Zeit zu ersparen.

Falls man einen falschen PIN eingibt, wird dies als Einbruchversuch gewertet, die Frontkamera schiesst ein Foto und erstellt einen Eintrag mit Zeit und Datum («Break-in Alerts»).

Fazit: Es ist an sich zu begrüssen, wenn iPhone-User die Möglichkeit erhalten, intime Aufnahmen zu sichern. Bezüglich technischer Umsetzung (Bildanalyse und App-Usability) besteht bei «Nude» aber Verbesserungsbedarf. Und mit dem App-Namen animiert man ja Dritte förmlich zum Spionieren.

Das Ausprobieren der «Nude»-App kann witzig und aufschlussreich sein. Birgt aber gewisse Risiken ...

Man muss den Datenschutz-Versprechen der App-Entwickler vertrauen, denn der iPhone-Bilder-Scan funktioniert nicht im Flugmodus. Für Paranoide ist das vermutlich ein No-Go.

Was sind sinnvolle Alternativen?

Wie die erfolgreichen Angriffe auf die iPhones von Hollywood-Stars gezeigt haben, sollte man intime Fotos und Videos nicht unverschlüsselt in der Cloud speichern.

Brisante Inhalte lassen sich zum Beispiel mit einer als Taschenrechner getarnten Tresor-App vor neugierigen Augen verbergen. Im App Store gibt es diverse Anwendungen.

Stichwort:
Machine Learning

Die App-Entwickler nutzen das mit iOS 11 lancierte Programmiergerüst (Framework) Core ML, das Machine Learning auf neueren Apple-Geräten ermöglicht. Bei Geräten mit iOS 10 und älter wird offenbar eine Amazon-Technologie eingesetzt.

Bild
screenshot: watson

Entscheidend ist laut The Verge, dass die Bilder nicht übers Internet zum Nude-Server gesendet werden. Dank CoreML erfolge die Bildanalyse mit Machine Learning auf dem Gerät. Für die in Entwicklung befindliche Android-App könnten die Entwickler ein ähnliches Werkzeug (Tensorflow) verwenden.

Solche System-Software erlaube es, aufwändige Routinen wie die Bildanalyse lokal durchzuführen. Was wiederum Hackern das Leben, bzw. die Arbeit, massiv erschwere.

PS: Laut Berichten haben die Entwickler den «Nude»-Algorithmus mit tausenden Referenzbildern aus dem Internet trainiert. Bei eindeutigen Sujets (wie etwa «Dick Pics») funktioniert die Erkennung dank Pornhub und Co. sehr zuverlässig.

Was ist Machine Learning?
Maschinelles Lernen (ML) ist ein Oberbegriff für die «künstliche» Generierung von Wissen aus Erfahrung: Ein Programm lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heisst, es werden nicht einfach die Beispiele auswendig gelernt, sondern die Software «erkennt» Muster und Gesetzmässigkeiten in den Lerndaten. Dann lassen sich auch unbekannte Daten beurteilen.
(Quelle: Wikipedia)

Denkende Computerprogramme – was nach Science Fiction klingt, ist längst Realität, wie das Video zeigt

via Redmond Pie

Das könnte dich auch interessieren:

Schlimme Grippe-Welle nimmt Kurs auf die Schweiz

Video: srf/SDA SRF

Die besten Features von iOS 11

1 / 29
Das bringt iOS 11
iOS 11 gibts für neuere iPhones, iPads und den iPod Touch. Die kompatiblen Geräte sind nach den besten Features am Ende der Bildstrecke aufgeführt.
Auf Facebook teilenAuf X teilen
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
15 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Energize
19.10.2017 09:23registriert Februar 2015
Wenn der Scan im Flugmodus nicht funktioniert, ist wohl alles klar. I rest my case.
00
Melden
Zum Kommentar
avatar
chnobli1896
19.10.2017 09:31registriert April 2017
Der Hund hat keinen Mantel an, er wurde wohl daher als nackt taxiert ;-)
00
Melden
Zum Kommentar
avatar
Laut_bis_10
19.10.2017 09:48registriert März 2017
HULK SMASH!!!
00
Melden
Zum Kommentar
15
«Soft Girls» bleiben zuhause – dieser Trend setzt sich ausgerechnet in Schweden durch
Ein Trend, den Job aufzugeben, um «ein Leben in Leichtigkeit» zu führen, ist in Schweden – eigentlich einem Land mit starken feministischen Werten und Gleichberechtigung – zum Politikum geworden.

Subventionierte Kinderbetreuung, geteilter Elternurlaub, eine hohe Frauenquote in politischen Ämtern:
Schweden gilt als Vorreiter der Gleichberechtigung. Das skandinavische Land ist aber auch für seine ausgewogene Work-Life-Balance bekannt.

Zur Story