DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
«Nude»-App starten – und Algorithmen übernehmen angeblich den Rest.
«Nude»-App starten – und Algorithmen übernehmen angeblich den Rest.bild: watson

Der Nacktbild-Scanner sucht «heikle» Fotos auf dem iPhone – ein Selbstversuch 😳

Die «Nude»-App soll iPhone-User vor peinlichen Momenten bewahren. Nun ja ...
19.10.2017, 20:18

Wer kennt das nicht: Frisch erholt aus den Ferien zurück, will man einem Arbeitskollegen, dem Grosi (oder wem auch immer) ein paar harmlose Schnappschüsse zeigen. Man startet das Smartphone und reicht es zur Ansicht weiter ...

Ein falscher Swipe und 🙈

Das Wichtigste in Kürze

  • Die iPhone-App «Nude» scannt die auf dem Gerät gespeicherte Foto-Mediathek nach intimen Inhalten und und schützt vor unerwünschten Blicken bzw. Zugriff.
  • Nacktbilder etc. lassen sich ohne zusätzlichen Aufwand in einem PIN-gesicherten Bereich der App ablegen. Und zwar zusätzlich verschlüsselt.
  • Entwickelt wurde die iOS-App von zwei Informatik-Studenten der Universität von Kalifornien, in Berkley.
  • Die App kann 30 Tage gratis getestet werden. Dann kostet der Service einen Dollar pro Monat (Jahresabo: 10$).
  • Nude will sich durch schlaue Bildanalyse-Algorithmen und automatisches Aussortieren der sensiblen Inhalte von herkömmlichen Tresor-Apps («File Vault») abheben.
  • Dank Machine Learning soll das automatisierte Erkennen von nackten Körperpartien immer präziser werden.
  • Entscheidend ist der Datenschutz: Es werden keine Fotos, sondern nur verschlüsselte (und anonymisierte) Daten zwecks Bildanalyse auf den Server übertragen.
  • Vorläufig funktioniert's nur mit Fotos. In einer späteren Version sollen laut The Verge auch Videos analysiert werden.
  • Eine Android-Version sei in Vorbereitung.
Schon der App-Name ist fragwürdig. Aber was soll das saublöde «The Sexiest App Ever»?
Schon der App-Name ist fragwürdig. Aber was soll das saublöde «The Sexiest App Ever»?screenshot: itunes.apple.com

Der Praxistest

Den Überblick, was alles in meiner Foto-Mediathek gespeichert ist, habe ich schon vor Jahren verloren. Woche für Woche kommen Hunderte Bilder hinzu und ich nehme mir seit langem vor, die Bildersammlung so richtig auszumisten.

Da kam mir die «Nude»-App gerade gelegen.

Ja klar, ich könnte die zehntausenden Aufnahmen und an die tausend Videos von Hand sichten. Aber irgendwie fehlt mir immer die Zeit, und ganz ehrlich, ich ging davon aus, dass keine wirklich peinlichen Shots zu finden sein würden.

Wie es scheint, ist doch das eine oder andere nicht ganz jugendfreie Bild in meiner Mediathek gelandet.

Wie zum Teufel sollte ich das hier sonst erklären?
Keine Ahnung, wie das in meiner Mediathek landete. Ich tippe mal auf WhatsApp und die Auto-Speicherung.
Keine Ahnung, wie das in meiner Mediathek landete. Ich tippe mal auf WhatsApp und die Auto-Speicherung.bild: watson

Abgesehen vom Überraschungstreffer oben gilt festzuhalten, dass die im Juni lancierte App noch nicht perfekt funktioniert. Im ersten Durchlauf gab es einige «False Positives», so wurden auch wirklich harmlose Bilder mit (leicht) bekleideten Personen vom Scanner erfasst. Nackte Oberarme und kaum behaarte Hinterköpfe irritierten das System und warum auch das folgende Foto als heikel angezeigt wurde, weiss der Geier ...

screenshot: watson

Zur Bedienung gilt es nicht viel zu sagen. Die App ist mehr oder weniger selbsterklärend. Aufpassen sollte man mit der Löschen-Funktion («Delete»). Wenn man eine Aufnahme aus der App entfernt, verschwindet sie auch aus der Mediathek.

Weitere Feststellungen:

  • Die Bildanalyse fordert den Prozessor, so dass mein iPhone ziemlich warm wurde und den Akku (fast) leerte. 
  • Die Analyse von 30'000 Fotos dauerte auf einem iPhone 7 mehr als 90 Minuten.
  • Auf dem iPhone 8 Plus stürzte die App immer wieder ab, ein Bilder-Scan (ohne WLAN) war nicht möglich.

Die «Nude»-App wird durch einen vierstelligen Zahlencode geschützt, den man jedes Mal beim Aufrufen der App eingeben muss. In den App-Einstellungen kann man den Fingerabdruck-Scanner (Touch ID) aktivieren, um Zeit zu ersparen.

Falls man einen falschen PIN eingibt, wird dies als Einbruchversuch gewertet, die Frontkamera schiesst ein Foto und erstellt einen Eintrag mit Zeit und Datum («Break-in Alerts»).

Fazit: Es ist an sich zu begrüssen, wenn iPhone-User die Möglichkeit erhalten, intime Aufnahmen zu sichern. Bezüglich technischer Umsetzung (Bildanalyse und App-Usability) besteht bei «Nude» aber Verbesserungsbedarf. Und mit dem App-Namen animiert man ja Dritte förmlich zum Spionieren.

Das Ausprobieren der «Nude»-App kann witzig und aufschlussreich sein. Birgt aber gewisse Risiken ...

Man muss den Datenschutz-Versprechen der App-Entwickler vertrauen, denn der iPhone-Bilder-Scan funktioniert nicht im Flugmodus. Für Paranoide ist das vermutlich ein No-Go.

Was sind sinnvolle Alternativen?

Wie die erfolgreichen Angriffe auf die iPhones von Hollywood-Stars gezeigt haben, sollte man intime Fotos und Videos nicht unverschlüsselt in der Cloud speichern.

Brisante Inhalte lassen sich zum Beispiel mit einer als Taschenrechner getarnten Tresor-App vor neugierigen Augen verbergen. Im App Store gibt es diverse Anwendungen.

Stichwort:
Machine Learning

Die App-Entwickler nutzen das mit iOS 11 lancierte Programmiergerüst (Framework) Core ML, das Machine Learning auf neueren Apple-Geräten ermöglicht. Bei Geräten mit iOS 10 und älter wird offenbar eine Amazon-Technologie eingesetzt.

screenshot: watson

Entscheidend ist laut The Verge, dass die Bilder nicht übers Internet zum Nude-Server gesendet werden. Dank CoreML erfolge die Bildanalyse mit Machine Learning auf dem Gerät. Für die in Entwicklung befindliche Android-App könnten die Entwickler ein ähnliches Werkzeug (Tensorflow) verwenden.

Solche System-Software erlaube es, aufwändige Routinen wie die Bildanalyse lokal durchzuführen. Was wiederum Hackern das Leben, bzw. die Arbeit, massiv erschwere.

PS: Laut Berichten haben die Entwickler den «Nude»-Algorithmus mit tausenden Referenzbildern aus dem Internet trainiert. Bei eindeutigen Sujets (wie etwa «Dick Pics») funktioniert die Erkennung dank Pornhub und Co. sehr zuverlässig.

Was ist Machine Learning?
Maschinelles Lernen (ML) ist ein Oberbegriff für die «künstliche» Generierung von Wissen aus Erfahrung: Ein Programm lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heisst, es werden nicht einfach die Beispiele auswendig gelernt, sondern die Software «erkennt» Muster und Gesetzmässigkeiten in den Lerndaten. Dann lassen sich auch unbekannte Daten beurteilen.
(Quelle: Wikipedia)

Denkende Computerprogramme – was nach Science Fiction klingt, ist längst Realität, wie das Video zeigt

via Redmond Pie

Das könnte dich auch interessieren:

Schlimme Grippe-Welle nimmt Kurs auf die Schweiz

Video: srf/SDA SRF

Die besten Features von iOS 11

1 / 29
Das bringt iOS 11
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

China erfand «Schweizer Biologen» für Propaganda – jetzt hat Facebook eingegriffen

Die Facebook-Eigentümerin Meta hat nach einer mutmasslichen Propaganda-Kampagne aus China in sozialen Medien hunderte Konten eines vermeintlichen Schweizer Biologen gelöscht. Diese hatten behauptet, die USA mischten sich in die Suche nach dem Pandemie-Ursprung ein.

Zur Story