Wer kennt das nicht: Frisch erholt aus den Ferien zurück, will man einem Arbeitskollegen, dem Grosi (oder wem auch immer) ein paar harmlose Schnappschüsse zeigen. Man startet das Smartphone und reicht es zur Ansicht weiter ...
Ein falscher Swipe und 🙈
Den Überblick, was alles in meiner Foto-Mediathek gespeichert ist, habe ich schon vor Jahren verloren. Woche für Woche kommen Hunderte Bilder hinzu und ich nehme mir seit langem vor, die Bildersammlung so richtig auszumisten.
Da kam mir die «Nude»-App gerade gelegen.
Ja klar, ich könnte die zehntausenden Aufnahmen und an die tausend Videos von Hand sichten. Aber irgendwie fehlt mir immer die Zeit, und ganz ehrlich, ich ging davon aus, dass keine wirklich peinlichen Shots zu finden sein würden.
Wie es scheint, ist doch das eine oder andere nicht ganz jugendfreie Bild in meiner Mediathek gelandet.
Abgesehen vom Überraschungstreffer oben gilt festzuhalten, dass die im Juni lancierte App noch nicht perfekt funktioniert. Im ersten Durchlauf gab es einige «False Positives», so wurden auch wirklich harmlose Bilder mit (leicht) bekleideten Personen vom Scanner erfasst. Nackte Oberarme und kaum behaarte Hinterköpfe irritierten das System und warum auch das folgende Foto als heikel angezeigt wurde, weiss der Geier ...
Zur Bedienung gilt es nicht viel zu sagen. Die App ist mehr oder weniger selbsterklärend. Aufpassen sollte man mit der Löschen-Funktion («Delete»). Wenn man eine Aufnahme aus der App entfernt, verschwindet sie auch aus der Mediathek.
Weitere Feststellungen:
Die «Nude»-App wird durch einen vierstelligen Zahlencode geschützt, den man jedes Mal beim Aufrufen der App eingeben muss. In den App-Einstellungen kann man den Fingerabdruck-Scanner (Touch ID) aktivieren, um Zeit zu ersparen.
Falls man einen falschen PIN eingibt, wird dies als Einbruchversuch gewertet, die Frontkamera schiesst ein Foto und erstellt einen Eintrag mit Zeit und Datum («Break-in Alerts»).
Fazit: Es ist an sich zu begrüssen, wenn iPhone-User die Möglichkeit erhalten, intime Aufnahmen zu sichern. Bezüglich technischer Umsetzung (Bildanalyse und App-Usability) besteht bei «Nude» aber Verbesserungsbedarf. Und mit dem App-Namen animiert man ja Dritte förmlich zum Spionieren.
Man muss den Datenschutz-Versprechen der App-Entwickler vertrauen, denn der iPhone-Bilder-Scan funktioniert nicht im Flugmodus. Für Paranoide ist das vermutlich ein No-Go.
Wie die erfolgreichen Angriffe auf die iPhones von Hollywood-Stars gezeigt haben, sollte man intime Fotos und Videos nicht unverschlüsselt in der Cloud speichern.
Brisante Inhalte lassen sich zum Beispiel mit einer als Taschenrechner getarnten Tresor-App vor neugierigen Augen verbergen. Im App Store gibt es diverse Anwendungen.
Die App-Entwickler nutzen das mit iOS 11 lancierte Programmiergerüst (Framework) Core ML, das Machine Learning auf neueren Apple-Geräten ermöglicht. Bei Geräten mit iOS 10 und älter wird offenbar eine Amazon-Technologie eingesetzt.
Entscheidend ist laut The Verge, dass die Bilder nicht übers Internet zum Nude-Server gesendet werden. Dank CoreML erfolge die Bildanalyse mit Machine Learning auf dem Gerät. Für die in Entwicklung befindliche Android-App könnten die Entwickler ein ähnliches Werkzeug (Tensorflow) verwenden.
Solche System-Software erlaube es, aufwändige Routinen wie die Bildanalyse lokal durchzuführen. Was wiederum Hackern das Leben, bzw. die Arbeit, massiv erschwere.
PS: Laut Berichten haben die Entwickler den «Nude»-Algorithmus mit tausenden Referenzbildern aus dem Internet trainiert. Bei eindeutigen Sujets (wie etwa «Dick Pics») funktioniert die Erkennung dank Pornhub und Co. sehr zuverlässig.
via Redmond Pie