DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Wenn Apple-User in Zukunft Bilder in die iCloud hochladen, soll zuvor auf dem Gerät der «digitale Fingerabdruck» (Hash-Wert) erfasst und mit bekannten Missbrauchsbildern verglichen werden. Nun werden Bedenken zur technischen Vorgehensweise lauter.
Wenn Apple-User in Zukunft Bilder in die iCloud hochladen, soll zuvor auf dem Gerät der «digitale Fingerabdruck» (Hash-Wert) erfasst und mit bekannten Missbrauchsbildern verglichen werden. Nun werden Bedenken zur technischen Vorgehensweise lauter.
Bild: keystone
Analyse

Apples Kinderporno-Scanner steckt bereits im iPhone drin – und es kommt noch schlimmer

Einem IT-Sicherheitsforscher ist es gelungen, Apples «NeuralHash» genannte Foto-Analyse-Software aus dem Betriebssystem iOS zu extrahieren. Andere haben den Algorithmus getestet. Apple relativiert.
19.08.2021, 16:2220.08.2021, 13:32

Was ist passiert?

Apples höchst umstrittene Technologie zur Suche nach bekannten Bildern von sexuellem Kindesmissbrauch (CSAM) auf den Geräten der Kundinnen und Kunden ist diese Woche erneut in die negativen Schlagzeilen geraten.

Wie sich herausstellte, ist die angekündigte Technik bereits in iOS 14.3 enthalten und wurde nun entdeckt. Mehr noch: Ein IT-Sicherheitsforscher konnte den «NeuralHash»-Algorithmus aus dem iPhone-Betriebssystem extrahieren.

Es deute alles darauf hin, dass es sich um den Algorithmus handelt, den Apple ab diesem Herbst für das Erkennen von bekannten Missbrauchsbildern einsetzen will.

Das Problem: Als andere IT-Spezialisten den «NeuralHash»-Algorithmus ausprobierten, kam es innert kürzester Zeit zu einer sogenannten «Hash Collision». Das heisst, Apples Algorithmus berechnete für zwei unterschiedliche Bilder den gleichen Hash-Wert. Im konkreten Anwendungsfall – also dem Erkennen von behördlich bekannten Missbrauchsfotos – hätte dies bedeutet, dass das System ein harmloses Bild für eine illegale Aufnahme gehalten und registriert hätte.

Der nächste Schritt bestehe darin, harmlose Bilder zu erzeugen, die von NeuralHash als verbotene Inhalte eingestuft werden, schreibt Tech Crunch. Sprich: Unabhängige IT-Experten wollen beweisen, dass Apples Foto-Scan-Technik manipuliert werden kann und darum höchst riskant ist.

Erste Tests zeigten gemäss Bericht von Tech Crunch auch, dass Apples Bilder-Vergleichs-Technik mit Grössenänderungen und Verkleinerungen von Bildern umgehen könne, aber nicht mit Beschneidungen oder Drehungen.

Das Original-Bild links und das leicht veränderte Bild in der Mitte erhalten vom NeuralHash-Algorithmus den gleichen Wert. Die Abbilung ganz rechts erhält einen anderen Hash-Wert, weil Apples Software dank Machine Learning erkennt, dass es ein anderer Inhalt ist.
Das Original-Bild links und das leicht veränderte Bild in der Mitte erhalten vom NeuralHash-Algorithmus den gleichen Wert. Die Abbilung ganz rechts erhält einen anderen Hash-Wert, weil Apples Software dank Machine Learning erkennt, dass es ein anderer Inhalt ist.
screenshot: apple.com

In einem Reddit-Beitrag vom Mittwoch schreibt der Entdecker, dass NeuralHash in iOS 14.3 bereits als verschleierter Code «existiert», aber er sei in der Lage gewesen, die Technologie mittels Reverse Engineering zu rekonstruieren.

Der Entwickler mit dem Namen Asuhariet Ygvar wandelte dann Apples NeuralHash in ein Python-Skript um und veröffentlichte den Code auf GitHub. Damit könne jeder die Technologie testen, unabhängig davon, ob man ein Apple-Gerät zum Testen besitze oder nicht, schreibt Tech Crunch.

Er tue dies, um anderen Sicherheitsforschern zu helfen, den Algorithmus besser zu verstehen, bevor Apple die Technik per Update offiziell auf iOS- und macOS-Geräte ausrolle.

Tatsächlich dauerte es denn auch nicht lange, bis andere an dem veröffentlichten Code herumbastelten, konstatiert Tech Crunch. Und schon bald habe es den ersten gemeldeten Fall einer «Hash-Kollision» gegeben. Das heisst, Apples NeuralHash-Algorithmus erzeugte für zwei völlig unterschiedliche Bilder denselben Hash-Wert.

Cory Cornelius, ein renommierter Wissenschaftler beim Forschungszentrum Intel Labs, entdeckte die Hash-Kollision. Sie wurde kurze Zeit später bestätigt.
Cory Cornelius, ein renommierter Wissenschaftler beim Forschungszentrum Intel Labs, entdeckte die Hash-Kollision. Sie wurde kurze Zeit später bestätigt.
screenshot: github.com

Auch die Kryptografie-Expertin Sarah Jamie Lewis, Leiterin der kanadischen Non-Profit-Organisation Open Privacy Research Society, hat bereits fleissig mit dem geleakten NeuralHash-Algorithmus experimentiert. Die unabhängige IT-Sicherheitsexpertin demonstriert bei Twitter, dass unterschiedliche Bilder den gleichen Hash-Wert erhielten.

screenshot: twitter
screenshot: twitter

Was sagt Apple?

Ein Apple-Sprecher lehnte es gegenüber Tech Crunch ab, einen offiziellen Kommentar abzugeben.

In einem Hintergrundgespräch, in dem Journalisten mit Vertretern des Unternehmens sprechen konnten, aber diese in ihrer Berichterstattung nicht namentlich zitieren durften, habe Apple die «Hash-Kollision» heruntergespielt.

Die Apple-Vertreter argumentierten damit, dass die von Apple eingeführten Schutzmassnahmen – wie die manuelle Überprüfung von Fotos, bevor sie an die Strafverfolgungsbehörden gemeldet werden – dazu dienten, Missbrauch zu verhindern.

Apple habe auch gesagt, dass die Version von NeuralHash, die von Asuhariet Ygvar aus iOS 14.3 extrahiert wurde, eine generische Version sei und nicht die endgültige Version, die später in diesem Jahr auf den Markt komme.

Das Risiko, dass das System ein iCloud-Konto fälschlicherweise kennzeichnet und den Inhaber einer Ermittlung wegen des Besitzes von Kinderpornografie aussetzt, ist laut Apple äusserst gering. Darüber hinaus will das Unternehmen alle an die US-Kinderschutzorganisation NCMEC übermittelten Berichte überprüfen lassen, um die Richtigkeit sicherzustellen.

Gegenüber watson stellt Apple klar, dass NeuralHash nicht dazu gedacht sei, geheim zu sein. Man habe den Algorithmus absichtlich öffentlich gemacht, wie in der Sicherheitsdokumentation (PDF) beschrieben. Hier habe also kein «Reverse Engineering» stattgefunden.

Was die Problematik der Hash-Kollision betrifft: Definitionsgemäss können alle Wahrnehmungs-Hashes so manipuliert werden, dass zwei verschiedene Bilder gleich aussehen, gibt Apple zu bedenken. Das Erkennungssystem sei so konzipiert, dass es unter dieser ausdrücklichen Annahme sicher bleibe. Das geschilderte Beispiel einer Kollision sei absolut zu erwarten und untergrabe nicht die Sicherheit des Systems.

Es gibt laut Apple drei Möglichkeiten, wie das Erkennungssystem die Sicherheit gewährleistet und gleichzeitig mögliche Kollisionen in NeuralHash berücksichtigt:

  • Erstens sei die geräteinterne CSAM-Hash-Datenbank verschlüsselt, was bedeute, dass ein Angreifer zwar einige Beispielkollisionen nachweisen könne, es ihm aber nicht möglich sei, Hash-Kollisionen mit bekannten Missbrauchsbildern zu erzeugen.
  • Zweitens: Wenn genügend Bilder (die beim Start den Schwellenwert von 30 Treffern überschreiten) in einem iCloud-Fotos-Konto mit bekannten CSAM über NeuralHash übereinstimmten, würden die visuellen Ableitungen von einem zweiten, unabhängigen Wahrnehmungs-Hash-Algorithmus analysiert, der vollständig auf den Servern laufe und für Angreifer nicht verfügbar sei.
  • Drittens gebe es bei tatsächlichen Übereinstimmungen immer eine menschliche Überprüfung durch Apple, bevor ein Bericht zuhanden der Behörde rausgehe.

Was bedeutet das?

Die Zuverlässigkeit von Apples NeuralHash-Algorithmus lässt sich nicht abschliessend beurteilen. Dies unter anderem auch deshalb, weil das Unternehmen zwar jeden einlädt, den eigenen Programmcode zu prüfen. Doch gleichzeitig kämpft es juristisch gegen Personen, die genau das tun: Apple geht laut einem aktuellen Bericht von «Technology Review» weiter gegen die US-Firma Corellium vor. Diese stellt Software her, die unabhängigen Sicherheitsforschern ermöglicht, Apples streng abgeschirmte System-Software zu prüfen.

Sicher ist: Die jüngsten Versuche unabhängiger IT-Experten tragen nicht zu einer Entkräftung der bereits geäusserten Bedenken gegen Apple geplante Kinder- und Jugendschutz-Tools bei. Vielmehr dürften noch mehr Alarmglocken läuten.

Zwischenfazit: Die geplante algorithmische Überwachung auf den Geräten der Kundinnen und Kunden erscheint nicht nur aus grundsätzlichen Überlegungen höchst fragwürdig. Auch in technischer Hinsicht ist Skepsis angebracht.

Mit der «Überwachung auf dem Gerät» ändere sich das Spiel, warnt die IT-Expertin Sarah Jamie Lewis.

«Wenn Sie bereit sind, einen Roboter auf Ihrem Telefon (oder in Ihrem Haus) sitzen zu lassen, der über Ihre Aktivitäten Bericht erstattet, dann haben Sie zugestimmt, dass Sie keine Privatsphäre haben.»
quelle: twitter

Nicht nur Sicherheitsexperten, Bürgerrechtsgruppen und Journalisten zeigen sich besorgt über Apples Vorhaben. Zumindest in Deutschland hat Anfang Woche auch ein hochrangiger Politiker das Unternehmen aufgerufen, die Überwachungs-Technik nicht zu lancieren, sondern einzustampfen.

In einem offenen Brief an Apple-Chef Tim Cook kritisiert der Bundestagsabgeordnete Manuel Höferlin (FDP), der Vorsitzende des Ausschusses Digitale Agenda, die geplante Scan-Funktion untergrabe «vertrauliche Kommunikation».

Es scheint, als würde Tim Cook den Konzern mitsamt hunderten Millionen, ja Milliarden Kundinnen und Kunden in einen perfekten Sturm navigieren. Ausgang: ungewiss.

Wie funktioniert der «NeuralHash»-Algorithmus?

Wer sich für die Funktionsweise und technischen Details von Apples angekündigter Scan-Technik interessiert, sollte sich das Video des Zürcher YouTubers Yannic Kilcher anschauen. Er erklärt technisch Interessierten in verständlichen Worten (auf Englisch), wie das Scan-System aufgebaut ist.

In dem Video bezieht sich der Schweizer YouTuber auf die Angaben von Apple, die in dem Dokument «CSAM Detection – Technical Summary» enthalten sind (siehe Quellen). Der NeuralHash-Algorithmus wird ab Minute 14 erklärt. Demnach wird ein neuronales Netzwerk darauf trainiert, leicht veränderte Bilder (mit gleichem Inhalt) zuverlässig zu erkennen.

So soll es funktionieren
Die Funktion zur Suche nach kinderpornografischem Material ist zunächst nur auf US-Nutzer beschränkt, die Apples Online-Speicherdienst iCloud verwenden. Dabei geht es nicht darum, den Inhalt aller vorhandenen Bilder zu analysieren. Stattdessen soll auf die Geräte eine Datei mit sogenannten «Hashes» von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen.

Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlage erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt.

Apple hatte bei der ersten Ankündigung keine Angaben dazu gemacht, bei wie vielen Übereinstimmungen das System anschlägt. Am vergangenen Freitag gab der Konzern bekannt, dass die Schwelle bei rund 30 Bildern liegen soll.

(sda)

Quellen

Die Vorgeschichte

Wenn Google Schweizer Memes vorliest ...

Video: watson/Knackeboul, Madeleine Sigrist, Emily Engkent
DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Wie Apple Geschichte schrieb

1 / 25
Wie Apple Geschichte schrieb
quelle: ap/ap / marcio jose sanchez
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Ein Verbot, das «Frauen schützt»

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Analyse

Threema ist das neue WhatsApp – und schlägt die Konkurrenz um Längen

Wer hätte gedacht, dass die weltbeste Messenger-App nicht aus dem Silicon Valley kommen würde, sondern vom Zürichsee. Eine persönliche Analyse.

Seit acht Jahren befasse ich mich mit dem sicheren Schweizer Messenger Threema. Den ersten Artikel dazu publizierte ich im Dezember 2012. Titel: «Die Schweizer Antwort auf WhatsApp». Die damalige erste App gab's nur fürs iPhone, und sie war zum Start gratis. Im Interview versprach der Entwickler, Manuel Kasper, die baldige Veröffentlichung einer von vielen Usern geforderten Android-Version. Und:

Er hielt Wort. Im Gegensatz zu WhatsApp.

Einige dürften sich erinnern, dass es ein gleiches …

Artikel lesen
Link zum Artikel