Digital
Analyse

NeuralHash: Apples Kinderporno-Scanner steckt bereits im iPhone drin

FILE - In this Friday, May 21, 2021, file photo, customers look at the iPhone 12 at an Apple store, in New York. Three tech companies that have amassed unparalleled influence while reshaping the way w ...
Wenn Apple-User in Zukunft Bilder in die iCloud hochladen, soll zuvor auf dem Gerät der «digitale Fingerabdruck» (Hash-Wert) erfasst und mit bekannten Missbrauchsbildern verglichen werden. Nun werden Bedenken zur technischen Vorgehensweise lauter.Bild: keystone
Analyse

Apples Kinderporno-Scanner steckt bereits im iPhone drin – und es kommt noch schlimmer

Einem IT-Sicherheitsforscher ist es gelungen, Apples «NeuralHash» genannte Foto-Analyse-Software aus dem Betriebssystem iOS zu extrahieren. Andere haben den Algorithmus getestet. Apple relativiert.
19.08.2021, 16:2220.08.2021, 13:32
Mehr «Digital»

Was ist passiert?

Apples höchst umstrittene Technologie zur Suche nach bekannten Bildern von sexuellem Kindesmissbrauch (CSAM) auf den Geräten der Kundinnen und Kunden ist diese Woche erneut in die negativen Schlagzeilen geraten.

Wie sich herausstellte, ist die angekündigte Technik bereits in iOS 14.3 enthalten und wurde nun entdeckt. Mehr noch: Ein IT-Sicherheitsforscher konnte den «NeuralHash»-Algorithmus aus dem iPhone-Betriebssystem extrahieren.

Es deute alles darauf hin, dass es sich um den Algorithmus handelt, den Apple ab diesem Herbst für das Erkennen von bekannten Missbrauchsbildern einsetzen will.

Das Problem: Als andere IT-Spezialisten den «NeuralHash»-Algorithmus ausprobierten, kam es innert kürzester Zeit zu einer sogenannten «Hash Collision». Das heisst, Apples Algorithmus berechnete für zwei unterschiedliche Bilder den gleichen Hash-Wert. Im konkreten Anwendungsfall – also dem Erkennen von behördlich bekannten Missbrauchsfotos – hätte dies bedeutet, dass das System ein harmloses Bild für eine illegale Aufnahme gehalten und registriert hätte.

Der nächste Schritt bestehe darin, harmlose Bilder zu erzeugen, die von NeuralHash als verbotene Inhalte eingestuft werden, schreibt Tech Crunch. Sprich: Unabhängige IT-Experten wollen beweisen, dass Apples Foto-Scan-Technik manipuliert werden kann und darum höchst riskant ist.

Erste Tests zeigten gemäss Bericht von Tech Crunch auch, dass Apples Bilder-Vergleichs-Technik mit Grössenänderungen und Verkleinerungen von Bildern umgehen könne, aber nicht mit Beschneidungen oder Drehungen.

Das Original-Bild links und das leicht veränderte Bild in der Mitte erhalten vom NeuralHash-Algorithmus den gleichen Wert. Die Abbilung ganz rechts erhält einen anderen Hash-Wert, weil Apples Software ...
Das Original-Bild links und das leicht veränderte Bild in der Mitte erhalten vom NeuralHash-Algorithmus den gleichen Wert. Die Abbilung ganz rechts erhält einen anderen Hash-Wert, weil Apples Software dank Machine Learning erkennt, dass es ein anderer Inhalt ist.screenshot: apple.com

In einem Reddit-Beitrag vom Mittwoch schreibt der Entdecker, dass NeuralHash in iOS 14.3 bereits als verschleierter Code «existiert», aber er sei in der Lage gewesen, die Technologie mittels Reverse Engineering zu rekonstruieren.

Der Entwickler mit dem Namen Asuhariet Ygvar wandelte dann Apples NeuralHash in ein Python-Skript um und veröffentlichte den Code auf GitHub. Damit könne jeder die Technologie testen, unabhängig davon, ob man ein Apple-Gerät zum Testen besitze oder nicht, schreibt Tech Crunch.

Er tue dies, um anderen Sicherheitsforschern zu helfen, den Algorithmus besser zu verstehen, bevor Apple die Technik per Update offiziell auf iOS- und macOS-Geräte ausrolle.

Tatsächlich dauerte es denn auch nicht lange, bis andere an dem veröffentlichten Code herumbastelten, konstatiert Tech Crunch. Und schon bald habe es den ersten gemeldeten Fall einer «Hash-Kollision» gegeben. Das heisst, Apples NeuralHash-Algorithmus erzeugte für zwei völlig unterschiedliche Bilder denselben Hash-Wert.

Cory Cornelius, ein renommierter Wissenschaftler beim Forschungszentrum Intel Labs, entdeckte die Hash-Kollision. Sie wurde kurze Zeit später bestätigt.
Cory Cornelius, ein renommierter Wissenschaftler beim Forschungszentrum Intel Labs, entdeckte die Hash-Kollision. Sie wurde kurze Zeit später bestätigt.screenshot: github.com

Auch die Kryptografie-Expertin Sarah Jamie Lewis, Leiterin der kanadischen Non-Profit-Organisation Open Privacy Research Society, hat bereits fleissig mit dem geleakten NeuralHash-Algorithmus experimentiert. Die unabhängige IT-Sicherheitsexpertin demonstriert bei Twitter, dass unterschiedliche Bilder den gleichen Hash-Wert erhielten.

Bild
screenshot: twitter
Bild
screenshot: twitter

Was sagt Apple?

Ein Apple-Sprecher lehnte es gegenüber Tech Crunch ab, einen offiziellen Kommentar abzugeben.

In einem Hintergrundgespräch, in dem Journalisten mit Vertretern des Unternehmens sprechen konnten, aber diese in ihrer Berichterstattung nicht namentlich zitieren durften, habe Apple die «Hash-Kollision» heruntergespielt.

Die Apple-Vertreter argumentierten damit, dass die von Apple eingeführten Schutzmassnahmen – wie die manuelle Überprüfung von Fotos, bevor sie an die Strafverfolgungsbehörden gemeldet werden – dazu dienten, Missbrauch zu verhindern.

Apple habe auch gesagt, dass die Version von NeuralHash, die von Asuhariet Ygvar aus iOS 14.3 extrahiert wurde, eine generische Version sei und nicht die endgültige Version, die später in diesem Jahr auf den Markt komme.

Das Risiko, dass das System ein iCloud-Konto fälschlicherweise kennzeichnet und den Inhaber einer Ermittlung wegen des Besitzes von Kinderpornografie aussetzt, ist laut Apple äusserst gering. Darüber hinaus will das Unternehmen alle an die US-Kinderschutzorganisation NCMEC übermittelten Berichte überprüfen lassen, um die Richtigkeit sicherzustellen.

Gegenüber watson stellt Apple klar, dass NeuralHash nicht dazu gedacht sei, geheim zu sein. Man habe den Algorithmus absichtlich öffentlich gemacht, wie in der Sicherheitsdokumentation (PDF) beschrieben. Hier habe also kein «Reverse Engineering» stattgefunden.

Was die Problematik der Hash-Kollision betrifft: Definitionsgemäss können alle Wahrnehmungs-Hashes so manipuliert werden, dass zwei verschiedene Bilder gleich aussehen, gibt Apple zu bedenken. Das Erkennungssystem sei so konzipiert, dass es unter dieser ausdrücklichen Annahme sicher bleibe. Das geschilderte Beispiel einer Kollision sei absolut zu erwarten und untergrabe nicht die Sicherheit des Systems.

Es gibt laut Apple drei Möglichkeiten, wie das Erkennungssystem die Sicherheit gewährleistet und gleichzeitig mögliche Kollisionen in NeuralHash berücksichtigt:

  • Erstens sei die geräteinterne CSAM-Hash-Datenbank verschlüsselt, was bedeute, dass ein Angreifer zwar einige Beispielkollisionen nachweisen könne, es ihm aber nicht möglich sei, Hash-Kollisionen mit bekannten Missbrauchsbildern zu erzeugen.
  • Zweitens: Wenn genügend Bilder (die beim Start den Schwellenwert von 30 Treffern überschreiten) in einem iCloud-Fotos-Konto mit bekannten CSAM über NeuralHash übereinstimmten, würden die visuellen Ableitungen von einem zweiten, unabhängigen Wahrnehmungs-Hash-Algorithmus analysiert, der vollständig auf den Servern laufe und für Angreifer nicht verfügbar sei.
  • Drittens gebe es bei tatsächlichen Übereinstimmungen immer eine menschliche Überprüfung durch Apple, bevor ein Bericht zuhanden der Behörde rausgehe.

Was bedeutet das?

Die Zuverlässigkeit von Apples NeuralHash-Algorithmus lässt sich nicht abschliessend beurteilen. Dies unter anderem auch deshalb, weil das Unternehmen zwar jeden einlädt, den eigenen Programmcode zu prüfen. Doch gleichzeitig kämpft es juristisch gegen Personen, die genau das tun: Apple geht laut einem aktuellen Bericht von «Technology Review» weiter gegen die US-Firma Corellium vor. Diese stellt Software her, die unabhängigen Sicherheitsforschern ermöglicht, Apples streng abgeschirmte System-Software zu prüfen.

Sicher ist: Die jüngsten Versuche unabhängiger IT-Experten tragen nicht zu einer Entkräftung der bereits geäusserten Bedenken gegen Apple geplante Kinder- und Jugendschutz-Tools bei. Vielmehr dürften noch mehr Alarmglocken läuten.

Zwischenfazit: Die geplante algorithmische Überwachung auf den Geräten der Kundinnen und Kunden erscheint nicht nur aus grundsätzlichen Überlegungen höchst fragwürdig. Auch in technischer Hinsicht ist Skepsis angebracht.

Mit der «Überwachung auf dem Gerät» ändere sich das Spiel, warnt die IT-Expertin Sarah Jamie Lewis.

«Wenn Sie bereit sind, einen Roboter auf Ihrem Telefon (oder in Ihrem Haus) sitzen zu lassen, der über Ihre Aktivitäten Bericht erstattet, dann haben Sie zugestimmt, dass Sie keine Privatsphäre haben.»
quelle: twitter

Nicht nur Sicherheitsexperten, Bürgerrechtsgruppen und Journalisten zeigen sich besorgt über Apples Vorhaben. Zumindest in Deutschland hat Anfang Woche auch ein hochrangiger Politiker das Unternehmen aufgerufen, die Überwachungs-Technik nicht zu lancieren, sondern einzustampfen.

In einem offenen Brief an Apple-Chef Tim Cook kritisiert der Bundestagsabgeordnete Manuel Höferlin (FDP), der Vorsitzende des Ausschusses Digitale Agenda, die geplante Scan-Funktion untergrabe «vertrauliche Kommunikation».

Es scheint, als würde Tim Cook den Konzern mitsamt hunderten Millionen, ja Milliarden Kundinnen und Kunden in einen perfekten Sturm navigieren. Ausgang: ungewiss.

watson-Kommentar zum Thema:

Wie funktioniert der «NeuralHash»-Algorithmus?

Wer sich für die Funktionsweise und technischen Details von Apples angekündigter Scan-Technik interessiert, sollte sich das Video des Zürcher YouTubers Yannic Kilcher anschauen. Er erklärt technisch Interessierten in verständlichen Worten (auf Englisch), wie das Scan-System aufgebaut ist.

In dem Video bezieht sich der Schweizer YouTuber auf die Angaben von Apple, die in dem Dokument «CSAM Detection – Technical Summary» enthalten sind (siehe Quellen). Der NeuralHash-Algorithmus wird ab Minute 14 erklärt. Demnach wird ein neuronales Netzwerk darauf trainiert, leicht veränderte Bilder (mit gleichem Inhalt) zuverlässig zu erkennen.

So soll es funktionieren
Die Funktion zur Suche nach kinderpornografischem Material ist zunächst nur auf US-Nutzer beschränkt, die Apples Online-Speicherdienst iCloud verwenden. Dabei geht es nicht darum, den Inhalt aller vorhandenen Bilder zu analysieren. Stattdessen soll auf die Geräte eine Datei mit sogenannten «Hashes» von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen.

Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlage erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt.

Apple hatte bei der ersten Ankündigung keine Angaben dazu gemacht, bei wie vielen Übereinstimmungen das System anschlägt. Am vergangenen Freitag gab der Konzern bekannt, dass die Schwelle bei rund 30 Bildern liegen soll.

(sda)

Quellen

Die Vorgeschichte

Wenn Google Schweizer Memes vorliest ...

Video: watson/Knackeboul, Madeleine Sigrist, Emily Engkent
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wie Apple Geschichte schrieb
1 / 25
Wie Apple Geschichte schrieb
Apple hat der Computerbranche in den letzten vier Jahrzehnten immer wieder die Richtung vorgegeben. Das sind die wichtigsten Meilensteine ...
quelle: ap/ap / marcio jose sanchez
Auf Facebook teilenAuf X teilen
Ein Verbot, das «Frauen schützt»
Video: srf
Das könnte dich auch noch interessieren:
72 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Zyniker haben es leichter
19.08.2021 17:21registriert Januar 2018
Selbst wenn False Positives zu 100% ausgeschlossen würden, ist von dieser Technologie abzusehen. Die Erweiterung auf andere illegale Inhalte ist absehbar und wer entscheidet, was legal ist? Im Zweifel ein autoritärer Staat. Was auf meinem Telefon passiert, geht weder den Hersteller noch den Staat etwas an, Freiheit darf nicht gegen "Sicherheit" getauscht werden! Ein klassischer Fall von "Wehret den Anfängen".
2559
Melden
Zum Kommentar
avatar
G. Samsa
19.08.2021 16:49registriert März 2017
Wird es doch Zeit, das alte Nokia hervor zu kramen? Kaputt wird es wohl nicht sein.
1482
Melden
Zum Kommentar
avatar
Score
19.08.2021 16:55registriert Mai 2017
Super, danke für den Spannenden Bericht! Als iPhonenutzer bin ich froh dass man bei Apple genau hinschaut bei solchen Plänen und hoffe, dass das Unternehmen eine entsprechende Reaktion zeigt und von dieser Fragwürdigen Technologie absieht!
11315
Melden
Zum Kommentar
72
    St.Gallen speichert sensible Daten in der Microsoft-Cloud – jetzt wird Kritik laut
    Die kantonale Datenschutzbeauftragte kritisiert die Verarbeitung von Personendaten in der Cloud des US-Techkonzerns. Zur problematischen Abhängigkeit gibt es auch einen politischen Vorstoss.

    Mit dem Einsatz einer cloudbasierten Plattform von Microsoft (M365) in der St. Galler Staatsverwaltung werden datenschutzrechtliche Vorgaben verletzt. Dies hält die kantonale Datenschutzbehörde in ihrem Tätigkeitsbericht fest. Kritische Fragen dazu gibt es auch in einem politischen Vorstoss im Kantonsparlament.

    Zur Story