Für kurze Zeit sah es nach einem Sieg aus für Edward Snowden und all die anderen Expertinnen und Experten, die sich gegen Apples Vorhaben ausgesprochen hatten.
Wird das reichste Privatunternehmen der Welt seine im August angekündigte, dann im September auf später verschobene Überwachungsfunktion still und leise beerdigen?
Der US-Techblog MacRumors stellte diese Woche überraschend fest, dass auf Apples Hilfe-Webseite zu den geplanten «Kinderschutz»-Massnahmen («Child Safety») die Angaben zu den «On-Device»-Scans verschwunden waren.
Am Dienstag (dieser Woche) prangte an der gleichen Stelle noch der Hinweis des iPhone-Herstellers, dass die Einführung der «On-Device»-Scans wegen «Rückmeldungen von Kund:innen, Interessengruppen, Forscher:innen und anderen» auf einen späteren Zeitpunkt verschoben worden sei.
Neu ist davon auf der Apple-Website keine Rede mehr. Nur sollte sich deswegen niemand zu früh freuen. Laut The Verge erklärte eine Apple-Sprecherin, dass sich die Position des Unternehmens seit September nicht geändert habe.
Auch gegenüber watson verwies das Unternehmen zuletzt auf den Anfang September veröffentlichten Wortlaut.
Nun wissen wir: Apple will am Scannen der Geräte trotz massiver Kritik und öffentlicher Bedenken festhalten.
Fragt sich nur, ob die umstrittene Neuerung noch mit einem Update für iOS 15 kommt oder erst mit iOS 16.
Zur Erinnerung: Der watson-Redaktor riet in einem früheren Meinungsbeitrag davon ab, iOS 15 zu installieren. Dies, weil zu bezweifeln war, dass Nutzerinnen und Nutzer zu einem späteren Zeitpunkt ein «Downgrade» des Betriebssystems machen könnten, falls Apple den fragwürdigen «On-Device»-Scanner im Zuge eines späteren Updates lancieren wollte.
Am Montag dieser Woche hat Apple eine grössere Software-Aktualisierung für iPhones, iPads und Mac-Computer veröffentlicht, die Kinderschutz-Funktionen beinhaltet.
Die System-Updates iOS 15.2, iPadOS 15.2 und macOS 12.1 bringen zwei andere Kinderschutz-Funktionen, die ebenfalls im August 2021 angekündigt worden waren. Diese sind nun aber (zumindest vorläufig) nur für die US-amerikanischen Apple-Kundinnen und -Kunden verfügbar:
Mit iOS 15.2 können Erziehungsberechtigte in den USA also auf den Geräten ihrer Sprösslinge einen Nacktbild-Scanner aktivieren, der in Apples Nachrichten-App (ehemals «iMessage» genannt) nach Verdächtigem sucht. Und die Apple-Betriebssysteme sollen schneller Informationen zu Hilfsangeboten bei sexuellem Missbrauch und Ausbeutung anzeigen.
Wichtig: Dieser ins Betriebssystem integrierte Nacktbild-Scanner hat technisch und organisatorisch nichts mit dem oben erwähnten automatischen Scannen von iCloud-Fotos nach bekannten Kindesmissbrauchs-Bildern zu tun!
Apple versichert, das Unternehmen habe mit dem Nacktbild-Scanner keinen Zugriff auf die Mitteilungen und es würden keine Benachrichtigungen an die Erziehungsberechtigten oder andere Personen (bzw. die Behörden) gesendet.
Die Nachrichten-App analysiert Bildanhänge beim Empfangen und vor dem Versenden und dabei sollen schlaue Algorithmen – Stichwort «Machine Learning» – automatisch erkennen können, ob sexuell explizite Inhalte enthalten sind. Die Auswertung erfolge nur auf dem Gerät, versichert Apple.
Die Ende-zu-Ende-Verschlüsselung der Nachrichten-App bleibe erhalten. Und die Funktion sei so konzipiert, dass kein Hinweis auf erkannte Nacktheit das Gerät verlasse.
Fast könnte man vermuten, dass Apple mit der Einführung des vergleichsweise harmlosen Nackt-Scanners versucht, das Terrain zu bereiten für eine spätere Einführung der Inhalte-Überwachung auf den Geräten der User selbst.
Halten wir fest: Apple hat weiterhin vor, auf den Geräten der User nach illegalen Bildern von sexuellem Kindesmissbrauch zu suchen (die englische Abkürzung ist CSAM).
Dazu sollen sogenannte Hashes (mathematische Werte) der auf dem Gerät vorhandenen Bilddateien berechnet und lokal mit einer Datenbank abgeglichen werden, die Hashes von bereits bekannten Kindesmissbrauchs-Bildern enthält.
Die Überwachungs-Technik, die wohl zunächst nur für US-User eingeführt würde, lässt Datenschutz-Aktivisten und IT-Sicherheitsexpertinnen die Haare zu Berge stehen. Sie warnen, dass damit ein gefährlicher Überwachungs-Präzedenzfall geschaffen würde. Das automatisierte Durchsuchen von Geräten nach illegalen Inhalten würde salonfähig gemacht.
Zwar bemühte sich Apple darzulegen, dass die befürchtete «Hintertür» sicher sei. Nach Ansicht vieler Fachleute stellt eine solche Technologie an sich aber bereits eine Gefahr dar, auch wenn sie vermeintlich perfekt geschützt wäre.
Sollten die Kalifornier stur an ihrem Vorhaben festhalten, dann würde dies eine Grundhaltung bestätigen, die dem Unternehmen seit vielen Jahren nachgesagt wird: Demnach weiss Apple selber am besten, was gut ist für die Kunden und entscheidet darum auch über deren Köpfe hinweg.
Das mag bei reinen Produkte-Entscheidungen gut kommen. Etwa bei der Frage, ob ein neues Feature bei der nächsten iPhone-Generation verbaut wird – oder erst im übernächsten Jahr. Doch bei dermassen einschneidenden Änderungen wie dem «On-Device»-Scanning droht beträchtlicher Schaden. Denn damit würde nicht nur am Grundvertrauen der User in die Sicherheit der eigenen Geräte gerüttelt: Die gesellschaftlichen Konsequenzen sind nicht absehbar.