Digital
Schweiz

CSAM: Apple wird auch alle Fotos checken, die bereits in der iCloud sind

iCloud-Logo auf iPhone.
Im Herbst soll eine höchst umstrittene Überwachungsfunktion auf iPhones und iPads Einzug halten. Nun hat Apple gegenüber watson wichtige Details erklärt.Bild: Shutterstock
Analyse

Apple wird alle bereits in der iCloud gespeicherten Fotos überprüfen – das musst du wissen

Apples angekündigte Kinderschutz-Tools sorgen weiter für Aufregung. Nun hat das US-Unternehmen bestätigt, dass es alle in der iCloud vorhandenen Bilder auf bekannte Kinderpornografie kontrollieren wird.
28.08.2021, 13:5301.09.2023, 15:22
Mehr «Digital»

Wenn Apple tatsächlich Ernst macht, kommt es zu einem ungeheuren Paradigmenwechsel: Bis dato konnte man davon ausgehen, dass ein Gerät für seinen Nutzer, oder seine Nutzerin, arbeitet. Neu arbeitet es offiziell auch gegen sie. Oder stellt sie zumindest unter Generalverdacht.

Zunächst trifft es die Amerikanerinnen und Amerikaner. Sie sollen diesen Herbst einwilligen, dass Apple auf ihren iPhones und iPads nach streng verbotener «Kinderpornografie» (ein schlimmer Begriff!) suchen darf. Aber nur nach behördlich bekannten Bildern von sexuellem Kindesmissbrauch (CSAM). Und nur, wenn die User «iCloud-Fotos» nutzen.

Dieser Beitrag dreht sich um brennende Fragen und neue Antworten. Es geht dabei vorrangig um den geplanten CSAM-Scanner und nur in zweiter Linie um die ebenfalls angekündigte Überwachung der Nachrichten-App (ehemals iMessage) auf Geräten minderjähriger Nutzerinnen und Nutzer.

Warum ist Apples Vorhaben ein Tabubruch?

Es ist schon sehr viel Kritisches geschrieben worden zu den von Apple angekündigten Überwachungs-Tools. Hier geht es zunächst um einen Aspekt, den die Unternehmensführung nach meiner Einschätzung gewaltig unterschätzt hat.

Ausgerechnet den Erfindern des modernen Smartphones, mit dem ein neues Computer-Zeitalter eingeläutet wurde, scheint eine schwere psychologische Fehleinschätzung unterlaufen zu sein. (*Gemeint ist das iPhone, das 2007 mit seinen für berührungsempfindliche Displays optimierten Multi-Touch-Gesten die Computerbedienung revolutionierte).

Bis heute konnten die Nutzerinnen und Nutzer davon ausgehen, dass ihre Daten auf ihren Geräten privat sind. Strenggenommen ist auch das eine fragwürdige Vorstellung, wie wir nach unzähligen Tracking- und Spionage-Skandalen wissen, ja. Aber nichtsdestotrotz gilt grundsätzlich: Dank Verarbeitung auf dem Gerät selbst wird vermieden, dass Daten in Rechenzentren hochgeladen werden. Apple selbst hat damit geworben: «What happens on your iPhone...»

Das neue Überwachungs-System kehrt diese Erwartung um.

Neu soll die geräteinterne Verarbeitung von Daten als Mittel zum Hochladen in die iCloud eingesetzt werden.

Auch wenn das System derzeit nur auf illegale Inhalte zugeschnitten ist, ändert es die Rolle des Betriebssystems aus Usersicht grundlegend. Das Gerät selbst wird in die Rolle des Überwachers und Gesetzeshüters versetzt.

Damit bricht Apple das Grundvertrauen, das die Nutzerinnen und Nutzer seit den Anfängen der Computertechnik hatten: Nämlich dass ein Gerät «das eigene Gerät» ist, so wie dein Velo, dein Auto oder dein Haus «dein» Eigentum ist.

Jason Snell, langjähriger (früherer) Chefredaktor des US-Fachmagazins «Macworld», bringt es auf den Punkt:

«Unsere Geräte sind heilig und gehören uns.

Ausser… dass auf unseren Geräten jetzt ein Algorithmus läuft, der unsere Daten beobachtet, und wenn er etwas findet, das ihm nicht gefällt, wird er sich mit dem Internet verbinden und diese Daten an Apple zurückmelden.»
quelle: macworld.com

Wen will Apple überwachen?

Wer im Herbst auf die neuen Betriebssysteme iOS 15, respektive iPadOS 15, aktualisiert, schafft die Voraussetzungen für die Überwachungs-Tools (siehe unten). Das heisst aber nicht, dass sie auch gleich laufen, wenn sie später von Apple mit einem Software-Update ausgerollt werden.

Die Funktionen werden gemäss Apple im Herbst starten für alle User, die ein US-amerikanisches iCloud-Konto nutzen — unabhängig davon, wo sie sich aufhalten. Entscheidend sei das Land, in dem das iCloud-Konto geführt wird, nicht die Sprach- bzw. Regionen-Einstellungen individueller Geräte.

Eine US-Amerikanerin in der Schweiz, die sich ursprünglich in den Vereinigten Staaten bei Apples iCloud registrierte und den Speicherdienst für ihre Fotos nutzt, wird also hierzulande ebenso überwacht wie ihre Landsleute in der Heimat.

Apple versichert zudem, dass die tief ins Betriebssystem integrierte Überwachungsfunktion nur laufe, wenn man in den iCloud-Einstellungen «iCloud-Fotos» aktiviert hat.

Bild

Nicht von der Überwachung betroffen seien iCloud-Foto-User in der Schweiz und anderen Ländern, selbst wenn auf ihrem Gerät unter «Sprache & Region» die USA eingestellt sind.

Werden auch Fotos überprüft, die bereits in Apples iCloud gespeichert sind?

Ja. Dies ist laut Apple vorgesehen.

Die Fotos der Nutzerinnen und Nutzer, die sich schon auf der iCloud befinden, sind ebenfalls Teil des Verfahrens, wie das Unternehmen gegenüber watson bestätigt. Diese Bilder sollen nach und nach mittels des NeuralHash-Verfahrens abgeglichen und auf dem Gerät mit «Vouchers» versehen werden.

Was sind das für «Vouchers»?
Wenn Apples in das Betriebssystem integrierte Überwachungs-System eine Übereinstimmung findet, erstellt das Gerät einen «Safety Voucher», das ist ein Dokument, das verschlüsselt bei iCloud Fotos hochgeladen wird.

Jeder dieser Voucher – auf Deutsch Beleg – zeigt an, dass eine Übereinstimmung mit einem bekannten Bild von sexuellem Kindesmissbrauch (CSAM) besteht. Die Voucher werden verschlüsselt an die Apple-Server übertragen und lassen sich laut Apple nicht einzeln entschlüsseln.

Erst wenn das System eine bestimmte Anzahl solcher Belege registriert – laut Apple sind rund 30 erforderlich –, werden alle Belege entschlüsselt und zur Überprüfung an menschliche Kontrolleure bei Apple weitergeleitet. Diese müssen dann entschärfte Bildversionen visuell überprüfen und entscheiden, ob es sich um CSAM handelt.

Der Punkt oben dürfte einigen Apple-Kundinnen und -Kunden bislang nicht bewusst gewesen sein. Dazu kommen die Erkenntnisse, die wir kürzlich gewonnen haben:

  • Apple hat in seinen Rechenzentren bereits CSAM-Checks durchgeführt und führt diese auch weiter durch. Automatisch auf (bekannte) Bilder von sexuellem Kindesmissbrauch gescannt werden alle E-Mails, die von Kundinnen und Kunden über iCloud Mail verschickt werden. Das Unternehmen tut dies seit 2019, wie 9to5Mac schreibt.
  • Apple versichert, die in der iCloud gespeicherten Fotos (iCloud Photo) seien nie gescannt worden. Hierzu muss man wissen, dass diese Bilder verschlüsselt in den Rechenzentren gespeichert sind, dass aber das Unternehmen über einen Schlüssel verfügt, um sie zu entschlüsseln. iCloud Photo verfügt also nicht über eine (optionale) Ende-zu-Ende-Verschlüsselung. Warum das Unternehmen dies bis heute nicht anbietet, will es nicht verraten.
  • Gegenüber dem US-Journalisten Ben Lovejoy gab Apple auch an, dass es «einige begrenzte Scans anderer Daten» durchführe, wollte aber nicht sagen, um welche Daten es sich dabei handelt. Man habe ihm gegenüber betont, dies passiere in sehr kleinem Rahmen. Und iCloud-Backups seien damit nicht gemeint.
  • Es ist weiter nicht offiziell bekannt, warum Apple keine (optionale) Ende-zu-Ende-Verschlüsselung anbietet. Laut einem Reuters-Bericht von 2020 verwarf das Unternehmen entsprechende Pläne nach Protesten des FBI. Die US-Bundespolizei befürchtete, nicht mehr auf iPhone-Daten von Verdächtigen zugreifen zu können, was die Ermittlungsarbeit massiv beeinträchtigt hätte.

Niemand wird zum Update gezwungen, aber ...

Diesen Herbst hat über eine Milliarde iPhone-User die Qual der Wahl, ob sie tatsächlich auf iOS 15 upgraden. Wobei das Unternehmen auf die Bequemlichkeit vieler Kundinnen und Kunden hoffen darf: Wer sorgt sich über weitreichende gesellschaftliche Konsequenzen, wenn knackige neue Features locken? Und es sollte eigentlich auch niemand etwas gegen den Kampf gegen Kindesmissbrauch haben, oder?

Was vielen iPhone- und iPad-Nutzerinnen und -Nutzern noch nicht bekannt sein dürfte: Bevor Apple voraussichtlich Mitte September (nach der Präsentation des iPhone 13) iOS 15 veröffentlicht und für den Download freigibt, muss auf den Geräten eine neue Wahlmöglichkeit geschaffen werden.

Die User sollen erstmals in der Einstellungen-App festlegen können, beim bisherigen System (iOS 14) zu bleiben. Wer sich dazu entscheidet, nicht auf iOS 15 zu wechseln.

Auf der Apple-Website zu iOS 15 heisst es:

«Mit iOS kannst du in den Einstellungen zwischen zwei möglichen Versionen von Software­-Updates wählen. Mach ein Update auf die neueste iOS 15 Version, sobald sie ver­öffentlicht wurde, um die neuesten Features und umfassendsten Sicher­heits­updates zu bekommen. Oder nutze weiter iOS 14 und erhalte trotzdem wichtige Sicherheits­-Updates.»
quelle: apple.com

PS: Die Ankündigung der Software-Update-Option erfolgte in der Juni-Woche, in der Apple seine Entwicklerkonferenz WWDC abhielt. Corona-bedingt (erneut) als reinen Online-Event. Merkwürdigerweise verlor man an der Keynote kein Wort zu den geplanten Kinderschutz-Tools.

Wird Apple noch einlenken?

Danach sieht es nicht aus.

Am Dienstag konnte der watson-Redaktor an einem Hintergrundgespräch mit einem hochrangigen Apple-Vertreter teilnehmen. Dabei wurde versucht, die technischen Feinheiten des geplanten Überwachungssystems zu erläutern. Da die Informationen «on Background» vermittelt wurden, dürfen die teilnehmenden Journalisten keine direkten Zitate verwenden. Das ist ein bei Apple übliches Vorgehen.

Während der Videokonferenz zeigte sich allerdings auch, dass Apples Kommunikationsstrategie zu den umstrittenen Kinderschutz-Tools vorsieht, nicht (mehr) auf die grundsätzlichen Bedenken gegenüber der «On-Device»-Überwachung und mögliche Bedrohungs-Szenarien einzugehen.

Die Apple-Leute, die sich gegenüber Journalisten äussern dürfen, vertreten nun den Standpunkt, dass sie nur über Dinge sprechen, die ihr Unternehmen konkret angekündigt hat. Detailfragen rund um die technische Umsetzung des «Kinderporno-Scanners» werden also nicht beantwortet.

Laut Apple handelt es sich gar nicht um «Scanning». Hier zeigt sich eine weitere PR-Taktik des Unternehmens: Durch spitzfindige Unterscheidungen wird versucht, die geplanten Überwachungsmassnahmen als harmlos darzustellen.

Die Strategie ist klar: Da sich die von Datenschützern, IT-Sicherheitsexperten, Menschenrechts-Aktivisten, Juristinnen und Politikern geäusserten Bedenken und Befürchtungen nicht entkräften lassen, lässt man sie links liegen. Und Apples CEO, der sich in der Vergangenheit als «Privacy»-Verfechter hervorgetan hat, hüllt sich weiter in Schweigen.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wie Apple Geschichte schrieb
1 / 25
Wie Apple Geschichte schrieb
Apple hat der Computerbranche in den letzten vier Jahrzehnten immer wieder die Richtung vorgegeben. Das sind die wichtigsten Meilensteine ...
quelle: ap/ap / marcio jose sanchez
Auf Facebook teilenAuf X teilen
Dieser iPhone-Bug ist genial praktisch
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
71 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
What’s Up, Doc?
28.08.2021 14:32registriert Dezember 2015
Schon starker Tobak wenn man bedenkt wie sich der Konzern bis vor einigen Monaten mit dem Schutz der Daten seiner Kunden brüstete und die Konkurrenz als Flegel darstellte welche ihre Daten, nach Ansicht von Apple, bereitwillig mit Regierungen teilen. Und jetzt stellt sich raus dass sich der Konzern Rechte einverleibt und schon jetzt nach Lust und Laune auf Fotos ihrer Kunden zugreifen kann ohne das diese etwas davon mitbekommen. Klar will jeder normale Nutzer den Kampf gegen Kinderpornographie unterstützen, die Frage ist dann einfach für was werden die Möglichkeiten sonst noch gebraucht.
1287
Melden
Zum Kommentar
avatar
Ökonometriker
28.08.2021 14:25registriert Januar 2017
Kann man schon machen. Dann möchte ich aber bei Apple auch meinen Algorithmus einschleusen dürfen um zu prüfen, ob das Unternehmen Gesetzesverstösse begeht. Gem. Apples Logik hat ja jemand, der nichts illegales tut, nichts zu verbergen.
1138
Melden
Zum Kommentar
avatar
Kasar
28.08.2021 14:20registriert Juni 2020
1984… und wir nehmens einfach hin…(ich übrigens auch... schreibe diesen Kommentar von einem iPhone)
1017
Melden
Zum Kommentar
71
Google kündigt Leistungssprung bei Quantencomputer an

Google ist nach eigenen Angaben ein entscheidender Schritt zur Überwindung einer der grössten Herausforderungen im Quantencomputing gelungen. Mit dem neuen Spezialchip «Willow» und einer neuen Anwendungsmethode habe man den Weg für die Entwicklung praktisch nutzbarer Quantencomputer geebnet, sagte der deutsche Informatiker Hartmut Neven, Gründer und Leiter des Quantum Artificial Intelligence Laboratory von Google.

Zur Story