Digital
Analyse

War's das mit Apples umstrittenem Kinderporno-Scanner? Die Fakten

An Apple store employee, left, assists a customer with an iPhone 13 on its first day of sale, in New York, Friday, Sept. 24, 2021. (AP Photo/Richard Drew)
Apple-Store-Angestellte mit Kundin. Die Konzernführung in den USA hat Hinweise auf eine geplante Überwachungsfunktion von der Apple-Website entfernen lassen. Doch am automatisierten Scannen nach möglicherweise illegalen Inhalten will man festhalten.Bild: keystone
Analyse

Apple will am umstrittenen neuen Überwachungs-Tool festhalten – das musst du wissen

Die von Apple angekündigte, dann für unbestimmte Zeit verschobene «On-Device»-Überwachung ist nicht vom Tisch.
18.12.2021, 14:1620.12.2021, 08:50
Mehr «Digital»

Für kurze Zeit sah es nach einem Sieg aus für Edward Snowden und all die anderen Expertinnen und Experten, die sich gegen Apples Vorhaben ausgesprochen hatten.

Wird das reichste Privatunternehmen der Welt seine im August angekündigte, dann im September auf später verschobene Überwachungsfunktion still und leise beerdigen?

Der US-Techblog MacRumors stellte diese Woche überraschend fest, dass auf Apples Hilfe-Webseite zu den geplanten «Kinderschutz»-Massnahmen («Child Safety») die Angaben zu den «On-Device»-Scans verschwunden waren.

Zurzeit sind auf der «Child Safety»-Webseite nur noch Hinweise auf zwei neue Funktionen zu finden, die in den USA mit iOS 15.2 lanciert wurden (dazu unten mehr.)
Zurzeit sind auf der «Child Safety»-Webseite nur noch Hinweise auf zwei neue Funktionen zu finden, die in den USA mit iOS 15.2 lanciert wurden (dazu unten mehr.)screenshot: apple.com/child-safety

Am Dienstag (dieser Woche) prangte an der gleichen Stelle noch der Hinweis des iPhone-Herstellers, dass die Einführung der «On-Device»-Scans wegen «Rückmeldungen von Kund:innen, Interessengruppen, Forscher:innen und anderen» auf einen späteren Zeitpunkt verschoben worden sei.

Neu ist davon auf der Apple-Website keine Rede mehr. Nur sollte sich deswegen niemand zu früh freuen. Laut The Verge erklärte eine Apple-Sprecherin, dass sich die Position des Unternehmens seit September nicht geändert habe.

Auch gegenüber watson verwies das Unternehmen zuletzt auf den Anfang September veröffentlichten Wortlaut.

«Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese so wichtigen Sicherheitsfunktionen für Kinder veröffentlichen.»
Das offizielle «Wording» von Apple

Nun wissen wir: Apple will am Scannen der Geräte trotz massiver Kritik und öffentlicher Bedenken festhalten.

Fragt sich nur, ob die umstrittene Neuerung noch mit einem Update für iOS 15 kommt oder erst mit iOS 16.

Zur Erinnerung: Der watson-Redaktor riet in einem früheren Meinungsbeitrag davon ab, iOS 15 zu installieren. Dies, weil zu bezweifeln war, dass Nutzerinnen und Nutzer zu einem späteren Zeitpunkt ein «Downgrade» des Betriebssystems machen könnten, falls Apple den fragwürdigen «On-Device»-Scanner im Zuge eines späteren Updates lancieren wollte.

iOS 15.2 bringt einen Nacktbild-Scanner, aber ...

Am Montag dieser Woche hat Apple eine grössere Software-Aktualisierung für iPhones, iPads und Mac-Computer veröffentlicht, die Kinderschutz-Funktionen beinhaltet.

Die System-Updates iOS 15.2, iPadOS 15.2 und macOS 12.1 bringen zwei andere Kinderschutz-Funktionen, die ebenfalls im August 2021 angekündigt worden waren. Diese sind nun aber (zumindest vorläufig) nur für die US-amerikanischen Apple-Kundinnen und -Kunden verfügbar:

  • 1. «Communication safety in Messages»: Damit ist eine Art Nacktbild-Scanner für Apples Nachrichten-App (iMessage) gemeint. Die Kinderschutz-Funktion kann von Erziehungsberechtigten (mit US-amerikanischer Apple-ID) für minderjährige User (unter 12 Jahren) aktiviert werden, dies geschieht über die Familienfreigabe.
  • 2. «Expanded guidance in Siri, Spotlight, and Safari Search»: Apple will Hilfsangebote zu sexuellem Missbrauch und sexueller Ausbeutung einfacher zugänglich machen. Wer über Apples Sprachassistentin Siri, die systemeigene Suchfunktion Spotlight oder in Apples Webbrowser Safari nach entsprechenden Informationen sucht, soll auf Unterstützung in der Nähe hingewiesen werden. Diese Funktion gibts auch für die Apple Watch (watchOS 8.3).

Mit iOS 15.2 können Erziehungsberechtigte in den USA also auf den Geräten ihrer Sprösslinge einen Nacktbild-Scanner aktivieren, der in Apples Nachrichten-App (ehemals «iMessage» genannt) nach Verdächtigem sucht. Und die Apple-Betriebssysteme sollen schneller Informationen zu Hilfsangeboten bei sexuellem Missbrauch und Ausbeutung anzeigen.

Wichtig: Dieser ins Betriebssystem integrierte Nacktbild-Scanner hat technisch und organisatorisch nichts mit dem oben erwähnten automatischen Scannen von iCloud-Fotos nach bekannten Kindesmissbrauchs-Bildern zu tun!

Apple versichert, das Unternehmen habe mit dem Nacktbild-Scanner keinen Zugriff auf die Mitteilungen und es würden keine Benachrichtigungen an die Erziehungsberechtigten oder andere Personen (bzw. die Behörden) gesendet.

Die Nachrichten-App analysiert Bildanhänge beim Empfangen und vor dem Versenden und dabei sollen schlaue Algorithmen – Stichwort «Machine Learning» – automatisch erkennen können, ob sexuell explizite Inhalte enthalten sind. Die Auswertung erfolge nur auf dem Gerät, versichert Apple.

Die Ende-zu-Ende-Verschlüsselung der Nachrichten-App bleibe erhalten. Und die Funktion sei so konzipiert, dass kein Hinweis auf erkannte Nacktheit das Gerät verlasse.

Ob und wann die Kinderschutz-Funktion hierzulande eingeführt wird, ist nicht bekannt.
Ob und wann die Kinderschutz-Funktion hierzulande eingeführt wird, ist nicht bekannt.screenshot: apple.com/child-safety

Fast könnte man vermuten, dass Apple mit der Einführung des vergleichsweise harmlosen Nackt-Scanners versucht, das Terrain zu bereiten für eine spätere Einführung der Inhalte-Überwachung auf den Geräten der User selbst.

Halten wir fest: Apple hat weiterhin vor, auf den Geräten der User nach illegalen Bildern von sexuellem Kindesmissbrauch zu suchen (die englische Abkürzung ist CSAM).

Dazu sollen sogenannte Hashes (mathematische Werte) der auf dem Gerät vorhandenen Bilddateien berechnet und lokal mit einer Datenbank abgeglichen werden, die Hashes von bereits bekannten Kindesmissbrauchs-Bildern enthält.

Die Überwachungs-Technik, die wohl zunächst nur für US-User eingeführt würde, lässt Datenschutz-Aktivisten und IT-Sicherheitsexpertinnen die Haare zu Berge stehen. Sie warnen, dass damit ein gefährlicher Überwachungs-Präzedenzfall geschaffen würde. Das automatisierte Durchsuchen von Geräten nach illegalen Inhalten würde salonfähig gemacht.

Zwar bemühte sich Apple darzulegen, dass die befürchtete «Hintertür» sicher sei. Nach Ansicht vieler Fachleute stellt eine solche Technologie an sich aber bereits eine Gefahr dar, auch wenn sie vermeintlich perfekt geschützt wäre.

Sollten die Kalifornier stur an ihrem Vorhaben festhalten, dann würde dies eine Grundhaltung bestätigen, die dem Unternehmen seit vielen Jahren nachgesagt wird: Demnach weiss Apple selber am besten, was gut ist für die Kunden und entscheidet darum auch über deren Köpfe hinweg.

Das mag bei reinen Produkte-Entscheidungen gut kommen. Etwa bei der Frage, ob ein neues Feature bei der nächsten iPhone-Generation verbaut wird – oder erst im übernächsten Jahr. Doch bei dermassen einschneidenden Änderungen wie dem «On-Device»-Scanning droht beträchtlicher Schaden. Denn damit würde nicht nur am Grundvertrauen der User in die Sicherheit der eigenen Geräte gerüttelt: Die gesellschaftlichen Konsequenzen sind nicht absehbar.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Apple und sein Logo
1 / 14
Apple und sein Logo
Der angebissene Apfel provoziert ... (Screenshot: androidfiguren.de)
Auf Facebook teilenAuf X teilen
Ehemalige Facebook-Mitarbeiterin enthüllt Geheimnisse
Video: watson
Das könnte dich auch noch interessieren:
49 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Lowend
18.12.2021 15:26registriert Februar 2014
Völlig extrem und sehr bedenklich! Jeder kann sich auf dem iPhone oder dem iPad die brutalsten Videos von muslimischen, oder rechtsextremen Terroristen anschauen, aber wehe, da ist auch nur etwas Ähnliches wie eine Brustwarze zu sehen und die amerikanische Prüderie schlägt voll zu. Apple voll auf Irrwegen.
877
Melden
Zum Kommentar
avatar
Smoke
18.12.2021 15:33registriert Juli 2017
Wenn diese «on Phone»-Überwachung kommt, war’s das mit mir und Apple. Jedes Land wird dann Apple früher oder später wieder erpressen nach anderen Motiven zu suchen und diese bestrafen. Anfangs eine sehr sinnvolle Funktion, wird mit der Zeit der totalen Überwachung weichen müssen – ohne mich! Will nicht in ein Land einreisen und jedes Mal vorher einen überlegen, ob ich vielleicht ein Foto auf dem Telefon habe, welches der aktuellen politischen Gesinnung nicht passen könnte…
618
Melden
Zum Kommentar
avatar
Statler
18.12.2021 20:15registriert März 2014
@Schurter:

Wenn ich mir die Kommentare hier so ansehe, sind sich die wenigsten bewusst, WARUM Apple das so machen will.
Ich stehe dem Ganzen ebenso kritisch gegenüber, aber es sollte vielleicht mal explizit erwähnt werden, dass Fotos in einer Cloud schon lange nach KiPo durchsucht werden - und wer weiss, wonach da sonst noch gesucht wird.
Nebenbei bemerkt: Wer Cloud-Dienste benutzt, muss damit rechnen, dass alle Daten nach verdächtigen Inhalten gescannt werden. Hat eigentlich irgend jemand Snowden mal zugehört?
371
Melden
Zum Kommentar
49
Bitcoin bald bei 100'000 Dollar? 11 Fragen und Antworten zum anstehenden Halving

Bitcoin-Halving hier, Bitcoin-Halving dort. Mittlerweile kommen auch Laien nicht mehr am Gerede des anstehenden Events vorbei. Doch worum geht es dabei?

Zur Story