Apple unterstützt den Kampf gegen Kinderpornografie mit einem radikalen Schritt. Der Konzern will von Herbst an zunächst Fotos auf Geräten von US-Nutzern bei Nutzung des hauseigenen Online-Speicherdienstes iCloud mit einer Liste von bekanntem kinderpornografischen Material abgleichen lassen. Apple stellte dafür am Donnerstag ein komplexes Verfahren vor, dass den Datenschutz sicherstellen soll.
Für den Abgleich soll auf die Geräte eine Datei mit sogenannten «Hashes» von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich bei einem Vergleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.
Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele es dafür sein müssen, wird nicht öffentlich gemacht.
🚨🚨 Apple says to "protect children," they're updating every iPhone to continuously compare your photos and cloud storage against a secret blacklist. If it finds a hit, they call the cops.
— Edward Snowden (@Snowden) August 6, 2021
iOS will also tell your parents if you view a nude in iMessage.https://t.co/VZCTsrVnnc
Wird dann bei der Überprüfung tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann.
Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen diese Systemversion installiert wird. Aktualisiert werden soll die Liste auf den Geräten entsprechend mit Erscheinen neuer Versionen der Betriebssysteme von iPhones und iPad-Tablets. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.
Nutzer, bei denen durch den Abgleich bekanntes kinderpornografisches Material gefunden wird, werden darüber nicht unterrichtet. Allerdings wird dabei ihr Konto gesperrt. Den Abgleich über Hashes nutzen zum Beispiel auch Online-Plattformen, um solche Inhalte bereits beim Hochladen zu entdecken und ihre Veröffentlichung zu verhindern. Das Verfahren funktioniert nach Branchenangaben praktisch fehlerfrei für Fotos – greift aber noch nicht bei Videos.
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
— Edward Snowden (@Snowden) August 6, 2021
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
Kritiker der heute gängigen Verschlüsselung von privater Kommunikation in Chatdiensten und auf Smartphones führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument auf, um Hintertüren für Behörden zu fordern. Apples angekündigtes System ist ein Versuch, das Problem auf andere Weise zu lösen. Der Konzern wehrte sich wiederholt gegen Forderungen von US-Sicherheitsbehörden, die Verschlüsselung seiner Geräte bei Ermittlungen zu knacken. Der Fokus auf Hashes von bereits bekannten Fotos bedeutet zugleich, dass neue auf den Geräten erstellte Inhalte nicht entdeckt werden.
I hate going all slippery-slope, but I look at the slope, and governments around the world are covering it in oil, and Apple just pushed it's customers over the edge.
— Sarah Jamie Lewis (@SarahJamieLewis) August 5, 2021
— Edward Snowden (@Snowden) August 6, 2021
Apple veröffentlichte Analysen mehrerer Experten, die den Datenschutz bei dem Verfahren begrüssten. Zugleich kritisierte bei Twitter ein Kryptografie-Experte an der US-Universität Johns Hopkins, Matthew Green, dass überhaupt die Möglichkeit zum Abgleich von Dateien auf den Geräten geschaffen werde. Er sieht speziell die Gefahr, dass jemand Hashes für andere Inhalte auf Geräte schleusen könnte – und dass autoritäre Regierungen Vorschriften zur Suche nach anderen Inhalten auf diese Weise erlassen könnten.
This sort of tool can be a boon for finding child pornography in people’s phones. But imagine what it could do in the hands of an authoritarian government? https://t.co/nB8S6hmLE3
— Matthew Green (@matthew_d_green) August 5, 2021
Mit einer weiteren Funktion wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt. Der Konzern erfährt nichts davon.
Apple is managing an embargo of reporters right now. It’s quite a remarkable thing watching them do this, goal is to make sure everyone reports this when Apple wants and on Apple’s terms.
— Matthew Green (@matthew_d_green) August 5, 2021
The idea that Apple is a “privacy” company has bought them a lot of good press. But it’s important to remember that this is the same company that won’t encrypt your iCloud backups because the FBI put pressure on them. https://t.co/tylofPfV13
— Matthew Green (@matthew_d_green) August 5, 2021
(sda/dpa)
"Eine Hashfunktion oder Streuwertfunktion ist eine Abbildung, die eine große Eingabemenge, die Schlüssel, auf eine kleinere Zielmenge, die Hashwerte, abbildet."
"Eine Kollision tritt dann auf, wenn unterschiedlichen Eingabedaten derselbe Hashwert zugeordnet wird. Da die Menge der möglichen Hashwerte meist kleiner ist als die der möglichen Eingaben, sind solche Kollisionen dann prinzipiell unvermeidlich"
Bei einem "false positive" wird dann mal schnell ein Leben zerstört.