DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Mit diesem radikalen Schritt will Apple künftig gegen Kinderpornografie vorgehen

06.08.2021, 06:3706.08.2021, 13:46

Apple unterstützt den Kampf gegen Kinderpornografie mit einem radikalen Schritt. Der Konzern will von Herbst an zunächst Fotos auf Geräten von US-Nutzern bei Nutzung des hauseigenen Online-Speicherdienstes iCloud mit einer Liste von bekanntem kinderpornografischen Material abgleichen lassen. Apple stellte dafür am Donnerstag ein komplexes Verfahren vor, dass den Datenschutz sicherstellen soll.

Apple will iCloud-Fotos mit einer zentralen Datenbank abgleichen.
Apple will iCloud-Fotos mit einer zentralen Datenbank abgleichen.
Bild: keystone

Für den Abgleich soll auf die Geräte eine Datei mit sogenannten «Hashes» von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich bei einem Vergleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.

Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele es dafür sein müssen, wird nicht öffentlich gemacht.

Vorerst nur für US-Kunden

Wird dann bei der Überprüfung tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann.

Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen diese Systemversion installiert wird. Aktualisiert werden soll die Liste auf den Geräten entsprechend mit Erscheinen neuer Versionen der Betriebssysteme von iPhones und iPad-Tablets. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.

Bürgerrechtsorganisation Electronic Frontier Foundation (EFF):

«Es ist unmöglich, ein client-seitiges Scansystem zu entwickeln, das nur für sexuell eindeutige Bilder verwendet werden kann, die von Kindern gesendet oder empfangen werden.»

Nutzer, bei denen durch den Abgleich bekanntes kinderpornografisches Material gefunden wird, werden darüber nicht unterrichtet. Allerdings wird dabei ihr Konto gesperrt. Den Abgleich über Hashes nutzen zum Beispiel auch Online-Plattformen, um solche Inhalte bereits beim Hochladen zu entdecken und ihre Veröffentlichung zu verhindern. Das Verfahren funktioniert nach Branchenangaben praktisch fehlerfrei für Fotos – greift aber noch nicht bei Videos.

Es gibt ein Problem

Kritiker der heute gängigen Verschlüsselung von privater Kommunikation in Chatdiensten und auf Smartphones führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument auf, um Hintertüren für Behörden zu fordern. Apples angekündigtes System ist ein Versuch, das Problem auf andere Weise zu lösen. Der Konzern wehrte sich wiederholt gegen Forderungen von US-Sicherheitsbehörden, die Verschlüsselung seiner Geräte bei Ermittlungen zu knacken. Der Fokus auf Hashes von bereits bekannten Fotos bedeutet zugleich, dass neue auf den Geräten erstellte Inhalte nicht entdeckt werden.

Apple veröffentlichte Analysen mehrerer Experten, die den Datenschutz bei dem Verfahren begrüssten. Zugleich kritisierte bei Twitter ein Kryptografie-Experte an der US-Universität Johns Hopkins, Matthew Green, dass überhaupt die Möglichkeit zum Abgleich von Dateien auf den Geräten geschaffen werde. Er sieht speziell die Gefahr, dass jemand Hashes für andere Inhalte auf Geräte schleusen könnte – und dass autoritäre Regierungen Vorschriften zur Suche nach anderen Inhalten auf diese Weise erlassen könnten.

Mit einer weiteren Funktion wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt. Der Konzern erfährt nichts davon.

(sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Berühmte Whistleblower und ihre Enthüllungen

1 / 14
Berühmte Whistleblower und ihre Enthüllungen
quelle: keystone / gian ehrenzeller
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

So will die chinesische Regierung ihre Bürger ausspionieren

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Ermittler verlangen Kundenkarten-Daten – und Coop und Migros können sich kaum wehren

Staatsanwälte nutzen Daten der Kundenkarten von Coop, Migros und der SBB gerne. Weniger gerne reden sie darüber, wie oft dies geschieht. «Eine Staatsanwaltschaft erhält Einblicke, die über das hinaus gehen, was mit dem Strafverfahren zusammenhängt», sagt ein Rechtsanwalt.

Sie sind in fast allen Portemonnaies. Manche nehmen sie täglich in die Hand. Und denken wohl selten daran, welche Datenspuren sie damit hinterlassen. Die Kundenkarten von Coop oder Migros. Aus ihren Daten lässt sich viel herauslesen: Was jemand einkauft, wo er einkauft. Und vielleicht auch ganz persönliche Vorlieben.

Es sind Daten, die auch die Behörden interessieren. In Strafverfahren verlangen Staatsanwaltschaften immer wieder Kundendaten von den Detaillisten. Doch gross darüber reden möchte …

Artikel lesen
Link zum Artikel