Apple verschiebt umstrittenen Kinderporno-Scanner für iPhone und iPad
Nach heftiger und weit verbreiteter öffentlicher Kritik hat Apple am Freitag angekündigt, die neuen Kinderschutz-Funktionen nicht wie geplant einzuführen und sich stattdessen «zusätzliche Zeit» für die Beratung zu nehmen. Dies berichtet der US-Techblog Apple Insider.
Apples Stellungnahme ins Deutsche übersetzt:
Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äusserst wichtigen Funktionen zum Schutz von Kindern freigeben.»
Das Unternehmen habe keine weiteren Einzelheiten verraten, mit wem es konkret zusammenarbeiten wolle.
Informatik-Professor mahnt
Ob die umstrittenen Überwachungs-Funktionen trotzdem in die Betriebssysteme iOS 15 und iPadOS 15 integriert sein werden und einfach zu einem späteren Zeitpunkt per Update aktiviert werden können, ist nicht bekannt.
Der US-Kryptografie-Experte Matthew Green, ein erklärter Gegner der geplanten «On-Device»-Überwachung, empfiehlt den Verantwortlichen bei Apple via Twitter:
Der NSA-Whistleblower Edward Snowden sprach bei Twitter von einem grossen Sieg. Gleichzeitig mahnte der Internet-Aktivist vor verfrühter Freude: «Das Ding ist noch nicht tot. Seid bereit zu kämpfen, wenn es zurückkommt.»
Ein Kommentator bei Reddit hoffte, dass Apple die Überwachungs-Funktionen gar nicht lancieren wird.
Mit den Funktionen will Apple verstärkt gegen Bilder von sexuellem Kindesmissbrauch vorgehen, in den USA werden solche Aufnahmen als Child Sexual Abuse Material (CSAM) bezeichnet. Videos würden allerdings nicht erfasst.
Apple hat die Überwachungs-Funktionen am 5. August auf seiner Website angekündigt und verlauten lassen, sie würden später im Jahr 2021 per Update lanciert werden. Dort ist nun auch ein Hinweis zu finden, der die von den US-Techblogs berichtete Verschiebung der Lancierung bestätigt.
Zu Apples geplanten Funktionen gehören das automatische Erkennen von CSAM-Bildern, die in iCloud-Fotos gespeichert werden, sowie das Blockieren potenziell schädlicher Nachrichten, die von minderjährigen Nutzerinnen und Nutzer (unter 13 Jahren) gesendet oder empfangen werden.
Quellen
- appleinsider.com: Apple backs down on CSAM features, postpones launch
- 9to5mac.com: Apple delays rollout of CSAM detection system and child safety features
