Android-User stellen vermehrt fest, dass auf ihrem Mobilgerät eine App namens SafetyCore installiert ist. Dabei handelt es sich – vereinfacht ausgedrückt – um einen Nacktbild-Scanner der Android-Entwicklerfirma Google, der mehr oder weniger unbemerkt per Sicherheits-Update im Oktober 2024 lanciert wurde.
Hier erfährst du, wie die Anwendung deaktiviert werden kann. Und warum dahinter ein grundlegendes Problem steckt, bei dem auch Apple schlecht aussieht.
Eine auf vielen Android-Smartphones installierte App namens «SafetyCore» sorgt für Verunsicherung. Es soll sich um einen Nacktbild-Scanner handeln. Auf der Social-Media-Plattform X machten alarmierende Meldungen die Runde, die ziemlich viele Fragen aufwerfen.
Offensichtlich war und ist den meisten Android-Usern nicht bewusst, dass sie betroffen sind. Das amerikanische IT-Nachrichtenportal ZDNet konstatiert:
Einer der umstrittensten Aspekte von SafetyCore ist, dass es ohne ausdrückliche Zustimmung im Hintergrund installiert wird. Dieses Vorgehen hat bei vielen Usern Bedenken hinsichtlich der Privatsphäre und der Kontrolle über ihre eigenen Geräte und Daten geweckt.
Google versichert, dass alles mit rechten Dingen zugehe und kein Grund zur Besorgnis bestehe. Es handle sich um Komponenten des mobilen Betriebssystems, die die Sicherheit erhöhen sollen und optional sind.
Weiter heisst es, dass die User die Kontrolle behalten, dass sie SafetyCore deaktivieren oder deinstallieren können und dass sie die On-Device-Scans nicht aktivieren müssen, wenn sie offiziell lanciert werden.
Interessanterweise stand vor nicht allzu langer Zeit schon der Google-Rivale Apple wegen des gleichen fragwürdigen Vorgehens in der Kritik. Im Kern geht es darum, dass die marktbeherrschenden Techkonzerne auf den Geräten der Kundschaft weitreichende KI-Funktionen installieren. Doch es mangelt an Transparenz.
Am 5. Oktober 2024 veröffentlichte Google ein Sicherheitsupdate für Android 9 und neuere Versionen des weitverbreiteten mobilen Betriebssystems. Und dieses auf den ersten Blick unscheinbare Update beinhaltete eine App namens «Android System SafetyCore».
Wie wir inzwischen wissen, schafft Google mit der neuen Android-Systemkomponente die technischen Voraussetzungen für Apps, um Bildüberprüfungen auf dem Gerät selbst (und nicht in der Cloud) durchzuführen.
Der App-Beschrieb im Google Play Store erklärt:
Beim hauseigenen Messenger-Dienst «Google Messages» ermöglicht der «SafetyCore»-Dienst, dass auf dem Gerät empfangene Nacktfotos (und Nacktvideos) automatisch erkannt und unkenntlich gemacht werden.
Laut Google geht es erst richtig los.
Das Ausrollen der neuen Funktion erfolgt gestaffelt. Für Verwirrung sorgte wohl insbesondere die mangelhafte Kommunikation durch den US-Techkonzern.
Google versichert, dass die Filterung auf dem Gerät stattfindet und keine Daten an externe Server geschickt werden, fasst futurezone.at zusammen. Doch das bedeute nicht zwangsläufig, dass der Dienst nicht mit anderen Google-Servern kommuniziere – und möglicherweise könnte so auch gemeldet werden, dass ein User sensible Bilder aufnehme, was darauf zu sehen sei, und vielleicht sogar, welche Personen abgebildet sind.
Die Entwickler des unabhängigen, als besonders sicher geltenden Android-Betriebssystems GrapheneOS zeigten sich in einer Stellungnahme kritisch, weil der Google-Programmcode nicht frei einsehbar ist:
Gleichzeitig betonen die unabhängigen Entwickler, dass es sich bei SafetyCore von Google nicht um das höchst umstrittene Client-Side-Scanning handle, wie es etwa Apple 2021 fürs iPhone einführen wollte, aber nach massiven weltweiten Protesten zurückkrebste.
Apple scheint die Lehren aus dem damaligen Schlamassel allerdings schon fast vergessen zu haben, wie wir weiter unten noch sehen werden...
Irritierend: SafetyCore hat offenbar kein eigenes App-Symbol und wird auch nicht in der üblichen Liste der laufenden Anwendungen angezeigt. Doch das Deinstallieren sollte im besten Fall ziemlich einfach sein.
Dazu erklärt futurezone.at:
Aber: Laut ZDNet berichten User, dass sich SafetyCore während System-Updates oder über Google Play Services selbst nach der Deinstallation des Dienstes neu installierte. In diesem Fall müsse man SafetyCore erneut (manuell) deinstallieren, was ärgerlich sei.
Google betont, dass die User die Kontrolle behalten, dass sie SafetyCore deaktivieren oder deinstallieren können und dass sie die On-Device-Scans nicht aktivieren müssen, wenn sie offiziell lanciert werden.
Apple verfolgt bei seinem eigenen Messenger-Dienst «Nachrichten» (früher «iMessage») vergleichbare Pläne: Bildüberprüfungen sollen sicher und datenschutzfreundlich auf den Geräten der User stattfinden.
Für User in Australien wurde im Oktober 2024 ein entsprechendes Update veröffentlicht. Die Betriebssystem-Version iOS 18.2 beinhaltet eine neue Sicherheitsfunktion, die zugeschickte Nacktbilder automatisch ausblendet oder durch Verwischen («Blurring») entschärft.
Wie der «Guardian» berichtete, handelt es sich um eine Erweiterung der sogenannten «Kommunikations-Sicherheitsmassnahmen», die seit iOS 17 für minderjährige Apple-User (unter 13 Jahren) standardmässig aktiviert sind, aber allen Usern zur Verfügung stehen.
Dank der Sicherheitsfunktionen erkenne ein iPhone automatisch Bilder und Videos mit Nacktheit, die Kinder möglicherweise in iMessage, AirDrop, FaceTime und Fotos erhalten oder zu senden versuchen. Die Erkennung solcher Inhalte erfolge durch Machine-Learning-Algorithmen auf dem Gerät selbst. Der Datenschutz sei gewährleistet, es gingen keine sensiblen Daten an Apple-Server.
Die Lancierung in Australien fiel mit einer Verschärfung der nationalen Gesetzgebung zusammen. Seit Ende 2024 müssten Apple und andere Techkonzerne die von ihnen betriebenen Cloud-Speicher- und Messaging-Dienste überwachen: auf Darstellungen von sexuellem Kindesmissbrauch und auf «terroristische Inhalte».
Dass die staatlichen Überwachungs-Bemühungen unvermindert weitergehen, zeigt der Blick nach Grossbritannien. Dort sieht sich Apple gezwungen, die Ende-zu-Ende-Verschlüsselung von iCloud-Backups zu stoppen.
Der «Forbes»-Kolumnist Zak Doffman kommentiert an die Adresse von Apple und Google gerichtet:
Dass die Kundinnen und Kunden von den führenden Techkonzernen Transparenz verlangen, erscheint nichts als logisch. Schliesslich vertrauen sie ihren Mobilgeräten höchst sensible Daten (wie Fotos) an und müssen sich darauf verlassen, dass diese geschützt sind.
Wie man es nicht machen sollte, stellte zuletzt (erneut) Apple unter Beweis. Mit iOS 18.2 und macOS 15.2 führte das Unternehmen eine neue KI-Funktion namens «Erweiterte visuelle Suche» ein. Diese ist in die «Fotos»-App integriert und erfordert im Gegensatz zu anderen Apple-Intelligence-Funktionen, die auf dem Gerät selbst laufen, einen Datenaustausch mit Apple-Servern.
Zwar werden nur verschlüsselte Daten übermittelt und keine persönlichen, sondern anonymisierte Informationen, eine Art mathematische Darstellung der Bildinhalte. Doch das datenschutzfreundliche Verfahren vermochte die Gemüter nicht zu besänftigen. Denn Apple lancierte die an sich praktische Funktion ohne die explizite Zustimmung der Nutzerinnen und Nutzer. Sie wurde mit dem Update standardmässig aktiviert und muss bei Bedenken in den Einstellungen auf dem jeweiligen Gerät (iPhone, iPad, Mac) manuell ausgeschaltet werden.
Danke für den Artikel, auch über den zum Entfernen der Werbe-ID. 👍
Jetzt kann ich wieder sorgenlos Nacktmulle fotografieren.