Société
Google

Safety Core: Google installe une «mise à jour douteuse»

Smartphone mit Google Messages Logo (Symbolbild)
Vous en avez entendu parler? Sur les appareils Android, il existe une nouvelle application qui peut surveiller les messages.Image: imago-images.de

Google installe une «mise à jour douteuse» sur votre téléphone

Une application appelée «SafetyCore» apparaît sur un nombre croissant d'appareils mobiles Android et inquiète les utilisateurs. Elle scanne vos photos sans que vous le sachiez.
01.03.2025, 11:5001.03.2025, 11:50
Daniel Schurter
Daniel Schurter
Plus de «Société»

Les utilisateurs d'Android constatent de plus en plus souvent qu'une application appelée SafetyCore est installée sur leur appareil mobile. Il s'agit - pour simplifier - d'un scanner de nudité qui a été lancé plus ou moins à l'insu de tous par une mise à jour de sécurité en octobre 2024.

Vous apprendrez ici comment désactiver l'application. Et pourquoi il s'agit d'un problème fondamental, qui fait également mauvaise figure pour Apple.

C'est quoi «SafetyCore»?

Une application appelée «SafetyCore» installée sur de nombreux smartphones Android suscite l'inquiétude. Il s'agirait d'un scanner de photos de nus. Sur la plate-forme X, des messages alarmants ont fait le tour de la toile, soulevant pas mal de questions.

Manifestement, la plupart des utilisateurs d'Android ne sont pas conscients qu'ils sont concernés. Le portail américain ZDNet constate que «la plupart des gens ne sont pas conscients de ce qu'ils font»:

«Si vous avez un nouvel appareil Android ou un appareil avec des mises à jour logicielles depuis octobre 2024, il est presque certain que SafetyCore est installé sur votre téléphone»

L'un des aspects les plus controversés de SafetyCore est qu'il est installé en arrière-plan sans consentement explicite. Cette pratique a suscité des inquiétudes chez de nombreux utilisateurs quant à la confidentialité et au contrôle de leurs propres appareils et données.

Google assure que tout est en ordre et qu'il n'y a pas lieu de s'inquiéter: il s'agit de composants du système d'exploitation mobile destinés à renforcer la sécurité et qui sont optionnels.

Il est également précisé que les utilisateurs gardent le contrôle, qu'ils peuvent désactiver ou désinstaller SafetyCore et qu'ils n'ont pas besoin d'activer l'analyse sur l'appareil lors de son lancement officiel.

Il est intéressant de noter qu'il n'y a pas si longtemps, le rival de Google, Apple, était déjà sous le feu des critiques pour la même procédure douteuse. Il s’agit essentiellement d’entreprises technologiques dominantes sur le marché qui installent des fonctions d’IA étendues sur les appareils de leurs clients. Mais il y a manifestement un manque de transparence.

Que savons-nous de SafetyCore?

Le 5 octobre 2024, Google a publié une mise à jour de sécurité pour Android 9 et les versions plus récentes du système d'exploitation mobile largement répandu. Et cette mise à jour, à première vue anodine, comprenait une application appelée «Android System SafetyCore».

Android System SafetyCore»
L'icône du composant du système Android.Screenshot: Google Play Store

Comme nous le savons désormais, avec le nouveau composant système Android, Google crée les conditions techniques permettant aux applications d'effectuer des vérifications d'images sur l'appareil lui-même (et non dans le cloud).

La description de l'application dans le Google Play Store explique:

«SafetyCore est un service système Google pour les appareils Android 9+. Il fournit la technologie sous-jacente pour des fonctionnalités telles que la prochaine fonctionnalité "Alertes de contenu sensible" dans Google Messages, qui permet aux utilisateurs de se protéger lorsqu'ils reçoivent du contenu potentiellement indésirable (...)»

Dans le service de messagerie interne «Google Messages», le service «SafetyCore» permet de détecter automatiquement les photos (et les vidéos) de nudité reçues sur l'appareil et de les rendre illisibles.

Selon Google, les choses ne font que commencer:

«Alors que SafetyCore a commencé à être déployé l'année dernière, la fonctionnalité "Alertes de contenu sensible" de Google Messages est une fonctionnalité distincte et optionnelle qui sera introduite progressivement en 2025.»

Où est le problème avec Safety Core?

Le déploiement de la nouvelle fonction se fera de manière échelonnée. Le manque de communication de la part du groupe technologique américain a probablement causé une certaine confusion:

«De nombreux utilisateurs d'Android qui ont participé à des discussions en ligne sur cette mise à jour douteuse ont également critiqué le fait que la mise à jour se soit installée automatiquement - sans demander l'autorisation.»
source: futurezone.at

Google assure que le filtrage a lieu sur l'appareil et qu'aucune donnée n'est envoyée à des serveurs externes, résume futurezone.at. Mais cela ne signifie pas nécessairement que le service ne communique pas avec d'autres serveurs Google - et il serait peut-être ainsi possible de signaler qu'un utilisateur prend des photos sensibles, ce qu'on y voit et peut-être même quelles personnes sont représentées.

Les développeurs du système d'exploitation Android indépendant GrapheneOS, considéré comme particulièrement sûr, se sont montré critiques dans une prise de position, car le code du programme de Google n'est pas librement consultable:

«Il est regrettable qu'il ne soit pas open source et publié dans le cadre du "Android Open Source Project". Il ne sera pas disponible pour les utilisateurs de GrapheneOS, à moins qu'ils ne prennent la peine de l'installer.»

Parallèlement, les développeurs indépendants soulignent que SafetyCore de Google n'est pas comme le système d'analyse très controversé qu'Apple voulait introduire pour l'iPhone en 2021. Projet qui a été abandonné suite à des protestations massives dans le monde entier.

Cependant, Apple semble avoir presque oublié les leçons de ce gâchis, comme nous le verrons ci-dessous...

Comment désactiver le scanner de nudité?

SafetyCore ne semble pas avoir sa propre icône d'application et n'apparaît pas non plus dans la liste habituelle des applications en cours d'exécution. Pourtant, la désinstallation devrait être assez simple dans le meilleur des cas.

Futurezone.at explique à ce sujet:

  • «Allez dans l'application Paramètres de votre appareil.
  • Cliquez sur "Apps" ou "Apps & Notifications".
  • Sélectionnez "Afficher toutes les applications", puis appuyez sur le menu à trois points en haut à droite pour sélectionner "Afficher les processus système".
  • Recherchez "SafetyCore" dans la liste.
  • Cliquez sur "Android System SafetyCore", puis sur "Désinstaller", si disponible.
  • Si l'option de désinstallation est grisée, il se peut que vous ne puissiez que la désactiver.
  • Si vous ne désinstallez pas le service, vous pouvez en outre essayer de révoquer ses autorisations - notamment l'accès à Internet».

Mais: selon ZDNet, des utilisateurs rapportent que SafetyCore se réinstalle pendant les mises à jour du système ou via Google Play Services, même après la désinstallation du service. Dans ce cas, il faut désinstaller SafetyCore à nouveau (manuellement), ce qui est ennuyeux.

Qu'est-ce qu'Apple a à voir avec cela?

Apple poursuit des plans comparables pour son propre service de messagerie «Messages» (anciennement «iMessage»): les contrôles d'images doivent être effectués de manière sûre et respectueuse de la vie privée sur les appareils des utilisateurs.

Pour les utilisateurs en Australie, une mise à jour correspondante a été publiée en octobre 2024. La version 18.2 du système d'exploitation iOS comprend une nouvelle fonction de sécurité qui masque automatiquement les photos de nus envoyées ou les désamorce en les floutant («blurring»).

Comme l'a rapporté le Guardian, il s'agit d'une extension des mesures dites de «sécurité des communications», activées par défaut depuis iOS 17 pour les utilisateurs mineurs d'Apple (moins de 13 ans), mais disponibles pour tous les utilisateurs.

Grâce aux fonctions de sécurité, un iPhone détecte automatiquement les images et les vidéos de nudité que les enfants peuvent recevoir ou tenter d'envoyer dans iMessage, AirDrop, FaceTime et Photos. La détection de tels contenus se fait par des algorithmes de machine learning sur l'appareil lui-même. La protection des données est garantie, aucune donnée sensible n'est transmise aux serveurs d'Apple.

Le lancement en Australie a coïncidé avec un renforcement de la législation nationale. Depuis fin 2024, Apple et d'autres groupes tech devraient surveiller les services de stockage et de messagerie dans le cloud qu'ils exploitent: pour y détecter des représentations d'abus sexuels sur des enfants et des «contenus terroristes».

Un regard sur le Royaume-Uni montre que les efforts de surveillance de l'Etat se poursuivent sans relâche. Dans ce pays, Apple se voit contraint de stopper le cryptage de bout en bout des sauvegardes iCloud.

Quelle est la leçon à en tirer?

Le chroniqueur de Forbes Zak Doffman commente à propos d'Apple et de Google:

«Si vous voulez transformer nos téléphones en machines contrôlées par l'IA, faites-nous savoir à l'avance ce que vous allez faire et donnez-nous la possibilité de dire oui ou non. Sinon, cela alimente la peur de l'inconnu.»

Il semble tout à fait logique que les clients exigent la transparence de la part des grands groupes technologiques. Après tout, ils confient à leurs appareils mobiles des données extrêmement sensibles (comme des photos, des informations personnelles ou professionnelles) et doivent être sûrs qu'elles sont protégées.

Avec iOS 18.2 et macOS 15.2, l'entreprise a introduit une nouvelle fonction d'IA appelée «Recherche visuelle avancée». Celle-ci est intégrée dans l'application «Photos» et, contrairement aux autres fonctions d'intelligence d'Apple qui fonctionnent sur l'appareil lui-même, elle nécessite un échange de données avec les serveurs d'Apple.

Certes, seules des données cryptées sont transmises et aucune information personnelle n'est transmise, mais des informations anonymes, une sorte de représentation mathématique du contenu des images. Ce procédé respectueux de la protection des données n'a pas suffi à apaiser les esprits. En effet, Apple a lancé cette fonction sans l'accord explicite des utilisateurs. Elle a été activée par défaut avec la mise à jour et doit être désactivée manuellement dans les réglages de l'appareil concerné (iPhone, iPad, Mac) en cas de doute.

(Traduit et adapté par Chiara Lecca)

22 manucures qui vont vous filer la chair de poule
1 / 24
22 manucures qui vont vous filer la chair de poule
partager sur Facebookpartager sur X
C'est quoi ce gadget qui veut remplacer nos smartphones?
Video: watson
Ceci pourrait également vous intéresser:
1 Commentaire
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
1
Mais que diable est-il arrivé aux cheveux de George Clooney?
Invité sur le plateau de CNN ce mardi pour parler politique et devoir civique, quelque chose chez l'acteur mythique de 63 ans a particulièrement attiré (heurté?) l'attention des téléspectateurs.

George Clooney. Un nom synonyme de sex-appeal, d'élégance, d'humour, de sourire ravageur, de gentleman en smoking, de whisky sans glaçon. Mais aussi, et surtout, de cheveux poivre et sel.

L’article