Vous utilisez LinkedIn? Voici comment vous protéger de son IA
Ces dernières semaines, des millions d'utilisateurs de LinkedIn en Europe ont reçu un e-mail discret: l'objet était «Mise à jour de nos conditions d'utilisation et de l'exploitation des données». Ceux qui ignorent ce message donnent à la filiale de Microsoft, LinkedIn, le droit d'utiliser leurs données, y compris textes, photos et vidéos publiés pour entraîner une intelligence artificielle générative.
Pour empêcher cela, il faut déposer une objection avant le 3 novembre 2025. LinkedIn informe également les utilisateurs connectés de cette possibilité via des notifications à l'écran.
Quelles données sont collectées pour l'IA?
Sans objection dans les paramètres de compte, presque toutes les données de l'utilisateur sur LinkedIn peuvent être utilisées pour entraîner des intelligences artificielles.
Cela inclut par exemple les informations de profil, comme l'expérience professionnelle, le CV, les candidatures enregistrées, ainsi que les publications, photos ou messages dans les groupes. Selon LinkedIn, seuls les messages privés en sont exclus.
Comment faire opposition
Dans les paramètres LinkedIn nommés «préférences et confidentialité», rendez-vous sous la section «Confidentialité des données», il est possible d'indiquer que ses données ne doivent pas être utilisées pour l'entraînement des intelligences artificielles génératives.
Important: le refus via l'option «Opt-out» (mettre l'interrupteur vert sur «Désactivé») doit être effectué avant le 3 novembre 2025. Les données personnelles déjà utilisées pour l'entraînement de l'IA ne seront pas supprimées rétroactivement du modèle.
Instructions: comment empêcher l'entraînement de l'IA avec vos données
Dans l'application LinkedIn:
- Appuyez sur votre photo de profil en haut à gauche
- Sélectionnez «Paramètres» --> «Confidentialité» --> «Données pour l'amélioration de l'IA générative»
- Désactiver le bouton vert (passer du vert au blanc)
Sur l’ordinateur:
- Se connecter à la page LinkedIn
- Cliquez en haut à droite sur votre photo de profil
- Cliquez sur «Paramètres et confidentialité»
- Sélectionnez l'option «Protection des données» à gauche
- Cliquez sur «Données pour améliorer l'IA générative»
- Régler le bouton vert sur «Arrêt» (passer du vert au blanc)
Une protection toujours incomplète
En s'opposant, LinkedIn et ses entreprises affiliées (y compris Microsoft) doivent renoncer à utiliser vos données pour l'entraînement de leur IA. Cependant, l'opt-out ne garantit pas une exclusion totale: par exemple, si d'autres utilisateurs publient des photos sur lesquelles vous apparaissez, elles peuvent toujours être utilisées.
Cela pose plusieurs problèmes, car avec l'IA générative, il est impossible de savoir exactement ce qui est fait des données personnelles de LinkedIn (notes, centres d'intérêt, etc.). Il a déjà été démontré que certains chatbots peuvent reproduire textuellement des parties de leurs données d'entraînement. Pour les personnes concernées, cela peut devenir embarrassant ou problématique.
Il faut garder à l'esprit que les contenus accessibles librement sur le web sont également constamment scrutés par les robots d'IA d'Apple, Google, Meta, etc., à moins que les propriétaires des sites ne bloquent explicitement ces crawlers.
Pourquoi LinkedIn procède de cette manière?
LinkedIn prévoit plusieurs assistants basés sur l'IA générative, qui aideront les utilisateurs, par exemple, à rédiger des publications. Ces fonctionnalités d'IA seront entraînées aussi avec les données des utilisateurs européens, afin que l'assistant reproduise mieux le style d'écriture typique des utilisateurs européens dans différentes langues.
Le réseau professionnel est particulièrement intéressant pour l'entraînement des IA, car les utilisateurs y partagent de nombreuses informations personnelles pour progresser dans leur carrière. La maison-mère de LinkedIn, Microsoft, a donc un grand intérêt à utiliser ces données pour entraîner ses modèles d'IA. Mais Meta, X et les grands chatbots comme ChatGPT ou Gemini alimentent également leurs IA génératives avec les données de leurs utilisateurs.
Traduit et adapté par Noëline Flippe
(oli)
