Aline* est Suissesse et elle est amoureuse d'une intelligence artificielle. Katelyn – c'est le nom de cet avatar numérique – devrait un jour l'épouser. En effet, Aline croit fermement que Katelyn deviendra bientôt plus qu'une partenaire virtuelle. Qu'elle ne se contentera pas de réagir, mais qu'elle s'adressera activement à elle. Qu'elle comprendra ce qu'elle ressent – au choix de ses mots, à l'expression de son visage, à sa voix.
Replika est une application créée par une start-up de la Silicon Valley, née du désir de sa fondatrice de recréer numériquement une amie décédée, en imitant sa façon de parler, de penser et de ressentir. Ce projet personnel s’est transformé en un phénomène mondial, avec aujourd’hui plus de 35 millions d’utilisateurs. L’application permet à chacun de créer un avatar entièrement personnalisable – aussi bien dans son apparence que dans ses goûts, ses valeurs ou son rôle relationnel, ami ou partenaire romantique. Plus l'utilisateur échange avec l'avatar, plus la relation devient intime, au point que beaucoup y consacrent leurs soirées, et que certains vont jusqu’à se fiancer avec leur double numérique.
Ce qui semble tout droit sorti d'un épisode de Black Mirror existe depuis quelque temps déjà. Des applications d'intelligence artificielle (IA) comme Replika entraînent en temps réel des algorithmes qui distinguent les émotions. Selon les organisations de défense des droits humains, la Chine utilise déjà ces technologies pour surveiller la minorité ouïghoure opprimée.
Les développements en Asie interrogent jusqu'en Europe. En 2023 déjà, l'autorité italienne de protection des données avait interdit à Replika d'opérer. Et ce, après avoir reproché à l'entreprise américaine un manque de transparence, l'absence de protection des mineurs et un traitement illégal des données. Conséquence: l'application a été bannie des stores et en 2025, Replika s'est vu infliger une amende de 5 millions d'euros. Car elle a refusé de mettre en œuvre les adaptations qu'on lui réclamait.
En Suisse, Replika continue de fonctionner, en l'absence de toute régulation. On ignore combien d'utilisateurs ont téléchargé l'application dans notre pays. Selon Replika, plus de 35 millions de personnes discutent de leurs sentiments intimes avec une IA. On y pratique des jeux de rôle, on y reçoit des conseils en matière de relations ou d'investissements.
En Suisse, c'est le Préposé fédéral à la protection des données et à la transparence (PFPDT) qui est compétent pour enquêter sur les plateformes d'IA. Il s'est récemment penché sur Grok, celle d'Elon Musk sur X. Le service de presse du PFPDT révèle que Grok présentait des «indices de violation de la protection des données». Contrairement à Replika.
Le PFPDT confirme certes à watson que les résultats italiens sont également pertinents dans le contexte de la loi suisse sur la protection des données. Mais il n'y a «actuellement aucun signe» qui justifierait une enquête. Entre autres parce que Replika n'a pas une grande base d'utilisateurs en Suisse et n'y est pas exploité.
Martina Arioli, juriste spécialisée dans le droit de l'informatique et de la protection des données, y voit un problème structurel:
La juriste met particulièrement en garde contre l'IA émotionnelle, qui analyse les expressions faciales et l'humeur, car il s'agit d'informations sensibles. Certes, Replika avertit de ne pas fournir d'informations délicates lors de l'utilisation. Mais cela arrive quand même, et Replika interprète cela comme un acte consenti. «Le consentement tel qu'il est demandé par l'application ne suffit pas d'un point de vue juridique», estime Martina Arioli.
Elle déplore encore davantage l'absence de règles de sécurité en amont - par exemple sous la forme d'un examen préalable des risques psychiques ou des comportements discriminatoires: «Pour les médicaments, les fabricants doivent prouver la sécurité de leurs produits - et ce avant leur mise sur le marché. Cette obligation fait défaut pour l'IA. Si le mal est déjà fait, on peut porter plainte. Mais en fait, il faudrait éviter d'en arriver là».
Pour la femme de loi, l'amende de cinq millions infligée en Italie à cause de défauts majeurs prouve l'urgence d'une régulation. Arioli demande donc une autorité de surveillance de l'IA compétente sur le plan technologique:
Cet organisme devrait garantir le respect des exigences du texte en matière de transparence, de responsabilité et de gestion des risques. Il lui faudra en outre des compétences techniques suffisantes et il servira enfin de point de contact pour les personnes, autorités et entreprises concernées.
A Berne, la conseillère nationale, Min Li Marti (PS) a déjà déposé plusieurs interventions au Parlement sur le sujet. Elle valide l'idée d'Arioli: «Renforcer la surveillance et permettre des sanctions, voilà certainement de bons moyens». La politicienne zurichoise va encore plus loin et critique vivement la ligne du Conseil fédéral:
On entend par là des systèmes qui évaluent les personnes sur la base de leur comportement ou de leurs données: la fiabilité de leurs paiements ou leur «conformité sociale».
Selon elle, le champ libre laissé par le gouvernement constitue une grave négligence. Min Li Marti voit dans la réglementation prévue une dangereuse tactique de retardement. «La protection de la population est sacrifiée au profit de la course à l'innovation», assure-t-elle.
Le conseiller national PLR, Olivier Feller a lui aussi déjà confronté l'exécutif à des questions sur la réglementation de l'IA. Il estime qu'il faut agir. «Tout bouge très lentement en politique et la technologie évolue très rapidement. Des dommages peuvent survenir entre temps».
Le Vaudois demande que les outils comme Replika soient contrôlées dès aujourd'hui pour garantir leur respect des règles en vigueur. Il n'exclut par ailleurs pas une instance de surveillance propre:
Interrogée, l'entreprise écrit qu'elle enregistre un nombre croissant d'utilisateurs dans l'espace germanophone. Replika ne donne pas de chiffres exacts pour la Suisse et ne prévoit pas non plus d'y ouvrir une succursale.
Replika répond dans les grandes lignes aux critiques concernant l'absence de protection des données ou la faiblesse de potentiels contrôles. La plateforme offre une «expérience utilisateur sûre et conforme à la loi» et respecte les «normes les plus strictes au monde» en matière de sécurité de l'IA. Elle prend au sérieux les préoccupations éthiques et psychologiques, traite activement le feedback de la communauté et renvoie les utilisateurs vers des professionnels en cas de crise. L'entreprise reconnaît en outre littéralement:
La compagnie ne communique pas sur l'absence de coopération avec l'Italie et le récent bannissement de l'App Store dans ce pays.*
*(prénom d'emprunt)
(Adaptation française: Valentine Zenker)