Rache.lzh5 est tiktokeuse. Et c'est dans une vidéo déchirante qu'elle se présente au bord des larmes, à ses 50 000 abonnés. Elle ne sait tout d'abord pas comment décrire ce qui lui est arrivé au cours des dernières 48 heures.
Deux jours auparavant, un compte anonyme lui envoie, sans prévenir, des photos sur lesquelles elle est nue. La créatrice reconnaît ces photos, mais elle assure les avoir pris... avec ses vêtements. Comment est-ce possible? Elle a été victime de «deepnudes», un type de deepfakes particulièrement perfide utilisant l'intelligence artificielle pour transformer une photo d'une personne habillée en «nude», une photo de nu.
La vidéo a été visionnée plus d'un million de fois. Dans les commentaires, on trouve des témoignages de solidarité, mais aussi des femmes qui racontent des expériences similaires.
Les «deepfakes», on connaissait déjà. Ces fausses vidéos particulièrement réalistes permettent notamment d'utiliser l'image de personnalités célèbres pour leur faire dire n'importe quoi. Will Smith, Donald Trump, Emmanuel Macron, mais aussi Volodymyr Zelensky ou encore le pape ont déjà fait l'objet de deepfakes.
Leur diffusion a pris une sacrée ampleur sur le net en quelques années. Beaucoup de deepfakes peuvent être rapidement identifiés comme tels. Certains, créés à but humoristique, sont même assez amusants. Mais ils restent trompeurs et peuvent avoir de graves conséquences.
Car de telles contrefaçons peuvent causer d'importants dommages. Europol, entre autres, a mis en garde contre l'utilisation de deepfakes par des criminels. Et si ce sont surtout les extorsions, fraudes et autres falsifications de documents qui sont concernées, les deepfakes à caractère sexuel prennent de l'ampleur.
Mais si les deepnudes tendent à se généraliser en ce moment, ils ne datent pas d'hier. La trace du premier outil du genre remonte à 2019. Un développeur, dont le pseudo est «Alberto», a alors publié un outil informatique destiné à «déshabiller» virtuellement des personnes sur des photos: l'application promettait aux utilisateurs de générer des images de nudité à partir d'images de femmes habillées.
L'application avait, à l'époque, provoqué une violente tempête de critiques sur le web. Quelques jours seulement après sa publication, Alberto a retiré son logiciel. Il s'était rendu compte que les possibilités d'abus étaient trop élevées, avait-il alors fait savoir sur Twitter. Contacté par le blog de tech The Tempest, il avait déclaré:
Cette prise de conscience est toutefois arrivée trop tard: la technologie s'est répandue comme une traînée de poudre sur le net et des programmes similaires ont rapidement été créés. Depuis, les deepnudes circulent et s'échangent assidûment, notamment dans des groupes privés, du genre Telegram.
Avec le nouvel essor des programmes d'intelligence artificielle, les deepnudes jouissent à nouveau d'une grande popularité et s'exportent hors de ces canaux privés. La BBC, qui a mené l'enquête sur ces programmes, a toutefois montré que les résultats ne sont pas particulièrement réalistes.
Mais cela n'est pas d'une grande consolation pour les personnes concernées: seuls le créateur et la personne représentée savent que les images sont fausses. Et tous ceux dont les yeux tombent sur la photo sont persuadés d'entrer dans l'intimité de la personne.
Une fois qu'une photo circule sur le net, il est presque impossible de la faire disparaître. Le programme peut donc nuire aux femmes du monde entier. Les personnes concernées pourraient perdre leur emploi à cause des photos.
La publication de deepnudes pourrait également relever du droit pénal. Selon l'article 63 de la loi sur la protection des données, la diffusion de données soumises à la protection peut être punie d'une peine d'emprisonnement allant jusqu'à un an. Il n'est toutefois pas clair si cela s'applique aussi à des produits de l'intelligence artificielle. (dsc/bal)
Traduit et adapté de l'allemand par Tanja Maeder