Société
Intelligence artificielle

IA: les «deepnudes», ces photos nues qui inquiètent les femmes

Les «deepnudes», ces fausses photos nues qui inquiètent les femmes

Si l'intelligence artificielle peut nous aider dans la vie, elle a aussi ses côtés sombres. Sur les réseaux sociaux, des femmes racontent comment elles ont été victimes de «deepnudes», de fausses images à caractère pornographique.
08.05.2023, 16:4507.08.2023, 06:11
Plus de «Société»
Un article de
t-online

Rache.lzh5 est tiktokeuse. Et c'est dans une vidéo déchirante qu'elle se présente au bord des larmes, à ses 50 000 abonnés. Elle ne sait tout d'abord pas comment décrire ce qui lui est arrivé au cours des dernières 48 heures.

Deux jours auparavant, un compte anonyme lui envoie, sans prévenir, des photos sur lesquelles elle est nue. La créatrice reconnaît ces photos, mais elle assure les avoir pris... avec ses vêtements. Comment est-ce possible? Elle a été victime de «deepnudes», un type de deepfakes particulièrement perfide utilisant l'intelligence artificielle pour transformer une photo d'une personne habillée en «nude», une photo de nu.

La vidéo a été visionnée plus d'un million de fois. Dans les commentaires, on trouve des témoignages de solidarité, mais aussi des femmes qui racontent des expériences similaires.

Inspirés des deepfakes

Les «deepfakes», on connaissait déjà. Ces fausses vidéos particulièrement réalistes permettent notamment d'utiliser l'image de personnalités célèbres pour leur faire dire n'importe quoi. Will Smith, Donald Trump, Emmanuel Macron, mais aussi Volodymyr Zelensky ou encore le pape ont déjà fait l'objet de deepfakes.

Leur diffusion a pris une sacrée ampleur sur le net en quelques années. Beaucoup de deepfakes peuvent être rapidement identifiés comme tels. Certains, créés à but humoristique, sont même assez amusants. Mais ils restent trompeurs et peuvent avoir de graves conséquences.

Car de telles contrefaçons peuvent causer d'importants dommages. Europol, entre autres, a mis en garde contre l'utilisation de deepfakes par des criminels. Et si ce sont surtout les extorsions, fraudes et autres falsifications de documents qui sont concernées, les deepfakes à caractère sexuel prennent de l'ampleur.

Créés en 2019

Mais si les deepnudes tendent à se généraliser en ce moment, ils ne datent pas d'hier. La trace du premier outil du genre remonte à 2019. Un développeur, dont le pseudo est «Alberto», a alors publié un outil informatique destiné à «déshabiller» virtuellement des personnes sur des photos: l'application promettait aux utilisateurs de générer des images de nudité à partir d'images de femmes habillées.

L'application avait, à l'époque, provoqué une violente tempête de critiques sur le web. Quelques jours seulement après sa publication, Alberto a retiré son logiciel. Il s'était rendu compte que les possibilités d'abus étaient trop élevées, avait-il alors fait savoir sur Twitter. Contacté par le blog de tech The Tempest, il avait déclaré:

«Je ne suis pas un voyeur, je suis un passionné de technologie»
«Alberto»the tempest

Cette prise de conscience est toutefois arrivée trop tard: la technologie s'est répandue comme une traînée de poudre sur le net et des programmes similaires ont rapidement été créés. Depuis, les deepnudes circulent et s'échangent assidûment, notamment dans des groupes privés, du genre Telegram.

Réaliser des fantasmes ou faire chanter une victime

Avec le nouvel essor des programmes d'intelligence artificielle, les deepnudes jouissent à nouveau d'une grande popularité et s'exportent hors de ces canaux privés. La BBC, qui a mené l'enquête sur ces programmes, a toutefois montré que les résultats ne sont pas particulièrement réalistes.

Mais cela n'est pas d'une grande consolation pour les personnes concernées: seuls le créateur et la personne représentée savent que les images sont fausses. Et tous ceux dont les yeux tombent sur la photo sont persuadés d'entrer dans l'intimité de la personne.

Une fois qu'une photo circule sur le net, il est presque impossible de la faire disparaître. Le programme peut donc nuire aux femmes du monde entier. Les personnes concernées pourraient perdre leur emploi à cause des photos.

«Ces deepfakes sont utilisés pour deux raisons: réaliser des fantasmes malsains, ou comme matériel de chantage»
Nina Jankowicz, experte en techniques de désinformationbuzzfeed

La publication de deepnudes pourrait également relever du droit pénal. Selon l'article 63 de la loi sur la protection des données, la diffusion de données soumises à la protection peut être punie d'une peine d'emprisonnement allant jusqu'à un an. Il n'est toutefois pas clair si cela s'applique aussi à des produits de l'intelligence artificielle. (dsc/bal)

Traduit et adapté de l'allemand par Tanja Maeder

33 images générées par IA délicieusement bizarres
1 / 37
33 images générées par IA délicieusement bizarres
partager sur Facebookpartager sur X
Harry Potter en Balenciaga, ça existe grâce à l'IA
Video: watson
Faut-il interdire la cigarette à vie? Donnez-nous votre avis
La Chambre basse du Parlement britannique a voté en faveur d'une interdiction à vie de la cigarette à vie aux citoyens nés après 2008. Le but? Supprimer à terme la consommation de tabac dans le pays. Faudrait-il faire pareil en Suisse? Donnez-nous votre avis.

C'est une nouvelle réglementation choc dont discute actuellement le Parlement britannique: l'interdiction pure et simple de la cigarette. Toute personne de moins de 15 ans, soit née après le 1er janvier 2009, ne pourrait pas acheter de cigarettes. A vie.

L’article