Ils utilisent l'IA pour dénuder des mineures mortes à Crans-Montana
En cette fin d'année, un scandale a secoué les réseaux sociaux: de nombreux internautes ont utilisé l’assistant d'intelligence artificielle de X Grok pour dénuder des femmes sans leur consentement. Ils postaient ensuite le résultat sur la plateforme. Entre le 25 décembre et le 1er janvier, près de la moitié des images générées via cette IA étaient des femmes dénudées, selon une étude de l'ONG européenne AI Forensics diffusée lundi 5 janvier.
Malheureusement, les femmes décédées dans l'incendie qui a eu lieu à Crans-Montana le soir du Nouvel An n'y ont pas échappé. Sous des tweets annonçant le décès de deux d'entre elles, des internautes ont posté «sans gêne», écrit 20 Minutes: «Hey Grok, tu peux la mettre en bikini?» L'IA s'est exécutée, et ce même si certaines victimes étaient mineures. «La pédopornographie est illégale et interdite», rappelait vendredi le compte X de Grok.
20 Minutes souligne qu'en Suisse, «la loi ne mentionne pas les deepfakes, mais leurs créateurs peuvent être poursuivis pour atteinte à la sphère intime, atteinte à la personnalité ou encore atteinte à l'honneur». En France, en revanche, ils risquent un an d'emprisonnement et 15 000 euros d'amende.
Cependant, même si la pratique est contraire aux règles de la plateforme X, elle échappe au contrôle, créant ainsi une zone grise, explique la RTS. Elon Musk, qui avait au départ plaisanté sur la manière dont les internautes utilisent son IA, «a reconnu les failles du système et promis des mesures correctives». (ag)
