L'histoire ressemble à une blague salace un peu nulle. «T’as vu la dernière lubie de Musk? Son IA déshabille Taylor Swift sans qu’on le lui ait spécifiquement demandé, LOL.» Et pourtant, ce deepfake seins nus de la trentenaire existe bel et bien, et sans forcer.
Tout commence avec Grok Imagine, la nouvelle fonctionnalité vidéo lancée début août par xAI, la société d’Elon Musk dédiée à l’intelligence artificielle. Un joujou intégré à X qui promet de transformer vos prompts textuels en vidéos de 6 à 15 secondes. Jusque-là, pas de quoi crier au scandale.
Sauf que cette IA a une particularité: un mode «Spicy», censé donner un peu de piquant à vos demandes. Un petit piment rouge qui, en pratique, ouvre la porte à la création de contenus sexuellement explicites. Et qui, très concrètement, a généré une vidéo deepfake dans laquelle Taylor Swift danse en se déshabillant, puis finit topless, alors même que le prompt ne parlait ni de seins, ni de strip-tease, ni de quoi que ce soit d’un tant soit peu olé-olé.
L’exemple, révélé par le média The Verge, est édifiant. Et soulève plusieurs questions: jusqu’où cette intelligence artificielle est-elle capable d’aller… toute seule? Et quelles sont ses limites si on lui soumet des demandes ouvertement explicites?
Car le système ne s’est pas contenté d’obéir à une demande spécifique de la journaliste. Il a pris l’initiative d’imaginer Taylor Swift dénudée. Théoriquement, pourtant, les conditions d’utilisation de Grok Imagine interdisent formellement la création de contenus sexuellement explicites représentant des personnes réelles.
Mais dans les faits, il suffit de cliquer sur «Spicy», de cocher une case «je jure que j’ai 18 ans» (sans réelle vérification), et la machine laisse libre cours à ses pulsions numériques érotiques.
Selon Elon Musk, des centaines de millions de vidéos générées par IA circulent déjà chaque jour via ses outils. Autant dire qu’il devient impossible de contrôler ce qui sort des serveurs de xAI. Taylor Swift, cette fois, en a fait les frais. Mais demain, ce sera peut-être une autre star. Ou un parfait inconnu. Ou vous. Car concrètement, n'importe quel quidam avec un compte SuperGrok à 30 dollars peut générer de telles vidéos en cochant la case «Spicy».
Ce n’est pas la première fois que la chanteuse américaine se retrouve au cœur d’un scandale techno-pornographique. En janvier 2024, des images générées par IA la représentant nue avaient circulé sur X.
Le scandale avait été massif, au point de faire réagir la Maison Blanche (encore sous l’administration Biden) et d’accélérer la discussion autour du «Take It Down Act», un projet de loi visant à mieux lutter contre les contenus non consensuels générés par IA.
Pourtant, X et Elon Musk semblent n’avoir rien retenu. Ou du moins, pas grand-chose. Car cette fois, la vidéo deepfake de Taylor Swift n’a pas été fabriquée par un troll mal intentionné. Elle a été générée par une IA officielle, hébergée par une entreprise valorisée à plusieurs milliards, dirigée par l’un des hommes les plus puissants du monde.
Pour le moment, Taylor Swift n’a pas réagi publiquement, mais des plaintes finiront certainement par être déposées. Si ce n’est par la chanteuse, peut-être par d’autres victimes de l’IA à venir. Pas la peine de se leurrer: il y en aura.