Les vidéos sont d'un réalisme saisissant: elles montrent des femmes en bikini menant des interviews dans la rue et suscitant des commentaires obscènes, mais elles sont fausses et générées par intelligence artificielle pour inonder les réseaux sociaux de contenus sexistes.
Ces contenus médiocres, créés en masse à l'aide d'outils d'IA bas de gamme, noient souvent les publications authentiques et brouillent la frontière entre fiction et réalité.
Cette tendance a donné naissance à une industrie artisanale d'influenceurs qui produisent à la chaîne des contenus sexualisés, motivés par les programmes d'incitation des plateformes qui récompensent financièrement les contenus viraux.
De nombreux clips générés par IA, truffés d'humour grivois, prétendent montrer des intervieweuses courtement vêtues dans les rues de grandes villes d'Inde ou du Royaume-Uni.
Les vérificateurs de l'AFP ont trouvé des centaines de vidéos de ce type sur Instagram, dont beaucoup en hindi, qui montrent des hommes interrogés lançant avec désinvolture des remarques misogynes et sexistes, parfois même attrapant les femmes, tandis qu'une foule d'hommes les regardent bouche bée ou rient en arrière-plan.
Ces vidéos ont été visionnées des dizaines de millions de fois. Certaines ont même monétisé cette popularité en faisant la promotion d'une application de messagerie pour adultes permettant de «se faire de nouvelles amies».
Ces vidéos ont été créées à l'aide du générateur d'IA Veo 3 de Google, connu pour ses images hyperréalistes, a indiqué la société américaine de cybersécurité GetReal Security dans une analyse.
Nirali Bhatia, cyberpsychologue basée en Inde, livre son analyse:
Les réseaux sont désormais de plus en plus submergés par des mèmes, des vidéos et des images générés par IA qui rivalisent avec les contenus authentiques pour attirer l'attention.
«C'est l'internet d'aujourd'hui», estime Emmanuelle Saliba, de GetReal Security, avant d'ajouter:
Les vidéos d'un compte TikTok très suivi énumèrent de manière moqueuse ce que des «filles déchaînées» seraient prêtes à faire pour de l'argent. Les femmes sont également la cible de pièges à clics inquiétants générés par IA.
La diffusion virale de vidéos montrant une fausse dresseuse d'orques nommée «Jessica Radcliffe» attaquée mortellement par un épaulard lors d'un spectacle dans un parc aquatique a en outre pu être vérifiée et suivie.
Ces images, fabriquées de toutes pièces, se sont propagées sur différentes plateformes, notamment TikTok, Facebook et X, suscitant l'indignation mondiale des utilisateurs qui pleuraient la mort de cette femme qu'ils croyaient réelle.
L'an dernier Alexios Mantzarlis, directeur de l'initiative Security, Trust, and Safety de l'université Cornell Tech, a découvert 900 comptes Instagram de «mannequins» majoritairement féminins peu vêtus et probablement générés par IA.
Ces pièges à clics ont cumulé treize millions d'abonnés et publié plus de 200 000 images, monétisant généralement leur audience en redirigeant leur public vers des plateformes commerciales de partage de contenu.
Avec la prolifération des faux contenus générés par IA, «les chiffres sont sans doute beaucoup plus élevés aujourd'hui», déclare Mantzarlis:
De nombreux créateurs sur YouTube et TikTok proposent des cours payants sur la manière de monétiser les contenus viraux générés par IA.
Certaines plateformes ont cherché à sévir contre les comptes promouvant des contenus de mauvaise qualité. YouTube a récemment déclaré que les créateurs «non authentiques» et «produits en masse» ne seraient plus éligibles à la monétisation.
Divyendra Jadoun, consultant en IA, est catégorique: