La guerre en Iran révèle le problème de la désinformation «zombie»
«Netanyahou est-il réel ou généré par l'IA?» interroge un titre en ligne en évoquant une vidéo montrant le premier ministre israélien, avec soi-disant six doigts. La vidéo était authentique.
Mais les spéculations se sont rapidement répandues en ligne, affirmant que Benjamin Netanyahou serait mort ou blessé dans une frappe iranienne et qu'Israël cachait la vérité en utilisant un double généré par intelligence artificielle.
Des vidéos bien réelles mises en doute
«La dernière fois que j'ai vérifié, les humains n'avaient pas six doigts en principe… sauf pour l'IA», peut-on lire dans un commentaire sur X qui a récolté près de cinq millions de vues. «Netanyahou n'est-il plus de ce monde?»
👉 L'actu en direct sur la guerre en Iran, c'est ici
Des spécialistes en investigation numérique ont rapidement pu expliquer le «doigt en plus»: un jeu de lumière, une ombre fugace faisant ressembler une partie de sa paume en doigt supplémentaire. Mais la démonstration a été noyée dans le tumulte en ligne.
Peu importe que les générateurs d'images avancés basés sur l'IA, désormais capables de produire en quelques secondes des «deepfakes», ces vidéos modifiées ultra-réalistes, aient largement fait disparaître cet ancien bug révélateur des «doigts en trop».
Comment prouver que ce qui est réel est bien réel quand la frontière entre réalité et fabrication s'est à ce point estompée dans le brouillard de la guerre en Iran et que même les images authentiques sont désormais mises en doute?
Des spéculations induites par l'IA
Quelques jours après la diffusion de cette première vidéo, Benjamin Netanyahou en a publié une deuxième, sorte de preuve de vie tournée dans un café: on le voit y lever les mains, comme pour mettre les sceptiques au défi de compter ses doigts. Mais au lieu d'apaiser les spéculations, cela a alimenté une nouvelle vague de théories infondées.
«Encore de l'IA», a déploré une publication virale sur la plateforme Threads, s'interrogeant sur le fait que la tasse de café remplie à ras bord ne se renversait pas malgré ses mouvements de main et restait pleine après une grande gorgée.
La suspicion a perduré même après que Netanyahou a publié une troisième vidéo, cette fois en compagnie de l'ambassadeur américain en Israël, Mike Huckabee.
Certains détectives en ligne ont zoomé sur les oreilles de Netanyahou, affirmant que leur forme et leur taille ne correspondaient pas aux images de lui diffusées dans le passé.
Une inversion du problème de désinformation
Depuis le début de la guerre au Moyen-Orient, le 28 février, le réseau mondial de l'AFP a produit plus de 500 articles de fact-checking révélant de fausses informations sur ce conflit, dont 20 à 25% créées à l'aide de l'IA, un niveau jamais atteint durant une telle crise.
L'invasion de l'Ukraine par la Russie ou la guerre Israël-Gaza ont déclenché des vagues d'images, de vidéos et d'audio générés par l'IA.
Ce qui distingue cette guerre, c'est l'ampleur et le réalisme des contenus artificiels, produits par des outils avancés, peu coûteux, accessibles et capables d'éliminer bon nombre des anciens signes de manipulation, expliquent des chercheurs. Les plateformes technologiques sont saturées de ce que beaucoup appellent la «bouillie numérique». Thomas Nowotny, directeur d'un groupe de recherche sur l'IA à l'université du Sussex au Royaume-Uni, en conclut:
Ces images générées par l'IA ont atteint un tel niveau de ressemblance avec le réel qu'elles en viennent à éclipser les photos et vidéos authentiques, générant une crise de confiance.
Désormais, «le problème de la désinformation, en général, ce n'est pas tant que les gens y croient», explique Constance de Saint Laurent, professeure à l'université de Maynooth en Irlande, avant de poursuivre:
Le problème des réseaux sociaux
Le volume de faux générés par l'IA excède largement les capacités de vérification des professionnels du fact-checking. Des rédactions solides ne sont pas à l'abri d'être bernées. Le magazine allemand Der Spiegel a récemment annoncé avoir retiré plusieurs images liées à l'Iran après avoir déterminé qu'elles étaient probablement générées par l'IA.
Et même quand il a été démontré qu'il s'agissait de fabrications, elles ressurgissent régulièrement, un schéma que certains chercheurs qualifient de désinformation «zombie».
Les algorithmes mettent en avant les contenus en fonction de l'engagement des utilisateurs (partages, commentaires, mentions «j'aime»...), souvent stimulé par le sensationnalisme, l'indignation et la désinformation.
Les plateformes de réseaux sociaux «agissent comme des éditeurs, à travers ce qu'elles décident de montrer principalement via leur fil d'actualité. Et très souvent, cela inclut des contenus nuisibles et de la désinformation», note Constance de Saint Laurent.
Des incitations au sensationalisme
Les incitations financières accélèrent le phénomène. La plupart des plateformes permettent aux créateurs de s'enrichir en fonction de l'engagement, encourageant des influenceurs à diffuser des contenus trompeurs ou entièrement fabriqués pour obtenir des clics, de la visibilité et de l'argent.
Selon l'Institut pour le dialogue stratégique (ISD), basé à Londres, un réseau de comptes X, d'Elon Musk, publiant des contenus IA sur la guerre Iran–Etats-Unis-Israël a cumulé plus d'un milliard de vues depuis le début du conflit.
Autre exemple viral: un compte X a publié une vidéo générée par l'IA semblant montrer la tour Burj Khalifa de Dubaï s'effondrer dans un nuage de poussière.
«Dix millions de vues et aucune Note de communauté», l'outil de modération communautaire, a commenté, 20 heures après la publication de ce clip, l'analyste de la guerre de l'information Tal Hagin.
Quand une Note de communauté (Community note), système de vérification participatif dont l'efficacité est régulièrement mise en doute par les chercheurs, a été ajoutée, la vidéo avait déjà été visionnée plus de 12 millions de fois.
Les contenus modifiés ont continué à proliférer sur X même après que la plateforme a menacé de sanctionner les créateurs publiant des vidéos de guerre générées par l'IA sans le mentionner.
Une banalisation des conflits armés
Les mèmes générés par l'IA, qui banalisent les conflits tout en diffusant de la désinformation, occupent de plus en plus d'espace, un phénomène baptisé par l'ISD «Legoïfication» de la propagande de guerre.
Un faux film iranien généré par l'IA avec des personnages de Lego est devenu viral dès la première semaine du conflit, accusant Donald Trump d'avoir attaqué Téhéran pour détourner l'attention de son rôle supposé dans le scandale Jeffrey Epstein.
Des vidéos-mèmes ultra-réalistes ont été utilisées pour représenter de fictives victoires militaires iraniennes, des dirigeants mondiaux dans des situations absurdes ou le stratégique détroit d'Ormuz réimaginé en barrière de péage caricaturale.
Le président américain a averti que l'IA était une «arme de désinformation que l'Iran utilise très bien dans ce conflit». «Les bâtiments et les navires qu'on voit en flammes ne le sont pas, c'est de la FAKE NEWS générée par l'IA», a-t-il écrit sur sa plateforme Truth Social.
Pourtant, lui-même a partagé des images et vidéos générées par l'IA pour se mettre en scène en roi ou en Superman, dépeindre ses opposants en criminels ou utilisé des mèmes IA pour alimenter théories du complot et récits mensongers.
Le Conseil de surveillance de Meta, l'organe créé par Facebook pour examiner les décisions de modération de contenu, a estimé en mars:
Meta a mis fin à son programme de fact-checking tiers aux Etats-Unis l'an dernier, son directeur général Mark Zuckerberg affirmant qu'il avait entraîné «trop de censure», une affirmation rejetée par les partisans du programme.
Comme alternative, Zuckerberg a indiqué que les plateformes de Meta, Facebook et Instagram, utiliseraient le modèle des Notes de communauté, une décision que les critiques jugent susceptible d'affaiblir encore les garde-fous contre la désinformation.
Un moyen de ne plus croire en rien
Les outils de détection d'IA étaient censés dissiper le brouillard de la guerre de l'information. Au lieu de cela, ils le rendent parfois plus opaque.
Dans le cas Benjamin Netanyahou, des complotistes ont brandi un outil de détection d'IA qui a à tort qualifié sa vidéo tournée dans un café à «96,9% générée par l'IA». D'autres outils sont arrivés à la conclusion inverse.
Le problème ne se limite pas aux vidéos. Les réseaux sociaux regorgent d'images satellite fabriquées ou cartes thermiques manipulées et employées pour semer le doute sur des preuves du conflit, selon les chercheurs.
Les récits mensongers ne se contentent plus de fabriquer du contenu, mais qualifient aussi de faux des reportages bien réels, souligne NewsGuard. Sofia Rubinson, membre de cet observatoire de la désinformation, décrypte:
Des accusations sans fondement
Des utilisateurs des réseaux sociaux ont à tort accusé de grands médias, comme le New York Times, d'avoir publié des images du conflit générées par l'IA, dont l'une montrait une foule immense à Téhéran célébrant la nomination du nouveau guide suprême, Mojtaba Khamenei.
Lorsque des informations véridiques, mais embarrassantes sont balayées comme étant générées par l'IA, les chercheurs appellent cela «le dividende du menteur». Dans ces conditions, «il devient plus facile de nier les atrocités», a mis en garde un rapport de Tech Policy Press. Hannah Covington, directrice principale des contenus éducatifs au News Literacy Project, insiste:
Désormais, de fausses images de faits bien réels viennent encore davantage polluer le paysage informationnel.
Une forme de résignation aux faux contenus
Après une frappe meurtrière contre une école de la ville de Minab le 28 février, un compte officiel iranien sur X a publié une photo montrant un sac à dos d'enfant maculé de sang et de poussière. Il a depuis été établi qu'il était très probable que l'image ait été générée par l'IA.
Mais peu d'internautes ont semblé troublés par l'utilisation d'une image fabriquée pour illustrer la mort de vrais écoliers, signe d'une résignation croissante à une ère où la question «Est-ce réel?» est devenue de plus en plus difficile à trancher.
«Probablement modifiée par IA, mais le sens est réel», a ainsi écrit un utilisateur de Reddit.
