International
Etats-Unis

Avec la guerre en Iran, l'IA est devenue une arme qui inquiète

Voici comment l'IA s'est imposée comme acteur de la guerre en Iran.
L'intelligence artificielle modifie notre rapport à l'information, et pas de la meilleure des manières.Image: Imago / Captures d'écran X, montage watson

La guerre en Iran révèle le problème de la désinformation «zombie»

Dans les conflits modernes, l’IA brouille la frontière entre vrai et faux. Deepfakes, rumeurs et contenus viraux alimentent une crise de confiance inédite dans l’information.
03.04.2026, 07:0403.04.2026, 07:04
Anuj CHOPRA, Washington, Etats-Unis / AFP

«Netanyahou est-il réel ou généré par l'IA?» interroge un titre en ligne en évoquant une vidéo montrant le premier ministre israélien, avec soi-disant six doigts. La vidéo était authentique.

Mais les spéculations se sont rapidement répandues en ligne, affirmant que Benjamin Netanyahou serait mort ou blessé dans une frappe iranienne et qu'Israël cachait la vérité en utilisant un double généré par intelligence artificielle.

Des vidéos bien réelles mises en doute

«La dernière fois que j'ai vérifié, les humains n'avaient pas six doigts en principe… sauf pour l'IA», peut-on lire dans un commentaire sur X qui a récolté près de cinq millions de vues. «Netanyahou n'est-il plus de ce monde?»

👉 L'actu en direct sur la guerre en Iran, c'est ici

Des spécialistes en investigation numérique ont rapidement pu expliquer le «doigt en plus»: un jeu de lumière, une ombre fugace faisant ressembler une partie de sa paume en doigt supplémentaire. Mais la démonstration a été noyée dans le tumulte en ligne.

Le fameux doigt en trop, sur la gauche de l'image.
Le fameux doigt en trop, sur la gauche de l'image, en bas de la main, n'était qu'un effet d'optique.Image: Capture d'écran X

Peu importe que les générateurs d'images avancés basés sur l'IA, désormais capables de produire en quelques secondes des «deepfakes», ces vidéos modifiées ultra-réalistes, aient largement fait disparaître cet ancien bug révélateur des «doigts en trop».

Comment prouver que ce qui est réel est bien réel quand la frontière entre réalité et fabrication s'est à ce point estompée dans le brouillard de la guerre en Iran et que même les images authentiques sont désormais mises en doute?

Des spéculations induites par l'IA

Quelques jours après la diffusion de cette première vidéo, Benjamin Netanyahou en a publié une deuxième, sorte de preuve de vie tournée dans un café: on le voit y lever les mains, comme pour mettre les sceptiques au défi de compter ses doigts. Mais au lieu d'apaiser les spéculations, cela a alimenté une nouvelle vague de théories infondées.

«Encore de l'IA», a déploré une publication virale sur la plateforme Threads, s'interrogeant sur le fait que la tasse de café remplie à ras bord ne se renversait pas malgré ses mouvements de main et restait pleine après une grande gorgée.

La suspicion a perduré même après que Netanyahou a publié une troisième vidéo, cette fois en compagnie de l'ambassadeur américain en Israël, Mike Huckabee.

Certains détectives en ligne ont zoomé sur les oreilles de Netanyahou, affirmant que leur forme et leur taille ne correspondaient pas aux images de lui diffusées dans le passé.

Ce gobelet de café a alimenté de nombreuses théories en ligne.
Ce gobelet de café a alimenté de nombreuses théories en ligne.Image: Capture d'écran X

Une inversion du problème de désinformation

Depuis le début de la guerre au Moyen-Orient, le 28 février, le réseau mondial de l'AFP a produit plus de 500 articles de fact-checking révélant de fausses informations sur ce conflit, dont 20 à 25% créées à l'aide de l'IA, un niveau jamais atteint durant une telle crise.

L'invasion de l'Ukraine par la Russie ou la guerre Israël-Gaza ont déclenché des vagues d'images, de vidéos et d'audio générés par l'IA.

Ce qui distingue cette guerre, c'est l'ampleur et le réalisme des contenus artificiels, produits par des outils avancés, peu coûteux, accessibles et capables d'éliminer bon nombre des anciens signes de manipulation, expliquent des chercheurs. Les plateformes technologiques sont saturées de ce que beaucoup appellent la «bouillie numérique». Thomas Nowotny, directeur d'un groupe de recherche sur l'IA à l'université du Sussex au Royaume-Uni, en conclut:

«Je pense que nous devons tous commencer à traiter les photos, les vidéos et l'audio sur le même plan que des ragots.»

Ces images générées par l'IA ont atteint un tel niveau de ressemblance avec le réel qu'elles en viennent à éclipser les photos et vidéos authentiques, générant une crise de confiance.

Désormais, «le problème de la désinformation, en général, ce n'est pas tant que les gens y croient», explique Constance de Saint Laurent, professeure à l'université de Maynooth en Irlande, avant de poursuivre:

«Le problème, c'est qu'ils voient des informations réelles et qu'ils n'y font plus confiance»

Le problème des réseaux sociaux

Le volume de faux générés par l'IA excède largement les capacités de vérification des professionnels du fact-checking. Des rédactions solides ne sont pas à l'abri d'être bernées. Le magazine allemand Der Spiegel a récemment annoncé avoir retiré plusieurs images liées à l'Iran après avoir déterminé qu'elles étaient probablement générées par l'IA.

Et même quand il a été démontré qu'il s'agissait de fabrications, elles ressurgissent régulièrement, un schéma que certains chercheurs qualifient de désinformation «zombie».

Les algorithmes mettent en avant les contenus en fonction de l'engagement des utilisateurs (partages, commentaires, mentions «j'aime»...), souvent stimulé par le sensationnalisme, l'indignation et la désinformation.

Les plateformes de réseaux sociaux «agissent comme des éditeurs, à travers ce qu'elles décident de montrer principalement via leur fil d'actualité. Et très souvent, cela inclut des contenus nuisibles et de la désinformation», note Constance de Saint Laurent.

Des incitations au sensationalisme

Les incitations financières accélèrent le phénomène. La plupart des plateformes permettent aux créateurs de s'enrichir en fonction de l'engagement, encourageant des influenceurs à diffuser des contenus trompeurs ou entièrement fabriqués pour obtenir des clics, de la visibilité et de l'argent.

Selon l'Institut pour le dialogue stratégique (ISD), basé à Londres, un réseau de comptes X, d'Elon Musk, publiant des contenus IA sur la guerre Iran–Etats-Unis-Israël a cumulé plus d'un milliard de vues depuis le début du conflit.

Autre exemple viral: un compte X a publié une vidéo générée par l'IA semblant montrer la tour Burj Khalifa de Dubaï s'effondrer dans un nuage de poussière.

On aura tout de même connu plus convaincant comme visuel.
On aura tout de même connu plus convaincant comme visuel.Image: Capture d'écran X

«Dix millions de vues et aucune Note de communauté», l'outil de modération communautaire, a commenté, 20 heures après la publication de ce clip, l'analyste de la guerre de l'information Tal Hagin.

Quand une Note de communauté (Community note), système de vérification participatif dont l'efficacité est régulièrement mise en doute par les chercheurs, a été ajoutée, la vidéo avait déjà été visionnée plus de 12 millions de fois.

Les contenus modifiés ont continué à proliférer sur X même après que la plateforme a menacé de sanctionner les créateurs publiant des vidéos de guerre générées par l'IA sans le mentionner.

Une banalisation des conflits armés

Les mèmes générés par l'IA, qui banalisent les conflits tout en diffusant de la désinformation, occupent de plus en plus d'espace, un phénomène baptisé par l'ISD «Legoïfication» de la propagande de guerre.

Un faux film iranien généré par l'IA avec des personnages de Lego est devenu viral dès la première semaine du conflit, accusant Donald Trump d'avoir attaqué Téhéran pour détourner l'attention de son rôle supposé dans le scandale Jeffrey Epstein.

Sur l'une des vidéos, Donald Trump et Netanyahou apparaissent, consultant les dossiers Epstein, accompagnés du diable.
Sur l'une des vidéos, Donald Trump et Benjamin Netanyahou apparaissent, dossiers Epstein en main, accompagnés du diable.Image: Capture d'écran X

Des vidéos-mèmes ultra-réalistes ont été utilisées pour représenter de fictives victoires militaires iraniennes, des dirigeants mondiaux dans des situations absurdes ou le stratégique détroit d'Ormuz réimaginé en barrière de péage caricaturale.

Le président américain a averti que l'IA était une «arme de désinformation que l'Iran utilise très bien dans ce conflit». «Les bâtiments et les navires qu'on voit en flammes ne le sont pas, c'est de la FAKE NEWS générée par l'IA», a-t-il écrit sur sa plateforme Truth Social.

Pourtant, lui-même a partagé des images et vidéos générées par l'IA pour se mettre en scène en roi ou en Superman, dépeindre ses opposants en criminels ou utilisé des mèmes IA pour alimenter théories du complot et récits mensongers.

Cette image a été publiée sur le compte officiel de la Maison-Blanche.
Cette image a été publiée sur le compte officiel de la Maison-Blanche le 11 juillet 2025.Image: Capture d'écran X

Le Conseil de surveillance de Meta, l'organe créé par Facebook pour examiner les décisions de modération de contenu, a estimé en mars:

«Nous estimons que les plateformes technologiques n'en font actuellement pas assez pour aider les utilisateurs à déterminer si un contenu est généré par l'IA ou authentique. Les contenus faux peuvent être nuisibles, en incitant à davantage de violence et en alimentant encore plus le conflit.»

Meta a mis fin à son programme de fact-checking tiers aux Etats-Unis l'an dernier, son directeur général Mark Zuckerberg affirmant qu'il avait entraîné «trop de censure», une affirmation rejetée par les partisans du programme.

Comme alternative, Zuckerberg a indiqué que les plateformes de Meta, Facebook et Instagram, utiliseraient le modèle des Notes de communauté, une décision que les critiques jugent susceptible d'affaiblir encore les garde-fous contre la désinformation.

Un moyen de ne plus croire en rien

Les outils de détection d'IA étaient censés dissiper le brouillard de la guerre de l'information. Au lieu de cela, ils le rendent parfois plus opaque.

Dans le cas Benjamin Netanyahou, des complotistes ont brandi un outil de détection d'IA qui a à tort qualifié sa vidéo tournée dans un café à «96,9% générée par l'IA». D'autres outils sont arrivés à la conclusion inverse.

Le problème ne se limite pas aux vidéos. Les réseaux sociaux regorgent d'images satellite fabriquées ou cartes thermiques manipulées et employées pour semer le doute sur des preuves du conflit, selon les chercheurs.

Les récits mensongers ne se contentent plus de fabriquer du contenu, mais qualifient aussi de faux des reportages bien réels, souligne NewsGuard. Sofia Rubinson, membre de cet observatoire de la désinformation, décrypte:

«Quand tout peut être faux, il devient facile de croire que n'importe quoi l'est»

Des accusations sans fondement

Des utilisateurs des réseaux sociaux ont à tort accusé de grands médias, comme le New York Times, d'avoir publié des images du conflit générées par l'IA, dont l'une montrait une foule immense à Téhéran célébrant la nomination du nouveau guide suprême, Mojtaba Khamenei.

Lorsque des informations véridiques, mais embarrassantes sont balayées comme étant générées par l'IA, les chercheurs appellent cela «le dividende du menteur». Dans ces conditions, «il devient plus facile de nier les atrocités», a mis en garde un rapport de Tech Policy Press. Hannah Covington, directrice principale des contenus éducatifs au News Literacy Project, insiste:

«C'est ce que veulent les malveillants: que les gens pensent que tout peut être truqué afin qu'ils ne puissent avoir confiance en rien.»

Désormais, de fausses images de faits bien réels viennent encore davantage polluer le paysage informationnel.

Une forme de résignation aux faux contenus

Après une frappe meurtrière contre une école de la ville de Minab le 28 février, un compte officiel iranien sur X a publié une photo montrant un sac à dos d'enfant maculé de sang et de poussière. Il a depuis été établi qu'il était très probable que l'image ait été générée par l'IA.

Mais peu d'internautes ont semblé troublés par l'utilisation d'une image fabriquée pour illustrer la mort de vrais écoliers, signe d'une résignation croissante à une ère où la question «Est-ce réel?» est devenue de plus en plus difficile à trancher.

«Probablement modifiée par IA, mais le sens est réel», a ainsi écrit un utilisateur de Reddit.

La photo en question.
La photo en question.Image: Capture d'écran X
Parce qu'elle est partout, voici des images générées par IA
1 / 12
Parce qu'elle est partout, voici des images générées par IA
Un Trump généré par l'IA, en pleine séance d'Ayahuasca dans la jungle.
source: reddit
partager sur Facebookpartager sur X
ChatGPT: Quand la réalité dépasse la fiction
Video: watson
Ceci pourrait également vous intéresser:
Avez-vous quelque chose à nous dire ?
Avez-vous une remarque ou avez-vous découvert une erreur ? Vous pouvez nous transmettre votre message via le formulaire.
0 Commentaires
Votre commentaire
YouTube Link
0 / 600
Dix-huit migrants meurent dans un naufrage au large de la Turquie
Au large des côtes turques, dix-huit personnes ont perdu la vie après le naufrage d’un canot pneumatique. Plusieurs survivants ont pu être secourus.
Dix-huit migrants ayant embarqué à bord d'un canot pneumatique ont péri noyés mercredi en mer Égée au large de Bodrum, dans le sud-ouest de la Turquie, ont annoncé les garde-côtes turcs.
L’article