Ces images de la guerre en Iran pointent un sérieux problème
La guerre au Moyen-Orient a déclenché un torrent de désinformation générée par l'intelligence artificielle. Au-delà des images entièrement fabriquées, un autre type de contenu se répand: des images authentiques «améliorées» d'une manière qui, selon les experts, déforme subtilement la perception de ce qu'il se passe sur le terrain.
Sur une photo saisissante, un pilote américain à genoux fait face à un homme au Koweït, quelques instants après avoir sauté en parachute de son avion de chasse. L'image de haute qualité a été largement partagée en ligne et même publiée par des médias. Pourtant, le pilote ne semble avoir que quatre doigts à chaque main.
Un nouveau type de désinformation
L'AFP a soumis la photo à des outils de détection d'IA et a découvert qu'elle contenait un SynthID, un filigrane invisible destiné à identifier les images créées avec l'IA de Google. Mais l'histoire ne s'arrête pas là.
La scène elle-même semble authentique. Une vidéo montrant la même situation a commencé à circuler sur les réseaux sociaux le 2 mars, et des images satellites ont permis d'en vérifier la localisation. Elle correspondait aussi aux informations publiées ce jour-là selon lesquelles le Koweït avait, par erreur, abattu trois avions de combat américains.
On vous en parlait en vidéo ici:
Il a également été possible de retrouver sur Telegram une version antérieure de l'image qui correspondait exactement à la version haute résolution, à ceci près qu'elle était floue.
Les outils de vérification ont conclu que cette image, qui ne comportait aucun des détails visibles sur le visage du pilote, était réelle. Cela suggère qu'elle pourrait avoir servi de point de départ à l'image qui portait la marque de l'utilisation de l'IA de Google.
Une réalité altérée
Evangelos Kanoulas, professeur à l'université d'Amsterdam, explique:
Cela peut «renforcer un récit particulier autour d'un événement. Par exemple, rendre une manifestation visuellement plus violente, donner l'impression qu'une foule est plus importante, rendre plus prononcées les expressions du visage.»
Dans un autre cas, des utilisateurs des réseaux sociaux ont partagé une image spectaculaire d'un immense brasier près de l'aéroport d'Erbil, en Irak, après que la zone a été ciblée par des frappes le 1er mars.
Même si la détection SynthID a mis en évidence l'utilisation de l'IA de Google, il ne s'agissait pas d'une pure invention. La version originale de l'image montre la même scène, mais avec un feu et une colonne de fumée bien plus modestes, et des couleurs moins vives.
Un autre cas concret et récent
Les experts avertissent que la frontière entre l'amélioration et la génération de contenu est ténue, que cette ligne soit franchie accidentellement ou intentionnellement. James O'Brien, professeur d'informatique à l'université de Californie à Berkeley, indique:
L'intelligence artificielle générative reste aussi sujette aux erreurs et peut «halluciner» des éléments qui n'étaient pas présents à l'origine, ajoute Kanoulas.
C'est ce qui s'est produit après la mort d'Alex Pretti, abattu par des agents fédéraux de l'immigration dans l'Etat américain du Minnesota en janvier, lorsqu'une image de l'incident, améliorée par l'IA, est devenue virale.
Cette dernière était basée sur une image extraite d'une véritable vidéo des faits, montrant Alex Pretti s'effondrant à genoux avec des agents à ses côtés, l'un d'eux pointant une arme sur sa tête.
Sur cette image floue et de mauvaise qualité, Alex Pretti tient un objet qui était en réalité un téléphone. Sur celle traitée par IA, certains utilisateurs des réseaux sociaux ont à tort cru voir une arme dans sa main.
Alors que la guerre déclenchée par les attaques américano-israéliennes contre l'Iran fait rage, des experts estiment que, sans étiquetage approprié, les images améliorées par l'IA sapent encore davantage la confiance du public. Ce type de contenus a déjà «un impact énorme sur les gens et leur capacité à croire en la vérité», a déclaré James O'Brien. Kanoulas abonde:
