L'année 2024 nous a rappelé une fois de plus que tout n'est pas toujours ce qu'il semble être. Les faux clichés spectaculaires ont inondé les réseaux cette année. L'exemple le plus marquant ? Une photo retouchée de la famille de Kate Middleton.
D’autres images impressionnantes étaient bien réelles, comme celle du surfeur Gabriel Medina aux Jeux Olympiques d’été. 👇
En 2024, un tsunami de photos truquées s'est abattu sur nous. Certaines sont inoffensives et amusantes et ont été diffusées sans mauvaises intentions. D'autres images falsifiées cachent de solides intérêts politiques ou financiers. Petit tour d'horizon.
Un spectateur est mort, et deux autres personnes ont été gravement blessées. Peu après, des photos montrant Trump et ses gardes du corps soi-disant souriants ont circulé sur les réseaux sociaux, accompagnées de commentaires tels que: « Pourquoi sourit-il?» ou «Pourquoi les agents sont-ils si détendus ?» L’objectif ? Alimenter les théories du complot.
Ces photos ont été manipulées. Des vidéos et des clichés de l’attentat montrent clairement que personne ne sourit sur place.
Sur Twitter, après la tentative d'assassinat de Trump, des gens ont partagé des images d'Adolf Hitler et de Donald Trump, supposées montrer que ce dernier prenait la même pose «que son idole Adolf Hitler».
La photo de Trump, le poing levé, est authentique. En revanche, celle d'Hitler est un montage, comme l'a révélé le portail spécialisé dans le fact-checking, Snopes. Sur Internet, on affirmait à tort qu'il s'agissait d'une image générée par une IA. En réalité, il s'agit d'une manipulation classique réalisée avec Photoshop.
La photo originale d'Hitler date de 1934. Elle est disponible auprès d'agences telles que Getty et Alamy. Joseph Goebbels, un proche d'Hitler, visible en arrière-plan, ainsi que la femme inconnue au premier plan, ont été ajoutés manuellement à partir d'autres clichés.
Lors des Jeux Olympiques d’été, une photo d’une perchiste a circulé sur Twitter et Facebook, prétendant révéler des organes génitaux masculins sous son short. Cette image visait à discréditer les athlètes transgenres.
L'image est falsifiée. Le portail spécialisé dans les vérifications des faits, correctiv.org, précise: «La photo originale date de plus de dix ans et montre l'ancienne perchiste russe Yelena Isinbayeva. Le pénis a été ajouté par montage ultérieurement.»
La falsification est évidente: Isinbayeva a mis fin à sa carrière sportive en 2016. De plus, le t-shirt porte l'inscription «Russia». Lors des Jeux Olympiques de 2024, cependant, les athlètes russes n'ont pu participer que sous une bannière neutre, comme le soulignent Correctiv.
L'image originale provient de l'agence de presse Reuters. Elle montre la perchiste, considérée comme une supportrice de Poutine, lors des Championnats du monde d'athlétisme de 2013 à Moscou. L'image manipulée n'est d'ailleurs pas nouvelle. Elle a été diffusée pour la première fois sur Internet en 2016 et continue d'être utilisée par des cercles transphobes.
L'ex-président syrien déchu, Bachar al-Assad, est effectivement en Russie, selon des déclarations du Kremlin. Peu après, les réseaux sociaux ont pullulé d'une photo qui prétend montrer al-Assad et son épouse à Moscou.
Mimikama.org, un portail spécialisé dans la vérification des faits, a confirmé que l’image n’a aucun lien avec Moscou. Elle date de février 2023 et a été prise à Alep, en Syrie. Ce cliché a été extrait d'une vidéo d’un média syrien. Les outils de recherche inversée ont rapidement permis de dévoiler sa véritable origine.
Depuis que des générateurs d'images par IA permettent de créer n'importe quelle photo en quelques secondes, des clichés «historiques» (pures falsifications) inondent Internet. Par exemple, le compte Past Perspectives sur Facebook et une photo en noir et blanc, montrant un jeune homme portant un chapeau et souriant à l'objectif, la légende dit: «Henry Ford assis dans sa première voiture, la Ford Quadricycle».
L'image a été démasquée comme une falsification par l'équipe de vérification des faits de l'agence de presse australienne AAP. La véritable Ford Quadricycle ne possédait pas de volant, mais était équipée d'une barre de direction.
La vidéo, qui se propage rapidement sur les réseaux sociaux, montre une scène dramatique: un ours polaire et son petit sont pris dans un filet de pêche et sont sauvés in extremis. Sur Instagram et YouTube, de telles images et vidéos d'ours polaires blessés et sauvés ou encore de bébés loutres se propagent. Leur but? susciter une forte empathie et générer des clics... et de l’argent.
La vidéo n'est pas réelle. Elle a été publiée par une chaîne YouTube qui précise elle-même que le contenu a été «fortement modifié ou généré numériquement». En clair, cela signifie que la vidéo a été créée à l'aide d’une IA.
Les opérateurs de tels comptes jouent sur les émotions des spectateurs, sachant que les photos et vidéos suscitant l'indignation ont tendance à devenir virales.
Un cliché montrant Donald Trump et Vladimir Poutine partageant un verre de vin a été largement diffusé au début de l’année. Mais un détail a vite révélé l’imposture : le verre de Poutine avait deux pieds ! L’image avait été générée par intelligence artificielle.
De nombreuses photos authentiques témoignent de la souffrance et de la destruction dans la bande de Gaza. La fausse photo intitulée «All Eyes on Rafah» a été créée par un anonyme sur Instagram à l'aide de l'intelligence artificielle. Cet utilisateur partage sur son profil des images de sites pro-palestiniens ainsi que des contenus parfois antisémites.
L'image a été générée artificiellement, ce qui est évident dès que l'on observe les montagnes enneigées en arrière-plan. La ville de Rafah, située au sud de Gaza, borde le désert. Cependant, des millions d'utilisateurs des réseaux sociaux ont partagé cette image après un incendie dévastateur déclenché par une frappe aérienne israélienne sur un camp de réfugiés près de Rafah en mai.
En juin, la photo d'une prétendue pieuvre géante s'est rapidement propagée sur le web. Le compte Instagram best_of_ai l'avait d'abord publiée en la présentant comme «fictive». Il semble que l'utilisateur n'ait pas eu l'intention de tromper le public. L'indication qu'il s'agit d'une image créée artificiellement manque toutefois dans les posts d'autres utilisateurs qui l'ont partagée (sans source) sur Twitter et Facebook.
Les vérificateurs de Snopes et Mimikama ont rapidement démonté cette supercherie, confirmant qu’il s’agissait d’un faux généré par intelligence artificielle.
Traduit et adapté par Noëline Flippe