Société
Médias

Ces images qui nous ont bluffés en 2024 étaient toutes fausses

Tout est faux: cette photo a été créée par des fans de Trump à l'aide d’une IA.
Tout est faux: cette photo a été créée par des fans de Trump à l'aide d’une IA. bild: KI-generiert: twitter / @markkayeshow

Ces images qui nous ont bluffés et choqués en 2024 étaient toutes fausses

En 2024, les photos truquées ont explosé sur Internet: manipulations choquantes, montages humoristiques et contenus utilisés pour servir des intérêts politiques ou financiers, on a fait une sélection.
31.12.2024, 18:59
Oliver Wietlisbach
Oliver Wietlisbach
Plus de «Société»

L'année 2024 nous a rappelé une fois de plus que tout n'est pas toujours ce qu'il semble être. Les faux clichés spectaculaires ont inondé les réseaux cette année. L'exemple le plus marquant ? Une photo retouchée de la famille de Kate Middleton.

D’autres images impressionnantes étaient bien réelles, comme celle du surfeur Gabriel Medina aux Jeux Olympiques d’été. 👇

Cette photo partagée sur Twitter est également authentique

Un télésiège sans barre de sécurité dans les années 1960 à Jackson, Wyoming.
Un télésiège sans barre de sécurité dans les années 1960 à Jackson, Wyoming.Image: twitter / @Vinod_r108/X

En 2024, un tsunami de photos truquées s'est abattu sur nous. Certaines sont inoffensives et amusantes et ont été diffusées sans mauvaises intentions. D'autres images falsifiées cachent de solides intérêts politiques ou financiers. Petit tour d'horizon.

Non, les agents de sécurité n'ont pas souri après la tentative d'assassinat de Trump

La photo montrant des agents de sécurité souriants est un montage.
La photo montrant des agents de sécurité souriants est un montage.Image: threads

Un spectateur est mort, et deux autres personnes ont été gravement blessées. Peu après, des photos montrant Trump et ses gardes du corps soi-disant souriants ont circulé sur les réseaux sociaux, accompagnées de commentaires tels que: « Pourquoi sourit-il?» ou «Pourquoi les agents sont-ils si détendus ?» L’objectif ? Alimenter les théories du complot.

Ces photos ont été manipulées. Des vidéos et des clichés de l’attentat montrent clairement que personne ne sourit sur place.

Cette photo a également été trafiquée. Trump n'a pas souri après la tentative d'assassinat.
Cette photo a également été trafiquée. Trump n'a pas souri après la tentative d'assassinat.Image: twitter

La photo originale

Republican presidential candidate former President Donald Trump is surrounded by U.S. Secret Service agents at a campaign rally, Saturday, July 13, 2024, in Butler, Pa. (KEYSTONE/AP Photo/Evan Vucci)
Image: AP

Non, la photo d'Adolf Hitler, qui aurait posé comme Trump, n'est pas réelle

La fausse image d'Adolf Hitler (à gauche) doit donner l'impression que Trump a posé comme Adolf Hitler autrefois.
La fausse image d'Adolf Hitler (à gauche) doit donner l'impression que Trump a posé comme Adolf Hitler autrefois.Image: twitter / @theirishokie

Sur Twitter, après la tentative d'assassinat de Trump, des gens ont partagé des images d'Adolf Hitler et de Donald Trump, supposées montrer que ce dernier prenait la même pose «que son idole Adolf Hitler».

La fausse image (à gauche) a été assemblée à partir de plusieurs photos historiques authentiques.
La fausse image (à gauche) a été assemblée à partir de plusieurs photos historiques authentiques.Image: snopes; source: X user @JaneotN, Getty Images

La photo de Trump, le poing levé, est authentique. En revanche, celle d'Hitler est un montage, comme l'a révélé le portail spécialisé dans le fact-checking, Snopes. Sur Internet, on affirmait à tort qu'il s'agissait d'une image générée par une IA. En réalité, il s'agit d'une manipulation classique réalisée avec Photoshop.

La photo originale d'Hitler date de 1934. Elle est disponible auprès d'agences telles que Getty et Alamy. Joseph Goebbels, un proche d'Hitler, visible en arrière-plan, ainsi que la femme inconnue au premier plan, ont été ajoutés manuellement à partir d'autres clichés.

Non, cette photo ne montre pas une perchiste avec un pénis aux Jeux Olympiques

Sous la photo postée sur Facebook, on trouve des commentaires transphobes.
Sous la photo postée sur Facebook, on trouve des commentaires transphobes.Image: Facebook; Screenshot und Schwärzung: CORRECTIV.Faktencheck

Lors des Jeux Olympiques d’été, une photo d’une perchiste a circulé sur Twitter et Facebook, prétendant révéler des organes génitaux masculins sous son short. Cette image visait à discréditer les athlètes transgenres.

L'image est falsifiée. Le portail spécialisé dans les vérifications des faits, correctiv.org, précise: «La photo originale date de plus de dix ans et montre l'ancienne perchiste russe Yelena Isinbayeva. Le pénis a été ajouté par montage ultérieurement.»

La photo originale

Das Foto der Stabhochspringerin Jelena Issinbajewa aus 2013 (links) wurde nachträglich bearbeitet (rechts)
La vraie photo de la perchiste Yelena Isinbayeva de 2013 (à gauche) a été retouchée. Image: Pinterest / Facebook; Screenshot: CORRECTIV.Faktencheck

La falsification est évidente: Isinbayeva a mis fin à sa carrière sportive en 2016. De plus, le t-shirt porte l'inscription «Russia». Lors des Jeux Olympiques de 2024, cependant, les athlètes russes n'ont pu participer que sous une bannière neutre, comme le soulignent Correctiv.

L'image originale provient de l'agence de presse Reuters. Elle montre la perchiste, considérée comme une supportrice de Poutine, lors des Championnats du monde d'athlétisme de 2013 à Moscou. L'image manipulée n'est d'ailleurs pas nouvelle. Elle a été diffusée pour la première fois sur Internet en 2016 et continue d'être utilisée par des cercles transphobes.

Non, la photo ne montre pas Bachar al-Assad après sa fuite de Syrie à Moscou

Cette photo est ancienne et ne montre pas, comme on le prétend, Bachar al-Assad et sa femme à leur arrivée à Moscou.
Cette photo est ancienne et ne montre pas, comme on le prétend, Bachar al-Assad et sa femme à leur arrivée à Moscou.source: twitter; Screenshot et Collage: CORRECTIV.Faktencheck

L'ex-président syrien déchu, Bachar al-Assad, est effectivement en Russie, selon des déclarations du Kremlin. Peu après, les réseaux sociaux ont pullulé d'une photo qui prétend montrer al-Assad et son épouse à Moscou.

Mimikama.org, un portail spécialisé dans la vérification des faits, a confirmé que l’image n’a aucun lien avec Moscou. Elle date de février 2023 et a été prise à Alep, en Syrie. Ce cliché a été extrait d'une vidéo d’un média syrien. Les outils de recherche inversée ont rapidement permis de dévoiler sa véritable origine.

L'original

L'enregistrement vidéo de la visite d'Assad aux victimes du tremblement de terre à l'hôpital d'Alep date du 10 février 2023.
L'enregistrement vidéo de la visite d'Assad aux victimes du tremblement de terre à l'hôpital d'Alep date du 10 février 2023.Image: Youtube/Syria Stream; screenshot: DW-Faktencheck

Non, ce n'est pas Henry Ford dans sa première voiture.

Cette photo a été générée par une IA. Reconnaissable à sa main droite étrangement enfoncée dans le volant.
Cette photo a été générée par une IA. Reconnaissable à sa main droite étrangement enfoncée dans le volant. Image: Facebook/Past Perspectives via SRF

Depuis que des générateurs d'images par IA permettent de créer n'importe quelle photo en quelques secondes, des clichés «historiques» (pures falsifications) inondent Internet. Par exemple, le compte Past Perspectives sur Facebook et une photo en noir et blanc, montrant un jeune homme portant un chapeau et souriant à l'objectif, la légende dit: «Henry Ford assis dans sa première voiture, la Ford Quadricycle».


L'image a été démasquée comme une falsification par l'équipe de vérification des faits de l'agence de presse australienne AAP. La véritable Ford Quadricycle ne possédait pas de volant, mais était équipée d'une barre de direction.

La photo originale de 1896

HENRY FORD 1863-1947. American automobile manufacturer. Photographed in 1896 with the first Ford automobile. PUBLICATIONxNOTxINxUSAxCANxUKxFRAxESPxJPN Copyright: xGRANGERx/xGRANGERx 0017867
Le véritable Henry Ford sur son premier véhicule, qui était contrôlé par une barre de direction. Image: imago

La vidéo, qui se propage rapidement sur les réseaux sociaux, montre une scène dramatique: un ours polaire et son petit sont pris dans un filet de pêche et sont sauvés in extremis. Sur Instagram et YouTube, de telles images et vidéos d'ours polaires blessés et sauvés ou encore de bébés loutres se propagent. Leur but? susciter une forte empathie et générer des clics... et de l’argent.

La vidéo n'est pas réelle. Elle a été publiée par une chaîne YouTube qui précise elle-même que le contenu a été «fortement modifié ou généré numériquement». En clair, cela signifie que la vidéo a été créée à l'aide d’une IA.
Les opérateurs de tels comptes jouent sur les émotions des spectateurs, sachant que les photos et vidéos suscitant l'indignation ont tendance à devenir virales.

Non, cette photo ne montre pas Trump en train de faire la fête avec Poutine

Trump et Poutine de bonne humeur en train de boire du vin? La fausse photo a été créée par intelligence artificielle.
Trump et Poutine de bonne humeur en train de boire du vin? La fausse photo a été créée par intelligence artificielle. Image: twitter; Screenshot und Collage: CORRECTIV.Faktencheck

Un cliché montrant Donald Trump et Vladimir Poutine partageant un verre de vin a été largement diffusé au début de l’année. Mais un détail a vite révélé l’imposture : le verre de Poutine avait deux pieds ! L’image avait été générée par intelligence artificielle.

En y regardant de plus près, on s'aperçoit que cette image est truquée — le verre de vin de Poutine a deux pieds et ses doigts n'ont pas l'air naturels.
En y regardant de plus près, on s'aperçoit que cette image est truquée — le verre de vin de Poutine a deux pieds et ses doigts n'ont pas l'air naturels. image: twitter; Screenshot et marquages: CORRECTIV.Faktencheck

Non, l'image «All Eyes on Rafah» n'était pas non plus réelle

En mai, l'image générée par une IA a été partagée bien plus de 40 millions de fois en un rien de temps sur Instagram et TikTok.
En mai, l'image générée par une IA a été partagée bien plus de 40 millions de fois en un rien de temps sur Instagram et TikTok. Image: Screenshot threads

De nombreuses photos authentiques témoignent de la souffrance et de la destruction dans la bande de Gaza. La fausse photo intitulée «All Eyes on Rafah» a été créée par un anonyme sur Instagram à l'aide de l'intelligence artificielle. Cet utilisateur partage sur son profil des images de sites pro-palestiniens ainsi que des contenus parfois antisémites.

L'image a été générée artificiellement, ce qui est évident dès que l'on observe les montagnes enneigées en arrière-plan. La ville de Rafah, située au sud de Gaza, borde le désert. Cependant, des millions d'utilisateurs des réseaux sociaux ont partagé cette image après un incendie dévastateur déclenché par une frappe aérienne israélienne sur un camp de réfugiés près de Rafah en mai.

Non, cette pieuvre géante ne s'est pas échouée à Bali

Nope, cette photo n'a rien de réel.
Nope, cette photo n'a rien de réel.image: facebook

En juin, la photo d'une prétendue pieuvre géante s'est rapidement propagée sur le web. Le compte Instagram best_of_ai l'avait d'abord publiée en la présentant comme «fictive». Il semble que l'utilisateur n'ait pas eu l'intention de tromper le public. L'indication qu'il s'agit d'une image créée artificiellement manque toutefois dans les posts d'autres utilisateurs qui l'ont partagée (sans source) sur Twitter et Facebook.

Les vérificateurs de Snopes et Mimikama ont rapidement démonté cette supercherie, confirmant qu’il s’agissait d’un faux généré par intelligence artificielle.

Traduit et adapté par Noëline Flippe

La Suisse va encore plus taxer le tourisme d'achat: voici vos astuces
Video: watson
Ceci pourrait également vous intéresser:
0 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
«C'est une mise en scène de connards»: la fille de Sarkozy s'emporte
Lors d'un live TikTok devenu viral, la fille âgée de 13 ans de Nicolas Sarkozy et de Carla Bruni a défendu son père et a évoqué l’ancien dictateur libyen Mouammar Khadafi.

Depuis que la fille de Nicolas Sarkozy et de Carla Bruni est sur TikTok, les polémiques ne font que s'enchaîner. Il faut dire que l'ado n'est âgée que de 13 ans, et qu'elle compte déjà quelque 40 000 abonnés. Comme de nombreux jeunes de sa génération, Guilia anime son compte grâce à des «lip sync», des petites vidéos sur lesquelles elle fait des playbacks, et participe à des live.

L’article