L'image marque: un secouriste grec porte un enfant turc hors des décombres, dans une ville détruite. Une photo visiblement retouchée, léchée, et qui pourrait gagner un prix ou devenir la photo de l'année... si elle était vraie.
On voit là un secouriste grec en #Turquie. Il y tant d’#humanité dans cette photo 😭 pic.twitter.com/G10XcmaTKq
— Léa 🇫🇷🇪🇺 (@LeaFbpe) February 10, 2023
Car le cliché n'a jamais été pris par un appareil photo. Il s'agit d'une image générée par Midjourney, une intelligence artificielle (IA) qui a le vent en poupe. On pourrait tellement y croire que le cliché n'a pas manqué de faire réagir cette utilisatrice de Twitter à plus de 8000 abonnés:
L'illustration compte pourtant nombre de symboles très précis dont la présence affichée de manière trop évidente nous fait quelque peu sortir du cadre du vraisemblable. Les sauveteurs grecs ont-ils tous le drapeau de leur pays peint à l'ancienne sur ce casque au design vaguement étrange? Et que dire de l'enfant turc qui porte son propre emblème national sur l'épaule de son t-shirt?
Le blason présent sur le bras du sauveteur est, quant à lui, très similaire au vrai blason arboré par les sauveteurs grecs, comme on peut le voir sur cette vidéo (on remarque au passage la différence avec leur vraie tenue):
Greek rescuers tried hard to get a young girl out of the ruble alive. They did not manage. Minutes after, they are rescuing her 6 yrs old sister. And they burst into tears. And then applauding. The mystery of life, the power of love. #Turkey, you are not alone! #TurkeyEarthquake pic.twitter.com/gS26kX6C3t
— Makis Mylonas (@MylonasMakis) February 7, 2023
Vous doutez encore que cette photo puisse être vraie? Comptez les doigts du sauveteur. Oui: l'homme en a six à sa main.
Une main à six, sept ou huit doigts? Une autre image, publiée la semaine dernière et plus saisissante encore, montre un CRS français prendre dans ses bras une manifestante. Le cliché semble encore plus crédible que celui du sauveteur grec. Et pourtant, si on regarde bien sa main...
Derrière ce cliché, Anthony, un internaute qui avait pour objectif d'alerter sur le réalisme de ces images:
Le jeune homme a été pris de court par sa propre démonstration. Selon France 3 régions, il a fini par supprimer son post sur Twitter, vu plus de deux millions de fois en moins de deux jours, pour éviter de créer encore plus de confusion.
Comment expliquer un tel réalisme et, en même temps, le fait que l'intelligence artificielle n'ait pas pu intégrer le fait que les mains humaines n'ont — normalement — que dix doigts?
«Ce type de programmes ne reconnaît pas nécessairement une personne en tant que tel», explique Anna Jobin, chercheuse et experte en intelligence artificielle au Human-IST (interaction science technology), un pôle de recherche de l'Université de Fribourg.
Autrement dit, le programme produit une illustration basée sur le traitement de millions et des millions d'images pour simuler le réel, mais sans le comprendre réellement — à l'image de la désormais fameuse IA textuelle ChatGPT, mais pour les images.
Et le réel, l'IA ne le comprend pas vraiment. Preuve en est, le traitement de certains traits physiques par le programme, notamment les mains et le nombre de doigts.
Pictures of perfect human hands, no extra fingers pic.twitter.com/5kYeDvlsPI
— Weird Ai Generations (@weirddalle) February 12, 2023
Mais selon Anna Jobin, ce n'est qu'une question de temps avant que ce genre d'erreur ne soit corrigé:
Le nombre de doigts n'est pas le seul élément pertinent qui permette de reconnaître une vraie image d'une IA. Selon Buzzfeed, qui s'est penché sur la question, on peut aussi trouver, notamment:
Midjourney n'est d'ailleurs pas la seule IA sur le marché. Le média en ligne américaine cite également Stable Diffusion et Dall-e 2. Et ces programmes se perfectionnent jour après jour, selon Anna Jobin: les IA s'entraînent souvent avec une «contre-IA» qui va essayer de reconnaître si l'image générée est crédible. Les deux programmes communiquent alors entre eux pour perfectionner les images.
De manière générale, une sensation de dissonance finit par nous envahir lorsqu'on regarde de près une image générée par une IA — similaire au concept de «vallée de l'étrange» pour les robots. Mais sur les réseaux sociaux, où le scrolling règne, le risque d'apercevoir brièvement une fausse image sans s'en rendre compte est grand.
Dans le futur, les éléments qui permettent d'identifier les images créées par IA vont donc s'amenuiser, ce qui rendra leur identification toujours plus difficile. Selon Anna Jobin, pourtant:
Pour l'experte, il s'agit désormais d'appliquer d'autres méthodes pour vérifier ces images qui dépassent le cadre de leur simple évaluation visuelle:
«La question se pose aussi de savoir qui va le faire. Tout le monde n'aura pas ce réflèxe. Le journalisme devra faire ce travail de vérification et la question de la confiance va se poser», estime l'experte.
Car l'experte tient à alerter: «La question qui se pose est aussi de savoir qui a intérêt à faire circuler cette image? Le danger qu'on ne fasse plus confiance à rien ni personne est présent... Et cela, c'est le plus grand défi.»