«Ne crois rien de ce que tu entends et la moitié de ce que tu vois.» Ce proverbe d'origine créole, que vous auriez pu voir passer un dimanche soir sur la page Facebook de tata Ginette, est d'une brûlante actualité. Particulièrement pour la deuxième partie.
Car depuis quelques mois, les images générées par intelligence artificielle (IA) inondent le net et semblent se perfectionner à vue d'œil. Souvenez-vous, cher lecteur, il y a encore quelques semaines, nous vous parlions de ces quelques images fichtrement bien composées, mais encore faillibles (notamment au niveau des doigts):
Les modèles d'intelligence artificielle, tels Midjourney ou Stable diffusion, semblent avoir appris de leurs erreurs à grande vitesse. Le premier, notamment, a sorti sa «version 5», la même semaine que Chat-GPT 4. Que les choses semblent avoir changé en quelques semaines...
Deux exemples sont venus se glisser dans l'actualité ces derniers jours. La première concerne de fausses images de Trump fuyant devant la police de New York, qui tente de l'arrêter. L'autre, une image du pape fringué dans une grosse doudoune immaculée et diablement stylée.
Et les images sont de plus en plus réalistes. Dans le monde francophone, de nombreux faux clichés d'Emmanuel Macron en plein cœur des manifestations contre son projet de réforme des retraites sont visibles sur Twitter.
L'#ia #photo a fait des progrès démentiels en très peu de temps, désormais le #fake sera la norme sur les #reseaux, doutez de ce que vous voyez par défaut, plus le choix.#midjourney #midjourneyv5 pic.twitter.com/dJoZXGrbRy
— Cryptonoo₿ From 100K to 0 🐐 (@Cryptonoobzzzz) March 19, 2023
Une étape importante a été franchie en France: une image des manifestations contre les retraites circule, et il est très difficile de savoir si elle est vraie ou non, explique AFP factuel. Aucun auteur ne s'est manifesté pour indiquer s'il s'agissait ou non d'une création synthétique.
Ayant contacté plusieurs experts, le service de fact-checking de l'Agence France-presse (AFP) est pourtant formel: cette image n'est pas réelle. Plusieurs éléments le laissent penser, le plus probant étant le bras en bas à droite, dont l'élément de protection du CRS semble fusionner avec le reste de sa manche.
Pour autant, impossible d'être véritablement sûr que cette image ne correspond à aucun évènement réel. Cela transforme tout l'exercice de l'analyse d'image en une dangereuse inversion, sur le même principe que celui du fardeau de la preuve: faut-il désormais prouver que des images qui semblent réelles ne le sont pas?
Le doute est-il destiné à devenir la norme? Pour Anna Jobin, spécialiste en intelligence artificielle à l'Université de Fribourg (Unifr), il est clair qu'«il va devenir de plus en plus difficile pour les utilisateurs lambda de juger la véracité d'une image ou vidéo donnée».
L'un d'entre eux est de faire une recherche d'image inversée par un moteur de recherche, mais ceux-ci «ne sont ni infaillibles ni suffisants», explique l'experte.
«Sans vouloir minimiser les avancées technologiques, je ne suis pas surprise de voir ces systèmes s'améliorer», explique la chercheuse. «Pour moi, la question clé est de minimiser les dommages de l'utilisation de ces images. Certains d'entre eux sont immédiats et directs.» Par exemple: la pornodivulgation par image synthétique.
Globalement, l'experte craint aussi «l'érosion potentielle de confiance et de cohésion sociale» ou encore «la perpétuation d'une représentation déséquilibrée du monde due au corpus de données sur lequel ces systèmes se basent».
Pour l'heure, il est toujours possible de différencier une image de synthèse d'une image réelle, mais les détails permettant de le faire semblent s'amenuiser de semaine en semaine. Les doigts, par exemple, jusqu'alors détail visible de l'imperfection d'une création par IA, sont désormais de bonne — voire de très bonne — facture.
Les Décodeurs du journal Le Monde donnent quelques conseils pour mieux repérer les détails d'un fake. Voici quelques éléments qui permettent encore de distinguer — mais pour combien de temps? — une vraie photo d'un fake:
Toutefois, des images présentent les défauts actuels des intelligences artificielles. Ici, les visages en arrière-plan sont inachevés, les dimensions des casques sont douteuses. George W. Bush se retrouve même affublé d'un monosourcil pic.twitter.com/SLkHEvRZID
— 20minutesFakeOff (@20minFakeOff) March 31, 2023
Mais encore faut-il avoir l'œil et le réflexe de mettre en doute une photo. Avec le risque de remettre en cause de vrais clichés qui sortent peut-être de l'ordinaire, mais sont bel et bien vrais.
Le détail «qui tue» et permet encore de différencier les images générées par IA des vraies, sont les parties textuelles. Qu'il s'agisse d'une enseigne en fond, d'un logo sur un habit ou d'un texte sur un panneau, l'ensemble des lettres et des mots est au mieux incohérent, au pire, esthétiquement pittoresque.
Pour Anna Jobin, un des éléments essentiels est la provenance ou la source d'une image, «qui peut déjà nous servir comme premier repère: les instances officielles, les médias ou les scientifiques ne vont pas volontairement publier des images clairement fausses», explique l'experte.
La solution idéale serait l'application systématique d'un logo dans un des coins de l'image de synthèse. Mais, là encore, il est facile de rogner la photo pour empêcher celui-ci d'être montré.
L'experte rappelle également que «des débats sur l'authenticité prédatent la vague actuelle d'images synthétiques». Les normes qui composent le «vrai» ont évolué, «que ce soit dans la peinture, le cinéma, la photographie ou d'autres domaines de représentation en image».
Dans le monde francophone et particulièrement romand, c'est Blick qui a ouvert (malgré lui) le débat en utilisant explicitement une image d'illustration créée par Midjourney, qui a l'air plus vraie que nature. Sur Twitter, son utilisation n'a pas manqué de faire réagir:
L’IA (Midjourney) pour diversifier les habituelles « images d’illustration » dans les médias. Ici dans @Blick_fr édité par @ringier_ag #CesPersonnesNexistentPas https://t.co/ZpNuq4wMJC pic.twitter.com/jZGQ5zjsPm
— Antoine Droux (@antoinedroux) March 25, 2023
Questionnée sur la pratique, Anna Jobin «salue que l'origine de l'image soit marquée et décrite clairement, comme le demande par ailleurs la déontologie journalistique». Elle nuance cependant: «La balance à trouver me semble très délicate».
«Par ailleurs, il ne faut jamais oublier que l'intention derrière la création et la publication d'une image de synthèse et son contexte se perd vite une fois qu'elle circule», note également la chercheuse.