Chat GPT agite le monde. On s'excite, on voit déjà l'intelligence artificielle (IA) remplacer tous nos jobs, détruire l'instruction publique et des Terminators débouler dans nos rues. Je caricature à peine.
Mais malgré des évolutions dont les ramifications sont de plus en plus invasives, notamment avec la sortie du récent Chat GPT-4, ces programmes restent des outils faillibles et qui nécessitent un contrôle supplémentaire, l'œil et la main de l'humain.
La même semaine où Chat GPT-4 a été dévoilé, sa petite cousine du domaine visuel, Midjourney, mettait à jour sa version 5 et déboulait sur le marché.
Et là, ça dézingue. Le niveau de réalisme des photos de synthèse n'a jamais atteint un tel point. Non, franchement, ça impressionne — et ça fout les boules.
Car jusqu'à présent, des illustrateurs ou des férus de photoshop pouvaient rendre des créations de qualité similaire après plusieurs heures de dur labeur. Désormais, et avec la bonne «commande» décrite au programme, l'image est générée en moins d'une minute. Logiquement, celles-ci vont commencer à inonder le web.
Et c'est bien là le problème. Dernière image en date qui a mis un sacré doute sur les réseaux sociaux francophones: un manifestant âgé et ensanglanté entouré par des CRS, dans le cadre des manifestations contre la réforme des retraites de Macron.
Les experts interrogés par l'AFP sont formels, cette image est une création artificielle. Mais ils se basent sur des indices visuels et non formels liés à cet évènement (ou plutôt: non-évènement). Et il faut se rendre à l'évidence: ces mêmes indices tendent à disparaître au fur et à mesure que l'IA s'améliore. A l'œil nu, différencier une image de synthèse d'une image réelle deviendra bientôt impossible.
Cette image prétendant montrer "un homme âgé au visage ensanglanté manifestant en France", interpellé par des forces de l'ordre, est relayée depuis plusieurs heures sur Twitter, entre messages d'indignation et interrogations sur son authenticité #AFP 1/... pic.twitter.com/hR7jlS1pBM
— AFP Factuel 🔎 (@AfpFactuel) March 30, 2023
Oui, je sais: il y aura toujours un petit malin pour regarder par-dessus notre épaule et nous sortir un très smart:
Certes. Mais lorsqu'on scrolle à toute vitesse sur les réseaux (que celui qui scrolle comme un escargot nous jette la première pierre), impossible de différencier à l'œil nu si une image est réelle ou non. (Très) bientôt, nous n'aurons plus le luxe de pouvoir repérer un détail étrange grâce à notre vision humaine seule.
Et puis, devoir scruter une image durant de longues secondes pour deviner si elle est vraie ou fausse n'est pas une preuve de son caractère authentique. Au contraire, il indique que le doute nous tenaillera désormais lors du visionnage de chaque photo en ligne.
Et pour certaines créations particulièrement réussies, c'est bien simple: sans utiliser un outil informatisé, par exemple un moteur de recherches d'images, il sera tout juste impossible de faire la différence.
Je répète: il est désormais impossible d'être complètement sûr que les images que nous voyons sur le net sont réelles. Faire confiance à ce que nous voyons fait déjà partie du passé.
Connaissez-vous la singularité, ce concept qui explique le moment dans le temps où l'intelligence artificielle aura dépassé les capacités humaines qui sont à son origine? C'est bien simple: pour les illustrations et les images, il semble que nous avons atteint ce point.
Pour le journalisme, le défi est de taille. Pour vous, lecteurs, également. Le seul moyen de pouvoir juger ou non de l'authenticité d'une photo sera la confiance en sa source de diffusion. Plus que jamais, la pression sur la presse va s'accentuer et la chasse aux fake news — ou plus précisément, aux fake pictures — va exploser.