L'intelligence artificielle (IA) générative favorise la propagation de fausses informations sur l'Holocauste. Ce qui risque d'alimenter l'antisémitisme et d'altérer notre rapport à la vérité historique, avertit l'Unesco dans un rapport publié mardi.
L'agence onusienne a dévoilé cette publication en partenariat avec le Congrès juif mondial à l'occasion de la journée internationale de la lutte contre les discours de haine.
Les modèles d'IA générative, comme ChatGPT, qui génèrent texte, photos, sons et vidéos, à partir de requêtes en langage courant, peuvent inventer des événements de la Seconde Guerre mondiale qui n'ont jamais eu lieu, dénonce l'Unesco.
En février, l'interface d'intelligence générative de Google, Gemini, avait suscité un tollé en produisant des images de nazis à la peau noire.
ChatGPT, qui a fait découvrir l'IA générative au grand public lors de son lancement par OpenAI en 2022, a de son côté inventé le concept «d'Holocauste par noyades», selon lequel les nazis auraient noyé en masse des personnes juives dans les lacs et les rivières pendant la Seconde Guerre mondiale. De pures inventions, sans fondement historique, rappelle l'Unesco.
Les modèles d'IA ont aussi tendance à simplifier à outrance l'histoire de l'extermination du peuple juif par les nazis et peuvent même faire l'objet de piratage les poussant à véhiculer l'idéologie nazie, souligne le rapport.
L'intelligence artificielle favorise ainsi la pensée conspirationniste, selon Karel Fracapane, spécialiste de l'éducation sur l'Holocauste à l'Unesco.
«C'est un bon exemple de la façon dont l'IA, quand elle s'applique à des sujets particulièrement difficiles et controversés, peut mener à une forte érosion de la culture démocratique», a-t-il expliqué à l'AFP. Les entreprises de la tech doivent faire preuve de «plus de rigueur, transparence et responsabilité», a-t-il ajouté.
L'Unesco, qui note toutefois que l'intelligence artificielle permet aussi de créer des outils éducatifs plus interactifs pour les jeunes, appelle les entreprises du secteur à mettre en oeuvre des recommandations éthiques pour l'IA. (ats)