Le géant américain Meta veut identifier «dans les prochains mois» toute image générée par l'intelligence artificielle (IA) qui sera publiée sur ses réseaux sociaux, une décision prise sur fond de lutte contre la désinformation, au début d'une année riche en scrutins électoraux.
Si le groupe a déjà mis en place ces étiquettes sur les images créées à partir de son outil Meta AI lancé en décembre, «nous voulons pouvoir le faire aussi avec des contenus créés avec des outils d'autres entreprises» comme Google, OpenAI, Microsoft, Adobe, Midjourney ou encore Shutterstock, a-t-il ajouté.
Au-delà de ces scrutins, le développement de programmes d'IA générative s'accompagne de la production d'un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l'image des fausses images («deepfakes») pornographiques de femmes célèbres, phénomène qui vise également des anonymes.
Une fausse image de la superstar américaine Taylor Swift a par exemple été vue 47 millions de fois sur X (ex-Twitter) fin janvier avant d'être supprimée. Selon les médias américains, la publication est restée en ligne sur la plateforme pendant environ 17 heures.
Nick Clegg admet que cet étiquetage à grande échelle «n'éliminera pas» totalement le risque de production de fausses images, mais, selon lui, «cela minimiserait certainement» sa prolifération «dans les limites de ce que la technologie permet actuellement».
OpenAI, qui a crée ChatGPT, a également annoncé mi-janvier le lancement d'outils pour combattre la désinformation, soulignant que son générateur d'images DALL-E 3 contient des «garde-fous» pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats, à des fins politiques. (ats/jch)