
Mark Zuckerberg, le fondateur et PDG de Meta, lors d'une présentation au siège de son entreprise, en Californie.Keystone
Cette annonce survient alors que l'essor de l'IA générative fait craindre que des personnes n'utilisent ces outils pour semer le chaos politique, surtout à l'approche de plusieurs élections majeures cette année, dont aux Etats-Unis.
06.02.2024, 23:3407.02.2024, 11:36
Le géant américain Meta veut identifier «dans les prochains mois» toute image générée par l'intelligence artificielle (IA) qui sera publiée sur ses réseaux sociaux, une décision prise sur fond de lutte contre la désinformation, au début d'une année riche en scrutins électoraux.
«Dans les prochains mois, nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads» lorsque nous pourrons détecter des signaux conformes aux normes de l'industrie montrant qu'elles sont générées par l'IA»
Nick Clegg, le responsable des affaires internationales de Meta
Si le groupe a déjà mis en place ces étiquettes sur les images créées à partir de son outil Meta AI lancé en décembre, «nous voulons pouvoir le faire aussi avec des contenus créés avec des outils d'autres entreprises» comme Google, OpenAI, Microsoft, Adobe, Midjourney ou encore Shutterstock, a-t-il ajouté.
«Nous sommes en train de construire cette capacité dès maintenant, et dans les mois à venir, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application»
Nick Clegg
Au-delà de ces scrutins, le développement de programmes d'IA générative s'accompagne de la production d'un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l'image des fausses images («deepfakes») pornographiques de femmes célèbres, phénomène qui vise également des anonymes.
Lorsque l'IA génère des dégâts:
Une fausse image de la superstar américaine Taylor Swift a par exemple été vue 47 millions de fois sur X (ex-Twitter) fin janvier avant d'être supprimée. Selon les médias américains, la publication est restée en ligne sur la plateforme pendant environ 17 heures.
«Tatouage» numérique
Nick Clegg admet que cet étiquetage à grande échelle «n'éliminera pas» totalement le risque de production de fausses images, mais, selon lui, «cela minimiserait certainement» sa prolifération «dans les limites de ce que la technologie permet actuellement».
«Concrètement comment ça marche? Outre le placement de marqueurs visibles sur les images générées par l'IA, Meta utilise aussi la technologie du watermarking, une forme de tatouage numérique qui consiste à insérer une marque invisible à l'intérieur de l'image générée par l'IA pour qu'elle soit détectée par ses réseaux sociaux.»
Gaëtan Le Guelvouit, expert en tatouage numérique
OpenAI, qui a crée ChatGPT, a également annoncé mi-janvier le lancement d'outils pour combattre la désinformation, soulignant que son générateur d'images DALL-E 3 contient des «garde-fous» pour empêcher les utilisateurs de générer des images de personnes réelles, notamment de candidats, à des fins politiques. (ats/jch)
Le deepfake de Zelensky et Poutine dans un Tarantinorious Basterds
Video: watson
Ceci pourrait également vous intéresser:
Celia souffre d'un trouble du deuil prolongé. L'OMS considère depuis peu cet état comme un mal en soi. Cependant, des voix s'élèvent contre une trop forte augmentation des diagnostics.
Celia Healy-Knight est assise dans son bureau pendant que nous conversons par Zoom. «Je peux te montrer une photo de Matt?», demande-t-elle d'emblée. Elle brandit une photo de son défunt mari devant la caméra. On le voit en train de chanter dans un petit club du coin de la rue. «Il était comme ça», décrit-elle, «toujours joyeux, plein de vie». La musique était leur passion commune.