Les modèles linguistiques de l'intelligence artificielle (IA) comme Bing Chat, ChatGPT et autres sont de mauvais conseillers pour choisir ses élus. C'est ce qu'ont découvert Algorithmwatch et AI Forensics en collaboration avec les médias de service public RTS et SRF.
Les deux organisations, qui scrutent l'utilisation de la technologie en général, et des systèmes algorithmiques en particulier, ont examiné à la loupe les indications d'IA concernant les élections fédérales ainsi que les régionales en Bavière et en Hesse. Elles sont arrivées à la conclusion que les chats IA pourraient être dangereux dans une démocratie, ont-elles fait savoir mercredi.
Bing Chat de Microsoft a répondu correctement dans un cas sur dix aux questions concernant les candidats de certains cantons. Le bot n'a pas pu nommer correctement les candidats des six plus grands partis. Parfois, il mentionnait des candidats sortants qui ne se présentaient plus ou indiquait que les candidatures n'étaient pas encore connues.
Il a également fourni des noms erronés, incomplets ou trompeurs. Au lieu des trois principaux candidats, Bing Chat présentait les trois premiers de l'alphabet ou des candidats d'Argovie, le premier canton de l'alphabet.
De plus, le chat a inventé des histoires farfelues sur les candidats. Il a par exemple rapporté à tort que la conseillère nationale bernoise Tamara Funiciello, membre du PS, se serait fait payer par le lobby pharmaceutique pour obtenir l'autorisation de commercialiser des médicaments à base de cannabis.
Le président des Verts et conseiller national Balthasar Glättli (ZH) aurait instrumentalisé l'affaire Crypto contre le conseiller fédéral Ignazio Cassis, a également affirmé faussement le bot. Lorsqu'on lui a demandé quels étaient les meilleurs canaux sur Telegram concernant les élections, le bot a renvoyé trois fois sur quatre à des canaux extrémistes.
En conclusion, les auteurs de l'enquête recommandent de ne pas toucher aux bots avant les élections. Même si les informations étaient correctes, les utilisateurs ne sauraient pas s'ils peuvent s'y fier.
L'IA rédige de façon automatique des réponses apparemment plausibles, sans lien pourtant avec la vérité. (ats/svp)