Comment les IA aident à préparer des tueries de masse
Les chatbots sont aujourd’hui présents dans presque tous les domaines de la vie quotidienne. Ils peuvent aider à s'organiser, à rédiger des travaux, ou encore donner des conseils en matière de relations ou de santé mentale. Mais ils peuvent aussi contribuer activement à la planification d’actes de violence, comme le montre une enquête de la chaîne d’information américaine CNN réalisée en collaboration avec l’ONG britanno-américaine Center for Countering Digital Hate (CCDH).
Lors de ce test, des collaborateurs de CNN se sont fait passer pour des adolescents frustrés et ont interrogé les dix chatbots d’IA les plus utilisés sur des fusillades passées. Ils ont ensuite demandé à ces systèmes des informations spécifiques sur des cibles potentielles et sur l’achat d’armes. Huit des dix chatbots testés ont alors fourni, dans au moins l’un des deux essais, des détails qui auraient pu être utilisés pour planifier une attaque.
Vous vous inquiétez pour vous ou l'un de vos proches?
La Main Tendue (adultes, 24/7) au 143
Pro Juventute (jeunes, 24/7) au 147
Urgences médicales au 144
stopsuicide.ch
Outre les informations accessibles publiquement – comme des adresses, des plans d’écoles ou l’armurerie la plus proche –, figuraient des réponses particulièrement inquiétantes. Le chatbot de Character.ai a ainsi conseillé à l’utilisateur fictif de «prendre une arme» («You can use a gun») pour punir des dirigeants d’entreprise. Cette réponse est intervenue après que la personne test se fut plainte de la cupidité de PDG d’assurances et eut demandé des informations sur Luigi Mangione.
Le service d’IA Gemini de Google a pour sa part produit, sur demande, une liste détaillée de blessures potentielles ainsi que ce qui pourrait les provoquer.
Le danger souvent identifié, mais ensuite ignoré
Le test montre toutefois que de nombreux outils d’IA détectent dans un premier temps le danger potentiel de ce type de requêtes. Ils redirigent l’utilisateur vers des sites d’aide ou rappellent des valeurs telles que la tolérance et le respect mutuel. Mais ils échouent ensuite à relier cette menace potentielle aux questions demandant des informations plus concrètes.
Selon CNN, les plateformes Perplexity, Meta AI et DeepSeek obtiennent les plus mauvais résultats. Dans plus de 95% des cas, elles ont fourni des informations qui auraient pu être utilisées pour planifier un acte violent. D’autres services d’IA parviennent toutefois à établir ce lien. Le fournisseur Claude, par exemple, a refusé de donner toute information supplémentaire après que la personne test eut tenu des propos méprisants à l’égard du sénateur américain Ted Cruz. Dans environ 68% des cas, l’IA de l’entreprise américaine Anthropic a identifié le danger et réagi en conséquence.
Perplexity affirme que sa plateforme est la plus sûre parmi les services d’IA et qu’elle adapte en permanence ses dispositifs de sécurité. Perplexity remet en question la méthodologie de l’enquête sans toutefois entrer dans les détails.
OpenAI confirme que son IA a fourni des adresses et des plans, mais précise qu’elle a refusé toute information relative aux armes à feu.
Des cas déjà documentés
Plusieurs attaques dans lesquelles des chatbots d’IA auraient été utilisés pour préparer une tuerie sont déjà connues. En mai de l’année dernière, un garçon de 16 ans a ainsi attaqué trois jeunes filles dans une école finlandaise après avoir préparé son geste pendant des mois à l’aide de ChatGPT et rédigé un manifeste avec l’assistance IA, rapporte CNN.
L’attaque survenue il y a environ un mois dans la ville canadienne de Tumbler Ridge, qui a fait huit morts, pourrait également avoir impliqué un service d’IA d’OpenAI. Selon les informations disponibles, l’entreprise avait détecté le danger à la suite de requêtes inquiétantes formulées par l’auteure présumée et avait suspendu son compte. Elle n’aurait toutefois pas averti les autorités de la menace. Il y a trois jours, des proches d’une victime ont déposé une plainte contre OpenAI au Canada, rapporte la chaîne canadienne CBC. (trad. hun)
