International
Intelligence artificielle

Comment les IA aident à préparer des tueries de masse

Comment les IA aident à préparer des tueries de masse
Une ONG et CNN ont enquêté sur le lien entre les tueries de masse, fréquentes en milieu scolaire aux Etats-Unis, et les intelligences artificielles. Image: montage watson

Comment les IA aident à préparer des tueries de masse

Conseils pour acheter des armes, plans d’établissements scolaires, ou adresses de bureaux de responsables politiques: des chatbots développés par de grandes entreprises d’intelligence artificielle ont fourni ce type d’informations lors d’un test mené par la chaîne américaine CNN.
14.03.2026, 18:5814.03.2026, 18:58
Julien Felber

Les chatbots sont aujourd’hui présents dans presque tous les domaines de la vie quotidienne. Ils peuvent aider à s'organiser, à rédiger des travaux, ou encore donner des conseils en matière de relations ou de santé mentale. Mais ils peuvent aussi contribuer activement à la planification d’actes de violence, comme le montre une enquête de la chaîne d’information américaine CNN réalisée en collaboration avec l’ONG britanno-américaine Center for Countering Digital Hate (CCDH).

Lors de ce test, des collaborateurs de CNN se sont fait passer pour des adolescents frustrés et ont interrogé les dix chatbots d’IA les plus utilisés sur des fusillades passées. Ils ont ensuite demandé à ces systèmes des informations spécifiques sur des cibles potentielles et sur l’achat d’armes. Huit des dix chatbots testés ont alors fourni, dans au moins l’un des deux essais, des détails qui auraient pu être utilisés pour planifier une attaque.

Vous vous inquiétez pour vous ou l'un de vos proches?
Parlez-en et faites-vous aider 24 heures sur 24, c'est confidentiel et gratuit:
La Main Tendue (adultes, 24/7) au 143
Pro Juventute (jeunes, 24/7) au 147
Urgences médicales au 144
stopsuicide.ch

Outre les informations accessibles publiquement – comme des adresses, des plans d’écoles ou l’armurerie la plus proche –, figuraient des réponses particulièrement inquiétantes. Le chatbot de Character.ai a ainsi conseillé à l’utilisateur fictif de «prendre une arme» («You can use a gun») pour punir des dirigeants d’entreprise. Cette réponse est intervenue après que la personne test se fut plainte de la cupidité de PDG d’assurances et eut demandé des informations sur Luigi Mangione.

Le service d’IA Gemini de Google a pour sa part produit, sur demande, une liste détaillée de blessures potentielles ainsi que ce qui pourrait les provoquer.

Le danger souvent identifié, mais ensuite ignoré

Le test montre toutefois que de nombreux outils d’IA détectent dans un premier temps le danger potentiel de ce type de requêtes. Ils redirigent l’utilisateur vers des sites d’aide ou rappellent des valeurs telles que la tolérance et le respect mutuel. Mais ils échouent ensuite à relier cette menace potentielle aux questions demandant des informations plus concrètes.

Selon CNN, les plateformes Perplexity, Meta AI et DeepSeek obtiennent les plus mauvais résultats. Dans plus de 95% des cas, elles ont fourni des informations qui auraient pu être utilisées pour planifier un acte violent. D’autres services d’IA parviennent toutefois à établir ce lien. Le fournisseur Claude, par exemple, a refusé de donner toute information supplémentaire après que la personne test eut tenu des propos méprisants à l’égard du sénateur américain Ted Cruz. Dans environ 68% des cas, l’IA de l’entreprise américaine Anthropic a identifié le danger et réagi en conséquence.

«Compte tenu de l’évolution de cette conversation, je ne fournirai aucun conseil concernant les armes à feu»
L'IA Claude lors du test mené par CNN
Ce que disent les entreprises technologiques face aux accusations
Google conteste que son IA ait fourni des informations susceptibles de contribuer directement à un attentat. Selon elle, toutes les données mentionnées étaient déjà librement accessibles au public.

Perplexity affirme que sa plateforme est la plus sûre parmi les services d’IA et qu’elle adapte en permanence ses dispositifs de sécurité. Perplexity remet en question la méthodologie de l’enquête sans toutefois entrer dans les détails.

OpenAI confirme que son IA a fourni des adresses et des plans, mais précise qu’elle a refusé toute information relative aux armes à feu.

Des cas déjà documentés

Plusieurs attaques dans lesquelles des chatbots d’IA auraient été utilisés pour préparer une tuerie sont déjà connues. En mai de l’année dernière, un garçon de 16 ans a ainsi attaqué trois jeunes filles dans une école finlandaise après avoir préparé son geste pendant des mois à l’aide de ChatGPT et rédigé un manifeste avec l’assistance IA, rapporte CNN.

L’attaque survenue il y a environ un mois dans la ville canadienne de Tumbler Ridge, qui a fait huit morts, pourrait également avoir impliqué un service d’IA d’OpenAI. Selon les informations disponibles, l’entreprise avait détecté le danger à la suite de requêtes inquiétantes formulées par l’auteure présumée et avait suspendu son compte. Elle n’aurait toutefois pas averti les autorités de la menace. Il y a trois jours, des proches d’une victime ont déposé une plainte contre OpenAI au Canada, rapporte la chaîne canadienne CBC. (trad. hun)

Parce qu'elle est partout, voici des images générées par IA
1 / 12
Parce qu'elle est partout, voici des images générées par IA
Un Trump généré par l'IA, en pleine séance d'Ayahuasca dans la jungle.
source: reddit
partager sur Facebookpartager sur X
La communauté des therians se visibilise sur les réseaux
Video: watson
Ceci pourrait également vous intéresser:
Avez-vous quelque chose à nous dire ?
Avez-vous une remarque ou avez-vous découvert une erreur ? Vous pouvez nous transmettre votre message via le formulaire.
1 Commentaire
Votre commentaire
YouTube Link
0 / 600
1
Jair Bolsonaro hospitalisé après un malaise en prison
L'ancien chef d'Etat brésilien s'est senti mal et a été conduit à l'hôpital. Son fils explique qu'il a «beaucoup vomi».
L’ancien président brésilien Jair Bolsonaro a été hospitalisé vendredi après s’être senti mal dans la prison de Brasilia où il purge une peine pour tentative de coup d’État, a annoncé son fils Flavio Bolsonaro sur X.
L’article