International
Intelligence artificielle

Anthropic refuse le contrat d’IA à l’armée américaine

Pages from the Anthropic website and the company's logos are displayed on a computer screen in New York on Thursday, Feb. 26, 2026. (AP Photo/Patrick Sison)
Anthropic
Le Pentagone a choisi vendredi les modèles d'intelligence artificielle d'OpenAI au détriment d'Anthropic.Keystone

Anthropic dit non à l’armée et OpenAI décroche le contrat d’IA

La start-up Anthropic a choisi de ne pas permettre au Pentagone d’utiliser ses modèles d’IA sans restrictions, invoquant des raisons éthiques et la sécurité des militaires.
28.02.2026, 09:3028.02.2026, 09:30

Le Pentagone a choisi vendredi les modèles d'intelligence artificielle d'OpenAI au détriment d'Anthropic, qui avait refusé d'ouvrir les siens sans restrictions à l'armée américaine au nom de l'éthique.

«Ce soir, nous avons conclu un accord avec le ministère de la Guerre afin de déployer nos modèles dans leur réseau classifié», a écrit sur X le patron d'OpenAI, Sam Altman, en employant le nom donné par l'administration Trump à son ministère de la Défense.

OpenAI’s CEO Sam Altman speaks at the AI Summit in New Delhi, India, Thursday, Feb. 19, 2026. (AP Photo)
Sam Altman
Sam Altman.Keystone

Selon Altman, cet accord intègre «l'interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes», soit exactement les mêmes lignes rouges que celles posées auparavant par Anthropic pour que le Pentagone puisse utiliser ses modèles d'IA. Il poursuit:

«Nous mettrons également en place des garanties techniques pour nous assurer que nos modèles se comportent comme ils le devraient, ce que le ministère de la Guerre souhaitait également»
Sam Altman

Cette annonce intervient quelques heures après l'ordre donné par Donald Trump à son administration de «cesser immédiatement toute utilisation» de l'IA d'Anthropic, Claude.

«Nous n'en avons pas besoin, nous n'en voulons pas, et nous ne travaillerons plus avec eux», a tonné le président américain sur sa plateforme Truth Social.

«Leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale», a accusé Trump. En majuscule, il ajoute:

«Les Etats-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres!»
Trump

Pete Hegsteh fustige les «caprices idéologiques»

Le ministre de la Défense Pete Hegseth a, lui, accusé Anthropic de «trahison», fustigé les «caprices idéologiques des géants de la tech» et banni l'entreprise de toute collaboration directe ou indirecte avec l'armée américaine.

Se disant «profondément attristée» par cette décision, Anthropic a estimé dans un communiqué que «cette désignation serait à la fois juridiquement infondée et créerait un précédent dangereux pour toute entreprise américaine négociant avec le gouvernement». Elle a promis de saisir la justice. Elle assure:

«Aucune intimidation ni sanction de la part du ministère de la Guerre ne changera notre position»

Anthropic avait refusé jeudi de céder à un ultimatum de Pete Hegseth exigeant qu'elle accorde à l'armée américaine une utilisation sans restriction de Claude.

«Dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques, plutôt que les défendre», avait défendu son patron Dario Amodei, qui avait signé en juin un contrat de 200 millions de dollars avec le gouvernement américain.

«Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques», avait-il ajouté.

Le dirigeant quadragénaire insiste sur le fait que les systèmes les plus avancés d'IA ne sont pas encore fiables au point de leur confier le pouvoir de contrôler des armes mortelles – et donc de tuer – sans une supervision humaine en dernier ressort.

Les armes entièrement autonomes «doivent être déployées avec des garde-fous appropriés, qui n'existent pas aujourd'hui», avait estimé Dario Amodei.

«Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger»
Dario Amodei

Fondée en 2021 par des anciens d'OpenAI, Anthropic a toujours revendiqué une approche éthique de l'IA.

Début 2026, la start-up a publié un document appelé constitution qui détaille une série d'instructions données à Claude pour encadrer sa production. Elles visent notamment à «empêcher des actions à la dangerosité inappropriée».

En annonçant l'accord d'OpenAI avec le Pentagone, Sam Altman a dit avoir demandé au ministère «d'offrir ces mêmes conditions à toutes les entreprises d'IA».

«Nous avons exprimé notre vif souhait de voir les choses s'apaiser, loin des actions juridiques et gouvernementales, pour aboutir à des accords raisonnables», a-t-il écrit. (tib/ats)

Parce qu'elle est partout, voici des images générées par IA
1 / 12
Parce qu'elle est partout, voici des images générées par IA
Un Trump généré par l'IA, en pleine séance d'Ayahuasca dans la jungle.
source: reddit
partager sur Facebookpartager sur X
Seedance 2.0: l'IA de Bytedance fait de l'ombre à Google et OpenAi
Video: watson
Ceci pourrait également vous intéresser:
Avez-vous quelque chose à nous dire ?
Avez-vous une remarque ou avez-vous découvert une erreur ? Vous pouvez nous transmettre votre message via le formulaire.
0 Commentaires
Votre commentaire
YouTube Link
0 / 600
L'IA de ce supermarché se prenait pour un humain
Le détaillant australien Woolworths a dû freiner Olive, son assistant alimenté par l'intelligence artificielle. Selon des utilisateurs, celui-ci prétendait «être une personne réelle».
Le géant australien de la grande distribution Woolworths a dû freiner son assistant clientèle alimenté par intelligence artificielle (IA). Cette mesure fait suite à des signalements d'utilisateurs assurant que la machine divaguait à propos de sa mère.
L’article