Pourquoi cette IA hyper-puissante doit être tenue secrète
Selon Anthropic, une entreprise américaine spécialisée dans l’intelligence artificielle, il ne s’agit plus de science-fiction, mais d’une réalité bien concrète. Une nouvelle intelligence artificielle est capable de détecter des failles de sécurité jusque-là inconnues, au cœur de logiciels qui font tourner notre monde moderne, et d’en faire, à l'aide d'une simple commande, de véritables cyberarmes.
Comment est-ce possible?
Que s’est-il passé?
L’entreprise américaine Anthropic a développé une intelligence artificielle présentée comme si puissante et dangereuse qu’elle ne peut pas être mise à disposition du grand public. Il s’agit d’un nouveau modèle de langage étendu (LLM) baptisé Claude Mythos Preview.
Selon Anthropic, la publication d’une IA de ce type ferait chuter le coût des cyberarmes très complexes, les faisant passer de plusieurs millions de dollars à quelques centaines seulement. Dans le même temps, le risque d’attaques dévastatrices augmenterait fortement.
Il convient bien sûr de prendre avec prudence les affirmations d’une entreprise à but lucratif, d’autant plus qu’Anthropic prévoit une introduction en bourse aux Etats-Unis cette année encore. Mais les informations communiquées dans la nuit de mardi à mercredi suscitent l’attention bien au-delà du secteur informatique. L’IA a notamment réussi à compromettre OpenBSD, un système d’exploitation réputé particulièrement sûr.
Plutôt que d’opter pour une présentation de produit classique, comme c’est l’usage dans la Silicon Valley, Anthropic a choisi une coopération inédite dans le domaine de la cybersécurité, baptisée Project Glasswing.
Si l'entreprise ne met pas sur le marché ce modèle d’intelligence jugé potentiellement dangereux, elle crée en revanche un environnement contrôlé dans lequel certains acteurs sélectionnés peuvent bénéficier de cette technologie. Il s’agit d’un consortium réunissant des entreprises technologiques américaines et des organisations à but non lucratif.
Pourquoi cela doit-il nous inquiéter?
La bonne nouvelle est que les acteurs sélectionnés par Anthropic obtiennent un accès exclusif à ce modèle d’IA très performant afin d’analyser et d’améliorer leurs propres systèmes, ceci avant que des cybercriminels ne passent à l’attaque à l’aide d’outils similaires. Pour cela, l’entreprise met à disposition l’équivalent de 100 millions de dollars de capacité de calcul.
Et la mauvaise nouvelle?
Malheureusement, il y en a plusieurs, dont la domination d’acteurs américains, et une sécurité basée sur le secret. Parmi les partenaires de la coalition Glasswing lancée par Anthropic figurent notamment:
- Les exploitants des plus grandes plateformes logicielles au monde, soit Apple, Google et Microsoft.
- Un acteur majeur des systèmes open source, la Linux Foundation.
- Des géants des infrastructures réseau tels qu'AWS (Amazon Web Services), Cisco ainsi que le fabricant de puces Nvidia.
- Des entreprises influentes en cybersécurité telles que CrowdStrike et Palo Alto Networks.
- La plus grande banque américaine, JPMorgan Chase.
Comme l’apprennent les étudiants en informatique, la security through obscurity (la sécurité par la dissimulation) n’est pas une stratégie durable face aux cyberattaques. Elle doit être remplacée par davantage de transparence et de traçabilité.
C'est qui est plus préoccupant encore, c'est que cette initiative renforce un monopole déjà existant. Une entreprise privée décide aujourd’hui qui peut accéder à ce qui est sans doute la technologie de cybersécurité la plus puissante du moment. Les petites entreprises, notamment en Europe, ou les chercheurs indépendants risquent-ils d’être laissés à l’écart?
Point positif, toutefois, selon Anthropic, l’accès ne sera pas limité aux seuls groupes américains mentionnés. Celui-ci doit être étendu à plus de 40 autres organisations qui développent ou maintienent des logiciels critiques. Un protocole doit empêcher la diffusion incontrôlée des failles découvertes, tout en garantissant que les capacités du modèle ne profitent pas uniquement aux géants de la tech.
Quel est le lien avec Donald Trump?
Une nouvelle IA très puissante, développée par une entreprise américaine, il y a là de quoi faire penser à America First, la doctrine du président américain.
On sait qu’Anthropic est engagé dans un bras de fer juridique avec l’administration Trump. En cause, le refus de la direction de l’entreprise menée par Dario Amodei d’accorder à l’armée américaine un accès illimité à ses logiciels.
La crainte est désormais que l’administration Trump classe Claude Mythos parmi les ressources relevant de la sécurité nationale. Dans le pire des cas, Anthropic devrait non seulement partager avec le Pentagone le travail de développement qu'elle a déjà accompli, mais également optimiser en priorité ce modèle d’IA pour les cyberforces américaines.
Rappelons que des concurrents d’Anthropic, comme OpenAI et Google, ont déjà conclu des accords avec le département américain de la Défense. Sous la présidence de Donald Trump, l’IA générative devrait être davantage utilisée pour des opérations militaires offensives à l’étranger, mais aussi pour la surveillance de masse sur le territoire américain.
Des observateurs indépendants soulignent toutefois que le Project Glasswing constitue également un signal politique. Anthropic met en place sa propre alliance avec des partenaires influents comme Apple, Microsoft ou la Linux Foundation. L’entreprise mise sur une architecture de sécurité mondiale portée par le secteur privé, plutôt que sur une course aux armements strictement nationale.
Un mince motif d’espoir est toutefois apparu en mars devant la justice. Une juge américaine a estimé que l’administration Trump ne pouvait pas simplement contraindre une entreprise privée à renoncer à sa «morale logicielle» au seul motif que cela servirait le département de la Défense.
Pour Anthropic, des acteurs privés puissants comme Apple seront sans doute particulièrement utiles. L’entreprise a bâti toute l'identité de sa marque sur la protection des données et la sécurité. Une attaque directe de l’administration Trump serait probablement combattue de toutes ses forces aussi à dans la Sylicon Valley.
Mais à moyen et long terme, la pression des services de renseignement américains devrait fortement s’accentuer. Et comme l’ont montré les révélations d’Edward Snowden, les entreprises concernées sont tenues au silence.
Pourquoi l’IA générative est-elle si dangereuse?
La direction d’Anthropic met en garde, depuis l’été 2025, — avec une insistance croissante — contre les risques de l’IA générative en matière de cybersécurité.
Le développement d’outils d’attaque informatique pour lesquels il n’existe pas encore de protection est considéré comme la «discipline reine» des hackers. Dans le jargon, on parle de zero day exploits. On peut aussi les qualifier de cyberarmes.
La programmation d’une telle cyberarme n’est en réalité que la dernière étape. Le plus crucial se joue en amont, où il faut repérer et analyser des failles de sécurité inconnues dans le code. Jusqu’ici, cela exigeait une compréhension approfondie des architectures informatiques, une grande patience et une part de chance.
Avec l’essor de l’intelligence artificielle générative, le niveau d’expertise requis et les efforts nécessaires pour détecter et exploiter ces vulnérabilités diminuent fortement. Les modèles de langage sont en effet particulièrement performants pour identifier des schémas.
Les dégâts que peuvent causer ces cyberarmes lorsqu’elles échappent à tout contrôle ou tombent entre de mauvaises mains ne sont pas théoriques. Des cas spectaculaires l’ont déjà montré, comme celui de Stuxnet, un projet secret américano-israélien, ou le logiciel malveillant russe NotPetya.
Quelle est la puissance de cette nouvelle IA?
L’entreprise écrit:
Dans le billet de blog publié par l’entreprise, il est question d’un «bond quantique» en matière de cybersécurité. Et cela pour les raisons suivantes:
- Taux de réussite massif. Lors de tests internes, le modèle d’IA a détecté des dizaines de milliers de failles, y compris dans tous les systèmes d’exploitation et des navigateurs web courants.
- L’IA a mis au jour des failles de sécurité dans le système OpeBSD, et qui étaient restées inaperçues pendant plus d’un quart de siècle. Ce système d’exploitation libre de type Unix était pourtant considéré comme l'un des plus sûrs au monde.
- Le modèle a également identifié des vulnérabilités jusque-là inconnues dans le noyau Linux, au cœur du logiciel open source qui fait fonctionner une grande partie des serveurs, des supercalculateurs et de l’infrastructure cloud à l’échelle mondiale.
- Chaînes d’attaque automatisées. Le modèle peut combiner de manière autonome plusieurs failles mineures en une chaîne d’attaque redoutablement efficace, potentiellement dévastatrice, afin de prendre le contrôle total d’un système.
Alors que le patron d’OpenAI, Sam Altman, a déjà évoqué, à plusieurs reprises, des «risques existentiels» pour alimenter l’engouement autour de l’IA, Anthropic avance désormais des éléments concrets montrant que Claude Mythos est déjà très avancé.
L’entreprise garde encore confidentiels de nombreux détails techniques concernant les failles découvertes, le temps que des partenaires comme Microsoft, Apple et Google déploient les correctifs de sécurité correspondants. Elle a toutefois publié sur son site des «hashes» cryptographiques — une forme d’horodatage numérique — permettant de vérifier ultérieurement que la nouvelle IA est bien à l’origine de ces découvertes.
Que disent les sources indépendantes?
Il n’existe pas encore de publication scientifique sur Claude Mythos évaluée par des tiers. Il existe toutefois déjà des rapports techniques qui permettent de situer de manière solide les capacités du modèle.
- Le rapport System Card, publié par Anthropic, est à ce stade considéré comme le principal document scientifique de référence. Le texte décrit le fonctionnement du nouveau modèle dans des conditions de laboratoire. Et il y déjà est question d’un «comportement préoccupant». Le phénomène est connu avec les agents d’IA. Le logiciel interagit avec son environnement et peut ainsi étendre sa portée. Apparemment, Claude Mythos a activement tenté de sortir des zones protégées nommées les sandboxes.
- Des procédures de test standardisées, déjà bien établies, ont confirmé la supériorité de l’IA sur les humains et sur d’autres modèles de langage.
- Microsoft a indiqué que cette nouvelle IA était capable de repérer des chaînes d’attaque à travers différentes couches logicielles.
- La Linux Foundation a publié un rapport de situation technique analysant les conséquences pour l’écosystème open source.
Y-a-t-il un lien entre les annonces et l’introduction en bourse d’Anthropic?
Selon plusieurs informations, Anthropic viserait au plus tôt une introduction en bourse au quatrième trimestre 2026. Pour réussir son entrée en bourse et vendre ses actions au prix le plus élevé possible, l’entreprise a besoin d’un récit convaincant, capable de justifier sa valorisation.
Il est important de noter que l’entreprise a été fondée sous le statut de Public Benefit Corporation (PBC). Cette forme juridique l’oblige aussi, légalement, à poursuivre un objectif d’intérêt public en plus de la recherche de profit.
Dario Amodei et sa sœur Daniela ont fondé Anthropic en 2021 avec d’anciens employés d’OpenAI, estimant que l’accent mis sur la sécurité y était insuffisant. Ils semblent vouloir poursuivre cette stratégie de manière cohérente, y compris face au département américain de la Défense.
Dans le même temps, l’administration Trump, à l’approche des élections de mi-mandat à l’automne, est sous pression pour maintenir la stabilité économique. Saboter l’une des plus grandes introductions en bourse technologiques de l’histoire par des mesures agressives risquerait de déstabiliser les marchés à l’échelle mondiale.
Et maintenant?
L'entreprise écrit:
La courte histoire de l’intelligence artificielle générative laisse penser qu’il ne s’agit que d’une question de temps avant que des concurrents d’Anthropic ou des acteurs soutenus par des Etats ne rattrapent leur retard.
Dans sa dernière communication, l’entreprise avance aussi une perspective plus positive:
Dans le même sens, un rapport de la Fondation Linux souligne que Claude Mythos ne se contente pas de détecter des failles, mais propose dans de nombreux cas des correctifs fonctionnels. De quoi, à moyen terme, alléger la charge de travail des spécialistes humains.
Traduit de l'allemand par Joel Espi
