Les logiciels pirates boostés à l'IA débarquent: ce qu'il faut savoir
La société slovaque de sécurité informatique Eset a fait la Une des journaux cette semaine avec son enquête sur un nouveau logiciel malveillant baptisé «PromptLock».
Les experts d'Eset ont découvert et examiné «le premier ransomware connu à fonctionner grâce à l'IA». Peu après, l'américaine Anthropix, aussi active dans le domaine de l'intelligence artificielle, a signalé un cas de cybercriminalité basé sur l'IA.
watson a voulu en savoir davantage.
D'où vient PromptLock?
Mystère.
Des détails techniques sur PromptLock ont été publiés cette semaine sur le blog de l'entreprise Eset. Un inconnu a alors affirmé sur X qu'il s'agissait de son propre projet, divulgué contre son gré d'une manière ou d'une autre.
Cela corrobore les conclusions actuelles des chercheurs en sécurité informatique. Ils estiment que PromptLock est ce qu'on appelle une «preuve de concept» (PoC), c'est-à-dire que quelqu'un a voulu prouver qu'un tel logiciel malveillant peut réellement fonctionner.
Sous le pseudonyme «Ivan», un usager de X explique qu'il avait déjà publié un message à ce sujet en mai:
Comment fonctionne le ransomware avec IA?
Le logiciel utilise un modèle linguistique d'OpenAI pour générer des scripts malveillants, puis les exécuter. Cela lui permet d'«exfiltrer» des données sur l'ordinateur d'une victime, c'est-à-dire de les copier et de les voler incognito, de les crypter, voire même de les détruire.
Le modèle linguistique (gpt-oss:20b) marche grâce à un serveur de l'attaquant. Une fois lancé, il génère des scripts malveillants via une interface de programmation (API Ollama). Ceux-ci sont implémentés dans le langage de script indépendant de la plateforme Lua («lune» en portugais).
Les instructions circulent du serveur pirate à l'ordinateur de la victime via une connexion internet cryptée (un proxy ou un tunnel) et peuvent alors être exécutées. Le ransomware, qu'il faut installer discrètement sur l'ordinateur cible afin de télécharger les scripts, est écrit dans le langage multiplateforme Golang. Les chercheurs en sécurité d'Eset en ont identifié des variantes Windows et Linux.
Le code source en question avait été téléchargé (par des inconnus) sur VirusTotal. Il s'agit d'une plateforme populaire dans le milieu permettant d'analyser des fichiers et des URL à la recherche de virus et autres logiciels malveillants. Voilà comment PromptLock a été découvert.
Une multiplication des cas
Les sociétés de développement à l'origine des grands modèles linguistiques tentent de doter leurs logiciels de moyens sophistiqués de lutter contre les utilisations abusives. Dans le cadre d'attaques dites «prompt injection», les cybercriminels donnent des instructions malveillantes aux chatbots IA pour atteindre leur objectif malgré tout.
La découverte de PromptLock est une preuve supplémentaire qu'avec suffisamment d'énergie criminelle, on peut contourner les mesures de protection en place.
Pour les chercheurs d'Eset:
Dans un récent article sur PromptLock, le média américain BleepingComputer souligne que des experts ukrainiens avaient déjà découvert en juillet un logiciel malveillant basé sur l'IA appelé LameHug.
Pour ses attaques, il utilisait une interface de programmation vers la célèbre plateforme de développement d'IA Hugging Face et un modèle linguistique du groupe chinois Alibaba (Qwen-2.5-Coder-32B). De quoi générer des commandes shell pour le système d'exploitation Windows sur l'ordinateur de la victime.
LameHug aurait été utilisé par des hackers d'élite russes, le groupe APT28 (alias Fancy Bear), qui appartiendrait aux services secrets militaires.
La société américaine Anthropic a annoncé mercredi avoir suspendu les comptes de deux utilisateurs malveillants. Ils auraient utilisé le chatbot IA «Claude» de l'entreprise pour commettre un vol de données à large échelle et extorquer des données personnelles à au moins 17 organisations. Les attaquants auraient développé plusieurs variantes de ransomware.
Marc Ruef: Son apparition ne me surprend pas. Mais je constate tout de même plusieurs couacs. On observe par exemple ce que l'on pourrait appeler du «vibe coding» de la part des développeurs. Le code est donc en majeure partie, ou dans ce cas, entièrement écrit par un grand modèle de langage (LLM pour Large Language Model). Celui-ci est loin d'être fiable et efficace. Surtout pour un logiciel malveillant, qui doit vraiment fonctionner de manière très optimisée dans certains cas. Les LLM actuels n'y parviennent pas pour l'heure. Et encore moins dans le domaine très spécial du développement de logiciels malveillants.
La combinaison d'un ransomware et d'une IA générative constitue-t-elle une nouveauté et une innovation?Cette apparition «dans la nature» est en effet nouvelle. Mais l'idée a émergé il y a plusieurs décennies. On a longtemps discuté et expérimenté pour savoir si et dans quelle mesure il était possible de générer des logiciels malveillants à l'aide de l'IA. Les résultats ont toutefois toujours été médiocres. Avec les progrès et l'optimisation des LLM, il faut en revanche s'attendre à des développements considérables dans ce domaine dans un futur proche. Mais on reste très loin d'une percée majeure de la part d'un développeur de logiciels malveillants hors pair.
Dans la pratique, quel danger est-ce que cela pourrait représenter?
L'IA permet aux cybercriminels de mieux atteindre leurs objectifs, et plus rapidement. Dans ce domaine néanmoins, elle aide avant tout les débutants à remporter leurs premiers succès sans trop d'efforts. Les barrières d'entrée sont ainsi tombées, et il faut s'attendre à voir se profiler des acteurs qui veulent aussi, leur part du gâteau. Mais leurs possibilités et donc leur succès seront naturellement limités. Tout comme on peut recourir à l'IA pour créer des logiciels malveillants, ces mécanismes peuvent par ailleurs servir à détecter, analyser et contrer ces mêmes outils. On s'attend par conséquent à un conflit de cybersécurité très axé sur l'IA.
(Traduit de l'allemand par Valentine Zenker)
