
Jusqu'où peut aller le logiciel malveillant PromptLock, basé sur l'IA?Image: watson
Un nouveau type de logiciel malveillant guidé par l'IA générative serait capable d'attaquer Windows, Linux et Mac. L'expert suisse en sécurité informatique Marc Ruef fait le point.
30.08.2025, 13:0530.08.2025, 21:25
La société slovaque de sécurité informatique Eset a fait la Une des journaux cette semaine avec son enquête sur un nouveau logiciel malveillant baptisé «PromptLock».
Les experts d'Eset ont découvert et examiné «le premier ransomware connu à fonctionner grâce à l'IA». Peu après, l'américaine Anthropix, aussi active dans le domaine de l'intelligence artificielle, a signalé un cas de cybercriminalité basé sur l'IA.
watson a voulu en savoir davantage.
D'où vient PromptLock?
Mystère.
Des détails techniques sur PromptLock ont été publiés cette semaine sur le blog de l'entreprise Eset. Un inconnu a alors affirmé sur X qu'il s'agissait de son propre projet, divulgué contre son gré d'une manière ou d'une autre.
Cela corrobore les conclusions actuelles des chercheurs en sécurité informatique. Ils estiment que PromptLock est ce qu'on appelle une «preuve de concept» (PoC), c'est-à-dire que quelqu'un a voulu prouver qu'un tel logiciel malveillant peut réellement fonctionner.
Sous le pseudonyme «Ivan», un usager de X explique qu'il avait déjà publié un message à ce sujet en mai:

Son précédent message était adressé à VX Underground, un célèbre site de hackers.capture d'écran: x.com
Comment fonctionne le ransomware avec IA?
Le logiciel utilise un modèle linguistique d'OpenAI pour générer des scripts malveillants, puis les exécuter. Cela lui permet d'«exfiltrer» des données sur l'ordinateur d'une victime, c'est-à-dire de les copier et de les voler incognito, de les crypter, voire même de les détruire.
Le modèle linguistique (gpt-oss:20b) marche grâce à un serveur de l'attaquant. Une fois lancé, il génère des scripts malveillants via une interface de programmation (API Ollama). Ceux-ci sont implémentés dans le langage de script indépendant de la plateforme Lua («lune» en portugais).
Les instructions circulent du serveur pirate à l'ordinateur de la victime via une connexion internet cryptée (un proxy ou un tunnel) et peuvent alors être exécutées. Le ransomware, qu'il faut installer discrètement sur l'ordinateur cible afin de télécharger les scripts, est écrit dans le langage multiplateforme Golang. Les chercheurs en sécurité d'Eset en ont identifié des variantes Windows et Linux.
Le code source en question avait été téléchargé (par des inconnus) sur VirusTotal. Il s'agit d'une plateforme populaire dans le milieu permettant d'analyser des fichiers et des URL à la recherche de virus et autres logiciels malveillants. Voilà comment PromptLock a été découvert.
Une multiplication des cas
Les sociétés de développement à l'origine des grands modèles linguistiques tentent de doter leurs logiciels de moyens sophistiqués de lutter contre les utilisations abusives. Dans le cadre d'attaques dites «prompt injection», les cybercriminels donnent des instructions malveillantes aux chatbots IA pour atteindre leur objectif malgré tout.
La découverte de PromptLock est une preuve supplémentaire qu'avec suffisamment d'énergie criminelle, on peut contourner les mesures de protection en place.
Pour les chercheurs d'Eset:
«Quelle que soit l'intention derrière PromptLock, sa découverte montre comment on parvient à automatiser différentes phases des attaques par ransomware grâce à l'IA et ses outils, de la reconnaissance à l'exfiltration de données à une vitesse et à une échelle autrefois considérées comme impossibles.»
source: welivesecurity.com
Dans un récent article sur PromptLock, le média américain BleepingComputer souligne que des experts ukrainiens avaient déjà découvert en juillet un logiciel malveillant basé sur l'IA appelé LameHug.
Pour ses attaques, il utilisait une interface de programmation vers la célèbre plateforme de développement d'IA Hugging Face et un modèle linguistique du groupe chinois Alibaba (Qwen-2.5-Coder-32B). De quoi générer des commandes shell pour le système d'exploitation Windows sur l'ordinateur de la victime.
LameHug aurait été utilisé par des hackers d'élite russes, le groupe APT28 (alias Fancy Bear), qui appartiendrait aux services secrets militaires.
La société américaine Anthropic a annoncé mercredi avoir suspendu les comptes de deux utilisateurs malveillants. Ils auraient utilisé le chatbot IA «Claude» de l'entreprise pour commettre un vol de données à large échelle et extorquer des données personnelles à au moins 17 organisations. Les attaquants auraient développé plusieurs variantes de ransomware.
L'avis d'un expert suisse
Sur la base des informations dont on dispose, que pouvez-vous nous dire sur ce logiciel?
Marc Ruef: Son apparition ne me surprend pas. Mais je constate tout de même plusieurs couacs. On observe par exemple ce que l'on pourrait appeler du «vibe coding» de la part des développeurs. Le code est donc en majeure partie, ou dans ce cas, entièrement écrit par un grand modèle de langage (LLM pour Large Language Model). Celui-ci est loin d'être fiable et efficace. Surtout pour un logiciel malveillant, qui doit vraiment fonctionner de manière très optimisée dans certains cas. Les LLM actuels n'y parviennent pas pour l'heure. Et encore moins dans le domaine très spécial du développement de logiciels malveillants.
La combinaison d'un ransomware et d'une IA générative constitue-t-elle une nouveauté et une innovation?Cette apparition «dans la nature» est en effet nouvelle. Mais l'idée a émergé il y a plusieurs décennies. On a longtemps discuté et expérimenté pour savoir si et dans quelle mesure il était possible de générer des logiciels malveillants à l'aide de l'IA. Les résultats ont toutefois toujours été médiocres. Avec les progrès et l'optimisation des LLM, il faut en revanche s'attendre à des développements considérables dans ce domaine dans un futur proche. Mais on reste très loin d'une percée majeure de la part d'un développeur de logiciels malveillants hors pair.
Dans la pratique, quel danger est-ce que cela pourrait représenter?
L'IA permet aux cybercriminels de mieux atteindre leurs objectifs, et plus rapidement. Dans ce domaine néanmoins, elle aide avant tout les débutants à remporter leurs premiers succès sans trop d'efforts. Les barrières d'entrée sont ainsi tombées, et il faut s'attendre à voir se profiler des acteurs qui veulent aussi, leur part du gâteau. Mais leurs possibilités et donc leur succès seront naturellement limités. Tout comme on peut recourir à l'IA pour créer des logiciels malveillants, ces mécanismes peuvent par ailleurs servir à détecter, analyser et contrer ces mêmes outils. On s'attend par conséquent à un conflit de cybersécurité très axé sur l'IA.

Marc Ruef est expert en sécurité informatique, conférencier, auteur, ancien hacker et cofondateur de Scip AG.Image:
(Traduit de l'allemand par Valentine Zenker)
Pour les amateurs de cybersécurité
Parce qu'elle est partout, voici des images générées par IA
1 / 12
Parce qu'elle est partout, voici des images générées par IA
Un Trump généré par l'IA, en pleine séance d'Ayahuasca dans la jungle.
source: reddit
Copin comme cochon: les cyberattaques
Video: watson
Ceci pourrait également vous intéresser:
Aux Etats-Unis, les universités populaires sont la cible de plus en plus récurrente de faux appels d'alerte à la police. L'objectif: faire croire à une situation d'urgence afin de provoquer une réponse armée des forces de l'ordre. Zoom sur cette mauvaise blague et ses dangers.
Des étudiants de Caroline du Sud ont été pris de panique lorsqu'ils ont vu la
police débouler sur leur campus: il s'agit d'une fausse alerte comme il y en a de plus en plus dans les universités américaines.