Un moment charnière pour la sécurité offensive assistée par l’IA
Google affirme avoir identifié ce qu’il décrit comme le premier cas connu d’un attaquant ayant utilisé l’intelligence artificielle pour découvrir et transformer en arme une vulnérabilité zero-day. Selon le reportage consacré à un nouveau rapport du Google Threat Intelligence Group, l’entreprise dit avoir stoppé la cyberattaque massive prévue avant qu’elle ne puisse être menée à bien.
Si cette évaluation se confirme, elle marque une transition importante dans le paysage de la cybersécurité. Les chercheurs en sécurité s’attendent depuis longtemps à ce que les grands modèles de langage et les systèmes d’IA associés deviennent utiles pour la recherche offensive de vulnérabilités. L’enjeu ici n’est pas que l’IA puisse un jour aider les attaquants. C’est qu’une grande équipe de renseignement sur les menaces affirme désormais avoir observé ce seuil franchi dans un cas réel.
Ce que Google dit avoir découvert
Le rapport résumé par The Decoder décrit des attaquants utilisant l’IA à grande échelle pour des opérations cyber. L’affirmation la plus marquante est le cas zero-day lui-même : un acteur malveillant aurait utilisé l’IA pour découvrir et transformer en arme une vulnérabilité jusque-là inconnue. Google dit que la campagne prévue a été perturbée avant de devenir une attaque de masse.
Cette découverte est importante parce que les zero-days occupent le niveau supérieur du risque cyber. Ils exploitent des vulnérabilités inconnues des défenseurs au moment de l’utilisation, ce qui signifie qu’un correctif classique n’offre aucune protection immédiate. Si l’IA réduit sensiblement le coût ou accélère la découverte de telles failles, l’équilibre entre attaque et défense pourrait devenir plus instable.
Le rapport indique aussi que des acteurs soutenus par l’État en Chine et en Corée du Nord utilisent l’IA pour traquer des vulnérabilités. Cela élargit le tableau, au-delà d’un incident isolé, vers une tendance stratégique : des gouvernements et des groupes associés intégreraient déjà l’IA dans leurs flux de travail de reconnaissance cyber et de développement d’exploits.
L’écosystème autour des attaques assistées par l’IA
Un détail mis en avant dans le rapport source est le projet GitHub appelé wooyun-legacy, décrit comme un plugin Claude bâti sur plus de 85 000 cas réels de vulnérabilités provenant de la plateforme chinoise WooYun. Son objectif affiché est d’aider les modèles d’IA à analyser le code plus efficacement.
Cet exemple illustre un point plus large. Le risque ne tient pas seulement au fait que les modèles de pointe deviennent plus puissants en théorie. Il tient aussi au fait que des attaquants peuvent entourer ces modèles de jeux de données spécialisés, d’outils et de plugins qui les rendent plus efficaces pour des tâches de sécurité spécifiques. Autrement dit, une capacité offensive exploitable peut émerger de la combinaison d’un modèle généraliste et d’un échafaudage adapté au domaine.
Le rapport indique également que des groupes liés à la Russie intègrent du code d’obfuscation généré par IA dans des logiciels malveillants. Un exemple cité est un malware Android appelé PROMPTSPY, qui utilise l’API Gemini pour contrôler des appareils de manière autonome. Cela signale une autre couche de changement : l’IA n’est pas seulement utilisée pour découvrir des failles, mais aussi pour façonner le comportement des charges utiles et leur dissimulation.
Des groupes criminels cibleraient aussi les chaînes d’approvisionnement de l’IA, y compris des paquets open source populaires. Cela reflète l’élargissement de la surface d’attaque autour de l’adoption de l’IA. À mesure que davantage d’organisations dépendent de composants ouverts, d’outils connectés aux modèles et d’écosystèmes de paquets en évolution rapide, les adversaires disposent de davantage d’endroits où insérer une compromission.
La défense devient une lutte IA contre IA
Google ne présente pas le rapport comme l’histoire d’une escalade incontrôlée. L’entreprise affirme avoir développé ses propres contre-mesures basées sur l’IA, notamment des outils appelés Big Sleep et CodeMender. Les détails précis de ces systèmes ne sont pas décrits dans le document fourni, mais l’implication stratégique est claire : les défenseurs répondent de plus en plus à l’offensive assistée par l’IA par une défense assistée par l’IA.
Cela installe une compétition plus dynamique que les vagues précédentes d’automatisation cyber. Les outils défensifs d’hier reposaient souvent sur des règles, des signatures, des heuristiques ou la détection d’anomalies. La nouvelle génération peut impliquer des systèmes capables de comprendre du code, de modéliser des schémas de vulnérabilité et d’accélérer les travaux de correction ou de mitigation.
Pour autant, l’accélération défensive n’efface pas automatiquement l’avantage offensif. Si l’IA aide les attaquants à étendre la reconnaissance, à générer des variantes et à analyser des cibles plus rapidement, les défenseurs peuvent faire face à un plus grand volume de menaces plausibles, même avec de meilleurs outils.
Pourquoi cela compte maintenant
La principale conséquence pratique du rapport est peut-être de raccourcir le délai au bout duquel les organisations prennent au sérieux la capacité offensive permise par l’IA. Les responsables de la sécurité en parlaient depuis longtemps comme d’un défi à venir. Un cas documenté de découverte de zero-day assistée par l’IA ferait passer le débat de la prévision à la réalité opérationnelle.
Cela ne signifie pas que chaque attaquant dispose soudain de capacités de pointe. Une exploitation efficace dépend toujours de l’accès, des compétences d’ingénierie, de la sécurité opérationnelle et du choix de la cible. Mais le rapport suggère que l’IA peut désormais être utile de manière significative à l’une des étapes les plus précieuses de la chaîne d’intrusion.
Pour les défenseurs, cela signifie que la gestion des vulnérabilités, la sécurité de la chaîne d’approvisionnement logicielle et la revue de code devront peut-être toutes être réévaluées en partant du principe que les attaquants peuvent rechercher des faiblesses plus vite et avec une meilleure reconnaissance de schémas qu’auparavant.
La portée du premier cas confirmé
En matière de politique cyber et de renseignement sur les menaces, les premiers cas confirmés comptent parce qu’ils réinitialisent les attentes. Ce rapport semble précisément faire cela. Il suggère que l’IA est passée d’un outil d’assistance pour le phishing, la traduction ou les scripts de bas niveau au domaine même de la découverte d’exploits.
À ce stade, l’IA cesse d’être une préoccupation cyber auxiliaire et devient partie intégrante de la confrontation centrale autour de la sécurité logicielle. L’affirmation de Google selon laquelle l’attaque a été stoppée est encourageante. L’implication plus large l’est moins. Le secteur pourrait entrer dans une période où la course à la découverte et à la correction des vulnérabilités critiques sera de plus en plus façonnée par des machines agissant des deux côtés.
Cet article est basé sur le reportage de The Decoder. Lire l’article original.
Originally published on the-decoder.com

