L’IA défensive progresse, mais l’accès reste inégal
L’essor de puissants outils d’intelligence artificielle transforme la cybersécurité dans deux directions à la fois. Les attaquants utilisent des modèles pour repérer et exploiter des vulnérabilités plus vite qu’auparavant, tandis qu’un groupe plus restreint de grandes entreprises et d’institutions obtient accès à des systèmes défensifs avancés capables d’identifier des faiblesses à grande échelle. Le résultat, selon le reportage de Rest of World, est un écart mondial en matière de cybersécurité qui se creuse, où les organisations disposant de plus de ressources peuvent devenir plus résilientes alors que toutes les autres deviennent plus exposées.
L’article se concentre sur Mythos Preview d’Anthropic, que l’entreprise dit avoir permis de découvrir des milliers de vulnérabilités dans de grands systèmes d’exploitation et navigateurs web. L’accès initial à l’outil a été accordé à environ 40 entreprises et institutions technologiques. Mais cet accès ne s’est pas étendu à la plupart des gouvernements et des banques centrales, laissant de nombreuses organisations du secteur public et à plus faibles ressources dépendre d’une poignée de grandes sociétés d’IA pour sécuriser des systèmes critiques.
Cette asymétrie compte parce que l’environnement des menaces s’accélère. Rest of World cite des données de CrowdStrike montrant que les entités alimentées par l’IA ont augmenté leurs attaques de 89 % en 2025 par rapport à l’année précédente. L’article soutient que les systèmes d’IA peuvent désormais transformer des vulnérabilités logicielles en armes en quelques heures après leur découverte, comprimant encore davantage le délai déjà difficile entre l’identification d’un défaut et son exploitation.
Pourquoi l’écart pourrait devenir systémique
La cybersécurité a toujours été répartie de façon inégale. Les entreprises riches peuvent recruter des équipes techniques profondes, acheter des outils coûteux et maintenir des capacités mûres de réponse aux incidents. Les petites sociétés, les institutions locales et les États en développement n’en ont souvent pas les moyens. Ce qui change à l’ère de l’IA, c’est la vitesse. Si les outils d’attaque pilotés par machine peuvent scanner, s’adapter et générer des chemins d’exploitation beaucoup plus vite que les équipes humaines, alors les organisations déjà peu dotées en personnel et dépendantes de systèmes hérités font face à un désavantage bien plus marqué.
Le texte source met en avant un autre point de tension : la main-d’œuvre. Une importante pénurie mondiale de professionnels de la cybersécurité signifie que même lorsque les dirigeants comprennent la menace, il n’y a peut-être pas assez de personnes expérimentées pour l’absorber. L’IA peut en théorie aider à combler ce manque, mais seulement si des outils défensifs puissants sont largement disponibles, abordables et déployables dans les environnements qui en ont le plus besoin.
Ce n’est pas le monde décrit dans le reportage. Au contraire, les défenses les plus performantes semblent concentrées chez des entreprises de premier plan et quelques partenaires choisis. Si les logiciels commerciaux largement utilisés sont corrigés rapidement tandis que les systèmes plus personnalisés ou fondés sur la souveraineté prennent du retard, l’écart ne sera pas seulement entre organisations riches et pauvres. Il existera aussi entre des écosystèmes logiciels directement liés à de grandes entreprises technologiques américaines et ceux qui n’ont pas de tels liens.
L’automatisation des attaques abaisse le niveau de compétence requis
La portée culturelle et politique de ce basculement va au-delà de l’informatique d’entreprise. Les outils d’IA peuvent aider des criminels à produire des courriels de hameçonnage, des vidéos deepfake, des clones vocaux et des logiciels malveillants avec beaucoup moins d’efforts qu’avant. Ils peuvent aussi aider à identifier des cibles vulnérables et à générer des modes opératoires d’exploitation. En pratique, l’IA peut réduire le niveau d’expertise nécessaire pour causer des dégâts.
Cette dynamique élargit le nombre d’acteurs pouvant participer à la cybercriminalité ou à des campagnes de perturbation. Le reportage de Rest of World cite l’exemple d’un groupe de hackers nord-coréens qui a utilisé des outils d’IA d’OpenAI et de Cursor dans une opération qui aurait volé jusqu’à 12 millions de dollars en cryptomonnaies sur plusieurs mois. Qu’il s’agisse de codage, de reconnaissance ou d’ingénierie sociale, le schéma est le même : davantage de capacités deviennent accessibles à davantage d’attaquants, à moindre coût.
Pour les défenseurs, cela crée une équation déséquilibrée. Un hôpital, une banque locale ou une entreprise de services publics régionale doit sécuriser chaque système critique, chaque chaîne de fournisseurs et chaque flux de travail des employés. L’attaquant, lui, n’a besoin que d’une seule ouverture efficace. L’IA accentue ce décalage si elle peut tester plus d’ouvertures plus vite que des équipes sous-dotées ne peuvent les fermer.
Personne ne reste isolé bien longtemps
L’un des points les plus forts du reportage est que le risque cyber ne reste pas sagement local. Les institutions plus petites et les pays moins protégés font partie des mêmes réseaux financiers, de communication et de logiciels qui relient l’économie mondiale. Un maillon faible dans une juridiction ou un secteur peut devenir une porte d’entrée vers d’autres via les fournisseurs, les systèmes de paiement, les réseaux de partenaires ou les dépendances d’infrastructure.
Cela signifie que la concentration de l’IA défensive dans un ensemble limité d’organisations peut produire des gains privés sans apporter une sécurité publique à grande échelle. Même les multinationales les mieux protégées restent exposées à des fournisseurs, des clients et des systèmes publics qui peuvent être plus lents à détecter et corriger les failles. En ce sens, l’accès inégal à l’IA défensive n’est pas seulement une question d’équité. C’est une question de sécurité collective.
L’article cite des observateurs affirmant que « la cybersécurité n’est jamais un problème isolé », et la logique tient. Si une partie du système reste très en retard, l’ensemble du système devient plus difficile à faire confiance.
Le défi politique à venir
Le matériau source ne propose pas de plan réglementaire détaillé, mais il pointe vers un dilemme politique central. Les entreprises qui développent des modèles défensifs de pointe peuvent avoir des raisons légitimes de restreindre l’accès, notamment parce que ces mêmes outils pourraient être détournés à des fins offensives. Pourtant, des restrictions sévères peuvent laisser le reste du monde exposé précisément au moment où l’automatisation des attaques devient moins chère et plus rapide.
Cette tension va probablement façonner la prochaine phase de la gouvernance de l’IA en cybersécurité. Les gouvernements pourraient pousser des dispositifs d’accès d’intérêt public, des cadres d’évaluation sûrs ou des partenariats élargissant la couverture défensive sans simplement mettre à disposition des outils à haut risque. Parallèlement, les organisations aux ressources limitées devront peut-être se concentrer sur la résilience concrète : réduire la surface d’attaque, corriger plus vite, segmenter les systèmes et se préparer à des incidents qui impliqueront de plus en plus l’IA en face.
Le basculement culturel plus profond est déjà visible. La cybersécurité ne consiste plus seulement à défendre des réseaux contre des adversaires humains utilisant des logiciels. Il s’agit de plus en plus de protéger des institutions contre des logiciels qui aident à fabriquer de meilleurs adversaires. Si l’accès à la meilleure IA défensive reste étroit, l’écart entre ceux qui peuvent suivre et ceux qui ne le peuvent pas pourrait définir la prochaine ère de l’inégalité numérique.
Cet article s’appuie sur le reportage de Rest of World. Lire l’article original.


