L’essor des agents devient un problème de gestion

Les agents d’IA d’entreprise sont faciles à lancer, faciles à dupliquer et de plus en plus difficiles à suivre. C’est l’avertissement central d’une nouvelle enquête Rubrik ZeroLabs mise en avant dans le document source, qui indique que seuls 23% des responsables informatiques disent avoir un contrôle total sur les agents opérant au sein de leurs organisations. Autrement dit, environ trois sur quatre ne l’ont pas.

Ce chiffre est frappant parce que le débat actuel autour des agents d’IA met souvent l’accent sur la vitesse et la productivité. Les fournisseurs présentent les agents comme des logiciels capables d’agir de manière autonome, de prendre en charge des tâches répétitives et de réduire le besoin d’intervention humaine directe. L’enquête suggère que de nombreuses entreprises découvrent l’aspect moins reluisant de cette promesse: une fois les agents dispersés entre les équipes, les outils et les fournisseurs, la gouvernance peut nettement prendre du retard sur l’adoption.

L’inquiétude ne se limite pas à un simple désordre administratif. Le texte source indique que 81% des répondants déclarent que les agents relevant de leur périmètre nécessitent plus de temps en audit et en surveillance manuels que ces agents n’étaient censés en faire gagner grâce aux améliorations des flux de travail. Cela renverse l’argument central de l’automatisation. Si les organisations consacrent davantage d’efforts à superviser les agents qu’elles n’en récupèrent en efficacité, le cas d’usage devient plus difficile à défendre.

D’un outil de productivité à une exposition de sécurité

L’enquête présente aussi la prolifération des agents comme un problème de sécurité. Selon le texte source, 86% des responsables informatiques s’attendent à ce que la prolifération agentique dépasse les garde-fous de sécurité au cours de l’année à venir, et 52% pensent que cet écart pourrait apparaître d’ici six mois. Il ne s’agit donc pas d’un risque lointain. Cela implique que de nombreux leaders techniques considèrent le problème de contrôle comme immédiat.

La mécanique est familière. Le document source indique que les utilisateurs peuvent contourner les contrôles, notamment en désactivant les VPN ou en contournant autrement les mesures de sécurité, afin de déployer des agents jouant le rôle d’assistants. Le résultat est un volume croissant d’applications d’IA non autorisées, à la fois en interne et via des fournisseurs externes. En pratique, les agents pourraient rejouer un schéma déjà observé dans la technologie d’entreprise: d’abord une adoption rapide par le terrain, ensuite l’architecture de gouvernance.

Cette comparaison apparaît explicitement dans le document. Kriti Faujdar, senior product manager chez Microsoft, citée dans l’article, explique que ce schéma rappelle les débuts de l’adoption du cloud, lorsque les équipes lançaient des services de façon indépendante avec des cadres et des fournisseurs différents. Les conséquences étaient alors la fragmentation et des failles de sécurité invisibles. L’inquiétude aujourd’hui est que les agents d’IA, parce qu’ils peuvent agir au lieu de simplement stocker ou traiter des données, pourraient amplifier ces risques.