O boom dos agentes está se tornando um problema de gestão

Os agentes de IA corporativa são fáceis de lançar, fáceis de duplicar e cada vez mais difíceis de rastrear. Esse é o alerta central de uma nova pesquisa da Rubrik ZeroLabs destacada no material de origem, que descobriu que apenas 23% dos gestores de TI dizem ter controle total sobre os agentes que operam dentro de suas organizações. Em outra leitura, cerca de três em cada quatro não têm.

O número chama atenção porque o debate atual em torno dos agentes de IA costuma enfatizar velocidade e produtividade. Os fornecedores apresentam os agentes como software capaz de agir com autonomia, assumir trabalho repetitivo e reduzir a necessidade de intervenção humana direta. A pesquisa sugere que muitas empresas estão descobrindo o lado menos glamouroso dessa promessa: quando os agentes se espalham por equipes, ferramentas e fornecedores, a governança pode ficar muito atrás da adoção.

A preocupação não é apenas uma desordem administrativa. O texto de origem afirma que 81% dos respondentes relatam que os agentes sob sua responsabilidade exigem mais tempo de auditoria e monitoramento manual do que aqueles agentes deveriam economizar por meio de melhorias no fluxo de trabalho. Isso inverte a principal tese da automação. Se as organizações gastam mais esforço supervisionando agentes do que recuperam em eficiência, o caso de negócio fica mais difícil de defender.

De ferramenta de produtividade a exposição de segurança

A pesquisa também enquadra a proliferação de agentes como um problema de segurança. Segundo o texto de origem, 86% dos gestores de TI esperam que a proliferação agêntica ultrapasse as proteções de segurança no próximo ano, e 52% acreditam que essa lacuna pode surgir em até seis meses. Não se trata de um cenário de risco distante. Isso implica que muitos líderes técnicos veem o problema de controle como imediato.

A mecânica é familiar. O material de origem diz que os usuários podem contornar controles, incluindo desligar VPNs ou burlar de outras formas as medidas de segurança, para colocar em funcionamento agentes que atuam como assistentes. O resultado é um volume crescente de aplicações de IA não autorizadas, tanto internamente quanto por meio de fornecedores externos. Na prática, os agentes podem estar repetindo um padrão já visto na tecnologia corporativa: adoção rápida pela base primeiro, arquitetura de governança depois.

Essa comparação aparece diretamente no material. Kriti Faujdar, gerente sênior de produto da Microsoft citada na matéria, diz que o padrão se assemelha à adoção inicial da nuvem, quando equipes lançavam serviços de forma independente com diferentes frameworks e fornecedores. As consequências então foram fragmentação e lacunas de segurança ocultas. A preocupação agora é que os agentes de IA, por poderem agir em vez de apenas armazenar ou processar dados, podem amplificar esses riscos.