El auge de los agentes se está convirtiendo en un problema de gestión

Los agentes de IA empresariales son fáciles de lanzar, fáciles de duplicar y cada vez más difíciles de rastrear. Esa es la advertencia central de una nueva encuesta de Rubrik ZeroLabs destacada en el material de origen, que encontró que solo el 23% de los responsables de TI dice tener control total sobre los agentes que operan dentro de sus organizaciones. Dicho de otro modo, aproximadamente tres de cada cuatro no lo tienen.

La cifra es llamativa porque el debate actual en torno a los agentes de IA suele enfatizar la velocidad y la productividad. Los proveedores presentan a los agentes como software capaz de actuar con autonomía, asumir trabajo repetitivo y reducir la necesidad de intervención humana directa. La encuesta sugiere que muchas empresas están descubriendo el lado menos glamuroso de esa promesa: una vez que los agentes se extienden entre equipos, herramientas y proveedores, la gobernanza puede quedar muy por detrás de la adopción.

La preocupación no es solo un desorden administrativo. El texto de origen dice que el 81% de los encuestados informa que los agentes bajo su supervisión requieren más tiempo en auditoría y monitoreo manual del que esos agentes debían ahorrar mediante mejoras en el flujo de trabajo. Eso invierte por completo la propuesta de valor de la automatización. Si las organizaciones gastan más esfuerzo supervisando agentes del que recuperan en eficiencia, el caso de negocio se vuelve mucho más difícil de defender.

De herramienta de productividad a exposición de seguridad

La encuesta también presenta la proliferación de agentes como un problema de seguridad. Según el texto de origen, el 86% de los responsables de TI espera que la proliferación agéntica supere a las barreras de seguridad durante el próximo año, y el 52% cree que esa brecha podría aparecer en un plazo de seis meses. No se trata de un escenario de riesgo lejano. Implica que muchos líderes técnicos ven el problema de control como algo inmediato.

La mecánica es familiar. El material de origen dice que los usuarios pueden eludir controles, incluyendo desactivar las VPN u otros mecanismos de seguridad, para poner en marcha agentes que actúan como asistentes. El resultado es un volumen creciente de aplicaciones de IA no autorizadas, tanto internas como a través de proveedores externos. En efecto, los agentes podrían estar repitiendo un patrón que la tecnología empresarial ya ha visto antes: adopción rápida desde la base primero, arquitectura de gobernanza después.

Esa comparación aparece directamente en el material. Kriti Faujdar, gerente sénior de producto en Microsoft citada en la pieza, dice que el patrón se asemeja a la adopción temprana de la nube, cuando los equipos lanzaban servicios de forma independiente con distintos marcos y proveedores. Las consecuencias entonces fueron la fragmentación y brechas de seguridad ocultas. La preocupación ahora es que los agentes de IA, al poder actuar en lugar de limitarse a almacenar o procesar datos, podrían amplificar esos riesgos.