La IA defensiva avanza, pero el acceso es desigual
El auge de potentes herramientas de inteligencia artificial está cambiando la ciberseguridad en dos direcciones al mismo tiempo. Los atacantes usan modelos para encontrar y explotar vulnerabilidades con más rapidez que antes, mientras que un grupo más pequeño de grandes empresas e instituciones está accediendo a sistemas defensivos avanzados capaces de identificar debilidades a gran escala. El resultado, según informa Rest of World, es una brecha global de ciberseguridad cada vez mayor, en la que las organizaciones con más recursos pueden volverse más resilientes incluso cuando todos los demás quedan más expuestos.
El artículo se centra en Mythos Preview de Anthropic, que según la empresa descubrió miles de vulnerabilidades en importantes sistemas operativos y navegadores web. El acceso inicial a la herramienta se concedió a unas 40 empresas e instituciones tecnológicas. Pero ese acceso no se extendió a la mayoría de los gobiernos y bancos centrales, dejando a muchas organizaciones del sector público y con menos recursos dependientes de un puñado de grandes compañías de IA para ayudar a proteger sistemas críticos.
Esta asimetría importa porque el entorno de amenazas se está acelerando. Rest of World cita datos de CrowdStrike que muestran que las entidades habilitadas con IA incrementaron sus ataques en un 89% en 2025 frente al año anterior. La pieza sostiene que los sistemas de IA ya pueden convertir vulnerabilidades de software en armas en cuestión de horas tras su descubrimiento, comprimiendo aún más el ya difícil intervalo entre identificar un fallo y explotarlo.
Por qué la brecha podría volverse sistémica
La ciberseguridad siempre ha estado distribuida de manera desigual. Las empresas con más recursos pueden contratar equipos técnicos profundos, comprar herramientas costosas y mantener capacidades maduras de respuesta a incidentes. Las compañías pequeñas, las instituciones locales y los Estados en desarrollo a menudo no pueden hacerlo. Lo que cambia en la era de la IA es la velocidad. Si las herramientas de ataque automatizadas por máquinas pueden escanear, adaptarse y generar rutas de explotación mucho más rápido que los equipos humanos, las organizaciones que ya operan con poco personal y sistemas heredados afrontan una desventaja mucho mayor.
El texto de origen destaca otro punto de presión: la mano de obra. Una gran escasez mundial de profesionales de ciberseguridad significa que incluso cuando los líderes entienden la amenaza, puede que no haya suficientes personas con experiencia disponibles para absorberla. En teoría, la IA puede ayudar a cubrir esa brecha, pero solo si las herramientas defensivas sólidas están ampliamente disponibles, son asequibles y pueden desplegarse en los entornos que más las necesitan.
Ese no es el mundo que describe el informe. En cambio, las defensas más capaces parecen concentradas entre firmas de primer nivel y socios selectos. Si el software comercial de uso general se parchea rápidamente mientras los sistemas más personalizados o impulsados por la soberanía se quedan atrás, la brecha no será solo entre organizaciones ricas y pobres. También será entre ecosistemas de software con vínculos directos con grandes empresas tecnológicas de Estados Unidos y aquellos que no los tienen.
La automatización de ataques está rebajando el listón de habilidades
El significado cultural y político de este cambio va más allá de la TI empresarial. Las herramientas de IA pueden ayudar a delincuentes a producir correos de phishing, vídeos deepfake, clones de voz y malware con mucho menos esfuerzo que antes. También pueden ayudar a identificar objetivos vulnerables y generar flujos de trabajo de explotación. En efecto, la IA puede reducir la experiencia necesaria para causar daños.
Esta dinámica amplía el abanico de actores que pueden participar en el cibercrimen o en campañas de disrupción. El informe de Rest of World incluye el ejemplo de un grupo de hackers norcoreanos que utilizó herramientas de IA de OpenAI y Cursor en una operación que presuntamente robó hasta 12 millones de dólares en criptomonedas durante varios meses. Ya sea que estas herramientas se utilicen directamente para programar, reconocer o hacer ingeniería social, el patrón es el mismo: más capacidad está quedando disponible para más atacantes a menor costo.
Para los defensores, eso crea una ecuación desigual. Un hospital, un banco local o una empresa de servicios públicos regional puede necesitar proteger cada sistema crítico, cada ruta de proveedores y cada flujo de trabajo de empleados. Un atacante, en cambio, solo necesita una apertura eficaz. La IA agranda ese desajuste si puede probar más aperturas más rápido de lo que los equipos con pocos recursos pueden cerrarlas.
Nadie permanece aislado por mucho tiempo
Uno de los puntos más sólidos del informe es que el riesgo cibernético no se queda ordenadamente en lo local. Las instituciones más pequeñas y los países menos protegidos forman parte de las mismas redes financieras, de comunicaciones y de software que conectan la economía global. Un eslabón débil en una jurisdicción o industria puede convertirse en una vía de entrada a otras a través de proveedores, sistemas de pago, redes de socios o dependencias de infraestructura.
Eso significa que la concentración de IA defensiva en un conjunto limitado de organizaciones puede generar beneficios privados sin aportar seguridad pública a gran escala. Incluso las multinacionales mejor protegidas siguen expuestas a proveedores, clientes y sistemas estatales que pueden tardar más en detectar y corregir fallos. En ese sentido, el acceso desigual a la IA defensiva no es solo un problema de equidad. Es un problema de seguridad colectiva.
El artículo cita a observadores que sostienen que “la ciberseguridad nunca es un problema aislado”, y la lógica se sostiene. Si una parte del sistema se queda muy atrás, todo el sistema se vuelve más difícil de confiar.
El desafío de política pública que viene
El material de origen no ofrece un plan regulatorio detallado, pero apunta a un dilema central de política pública. Las empresas que desarrollan modelos defensivos de vanguardia pueden tener razones legítimas para restringir el acceso, incluidas las preocupaciones de que esas mismas herramientas puedan usarse indebidamente con fines ofensivos. Sin embargo, restricciones severas pueden dejar expuesto al resto del mundo justo cuando la automatización de ataques se está volviendo más barata y rápida.
Es probable que esa tensión marque la siguiente fase de la gobernanza de la IA en ciberseguridad. Los gobiernos podrían impulsar acuerdos de acceso de interés público, marcos de evaluación segura o alianzas que amplíen la cobertura defensiva sin liberar simplemente herramientas de alto riesgo al público. Mientras tanto, las organizaciones con recursos limitados quizá deban centrarse en la resiliencia práctica: reducir la superficie de ataque, parchear más rápido, segmentar sistemas y prepararse para incidentes que cada vez más probablemente involucrarán a la IA al otro lado.
El cambio cultural más profundo ya es visible. La ciberseguridad ya no consiste solo en defender redes de adversarios humanos que usan software. Cada vez se trata más de defender instituciones del software que ayuda a construir mejores adversarios. Si el mejor IA defensiva sigue estando al alcance de pocos, la brecha entre quienes pueden seguir el ritmo y quienes no puede definir la próxima era de la desigualdad digital.
Este artículo se basa en la cobertura de Rest of World. Leer el artículo original.


