El acceso de la NSA plantea preguntas de política
La Agencia de Seguridad Nacional de Estados Unidos estaría usando el modelo de IA más potente de Anthropic, Mythos Preview, según el resumen de The Decoder de un informe de Axios que cita a dos fuentes.
El supuesto despliegue es notable porque la NSA depende de la autoridad del Pentágono, mientras que el Departamento de Defensa ha clasificado por separado a Anthropic como un riesgo de seguridad e intentó desde febrero bloquear a la empresa como proveedor.
La situación refleja una tensión creciente en la adopción de IA por parte del gobierno: las agencias quieren acceso a modelos avanzados, pero esos mismos sistemas pueden desencadenar preocupaciones de seguridad, contratación, vigilancia y política de armamento.
Un modelo restringido
Anthropic ha limitado el acceso a Mythos a unas 40 organizaciones en el marco de una iniciativa llamada Project Glasswing. La empresa ha argumentado que las capacidades ofensivas de ciberseguridad del modelo son demasiado peligrosas para un lanzamiento amplio.
Esa restricción sitúa a Mythos en una categoría distinta de la de los chatbots comerciales de uso general. El modelo se trata como una capacidad sensible, no simplemente como otra herramienta de productividad.
The Decoder señala que el CEO de Anthropic, Dario Amodei, se reunió la semana pasada con funcionarios de la Casa Blanca para hablar del despliegue de Mythos en agencias gubernamentales. Según se informa, los servicios de inteligencia del Reino Unido también tienen acceso al modelo a través del AI Security Institute del país.
Disputa sobre el uso aceptable
El Pentágono ha exigido que Anthropic ponga Claude a disposición para todos los usos legales. Anthropic se negó, trazando límites en torno a la vigilancia masiva y las armas autónomas.
Esa discrepancia toca el núcleo del debate emergente sobre la contratación de IA. Un proveedor de modelos puede querer definir líneas rojas sobre cómo se usan sus sistemas, mientras que los compradores gubernamentales pueden sostener que la autoridad legal debe determinar los usos permitidos.
Para las agencias de inteligencia y defensa, los modelos de frontera de IA pueden ser útiles para análisis cibernético, procesamiento de lenguaje, triaje de información y otras tareas analíticas de gran volumen. Pero esas mismas capacidades pueden generar preocupaciones cuando se aplican a la vigilancia, a operaciones ofensivas cibernéticas o a sistemas que operan con menor control humano.
Por qué importa
El uso reportado de Mythos por parte de la NSA sugiere que potentes sistemas de IA están entrando en entornos gubernamentales sensibles incluso antes de que se hayan formado normas estables sobre restricciones de proveedores, exclusiones por seguridad nacional y límites de uso aceptable.
El conflicto también muestra que los compromisos de seguridad en IA ya no son solo un tema de diseño de producto. Se están convirtiendo en términos de contratación, disputas legales y cuestiones de seguridad nacional.
Si las agencias adoptan modelos de IA restringidos mientras otras partes del gobierno cuestionan el papel del proveedor, el resultado podría ser un enfoque fragmentado: una oficina trata un modelo como estratégicamente necesario, mientras otra trata al proveedor como una preocupación de seguridad.
El caso Mythos probablemente será seguido de cerca porque reúne varias de las preguntas más decisivas de la gobernanza de IA a la vez: quién obtiene acceso a modelos de frontera, cómo se controlan los sistemas con capacidad cibernética y si una empresa privada de IA puede negarse a ciertos usos gubernamentales mientras sigue atendiendo a clientes del sector público.
Este artículo se basa en el informe de The Decoder. Leer el artículo original.
Originally published on the-decoder.com



