De burlarse de las pruebas de seguridad a reconstruirlas

La administración Trump ha cambiado de forma drástica su postura sobre la supervisión de la IA de frontera, al firmar nuevos acuerdos con Google DeepMind, Microsoft y xAI para realizar controles de seguridad gubernamentales sobre modelos avanzados antes y después de su lanzamiento. El giro es notable no solo por lo que hace, sino por lo directamente que se aparta de la postura anterior de la administración.

Según Ars Technica, el presidente Donald Trump había desestimado antes los controles voluntarios de seguridad de la IA asociados con la era Biden como una extralimitación regulatoria que frenaba la innovación. Poco después de asumir el cargo, la administración incluso rebautizó el Instituto de Seguridad de IA de EE. UU. como Centro para Estándares e Innovación en IA, o CAISI, eliminando la palabra “seguridad” del título en lo que la fuente describe como una puya dirigida a Joe Biden.

Ahora esa misma administración está restaurando una versión del marco de políticas que había ridiculizado.

El detonante Mythos

El aparente punto de inflexión fue la decisión de Anthropic de no lanzar su último modelo Claude Mythos. Ars Technica informa que la empresa juzgó que el modelo era demasiado arriesgado para publicarlo porque actores malintencionados podrían explotar sus capacidades avanzadas de ciberseguridad. Esa decisión parece haber tenido un fuerte efecto dentro de Washington.

Kevin Hassett, director del Consejo Económico Nacional de la Casa Blanca, dijo a Fortune, según el texto fuente, que Trump podría emitir pronto una orden ejecutiva que exija pruebas gubernamentales de los sistemas avanzados de IA antes de su lanzamiento. Si eso ocurre, la administración pasaría de una renovada cooperación voluntaria a un régimen formal de evaluación previa al lanzamiento.

La ironía política es difícil de pasar por alto. Una Casa Blanca que había presentado la supervisión de seguridad como un freno al progreso está ahora considerando un mandato después de que un modelo de frontera despertara preocupaciones lo bastante serias como para que su desarrollador lo retuviera.

CAISI asume un papel más amplio

El propio anuncio de CAISI dijo explícitamente que los nuevos acuerdos “se apoyan” en la política anterior de Biden. Ese lenguaje importa porque reconoce continuidad incluso después de un período de ruptura retórica. La administración puede haber cambiado la marca, pero la necesidad operativa de una evaluación estructurada de modelos parece haberse reafirmado.

Chris Fall, director de CAISI, dijo que las colaboraciones ampliadas con la industria ayudarían al centro a escalar su trabajo “en interés público en un momento crítico”. El texto fuente dice que CAISI ha completado alrededor de 40 evaluaciones hasta ahora, incluidas pruebas de modelos de frontera que aún no se habían lanzado.

Esas evaluaciones son especialmente relevantes porque CAISI suele recibir acceso a sistemas con salvaguardas reducidas o eliminadas. Según la agencia, eso permite a los evaluadores valorar con mayor detalle las capacidades y los riesgos relacionados con la seguridad nacional que si dependieran solo de despliegues públicos.

En la práctica, eso significa que el gobierno no solo revisa productos pulidos después de su lanzamiento. Está examinando lo que los modelos pueden hacer cuando se recortan algunas capas de seguridad, una forma mucho más incisiva de evaluar capacidades.

La seguridad nacional impulsa el giro político

La nueva postura de la administración se enmarca en gran medida en la seguridad nacional. CAISI dice que se ha formado un grupo de trabajo con expertos interagenciales centrado en las preocupaciones de seguridad nacional de la IA, con la intención de mantener alineados a los evaluadores con los riesgos emergentes en todo el gobierno.

Este énfasis es importante porque ayuda a explicar la reorientación política. Los debates generales sobre la ética de la IA o los daños al consumidor pueden dividir a los responsables políticos a lo largo de líneas ideológicas familiares. Las cuestiones de seguridad nacional suelen reorganizar esas líneas más rápido. Un modelo que se considere capaz de un uso cibernético malicioso es más fácil de presentar como una amenaza estratégica que como una disputa convencional de política tecnológica.

Eso no zanja el debate más amplio sobre cómo debería gobernarse la IA, pero aclara qué está moviendo ahora a la administración. La preocupación no es una marca abstracta de seguridad. Es la posibilidad de que los sistemas de frontera ofrezcan ventajas operativas a actores hostiles antes de que los evaluadores gubernamentales comprendan el perfil de riesgo.

Por qué importa esta marcha atrás

La importancia de los nuevos acuerdos reside tanto en la política como en la señal. En el plano normativo, restablecen un canal por el cual las principales empresas de IA someten sistemas de frontera al escrutinio gubernamental antes y después de su lanzamiento. En el plano simbólico, indican que incluso una administración hostil retóricamente a la “seguridad de la IA” puede volver a la supervisión estructurada cuando las capacidades avanzan lo bastante rápido.

Las empresas participantes también importan. Google DeepMind, Microsoft y xAI se cuentan entre las compañías que construyen o respaldan sistemas punteros, por lo que su participación da peso práctico al marco. Si una futura orden ejecutiva convierte las pruebas en obligatorias, el gobierno ya tendrá relaciones activas y cierta experiencia operativa sobre la que apoyarse.

Al mismo tiempo, el giro actual deja abiertas varias preguntas sin resolver. El texto fuente señala que algunas empresas han firmado acuerdos, pero no ofrece un listado completo ni detalles de aplicación. Tampoco explica qué umbrales definirían un sistema “avanzado” para pruebas obligatorias si Trump sigue adelante con una orden ejecutiva.

Aun así, la dirección es clara. Una Casa Blanca que había intentado restar importancia a la seguridad de la IA ha sido arrastrada de vuelta a ella por el comportamiento de los modelos de frontera y por las advertencias de las empresas que los construyen.

Un debate de política de IA reencuadrado por la capacidad

El episodio recuerda que los debates sobre política de IA pueden cambiar rápidamente cuando las preocupaciones teóricas se convierten en operativas. La administración Trump no evolucionó gradualmente hacia la postura de Biden por compromiso retórico. Parece haber reaccionado a un caso concreto en el que un gran desarrollador concluyó que un modelo era demasiado arriesgado para lanzarlo.

Esa distinción importa. En el panorama emergente de la IA, los choques de capacidad pueden moldear la política más rápido que la coherencia ideológica. Y si la administración cumple con pruebas obligatorias antes del lanzamiento, una de las medidas recientes más firmes de EE. UU. en evaluación de IA de frontera habrá surgido de un presidente que inicialmente consideraba innecesaria esa supervisión.

  • La administración Trump firmó nuevos acuerdos voluntarios de pruebas de seguridad de IA con Google DeepMind, Microsoft y xAI.
  • La medida revierte su rechazo anterior a los controles de seguridad de IA de la era Biden.
  • La decisión de Anthropic de no lanzar Claude Mythos parece haber acelerado el cambio.
  • La Casa Blanca podría ahora buscar una orden ejecutiva que obligue a pruebas previas al lanzamiento de sistemas avanzados de IA.

Este artículo se basa en la cobertura de Ars Technica. Leer el artículo original.