Un acuerdo clasificado de IA plantea nuevas preguntas sobre control y supervisión

Google habría firmado un acuerdo clasificado que permite al Departamento de Defensa de EE. UU. usar sus modelos de IA para “cualquier propósito gubernamental lícito”. El arreglo, descrito por The Verge a partir de información de The Information, colocaría a Google de manera más firme dentro del ecosistema de IA de seguridad nacional de EE. UU. en un momento de creciente escrutinio interno y externo.

El momento forma parte de la historia. El acuerdo se informó menos de un día después de que empleados de Google instaran al CEO Sundar Pichai a bloquear el uso de la IA de la empresa por parte del Pentágono, argumentando que esos sistemas podrían utilizarse de maneras “inhumanas o extremadamente dañinas”. Esa brecha entre la preocupación de los empleados y la postura corporativa pone de relieve lo rápido que los debates sobre el despliegue de IA están pasando del principio a la redacción contractual.

Uno de los elementos reportados más importantes no es solo que el Pentágono pueda usar los sistemas de Google, sino que el contrato aparentemente no le da a Google “ningún derecho a controlar o vetar la toma de decisiones operativas gubernamentales lícitas”. Si eso es exacto, limitaría de forma considerable la capacidad de la empresa para influir en los usos finales una vez que el acuerdo esté en vigor, incluso si el trato también incluye lenguaje en contra de la vigilancia masiva interna o de las armas autónomas sin la supervisión y el control humanos adecuados.

Esa tensión va al centro de la política actual de la IA militar. Las empresas suelen enfatizar salvaguardas de alto nivel, pero la verdadera prueba es si esas salvaguardas pueden hacerse cumplir cuando cambian las necesidades de la misión. El lenguaje contractual informado sugiere un modelo en el que los principios pueden coexistir con una amplia discrecionalidad operativa del gobierno. Esa es una postura muy distinta de aquella en la que el proveedor conserva una capacidad significativa para detener o restringir usos concretos.

El informe también dice que Google estaría obligado a ayudar con ajustes en la configuración y los filtros de seguridad de la IA a solicitud del gobierno. Ese detalle importa porque lleva la conversación más allá del simple acceso. Implica un papel activo de apoyo en la adaptación de sistemas para necesidades de seguridad nacional, lo que podría convertirse en una de las dimensiones más disputadas de las asociaciones entre gobiernos e IA.

Si se confirma, el acuerdo colocaría a Google junto a OpenAI y xAI en el ámbito de contratación clasificada de IA, mientras que The Verge señala que Anthropic fue vetada por el Pentágono tras negarse a exigencias relacionadas con límites para armas y vigilancia. Ese contraste muestra lo rápido que el panorama competitivo puede premiar a las empresas dispuestas a acomodar los requisitos de defensa.

La importancia más amplia es sencilla. La contratación de IA ya no se trata solo de capacidad en la nube o prestigio de investigación. Cada vez se trata más de quién está preparado para suministrar modelos, modificarlos y aceptar menos control una vez que están dentro de los sistemas gubernamentales. Este supuesto acuerdo entre Google y el Pentágono sería otra señal de que la frontera entre el liderazgo comercial en IA y la infraestructura de defensa se está volviendo más delgada mes a mes.

Este artículo se basa en la cobertura de The Verge. Leer el artículo original.