Un acuerdo con implicaciones de gran alcance

Ha pasado poco más de dos semanas desde que OpenAI llegó a un acuerdo histórico para permitir que el Departamento de Defensa de EE.UU. use sus sistemas de IA en entornos militares clasificados. El acuerdo ha generado tanto atención significativa como preocupaciones importantes entre investigadores de IA, expertos en control de armas y defensores de las libertades civiles. Con fuerzas estadounidenses activamente comprometidas en operaciones militares contra Irán—incluyendo ataques en la isla de Kharg—el tiempo hace que las implicaciones del acuerdo sean más inmediatas de lo que la mayoría anticipó.

Los parámetros básicos del acuerdo son conocidos: OpenAI permitirá el uso militar de sus modelos en entornos clasificados, con Sam Altman declarando públicamente que el acuerdo no permite que los militares construyan autonomous weapons usando la tecnología de la empresa, y además afirmando que el arreglo previene aplicaciones de vigilancia doméstica. Pero el examen de los términos reales del acuerdo revela que ambas restricciones se aplican principalmente a través de las propias directrices del Pentágono sobre autonomous weapons systems—directrices que son bastante permisivas según los estándares internacionales.

Lo que realmente dicen las directrices del Pentágono sobre Autonomous Weapons

La directiva del Departamento de Defensa sobre Autonomous Weapons Systems requiere que las lethal autonomous weapons mantengan niveles apropiados de juicio humano sobre decisiones de ataque. Los críticos de este lenguaje han señalado consistentemente que no especifica qué significa apropiado, no requiere aprobación humana para cada decisión de targeting individual, y explícitamente permite sistemas semi-autónomos donde un humano aprueba categorías de targeting o parámetros de strike por adelantado sin aprobar cada engagement específico.

Esto crea una brecha significativa entre la presentación pública de OpenAI—no permitiremos que los militares construyan autonomous weapons—y lo que el acuerdo realmente permite. Según los propios estándares del Pentágono, un sistema de IA que procesa sensor data, identifica targets y ejecuta strikes sin autorización humana por disparo podría aún calificar como compatible si un humano aprobó las targeting rules por adelantado. Si los modelos de OpenAI podrían integrarse en tal sistema sin violar el acuerdo no es públicamente claro.

Irán como caso de prueba

El conflicto continuo con Irán hace que estas preguntas sean concretas en lugar de hipotéticas. El Comando Central de EE.UU. está realizando strike operations en la región del Golfo Pérsico, coordinando respuestas a asymmetric threats navales iraníes, y manejando intelligence collection en un battlespace complejo. Cada una de estas actividades implica categorías de aplicación de IA donde los modelos de OpenAI podrían potencialmente integrarse.

En el lado de la intelligence, los large language models han demostrado ser capaces de sintetizar rápidamente información de múltiples fuentes, traducir comunicaciones en idioma extranjero e identificar patrones en datos estructurados—todas tareas relevantes para military intelligence analysis. Se entiende ampliamente que estas aplicaciones están entre los usos militares principales de IA comercial y presentan menos preocupaciones éticas que autonomous targeting.

Más preocupantes son las posibles aplicaciones en target identification o battle damage assessment, donde sistemas de IA podrían procesar imagery o signals intelligence para identificar military assets, rastrear movements o evaluar resultados de strike. Estas son áreas donde la distinción entre una herramienta de decision support y un sistema autónomo se vuelve borrosa—y donde el lenguaje específico del acuerdo de OpenAI determinaría si una aplicación dada está permitida.

La restricción de vigilancia y sus límites

La afirmación de Altman de que el acuerdo previene el uso de la tecnología de OpenAI para domestic surveillance es más complicada de lo que suena. La restricción tal como se describe se aplica a domestic surveillance—recopilación y análisis de datos sobre ciudadanos estadounidenses—pero no aborda foreign intelligence collection. En el contexto de operaciones militares, la surveillance de comunicaciones militares adversarias, el seguimiento de movimientos de buques y el monitoreo de comunicaciones del régimen iraní califican como foreign intelligence collection y no estarían cubiertos por una restricción de domestic surveillance.

Los defensores de las libertades civiles que se enfocan en preocupaciones de domestic surveillance pueden no priorizar las aplicaciones de foreign intelligence que los comandantes militares encuentran más valiosas. Pero la confusión de los dos en comunicaciones públicas sugiere que la presentación pública de OpenAI puede no capturar completamente el rango de aplicaciones militares que el acuerdo habilita.

Cuáles parecen ser las motivaciones de OpenAI

OpenAI no es la primera empresa tecnológica importante en navegar la tensión entre desarrollo comercial de IA y aplicación militar. Google enfrentó oposición interna significativa sobre su contrato Project Maven en 2018, finalmente declinando renovarlo. Microsoft y Amazon han continuado expandiendo contratos de defensa a pesar de cierta disensión interna.

La decisión de OpenAI de entrar en el mercado militar clasificado sugiere un cálculo estratégico de que competir por contratos de IA gubernamental es importante para la posición a largo plazo de la empresa, particularmente mientras compite con Anthropic, Google DeepMind y empresas de IA enfocadas en defensa como Scale AI y Palantir. El presupuesto de IA del Pentágono está creciendo rápidamente, y la empresa que se establezca como el socio de IA gubernamental de confianza al principio puede asegurar ventajas significativas a largo plazo.

Este artículo se basa en reportajes de MIT Technology Review. Lee el artículo original.