IA en la Cadena de Muerte
La integración de inteligencia artificial en objetivos militares ha sido uno de los desarrollos más estrechamente monitoreados y menos transparentes en la guerra moderna. Ahora, un funcionario del Departamento de Defensa hablando bajo condición de anonimato ha proporcionado, por primera vez, información específica sobre cómo la IA generativa – la misma tecnología que subyace a ChatGPT y otros grandes modelos de lenguaje – se utiliza para ayudar en las decisiones de objetivos en la campaña militar estadounidense en curso contra Irán.
Según el funcionario, quien solicitó anonimato debido a la sensibilidad del tema, los sistemas de IA generativa se utilizan como una capa de análisis conversacional sobre datos de inteligencia y objetivos existentes. Una lista de objetivos potenciales se introduce en el sistema de IA, al que se le solicita que analice la información, priorice objetivos y genere recomendaciones basadas en factores como el posicionamiento de aeronaves, los objetivos de la misión e inteligencia disponible. Los operadores humanos entonces revisan, evalúan y asumen la responsabilidad de actuar sobre estas recomendaciones.
Dos Tecnologías de IA Diferentes
El relato del funcionario destaca una distinción importante que a menudo se pierde en los debates públicos sobre IA en la guerra: el Pentágono está desplegando dos tipos fundamentalmente diferentes de IA para funciones relacionadas pero distintas.
Project Maven, operativo desde al menos 2017, utiliza visión por computadora y aprendizaje automático para procesar los enormes volúmenes de datos de imágenes y sensores recopilados por sistemas de vigilancia – metraje de drones, imágenes satelitales, inteligencia de señales. Maven identifica objetivos potenciales dentro de estos datos y los presenta a los operadores humanos a través de una interfaz basada en mapas. Esto es IA como procesador de datos y reconocedor de patrones, operando en tareas bien definidas y supervisadas.
IA generativa – sistemas construidos sobre grandes modelos de lenguaje – es de un tipo diferente. Estos sistemas son conversacionales, flexibles y capaces de razonar a través de diversos tipos de información. Pueden sintetizar inteligencia de múltiples fuentes, generar evaluaciones escritas y responder preguntas abiertas. Pero también son menos probados en batalla, menos transparentes en su razonamiento y más propensos a los tipos de salidas seguras pero incorrectas que los expertos llaman alucinaciones.
La Cuestión Humano-en-el-Bucle
El funcionario fue explícito en que los humanos siguen siendo responsables de evaluar las recomendaciones de IA y tomar decisiones de objetivos finales. Este marco humano-en-el-bucle es estándar en las comunicaciones del Pentágono sobre IA y refleja tanto un compromiso político genuino como la realidad operativa: ningún comandante militar va a subcontratar completamente las decisiones de vida y muerte a un algoritmo.
Pero la pregunta práctica de cuánto peso dan los humanos a las recomendaciones de IA – especialmente bajo presión de tiempo y carga cognitiva – es más compleja que lo que cualquier declaración oficial puede capturar. La investigación sobre la toma de decisiones bajo incertidumbre muestra consistentemente que cuando sistemas que parecen autoritarios proporcionan recomendaciones seguras, la supervisión humana tiende a volverse superficial en lugar de genuina.
Claude, OpenAI y la Carrera por Contratos del Pentágono
Los comentarios del funcionario llegan en medio de una reestructuración dramática de la relación de la IA comercial con el ejército estadounidense. Claude de Anthropic fue el primer gran modelo de lenguaje aprobado para uso clasificado en el Pentágono y fue supuestamente desplegado en operaciones en Irán y Venezuela. Pero después de una disputa con el Pentágono sobre si Anthropic podía limitar cómo se usaba su modelo, el Departamento de Defensa designó a Anthropic como un riesgo de cadena de suministro, y el Presidente Trump pidió que el uso gubernamental de la IA de la empresa terminara en seis meses.
OpenAI cerró la brecha, anunciando el 28 de febrero un acuerdo para que el ejército use sus tecnologías en entornos clasificados. xAI de Elon Musk ha llegado a un acuerdo similar para Grok. La velocidad de estas relaciones comerciales – y el escrutinio público limitado que han recibido – ha atraído críticas de investigadores de seguridad de IA y expertos en control de armas que argumentan que la integración de IA en sistemas militares letales está avanzando más rápido de lo que los marcos de gobernanza pueden acomodar.
Este artículo se basa en reportajes de MIT Technology Review. Lea el artículo original.

