El problema de alineación de IA militar
El US Department of Defense ha seguido una trayectoria agresiva de adopción de IA desde el establecimiento del Joint Artificial Intelligence Center en 2018 y su sucesor, la Chief Digital and Artificial Intelligence Office en 2022. Sin embargo, a medida que el Pentagon ha firmado contratos con un número cada vez mayor de empresas de IA — desde contratistas de defensa establecidos hasta startups de Silicon Valley y laboratorios de modelos de frontera — ha surgido un nuevo desafío: la proliferación de herramientas de IA incompatibles, diferentes versiones de modelos y niveles de capacidad inconsistentes en los comandos y ramas de las fuerzas armadas.
La respuesta del Pentagon es un esfuerzo para estandarizar a sus proveedores de IA y que todos operen en lo que los funcionarios denominan la misma línea de base — un conjunto compartido de versiones de modelos, API, políticas de seguridad y puntos de referencia de desempeño que permitiría que diferentes sistemas militares interoperen y permitiría que los funcionarios de supervisión tengan una imagen coherente de qué capacidades de IA se implementan dónde.
Claude en el contexto militar
Entre los sistemas de IA para los que el Pentagon busca estandarizar el acceso se encuentra Claude de Anthropic — uno de los modelos de lenguaje de frontera que ha sido utilizado por varios contratistas adyacentes a la defensa y directamente por organizaciones del DoD para tareas que incluyen análisis de documentos, procesamiento de inteligencia y apoyo a la toma de decisiones. La inclusión de Claude junto con sistemas de OpenAI, Google y Microsoft refleja el deseo del Pentagon de mantener opciones entre múltiples proveedores de IA de frontera en lugar de depender de un único proveedor.
Anthropic ha tenido una relación más compleja con los contratos militares que algunos de sus competidores. La Política de Uso Aceptable de la empresa prohíbe el uso de Claude para el desarrollo de armas, ataques contra infraestructura crítica y varias otras categorías de aplicaciones dañinas. Pero la línea entre los casos de uso prohibidos y permitidos en un contexto militar no siempre es clara — el análisis de documentos, la optimización logística y el apoyo a la toma de decisiones son aplicaciones facialmente neutras que en la práctica pueden contribuir a operaciones militares, incluidas las letales.
La renuncia de la jefa de robótica de OpenAI, Caitlin Kalinowski, sobre el acuerdo del Pentagon de esa empresa — citando preocupaciones sobre autonomía letal y deliberación insuficiente — subraya las tensiones éticas que enfrentan las empresas de IA de frontera cuando se relacionan con clientes militares. Anthropic no ha divulgado públicamente los términos específicos bajo los cuales Claude está disponible para clientes del DoD o qué mecanismos de supervisión rigen su uso militar.
IA para orientación militar: el problema central
La aplicación más sensible de IA en contextos militares es la orientación — el uso de sistemas automatizados para identificar, priorizar y en algunos casos ayudar a atacar objetivos enemigos. La doctrina de las fuerzas armadas estadounidenses requiere autorización humana para decisiones de uso de la fuerza letal, pero el papel de la IA en el procesamiento de datos de sensores, la identificación de objetivos potenciales y la presentación de recomendaciones a los responsables de tomar decisiones humanas se ha expandido dramáticamente en los últimos años.
Project Maven, el programa de análisis de imágenes basado en IA del Pentagon, procesa metraje de vigilancia de drones para identificar objetivos de interés para revisión humana. La IA no toma la decisión letal final — un humano lo hace — pero da forma a la información que llega al humano y cómo se enmarca, lo que plantea preguntas sobre la calidad significativa de la supervisión humana que la doctrina nominalmente requiere.
El esfuerzo de estandarización es en parte una respuesta a las preocupaciones de supervisión: si diferentes sistemas de IA dan resultados diferentes para las mismas entradas, o si nadie tiene un conteo completo de qué sistemas de IA contribuyen a qué decisiones, la supervisión humana significativa de la orientación asistida por IA se vuelve extremadamente difícil. La estandarización crea auditabilidad — la capacidad de saber qué modelo, en qué versión, bajo qué configuraciones de seguridad, estuvo involucrado en cualquier cadena de decisión dada.
La pregunta de arquitectura ética
Los críticos en la comunidad de ética de la IA argumentan que la estandarización aborda un problema de gobernanza pero no resuelve la pregunta ética más fundamental: si la IA debe usarse en decisiones de orientación en absoluto, y si es así bajo qué restricciones. Poner a todos los proveedores de IA militares en la misma línea de base significa definir cuál es esa línea de base — qué valores, qué políticas de seguridad, qué usos prohibidos están incorporados en el estándar. Ese proceso de definición está sucediendo en gran medida fuera de la vista pública.
Las apuestas de hacerlo bien son altas. Los sistemas de IA que introducen sesgos en decisiones de orientación, que alucinar evaluaciones de amenazas, o que son manipulados por entradas adversariales podrían contribuir a errores catastróficos en situaciones de combate. El esfuerzo de estandarización del Pentagon es un reconocimiento de este riesgo — pero la adecuación de la respuesta será finalmente juzgada por cómo funcionan los sistemas bajo condiciones operativas que no pueden ser completamente anticipadas de antemano.
Este artículo se basa en reportajes de MIT Technology Review. Lee el artículo original.

