La apuesta del Pentágono por la IA ha entrado en una nueva fase

El Departamento de Defensa de EE. UU. dice que ha llegado a acuerdos con siete empresas tecnológicas para llevar la inteligencia artificial a redes informáticas militares clasificadas, una medida que señala con qué rapidez la IA se está integrando en la toma de decisiones operativas. Las empresas mencionadas en el informe proporcionado son Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX.

El Pentágono dice que el objetivo es ayudar a ampliar la toma de decisiones de los combatientes en entornos operativos complejos. Esa formulación es amplia, pero las implicaciones son concretas. La IA ya no se presenta solo como una herramienta experimental de back office. Se la está situando más cerca de la ejecución de la misión, donde la velocidad, la interpretación, la logística y los flujos de trabajo relacionados con la selección de objetivos pueden implicar grandes riesgos.

Lo que sugieren los contratos

El Departamento de Defensa ha estado acelerando la adopción de IA durante años, y estos acuerdos refuerzan esa tendencia. La fuente proporcionada dice que la IA puede reducir el tiempo necesario para identificar y atacar objetivos, al tiempo que ayuda a organizar el mantenimiento y las cadenas de suministro. Esa combinación refleja por qué las agencias de defensa están interesadas: la ventaja militar suele depender de procesar la información más rápido que un adversario, manteniendo al mismo tiempo operativos grandes sistemas técnicos bajo presión.

Llevar proveedores comerciales de IA a entornos clasificados también refleja una realidad práctica. Gran parte de la capacidad de IA más avanzada se está desarrollando en el sector privado. En lugar de construir internamente todas las herramientas relevantes, el Pentágono parece estar incorporando a su órbita de contratación a los principales creadores de modelos, proveedores de nube, empresas de semiconductores y operadores de sistemas.

Las preguntas éticas no han desaparecido

Al mismo tiempo, el informe deja claro que el entorno normativo sigue sin resolverse. Los críticos temen que la IA pueda invadir la privacidad de los estadounidenses o permitir que las máquinas elijan objetivos en el campo de batalla. Una de las empresas implicadas en los nuevos acuerdos dijo que su contrato exige supervisión humana en ciertas situaciones, un detalle importante porque sugiere que ni siquiera entre los contratistas existe un consenso consolidado sobre hasta dónde debe llegar la automatización.

Las preocupaciones no son abstractas. La fuente señala que las operaciones militares habilitadas por IA en otros conflictos han intensificado el temor de que estos sistemas contribuyan a daños civiles si se utilizan en situaciones frágiles, cambiantes y con información incompleta. Por eso el debate sobre el juicio humano, la formación de los operadores y la fiabilidad del sistema sigue siendo central.

Velocidad frente a control

Helen Toner, del Center for Security and Emerging Technology de la Universidad de Georgetown, citada en la fuente, describe bien la tensión central: la guerra moderna implica cada vez más a personas en centros de mando tomando decisiones complejas en escenarios confusos y en rápida evolución. La IA puede ayudar a resumir información o analizar imágenes de vigilancia, pero su utilidad no elimina el riesgo de confiar demasiado en ella.

Eso crea un problema de implementación difícil para el Pentágono. El ejército quiere un despliegue rápido porque ve la IA como una ventaja estratégica. Pero una implementación acelerada puede chocar con el trabajo más lento de formar operadores, establecer doctrina y crear salvaguardas para cuando los sistemas se equivoquen, sean inciertos o se usen fuera de su alcance previsto.

En términos prácticos, la pregunta difícil no es si se usará la IA. Ya se está usando. La cuestión es cuánto margen de decisión conservan los humanos, cómo se verifican los resultados y cómo se enseña a los mandos a tratar las sugerencias generadas por modelos en entornos donde los errores pueden ser irreversibles.

La ausencia de Anthropic destaca

La lista de contratistas también revela fracturas políticas y éticas en la industria de la IA. Anthropic está notablemente ausente. Según el informe proporcionado, la disputa de la empresa con la administración Trump se centró en preocupaciones de seguridad y ética en torno al uso militar. La empresa buscó garantías de que su tecnología no se utilizaría en armas totalmente autónomas ni para vigilar a estadounidenses, mientras que el secretario de Defensa Pete Hegseth insistió en que el ejército debe conservar la opción de usar sistemas para cualquier propósito legal.

Ese desacuerdo importa porque pone de relieve una división más profunda entre las empresas dispuestas a entrar en acuerdos amplios de defensa y las que tratan de fijar condiciones más limitadas. A medida que los sistemas de IA se vuelvan más capaces, esos límites contractuales podrían convertirse en una de las herramientas de gobernanza más importantes disponibles.

  • Siete empresas proporcionarán capacidades de IA para redes clasificadas del Pentágono.
  • El objetivo declarado es apoyar la toma de decisiones en entornos operativos complejos.
  • Siguen las preocupaciones sobre autonomía, privacidad y daños a civiles.
  • La ausencia de Anthropic subraya disputas no resueltas sobre las barreras militares.

Una prueba decisiva para la IA aplicada

Estos acuerdos marcan un momento importante porque llevan la IA más allá de las aplicaciones de consumo y el software de productividad hacia uno de los ámbitos con mayores consecuencias que puede alcanzar cualquier tecnología. Las organizaciones militares valoran la velocidad, la escala y la ventaja informativa. La IA promete las tres cosas. Pero también introduce opacidad, fragilidad y la tentación de confiar en sistemas que pueden parecer seguros incluso cuando se equivocan.

Eso significa que los últimos contratos del Pentágono no son solo una noticia de compras. Son una prueba temprana de cómo se gobernará la IA avanzada cuando el coste del fracaso se mida no en eficiencia perdida, sino en vidas, rendición de cuentas y estabilidad estratégica.

Este artículo se basa en la cobertura de Fast Company. Leer el artículo original.