Una herramienta de la Guerra Fría para una era de nueva tecnología
La relación entre el Departamento de Defensa de Estados Unidos y una de las principales empresas de inteligencia artificial del mundo ha llegado a un punto crítico. El Secretario de Defensa Pete Hegseth ha presentado un ultimátum contundente a Anthropic: aceptar permitir el uso militar sin restricciones de su tecnología de AI antes del viernes, o enfrentar la expulsión de la cadena de suministro del Pentágono por completo.
La amenaza se produjo durante una reunión tensa en Washington el martes, donde Hegseth convocó al CEO de Anthropic, Dario Amodei, para lo que las fuentes describieron como una discusión confrontacional sobre la negativa de la empresa a otorgar al ejército acceso sin restricciones a sus modelos de AI para operaciones clasificadas. Entre las exigencias más contenciosas se encontraban disposiciones para capacidades de vigilancia doméstica y misiones autónomas letales sin supervisión humana directa.
Quizás lo más sorprendente fue la invocación de Hegseth de la Ley de Producción de Defensa, un estatuto de la era de la Guerra Fría que otorga al presidente una amplia autoridad para obligar a las industrias nacionales a servir las prioridades de defensa nacional. Diseñada originalmente para asegurar que las fábricas pudieran cambiar a la producción en tiempos de guerra, la ley nunca ha sido utilizada para obligar a una empresa de AI a entregar su tecnología, lo que hace que esta amenaza sea sin precedentes en la historia de la política tecnológica estadounidense.
La postura de primacía de la seguridad de Anthropic bajo presión
Anthropic se ha distinguido durante mucho tiempo en la industria de AI por su énfasis en la investigación de seguridad y el despliegue responsable. La empresa, fundada por los investigadores de OpenAI Dario y Daniela Amodei, ha construido su marca en torno al concepto de AI constitucional: sistemas diseñados con protecciones éticas integradas para prevenir el mal uso.
Esa filosofía de primacía de la seguridad ha colocado a la empresa en una trayectoria de colisión con el creciente apetito del Pentágono por la integración de AI en las operaciones militares. Aunque Anthropic no se ha opuesto a todos los contratos de defensa, ha trazado líneas firmes alrededor de ciertas aplicaciones, particularmente las que involucran fuerza letal autónoma sin control humano significativo y programas de vigilancia masiva dirigidos a poblaciones domésticas.
La posición de la empresa refleja un debate más amplio dentro de la industria de AI sobre dónde trazar los límites éticos. Otras principales empresas de AI, incluyendo OpenAI y Google, también han lidiado con contratos militares, aunque la mayoría ha estado más dispuesta a negociar los términos del compromiso con agencias de defensa. La línea más dura de Anthropic la ha convertido en un pararrayos en el impulso cada vez más agresivo de Washington por armar la inteligencia artificial.
La Ley de Producción de Defensa: un arma inusual
La Ley de Producción de Defensa fue promulgada en 1950, durante las primeras etapas de la Guerra de Corea. Su propósito original era simple: asegurar que la industria estadounidense pudiera cambiar rápidamente la producción para apoyar las necesidades militares. Durante las décadas, ha sido invocada para todo, desde la fabricación de semiconductores hasta las cadenas de suministro médico de pandemias.
Pero aplicar la DPA para obligar a una empresa de AI a otorgar acceso a sus modelos representa un tipo fundamentalmente diferente de intervención. A diferencia de los bienes físicos, los modelos de AI son propiedad intelectual cuyas capacidades y riesgos están profundamente entrelazados. Obligar a una empresa a eliminar las protecciones de seguridad de su tecnología plantea preguntas que van mucho más allá de las disputas tradicionales de adquisiciones.
Los expertos legales han señalado que tal uso de la DPA probablemente enfrentaría desafíos legales inmediatos. La ley fue diseñada para prioridades de producción y cadena de suministro, no para anular las políticas de seguridad internas de una empresa sobre cómo se despliega su tecnología. Cualquier intento de invocarla podría establecer un precedente con implicaciones de largo alcance para todo el sector tecnológico.
Reacciones de la industria e implicaciones más amplias
El enfrentamiento ha enviado ondas de choque a través de Silicon Valley. Otras empresas de AI están observando de cerca, conscientes de que el resultado podría establecer nuevas normas para cómo el gobierno interactúa con el sector privado de AI. Varios líderes de la industria han expresado privadamente preocupación de que ceder a las demandas del Pentágono podría socavar la investigación de seguridad que muchos consideran esencial para prevenir el mal uso catastrófico de AI.
Las respuestas del Congreso han sido mixtas. Los halcones en los comités de Servicios Armados han respaldado la posición de Hegseth, argumentando que la seguridad nacional debe tener prioridad sobre las preferencias de seguridad corporativa. Otros, particularmente miembros del Comité de Comercio del Senado, han advertido que presionar a las empresas de AI podría llevar el talento y la innovación al extranjero, debilitando en última instancia la posición competitiva de Estados Unidos.
La Unión Europea también ha tomado nota. Los funcionarios de la UE han señalado el enfrentamiento como evidencia que respalda su propio enfoque más regulatorio de la gobernanza de AI, con un diplomático senior señalando que el episodio subraya los riesgos de dejar las decisiones de seguridad de AI a los caprichos de los nombrados políticos.
¿Qué sucede a continuación?
La fecha límite del viernes se cierne amenazante. Si Anthropic se niega a cumplir, Hegseth podría llevar a cabo su amenaza de eliminar la empresa de los canales de adquisición de defensa, cortando un flujo de ingresos significativo y enviando un mensaje a otras empresas de AI. La opción de la Ley de Producción de Defensa permanece sobre la mesa pero representaría una escalada mucho más dramática con resultados legales inciertos.
Para Anthropic, el cálculo es existencial. Ceder podría socavar los principios de seguridad que definen su identidad corporativa y erosionar la confianza con los empleados que se unieron específicamente debido a los compromisos éticos de la empresa. Resistir podría costarle a la empresa no solo los contratos del gobierno, sino también la buena voluntad política en un momento en que la regulación de AI se está moldeando activamente en Washington.
Sin importar el resultado, el enfrentamiento ha dejado una cosa clara: la luna de miel entre las empresas de AI y el gobierno ha terminado. La era de la colaboración cortés en la política de AI está dando paso a negociaciones jugadas donde las apuestas se miden no en ganancias trimestrales sino en las preguntas fundamentales de cómo se gobernará la tecnología más poderosa en la historia humana.
Este artículo se basa en reportajes de Ars Technica. Lee el artículo original.

