Un Plazo del Viernes y una Guerra Fría sobre Ética de IA

Anthropic, la empresa de seguridad de IA detrás de la familia de modelos de lenguaje Claude, está enfrentando un enfrentamiento extraordinario con el Departamento de Defensa de los EE.UU. Según reportes, el Pentágono ha exigido que Anthropic flexibilice sus restricciones sobre aplicaciones militares de su tecnología de IA — específicamente sus prohibiciones sobre el uso en sistemas de armas autónomas y vigilancia masiva. Anthropic ha rechazado, y el Departamento de Defensa ha respondido con una amenaza de invocar la Ley de Producción de Defensa, una ley de la Guerra Fría que permite al gobierno obligar a las empresas privadas a priorizar la producción de defensa nacional.

Se le ha dado a la empresa hasta el viernes para cumplir. Si Anthropic mantiene su negativa, el Pentágono podría obligar legalmente a la empresa a proporcionar acceso a sus capacidades de IA para fines militares, estableciendo un enfrentamiento legal y ético sin precedentes claros en la industria de IA.

Lo que Anthropic ha Restringido

Desde su fundación, Anthropic ha mantenido una política de uso aceptable que explícitamente prohíbe el uso de sus modelos de IA para armas autónomas, vigilancia masiva, y otras aplicaciones que la empresa considera incompatibles con su misión de desarrollar IA de manera segura. Estas restricciones no son inusuales en la industria de IA — la mayoría de las grandes empresas de IA tienen políticas similares — pero Anthropic ha sido particularmente vocal sobre su compromiso con la seguridad de IA como un principio organizacional fundamental.

La empresa fue fundada por antiguos investigadores de OpenAI, Dario y Daniela Amodei, en parte debido a preocupaciones sobre el ritmo y la gobernanza del desarrollo de IA. Su identidad de marca se construye alrededor del desarrollo responsable de IA, y su investigación en alineación de IA e interpretabilidad la ha posicionado como líder en el enfoque de seguridad primero para la inteligencia artificial. Ceder en las restricciones militares socavaría la narrativa fundamental de la empresa.

La Amenaza de la Ley de Producción de Defensa

La Ley de Producción de Defensa, firmada en ley en 1950 durante la Guerra de Corea, le da al presidente una amplia autoridad para dirigir a la industria privada a priorizar contratos y órdenes consideradas necesarias para la defensa nacional. Ha sido invocada periódicamente para diversos propósitos — más recientemente durante la pandemia de COVID-19 para obligar la producción de suministros médicos — pero usarla para obligar a una empresa de IA a proporcionar su tecnología para aplicaciones militares representaría una aplicación sin precedentes de la ley.

Los expertos legales están divididos sobre si tal invocación sobreviviría a un escrutinio judicial. La DPA fue diseñada para la manufactura de bienes físicos — acero, municiones, equipo médico — no para obligar a una empresa de software a alterar sus términos de servicio. La cuestión de si el acceso a modelos de IA constituye un "producto" que puede ser requisado bajo la ley plantea preguntas legales novedosas que los tribunales aún no han abordado.

  • El Pentágono exige que Anthropic elimine las restricciones de IA sobre armas autónomas y vigilancia
  • Anthropic se niega, citando su compromiso fundamental con los principios de seguridad de IA
  • El Departamento de Defensa amenaza con invocar la Ley de Producción de Defensa antes del viernes
  • Los expertos legales cuestionan si la DPA puede obligar a una empresa de software a cambiar sus políticas
  • El enfrentamiento podría establecer un precedente para la autoridad del gobierno sobre empresas de IA

Implicaciones para la Industria

El enfrentamiento entre Anthropic y el Pentágono envía ondas de choque a través de una industria de IA que ha estado navegando una relación cada vez más compleja con agencias de seguridad nacional. Google, Microsoft, Amazon y OpenAI tienen todos contratos significativos de defensa, y cada una ha enfrentado presión interna y externa sobre aplicaciones militares de su tecnología. Google famosamente se retiró del Proyecto Maven, un programa de IA del Pentágono, después de protestas de empleados en 2018, aunque la empresa ha expandido su trabajo de defensa desde entonces.

Si la Ley de Producción de Defensa se usa exitosamente contra Anthropic, establecería un precedente de que cualquier empresa de IA operando en los Estados Unidos podría ser obligada a proporcionar su tecnología para fines militares independientemente de sus propias directrices éticas. Esa perspectiva podría enfriar la investigación de seguridad de IA, empujar a empresas enfocadas en seguridad a reubicarse fuera de la jurisdicción de EE.UU., o crear una industria bifurcada donde las empresas deben elegir entre contratos del gobierno y compromisos de seguridad.

Conversamente, si Anthropic resiste exitosamente la orden — ya sea a través de desafío legal o negociación política — podría fortalecer el principio de que las empresas de IA tienen el derecho de establecer límites éticos sobre cómo se usa su tecnología, incluso cuando el cliente es el gobierno de EE.UU.

La Tensión Más Amplia

El enfrentamiento refleja una tensión fundamental que ha estado construyéndose desde que los grandes modelos de lenguaje y otros sistemas avanzados de IA comenzaron a demostrar capacidades con claras aplicaciones militares. El gobierno de EE.UU. ve la dominación de IA como esencial para la seguridad nacional, particularmente en competencia con China, que está vertiendo recursos en aplicaciones de IA militar con menos restricciones éticas. Desde la perspectiva del Pentágono, permitir que una empresa de IA líder se opte por no participar en aplicaciones de defensa es un lujo que la nación no puede permitirse.

Desde la perspectiva de Anthropic, las restricciones existen precisamente porque la empresa cree que la aplicación sin restricciones de sistemas de IA poderosos posee riesgos catastróficos — riesgos que no se eliminan simplemente porque el usuario vista un uniforme estadounidense. La posición de la empresa es que algunas aplicaciones de IA son demasiado peligrosas para permitir, independientemente de quién esté preguntando.

Cómo se resuelve este enfrentamiento probablemente dará forma a la relación entre la industria de IA y el gobierno de EE.UU. durante años por venir. Es un caso de prueba para si los compromisos de seguridad de IA pueden resistir la atracción gravitacional de los imperativos de seguridad nacional — y si el gobierno usará sus herramientas legales más poderosas para asegurar que no puedan.

Este artículo se basa en reportes de The Decoder. Lee el artículo original.