Un revés para Washington en su ofensiva contra un importante proveedor de IA

Un juez federal ha dado a Anthropic una gran victoria inicial en su conflicto, cada vez más intenso, con el gobierno de Estados Unidos, al conceder una medida cautelar preliminar que bloquea a las agencias de aplicar las órdenes que designan a la empresa como un riesgo para la cadena de suministro mientras avanza el caso. Pero, en cuestión de horas, el liderazgo del Pentágono respondió públicamente y sostuvo que una parte de la prohibición del gobierno contra Anthropic sigue vigente.

La disputa gira en torno al choque entre el poder federal de contratación pública y el intento de una empresa de IA de imponer límites al uso de sus modelos. Breaking Defense informa que, después de que Anthropic se negara a aceptar un lenguaje contractual que permitía “todo uso lícito” de su Claude AI por parte del ejército, el presidente Donald Trump ordenó el 27 de febrero a las agencias federales dejar de usar de inmediato la tecnología de Anthropic. Después, el secretario de Defensa Pete Hegseth publicó que ningún contratista, proveedor o socio que hiciera negocios con el ejército de Estados Unidos podía realizar actividad comercial con Anthropic.

El fallo: probable represalia, no una decisión neutral sobre riesgos

El 4 de marzo, el gobierno emitió dos cartas formales que designaban a Anthropic como un riesgo para la cadena de suministro bajo estatutos distintos: una aplicable a todo el gobierno federal y otra específica para el Departamento de Defensa. Anthropic respondió con dos demandas, impugnando tanto la acción federal más amplia como la designación más enfocada en defensa.

La medida cautelar preliminar de la jueza Rita Lin pausa ahora la aplicación de las órdenes para las 17 agencias federales nombradas como demandadas en el caso de California hasta que se resuelva el litigio. En un pasaje destacado por Breaking Defense, Lin escribió que el expediente “sugiere fuertemente” que los motivos dados para la designación de Anthropic eran pretextuales y que la verdadera intención del gobierno era una represalia ilegal. Al conceder la medida cautelar, concluyó que Anthropic probablemente tendría éxito en su demanda, un umbral alto para esta etapa del litigio.

Ese lenguaje importa. Las medidas cautelares preliminares no son fallos definitivos, pero indican que un tribunal ve una probabilidad seria de que la acción impugnada fuera impropia. En términos prácticos, la orden interrumpe un esfuerzo gubernamental de alto perfil para aislar a un proveedor líder de IA de los negocios federales y envía una advertencia sobre hasta dónde pueden llegar las agencias cuando las disputas comerciales se cruzan con la retórica de seguridad nacional.

La respuesta del Pentágono muestra que la pelea está lejos de terminar

La medida cautelar no resolvió el conflicto político y legal de fondo. Breaking Defense informa que el subsecretario de Defensa y director de tecnología, Emil Michael, argumentó en redes sociales que la orden contenía “docenas de errores de hecho” y afirmó que la designación de riesgo para la cadena de suministro seguía “plenamente vigente” bajo el estatuto de alcance gubernamental general, que según él no estaba sujeto a la jurisdicción de la jueza Lin.

Esa respuesta revela una fragmentación más profunda en la forma en que el gobierno podría intentar defender su postura. Incluso con una orden judicial en vigor, los funcionarios parecen preparados para argumentar que distintas autoridades legales preservan al menos parte del efecto práctico de la lista negra. Eso abre la posibilidad de batallas judiciales superpuestas, interpretaciones contradictorias de las agencias y una incertidumbre continua para los contratistas que necesitan saber si las herramientas de Anthropic son permitidas en el trabajo federal.

El caso es inusualmente importante porque no trata solo de los intereses comerciales de un proveedor. Se trata de si una empresa de IA puede resistirse a un lenguaje contractual militar que considera demasiado amplio sin quedar excluida mediante autoridades de contratación pública que normalmente se asocian con preocupaciones más tradicionales sobre la cadena de suministro. Si los tribunales concluyen que el gobierno usó esas autoridades como castigo por un desacuerdo de política, el fallo podría influir en cómo se desarrollan las disputas sobre gobernanza de la IA en la contratación federal.

Por qué esto importa para el sector de la IA

Para las empresas de IA, la disputa de Anthropic se está convirtiendo en una primera prueba de cuánta palanca espera tener el gobierno de Estados Unidos sobre los proveedores comerciales de modelos que quieren negocios federales, pero también desean definir límites a su despliegue. Esa tensión es especialmente aguda en entornos de seguridad nacional, donde las agencias pueden buscar la máxima flexibilidad y los proveedores pueden tratar de preservar salvaguardas vinculadas a la vigilancia, el uso de armas o el riesgo reputacional.

El litigio también pone presión sobre el lenguaje de “riesgo para la cadena de suministro”. Tradicionalmente, esa expresión evoca preocupaciones sobre fiabilidad, compromiso, influencia extranjera o vulnerabilidades ocultas en sistemas críticos. Aquí, la visión inicial de la jueza sugiere que la designación pudo haberse usado para otra cosa por completo: represalia tras un desacuerdo sobre los términos contractuales. Si esa interpretación se mantiene, el caso podría limitar cuán agresivamente pueden utilizarse las herramientas de contratación pública contra los proveedores de IA que rechazan ciertas exigencias del gobierno.

Por ahora, el resultado es mixto pero claramente trascendente. Anthropic ha ganado un fallo inicial importante, y se le ha dicho al gobierno que pause acciones clave mientras avanza el caso. Al mismo tiempo, los funcionarios del Pentágono están señalando que no aceptan las implicaciones prácticas de la medida cautelar con la amplitud que probablemente considera Anthropic.

Eso deja a la industria con un mensaje claro. La arquitectura jurídica que regula la IA en el gobierno aún se está escribiendo en tiempo real, y algunas de sus reglas más importantes pueden surgir no de la legislación ni de la guía de las agencias, sino de duros combates judiciales sobre lenguaje contractual, represalias y los límites del poder ejecutivo.

Este artículo se basa en la cobertura de Breaking Defense. Leer el artículo original.