Um revés para Washington em sua ofensiva contra um importante fornecedor de IA

Um juiz federal deu à Anthropic uma grande vitória inicial em seu conflito crescente com o governo dos Estados Unidos, concedendo uma liminar preliminar que bloqueia agências de تنفيذirem ordens que designam a empresa como risco à cadeia de suprimentos enquanto o caso avança. Mas, em poucas horas, a liderança do Pentágono reagiu publicamente, argumentando que uma parte da proibição do governo contra a Anthropic ainda permanece em vigor.

A disputa gira em torno do choque entre o poder federal de compras e a tentativa de uma empresa de IA de impor limites ao uso de seus modelos. O Breaking Defense informa que, depois de a Anthropic se recusar a aceitar uma cláusula contratual que permitia “todo uso legal” de sua Claude AI pelos militares, o presidente Donald Trump determinou em 27 de fevereiro que as agências federais cessassem imediatamente o uso da tecnologia da Anthropic. Em seguida, o secretário de Defesa Pete Hegseth publicou que nenhum contratante, fornecedor ou parceiro que fizesse negócios com o Exército dos EUA poderia realizar atividade comercial com a Anthropic.

A decisão: provável retaliação, não uma avaliação neutra de risco

Em 4 de março, o governo respondeu com duas cartas formais designando a Anthropic como risco à cadeia de suprimentos sob estatutos distintos: um aplicável a todo o governo federal e outro voltado ao Departamento de Defesa. A Anthropic então entrou com duas ações judiciais, contestando tanto a medida federal mais ampla quanto a designação mais específica para a área de defesa.

A liminar preliminar da juíza Rita Lin agora suspende a execução das ordens para as 17 agências federais citadas como rés no caso da Califórnia até que a disputa seja resolvida. Em uma passagem marcante citada pelo Breaking Defense, Lin escreveu que o registro “sugere fortemente” que os motivos apresentados para a designação da Anthropic eram pretextuais e que o verdadeiro objetivo do governo era retaliação ilegal. Ao conceder a liminar, ela concluiu que a Anthropic provavelmente teria sucesso em sua ação, um padrão elevado para esta fase do litígio.

Essa linguagem importa. Liminares preliminares não são decisões finais, mas sinalizam que um tribunal vê uma probabilidade séria de que a medida contestada foi indevida. Na prática, a ordem atrapalha um esforço governamental de alto perfil para isolar uma fornecedora líder de IA de negócios federais e envia um alerta sobre até onde as agências podem ir quando disputas comerciais se misturam com a retórica de segurança nacional.

A resposta do Pentágono mostra que a briga está longe de terminar

A liminar não resolveu o conflito político e jurídico central. O Breaking Defense relata que o subsecretário de Defesa e diretor de tecnologia Emil Michael argumentou nas redes sociais que a ordem continha “dezenas de erros factuais” e disse que a designação de risco à cadeia de suprimentos permanecia “em pleno vigor e efeito” sob o estatuto de abrangência governamental, que ele alegou não estar sujeito à jurisdição da juíza Lin.

Essa resposta revela uma fragmentação mais profunda na forma como o governo pode tentar defender sua posição. Mesmo com uma ordem judicial em vigor, autoridades parecem preparadas para argumentar que autoridades legais separadas preservam ao menos parte do efeito prático da lista negra. Isso abre a possibilidade de batalhas judiciais sobrepostas, interpretações conflitantes de agências e incerteza contínua para contratantes que precisam saber se as ferramentas da Anthropic são permitidas em trabalho federal.

O caso é especialmente significativo porque não trata apenas dos interesses comerciais de um fornecedor. Trata-se de saber se uma empresa de IA pode resistir a uma cláusula contratual militar que considera ampla demais sem ser excluída por meio de autoridades de compras normalmente associadas a preocupações mais tradicionais com a cadeia de suprimentos. Se os tribunais concluírem que o governo usou essas autoridades como punição por uma divergência de política, a decisão poderá influenciar como disputas de governança de IA se desenrolam na contratação federal.

Por que isso importa para o setor de IA

Para as empresas de IA, a disputa da Anthropic está se tornando um teste inicial de quanto poder o governo dos EUA espera ter sobre fornecedores comerciais de modelos que querem negócios federais, mas também querem definir limites para a implantação. Essa tensão é especialmente aguda em cenários de segurança nacional, onde as agências podem buscar flexibilidade máxima e os fornecedores podem tentar preservar salvaguardas ligadas à vigilância, ao uso em armamentos ou ao risco reputacional.

O litígio também pressiona a expressão “risco à cadeia de suprimentos”. Tradicionalmente, essa frase evoca preocupações com confiabilidade, comprometimento, influência estrangeira ou vulnerabilidades ocultas em sistemas críticos. Aqui, a avaliação inicial da juíza sugere que a designação pode ter sido usada para outra coisa inteiramente: retaliação após uma divergência sobre termos contratuais. Se essa interpretação se mantiver, o caso pode restringir o uso agressivo de ferramentas de compras contra fornecedores de IA que recusam certas exigências governamentais.

Por enquanto, o resultado é misto, mas inegavelmente relevante. A Anthropic obteve uma decisão inicial significativa, e o governo foi instruído a pausar ações-chave enquanto o caso se desenvolve. Ao mesmo tempo, autoridades do Pentágono indicam que não aceitam as implicações práticas da liminar na mesma amplitude que a Anthropic provavelmente entende.

Isso deixa o setor com uma mensagem clara. A arquitetura jurídica que rege a IA no governo ainda está sendo escrita em tempo real, e algumas de suas regras mais importantes podem surgir não de legislação ou orientação de agências, mas de batalhas judiciais intensas sobre redação contratual, retaliação e os limites do poder executivo.

Este artigo é baseado na cobertura do Breaking Defense. Leia o artigo original.