Um Prazo de Sexta-feira e uma Guerra Fria Sobre Ética de AI
A Anthropic, empresa de segurança de AI por trás da família Claude de modelos de linguagem, está enfrentando um confronto extraordinário com o Departamento de Defesa dos EUA. De acordo com reportagens, o Pentagon exigiu que a Anthropic flexibilizasse suas restrições sobre aplicações militares de sua tecnologia de AI — especificamente suas proibições sobre uso em sistemas de armas autônomas e vigilância em massa. A Anthropic recusou, e o Departamento de Defesa respondeu com uma ameaça de invocar o Defense Production Act, uma lei da era da Guerra Fria que permite ao governo compelir empresas privadas a priorizar a produção de defesa nacional.
A empresa recebeu até sexta-feira para cumprir. Se a Anthropic manter sua recusa, o Pentagon poderia legalmente compelir a empresa a fornecer acesso a suas capacidades de AI para fins militares, preparando um confronto legal e ético sem precedentes claros na indústria de AI.
O Que a Anthropic Restringiu
Desde sua fundação, a Anthropic mantém uma política de uso aceitável que explicitamente proíbe o uso de seus modelos de AI para armas autônomas, vigilância em massa e outras aplicações que a empresa considera incompatíveis com sua missão de desenvolver AI com segurança. Essas restrições não são incomuns na indústria de AI — a maioria das grandes empresas de AI tem políticas semelhantes — mas a Anthropic tem sido particularmente vocal sobre seu compromisso com a segurança de AI como um princípio organizacional central.
A empresa foi fundada por pesquisadores da OpenAI, Dario e Daniela Amodei, em parte por preocupações sobre o ritmo e a governança do desenvolvimento de AI. Sua identidade de marca é construída em torno do desenvolvimento responsável de AI, e sua pesquisa em alinhamento de AI e interpretabilidade a posicionou como líder na abordagem safety-first para inteligência artificial. Retroceder nas restrições militares minaria a narrativa fundamental da empresa.
A Ameaça do Defense Production Act
O Defense Production Act, sancionado em lei em 1950 durante a Guerra da Coreia, dá ao presidente ampla autoridade para dirigir a indústria privada a priorizar contratos e pedidos considerados necessários para a defesa nacional. Ele foi invocado periodicamente para vários fins — mais recentemente durante a pandemia de COVID-19 para compelir a produção de suprimentos médicos — mas usá-lo para forçar uma empresa de AI a fornecer sua tecnologia para aplicações militares representaria uma aplicação sem precedentes da lei.
Especialistas legais estão divididos sobre se tal invocação sobreviveria ao escrutínio judicial. O DPA foi projetado para manufatura de bens físicos — aço, munição, equipamentos médicos — não para compelir uma empresa de software a alterar seus termos de serviço. A questão de se o acesso ao modelo de AI constitui um "produto" que pode ser confiscado sob o ato levanta questões legais novas que os tribunais ainda não abordaram.
- Pentagon exige que Anthropic remova restrições no uso de AI em armas autônomas e vigilância
- Anthropic recusou, citando seu compromisso fundamental com princípios de segurança de AI
- Departamento de Defesa ameaça invocação do Defense Production Act até sexta-feira
- Especialistas legais questionam se o DPA pode compelir uma empresa de software a mudar suas políticas
- O impasse poderia estabelecer precedente para autoridade governamental sobre empresas de AI
Implicações da Indústria
O confronto entre Anthropic e o Pentagon envia ondas de choque através de uma indústria de AI que tem navegado uma relação cada vez mais complexa com agências de segurança nacional. Google, Microsoft, Amazon e OpenAI todos têm contratos significativos de defesa, e cada um enfrentou pressão interna e externa sobre aplicações militares de sua tecnologia. Google famosamente se retirou do Project Maven, um programa de AI do Pentagon, após protestos de funcionários em 2018, embora a empresa desde então tenha expandido seu trabalho de defesa.
Se o Defense Production Act for usado com sucesso contra a Anthropic, estabeleceria um precedente de que qualquer empresa de AI operando nos Estados Unidos poderia ser compelida a fornecer sua tecnologia para fins militares independentemente de suas próprias diretrizes éticas. Essa perspectiva poderia esfriar pesquisa de segurança de AI, empurrar empresas focadas em segurança a se realocar fora da jurisdição dos EUA, ou criar uma indústria bifurcada onde empresas devem escolher entre contratos governamentais e compromissos de segurança.
Inversamente, se a Anthropic resistir com sucesso à ordem — seja através de desafio legal ou negociação política — poderia fortalecer o princípio de que empresas de AI têm o direito de estabelecer limites éticos sobre como sua tecnologia é usada, mesmo quando o cliente é o governo dos EUA.
A Tensão Mais Ampla
O impasse reflete uma tensão fundamental que tem se desenvolvido desde que modelos de linguagem grandes e outros sistemas de AI avançados começaram a demonstrar capacidades com aplicações militares claras. O governo dos EUA vê a dominância de AI como essencial para a segurança nacional, particularmente em competição com a China, que está despejando recursos em aplicações militares de AI com restrições éticas menores. Da perspectiva do Pentagon, permitir que uma empresa de AI líder se opte por sair das aplicações de defesa é um luxo que a nação não pode permitir.
Da perspectiva da Anthropic, as restrições existem precisamente porque a empresa acredita que a aplicação militar irrestrita de sistemas de AI poderosos representa riscos catastróficos — riscos que não são eliminados simplesmente porque o usuário veste um uniforme americano. A posição da empresa é que algumas aplicações de AI são muito perigosas para habilitar, independentemente de quem está pedindo.
Como esse impasse se resolve provavelmente moldará a relação entre a indústria de AI e o governo dos EUA nos anos vindouros. É um caso de teste para saber se compromissos de segurança de AI podem resistir ao puxão gravitacional de imperativos de segurança nacional — e se o governo usará suas ferramentas legais mais poderosas para garantir que não possam.
Este artigo é baseado em reportagem do The Decoder. Leia o artigo original.

