Um acordo classificado de IA levanta novas questões sobre controle e supervisão

O Google teria assinado um acordo classificado permitindo que o Departamento de Defesa dos EUA use seus modelos de IA para “qualquer propósito governamental lícito”. O acordo relatado, descrito pelo The Verge com base em informações do The Information, colocaria o Google de forma mais firme dentro do ecossistema de IA de segurança nacional dos EUA em um momento de crescente escrutínio interno e externo.

O timing faz parte da história. O acordo foi divulgado menos de um dia depois de funcionários do Google terem pedido ao CEO Sundar Pichai que bloqueasse o uso da IA da empresa pelo Pentágono, argumentando que esses sistemas poderiam ser usados de maneiras “desumanas ou extremamente prejudiciais”. Essa distância entre a preocupação dos funcionários e a postura corporativa destaca o quão rapidamente os debates sobre implantação de IA estão saindo dos princípios e indo para a redação contratual.

Um dos elementos mais consequentes relatados não é apenas que o Pentágono pode usar os sistemas do Google, mas que o contrato aparentemente não concede ao Google “qualquer direito de controlar ou vetar decisões operacionais governamentais lícitas”. Se isso estiver correto, isso limitaria fortemente a capacidade da empresa de moldar usos finais depois que o acordo entrar em vigor, mesmo que o acordo também contenha linguagem contra vigilância em massa doméstica ou armas autônomas sem supervisão e controle humanos adequados.

Essa tensão está no centro da política atual de IA militar. As empresas frequentemente destacam salvaguardas de alto nível, mas a verdadeira prova é se essas salvaguardas podem ser aplicadas quando as exigências da missão mudam. A redação contratual relatada sugere um modelo em que princípios podem coexistir com ampla discricionariedade operacional do governo. Isso é muito diferente de uma postura em que o fornecedor mantém uma capacidade significativa de interromper ou restringir usos específicos.

O relatório também diz que o Google seria obrigado a ajudar com ajustes nas configurações e nos filtros de segurança da IA a pedido do governo. Esse detalhe importa porque amplia a conversa além do simples acesso. Ele implica um papel ativo de suporte na adaptação dos sistemas para necessidades de segurança nacional, algo que pode se tornar uma das dimensões mais contestadas das parcerias entre governo e IA.

Se confirmado, o acordo colocaria o Google ao lado da OpenAI e da xAI no campo de contratos classificados de IA, enquanto o The Verge observa que a Anthropic foi colocada na lista negra pelo Pentágono após se recusar a exigências relacionadas a armas e salvaguardas de vigilância. Esse contraste mostra o quão rapidamente o cenário competitivo pode premiar empresas dispostas a acomodar exigências de defesa.

O significado mais amplo é direto. A contratação de IA já não trata apenas de capacidade de nuvem ou prestígio de pesquisa. Cada vez mais, trata-se de quem está preparado para fornecer modelos, modificá-los e aceitar menos controle depois que eles entram nos sistemas governamentais. Esse suposto acordo entre Google e Pentágono seria mais um sinal de que a fronteira entre liderança comercial em IA e infraestrutura de defesa está ficando mais fina mês após mês.

Este artigo é baseado na reportagem do The Verge. Leia o artigo original.