Um acordo com implicações amplas

Passaram pouco mais de duas semanas desde que OpenAI chegou a um acordo histórico para permitir que o Departamento de Defesa dos EUA use seus sistemas de IA em ambientes militares classificados. O acordo gerou tanto atenção significativa quanto preocupações importantes entre pesquisadores de IA, especialistas em controle de armas e defensores das liberdades civis. Com forças americanas ativamente envolvidas em operações militares contra o Irã—incluindo ataques à Ilha de Kharg—o timing torna as implicações do acordo mais imediatas do que a maioria antecipou.

Os parâmetros básicos do acordo são conhecidos: OpenAI permitirá o uso militar de seus modelos em ambientes classificados, com Sam Altman declarando publicamente que o acordo não permite que os militares construam autonomous weapons usando a tecnologia da empresa, e ainda afirmando que o arranjo previne aplicações de vigilância doméstica. Mas o exame dos termos reais do acordo revela que ambas as restrições são principalmente aplicadas através das próprias diretrizes do Pentágono sobre autonomous weapons systems—diretrizes que são bastante permissivas pelos padrões internacionais.

O que as diretrizes do Pentágono sobre Autonomous Weapons realmente dizem

A diretiva do Departamento de Defesa sobre Autonomous Weapons Systems exige que lethal autonomous weapons mantenham níveis apropriados de julgamento humano sobre decisões de ataque. Críticos dessa linguagem consistentemente observam que não especifica o que apropriado significa, não requer aprovação humana para cada decisão de targeting individual, e explicitamente permite sistemas semi-autônomos onde um humano aprova categorias de targeting ou parâmetros de strike antecipadamente sem aprovar cada engagement específico.

Isso cria uma lacuna significativa entre o posicionamento público da OpenAI—não permitiremos que os militares construam autonomous weapons—e o que o acordo realmente permite. Pelos próprios padrões do Pentágono, um sistema de IA que processa sensor data, identifica targets e executa strikes sem autorização humana por disparo ainda poderia estar em conformidade se um humano aprovasse as targeting rules antecipadamente. Se os modelos da OpenAI poderiam ser integrados em tal sistema sem violar o acordo não é publicamente claro.

O Irã como caso de teste

O conflito contínuo com o Irã torna essas questões concretas em vez de hipotéticas. O Comando Central dos EUA está realizando strike operations na região do Golfo Pérsico, coordenando respostas a asymmetric threats navais iranianas e gerenciando intelligence collection em um battlespace complexo. Cada uma dessas atividades envolve categorias de aplicação de IA onde os modelos da OpenAI poderiam potencialmente ser integrados.

No lado da intelligence, large language models provaram ser capazes de sintetizar rapidamente informações de múltiplas fontes, traduzir comunicações em língua estrangeira e identificar padrões em dados estruturados—todas tarefas relevantes para military intelligence analysis. Amplamente se entende que essas aplicações estão entre os principais usos militares de IA comercial e apresentam menos preocupações éticas do que autonomous targeting.

Mais preocupantes são possíveis aplicações em target identification ou battle damage assessment, onde sistemas de IA poderiam processar imagery ou signals intelligence para identificar military assets, rastrear movements ou avaliar resultados de strikes. Essas são áreas onde a distinção entre uma ferramenta de decision support e um sistema autônomo se torna obscura—e onde a linguagem específica do acordo da OpenAI determinaria se uma aplicação dada é permitida.

A restrição de vigilância e seus limites

A afirmação de Altman de que o acordo previne o uso da tecnologia da OpenAI para domestic surveillance é mais complicada do que parece. A restrição conforme descrita se aplica a domestic surveillance—coleta e análise de dados sobre cidadãos americanos—mas não aborda foreign intelligence collection. No contexto de operações militares, vigilância de comunicações militares adversárias, rastreamento de movimentos de navios e monitoramento de comunicações do regime iraniano seriam todas classificadas como foreign intelligence collection e não seriam cobertas por uma restrição de domestic surveillance.

Defensores das liberdades civis que se focam em preocupações de domestic surveillance podem não priorizar as aplicações de foreign intelligence que comandantes militares acham mais valiosas. Mas misturar os dois em comunicações públicas sugere que o posicionamento público da OpenAI pode não capturar completamente a gama de aplicações militares que o acordo permite.

O que parecem ser as motivações da OpenAI

OpenAI não é a primeira grande empresa de tecnologia a navegar a tensão entre desenvolvimento de IA comercial e aplicação militar. Google enfrentou oposição interna significativa sobre seu contrato Project Maven em 2018, finalmente recusando renová-lo. Microsoft e Amazon continuaram expandindo contratos de defesa apesar de alguma dissensão interna.

A decisão da OpenAI de entrar no mercado militar classificado sugere um cálculo estratégico de que competir por contratos de IA do governo é importante para a posição de longo prazo da empresa, particularmente conforme compete com Anthropic, Google DeepMind e empresas de IA focadas em defesa como Scale AI e Palantir. O orçamento de IA do Pentágono está crescendo rapidamente, e a empresa que se estabelece como o parceiro de IA confiável do governo cedo pode garantir vantagens significativas de longo prazo.

Este artigo é baseado em reportagem do MIT Technology Review. Leia o artigo original.