O Problema de Alinhamento de IA do Militar
O Departamento de Defesa dos EUA tem seguido uma trajetória agressiva de adoção de IA desde o estabelecimento do Joint Artificial Intelligence Center em 2018 e seu sucessor, o Chief Digital and Artificial Intelligence Office em 2022. Mas à medida que o Pentágono assinou contratos com um número crescente de empresas de IA — desde contratantes de defesa estabelecidas até startups do Vale do Silício até laboratórios de modelos de fronteira — um novo desafio emergiu: a proliferação de ferramentas de IA incompatíveis, diferentes versões de modelos e níveis de capacidade inconsistentes entre comandos e ramos militares.
A resposta do Pentágono é um esforço para padronizar seus fornecedores de IA e fazer com que todos operem no que os oficiais estão chamando de mesmo padrão — um conjunto compartilhado de versões de modelos, APIs, políticas de segurança e benchmarks de desempenho que permitiriam que diferentes sistemas militares interoperassem e permitiria que oficiais de supervisão tivessem uma imagem coerente de quais capacidades de IA estão implantadas onde.
Claude no Contexto Militar
Entre os sistemas de IA que o Pentágono está trabalhando para padronizar o acesso está Claude da Anthropic — um dos grandes modelos de linguagem de fronteira que tem sido usado por vários contratantes adjacentes a defesa e diretamente por organizações do DoD para tarefas incluindo análise de documentos, processamento de inteligência e suporte à decisão. A inclusão de Claude ao lado de sistemas da OpenAI, Google e Microsoft reflete o desejo do Pentágono de manter opcionalidade entre múltiplos fornecedores de IA de fronteira em vez de ficar dependente de qualquer fornecedor único.
Anthropic tem tido um relacionamento mais complexo com contratação militar do que alguns de seus concorrentes. A Política de Uso Aceitável da empresa proíbe o uso de Claude para desenvolvimento de armas, ataques à infraestrutura crítica e várias outras categorias de aplicação prejudicial. Mas a linha entre usos proibidos e permitidos em um contexto militar nem sempre é clara — análise de documentos, otimização de logística e suporte à decisão são aplicações facialmente neutras que na prática podem contribuir para operações militares incluindo aquelas letais.
A renúncia da chefe de robótica da OpenAI, Caitlin Kalinowski, sobre o acordo do Pentágono daquela empresa — citando preocupações sobre autonomia letal e deliberação insuficiente — sublinha as tensões éticas que empresas de IA de fronteira enfrentam ao se envolver com clientes militares. Anthropic não divulgou publicamente os termos específicos sob os quais Claude está disponível para clientes do DoD ou quais mecanismos de supervisão governam seu uso militar.
IA para Direcionamento Militar: A Questão Central
A aplicação mais sensível de IA em contextos militares é o direcionamento — usar sistemas automatizados para identificar, priorizar e em alguns casos ajudar a engajar alvos inimigos. A doutrina do exército dos EUA exige autorização humana para decisões de força letal, mas o papel da IA no processamento de dados de sensores, identificação de alvos potenciais e apresentação de recomendações aos tomadores de decisão humanos se expandiu dramaticamente nos últimos anos.
Project Maven, o programa de análise de imagem baseado em IA do Pentágono, processa vídeo de vigilância de drones para identificar alvos de interesse para revisão humana. A IA não toma a decisão letal final — um humano o faz — mas molda quais informações chegam ao humano e como ela é estruturada, o que levanta questões sobre a qualidade significativa da supervisão humana que a doutrina nominalmente requer.
O esforço de padronização é em parte uma resposta a preocupações de supervisão: se diferentes sistemas de IA estão dando diferentes saídas para as mesmas entradas, ou se ninguém tem um relato completo de quais sistemas de IA estão contribuindo para quais decisões, a supervisão humana significativa de direcionamento assistido por IA se torna extremamente difícil. A padronização cria auditabilidade — a capacidade de saber qual modelo, em qual versão, sob quais configurações de segurança, estava envolvido em qualquer cadeia de decisão.
A Questão da Arquitetura Ética
Críticos na comunidade de ética de IA argumentam que a padronização aborda um problema de governança mas não resolve a questão ética mais fundamental: se IA deve ser usada em decisões de direcionamento e se assim for sob quais restrições. Colocar todos os fornecedores de IA militar no mesmo padrão significa definir o que esse padrão é — quais valores, quais políticas de segurança, quais usos proibidos estão incorporados no padrão. Esse processo definitório está acontecendo em grande parte fora da vista do público.
As apostas de acertar são altas. Sistemas de IA que introduzem viés em decisões de direcionamento, que alucinam avaliações de ameaça, ou que são manipulados por entradas adversariais poderiam contribuir para erros catastróficos em situações de combate. O impulso de padronização do Pentágono é um reconhecimento deste risco — mas a adequação da resposta será em última análise julgada por como os sistemas funcionam sob condições operacionais que não podem ser totalmente antecipadas com antecedência.
Este artigo é baseado em reportagem da MIT Technology Review. Leia o artigo original.

