IA na Cadeia de Morte

A integração de inteligência artificial no direcionamento militar tem sido um dos desenvolvimentos mais estreitamente monitorados e menos transparentes na guerra moderna. Agora, um funcionário do Departamento de Defesa falando sob condição de anonimato forneceu, pela primeira vez, um insight específico sobre como a IA generativa – a mesma tecnologia que fundamenta ChatGPT e outros grandes modelos de linguagem – está sendo usada para auxiliar decisões de direcionamento na contínua campanha militar dos EUA contra o Irã.

De acordo com o funcionário, que solicitou anonimato devido à sensibilidade do tópico, sistemas de IA generativa estão sendo usados como uma camada de análise conversacional sobre dados de inteligência e direcionamento existentes. Uma lista de alvos potenciais é inserida no sistema de IA, que é solicitado a analisar as informações, priorizar alvos e gerar recomendações baseadas em fatores incluindo posicionamento de aeronaves, objetivos da missão e inteligência disponível. Operadores humanos então revisam, avaliam e assumem a responsabilidade de agir sobre essas recomendações.

Duas Tecnologias de IA Diferentes

O relato do funcionário destaca uma distinção importante que é frequentemente perdida em discussões públicas sobre IA em guerra: o Pentágono está implantando dois tipos fundamentalmente diferentes de IA para funções relacionadas mas distintas.

Project Maven, operacional desde pelo menos 2017, usa visão computacional e aprendizado de máquina para processar os enormes volumes de dados de imagem e sensor coletados por sistemas de vigilância – vídeos de drones, imagens de satélite, inteligência de sinais. Maven identifica alvos potenciais dentro desses dados e os apresenta aos operadores humanos através de uma interface baseada em mapa. Esta é IA como processador de dados e reconhecedor de padrões, operando em tarefas bem definidas e supervisionadas.

IA generativa – sistemas construídos em grandes modelos de linguagem – é de um tipo diferente. Esses sistemas são conversacionais, flexíveis e capazes de raciocinar através de diversos tipos de informações. Eles podem sintetizar inteligência de múltiplas fontes, gerar avaliações escritas e responder a perguntas abertas. Mas também são menos testados em combate, menos transparentes em seu raciocínio e mais propensos aos tipos de saídas confiantes mas incorretas que os especialistas chamam de alucinações.

A Questão do Humano no Loop

O funcionário foi explícito que humanos permanecem responsáveis por avaliar recomendações de IA e tomar decisões finais de direcionamento. Esse enquadramento humano-no-loop é padrão nas comunicações do Pentágono sobre IA e reflete tanto compromisso político genuíno quanto realidade operacional: nenhum comandante militar vai terceirizar completamente decisões de vida e morte para um algoritmo.

Mas a questão prática de quanto peso os humanos dão às recomendações de IA – especialmente sob pressão de tempo e carga cognitiva – é mais complexa do que qualquer declaração oficial pode capturar. Pesquisa sobre tomada de decisão sob incerteza consistentemente encontra que quando sistemas que parecem autoritários fornecem recomendações confiantes, a supervisão humana tende a se tornar superficial em vez de genuína.

Claude, OpenAI e a Corrida por Contratos do Pentágono

Os comentários do funcionário vêm em meio a uma reestruturação dramática da relação comercial da IA com o militar americano. Claude da Anthropic foi o primeiro grande modelo de linguagem aprovado para uso classificado no Pentágono e foi supostamente implantado em operações no Irã e Venezuela. Mas após uma disputa com o Pentágono sobre se Anthropic poderia limitar como seu modelo foi usado, o Departamento de Defesa designou Anthropic como risco de cadeia de suprimentos, e o Presidente Trump chamou pelo fim do uso governamental da IA da empresa em seis meses.

OpenAI preencheu a lacuna, anunciando em 28 de fevereiro um acordo para que o militar use suas tecnologias em ambientes classificados. xAI de Elon Musk chegou a um acordo similar para Grok. A velocidade dessas relações comerciais – e o escrutínio público limitado que receberam – atraiu crítica de pesquisadores de segurança em IA e especialistas em controle de armas que argumentam que a integração de IA em sistemas militares letais está prosseguindo mais rápido do que os marcos de governança podem acomodar.

Este artigo é baseado em reportagem da MIT Technology Review. Leia o artigo original.