Um Dia Pivotal para a Segurança de AI

No que os críticos chamam de um momento divisor de águas para a indústria de inteligência artificial, a Anthropic anunciou mudanças abrangentes em sua Política de Dimensionamento Responsável na terça-feira, eliminando os mecanismos de segurança rígidos que haviam sido centrais para a identidade da empresa desde sua fundação. O timing foi impressionante — o anúncio chegou no mesmo dia em que surgiram relatos sobre o Secretário de Defesa Pete Hegseth pressionando a empresa a dar às forças armadas dos EUA acesso irrestrito ao seu modelo Claude.

Por mais de dois anos, a Política de Dimensionamento Responsável da Anthropic se posicionou como um dos compromissos de segurança mais concretos da indústria de AI. A política estabeleceu linhas vermelhas claras: se os modelos da empresa atingissem certos limites de capacidade sem medidas de segurança adequadas em vigor, o desenvolvimento pararia. Esse compromisso agora se foi, substituído por um framework mais flexível de "Relatórios de Risco" e "Roteiros de Segurança Frontier" que a empresa diz refletir melhor as realidades do paisagem competitiva de AI.

O Raciocínio Por Trás da Mudança

A Anthropic enquadrou as mudanças como uma resposta pragmática a um problema de ação coletiva. "Dois anos e meio depois, nossa avaliação honesta é que algumas partes dessa teoria de mudança se desenrolaram como esperávamos, mas outras não," escreveu a empresa em seu documento de política atualizado. O argumento central é direto: se um desenvolvedor responsável fizer uma pausa enquanto os competidores avançam, o resultado poderia ser um mundo moldado pelos atores menos cuidadosos em vez dos mais reflexivos.

"Sentimos que não ajudaria ninguém se parássemos de treinar modelos de AI," disse Jared Kaplan, diretor científico da Anthropic, à revista Time. "Realmente não sentimos, com o avanço rápido de AI, que faça sentido para nós fazer compromissos unilaterais... se os competidores estão avançando rapidamente." É um argumento familiar em tecnologia — a ideia de que atores responsáveis precisam permanecer na fronteira para garantir que perspectivas preocupadas com segurança moldem como a tecnologia poderosa se desenvolve.

Mas o raciocínio fica desconfortavelmente ao lado das fortunas comerciais crescentes da empresa. A Anthropic arrecadou $30 bilhões em novos investimentos apenas este mês, trazendo sua avaliação para $380 bilhões. Seus modelos Claude atraíram elogios generalizados, particularmente para aplicações de codificação. As versões mais recentes foram descritas pela própria empresa como as mais seguras até agora — levantando a questão de por que os compromissos de segurança precisam ser enfraquecidos precisamente no momento em que as capacidades e recursos estão no pico.

O Ultimato do Pentágono

O elefante na sala é a campanha de pressão concomitante do Departamento de Defesa. De acordo com relatos do Axios, o Secretário de Defesa Hegseth deu ao CEO da Anthropic Dario Amodei até sexta-feira para fornecer ao militares acesso irrestrito ao Claude ou enfrentar consequências. Essas consequências poderiam incluir invocar a Lei de Produção de Defesa, sever os contratos de defesa existentes da empresa ou designar a Anthropic como um risco da cadeia de suprimentos — uma medida que forçaria outros contratadores do Pentágono a certificarem que não estão usando Claude em seus fluxos de trabalho.

O Claude é relatado como sendo o único modelo de AI atualmente usado para as operações militares mais sensíveis. "A única razão pela qual ainda estamos falando com essas pessoas é porque precisamos delas e precisamos delas agora," disse um funcionário de defesa ao Axios. Relatórios indicam que o modelo foi usado durante operações militares recentes na Venezuela, um tópico que Amodei levantou com o parceiro de defesa Palantir.

A Anthropic teria oferecido para adaptar suas políticas de uso para o Pentágono mas traçou linhas contra permitir que o modelo fosse usado para vigilância em massa de americanos ou sistemas de armas que dispararem sem envolvimento humano. Se essas linhas resistirão diante da pressão governamental permanece uma questão aberta.

A Preocupação do Cozimento Lento

Pesquisadores de segurança expressaram uma gama de reações. Chris Painter, diretor da organização sem fins lucrativos METR, descreveu as mudanças como compreensíveis mas potencialmente sinistras. Ele elogiou a ênfase no relato de risco transparente mas levantou preocupações sobre um efeito de "cozimento de sapo" — a ideia de que quando linhas rígidas de segurança se tornam diretrizes flexíveis, cada concessão individual parece razoável enquanto a direção cumulativa é preocupante.

Painter observou que a nova Política de Dimensionamento Responsável sugere que a Anthropic "acredita que precisa mudar para o modo de triagem com seus planos de segurança, porque métodos para avaliar e mitigar risco não estão acompanhando o ritmo das capacidades." Ele acrescentou bluntamente: "Esta é mais evidência de que a sociedade não está preparada para os riscos catastróficos potenciais apresentados pela AI."

O paralelo com a evolução do Google é difícil de ignorar. O gigante dos motores de busca era famoso por operar sob o lema "Não seja maligno" antes de silenciosamente removê-lo do seu código de conduta conforme as pressões comerciais aumentavam. Se a trajetória da Anthropic seguirá um arco similar dependerá do que a empresa faz nas próximas semanas e meses — particularmente em seu impasse com o Pentágono.

O Que Vem Depois

O novo framework de Política de Dimensionamento Responsável substitui decisões binárias parar/ir por avaliações graduadas e divulgações públicas. Em teoria, isso fornece governança de segurança mais matizada. Na prática, críticos preocupam-se de que remove o único mecanismo que poderia ter forçado uma pausa no desenvolvimento em um momento crítico.

Para a indústria de AI mais ampla, a mensagem é clara: até mesmo as empresas mais vocalmente comprometidas com segurança estão achando esse compromisso difícil de sustentar enquanto as avaliações disparam, a competição se intensifica e o governo vem batendo na porta. A questão não é se o desenvolvimento de AI vai desacelerar — claramente não vai. É se os guardrails sendo reconstruídos são fortes o suficiente para importar.

Este artigo é baseado em relatos do Engadget. Leia o artigo original.