Uma adoção relatada vai contra a disputa pública

A Agência de Segurança Nacional dos EUA estaria usando o novo modelo Mythos Preview da Anthropic, segundo a cobertura do Engadget sobre uma reportagem da Axios, que citou duas fontes que supostamente tinham conhecimento do assunto. Se isso estiver correto, o desenvolvimento é notável não apenas porque o Mythos é um sistema recém-anunciado, mas porque ocorre no meio de um confronto de vários meses entre a Anthropic e o governo dos EUA sobre como os modelos da empresa podem ser usados em ambientes militares.

A Anthropic apresentou o Mythos Preview no início de abril e o descreveu como um modelo de linguagem de uso geral com desempenho incomumente forte em tarefas de segurança de computadores. Esse posicionamento importa num contexto de segurança nacional. Um modelo apresentado como especialmente capaz em cibersegurança pode ter apelo óbvio para agências focadas em operações defensivas, análise de vulnerabilidades e trabalhos mais amplos de segurança digital. Mesmo sem detalhes adicionais sobre como a NSA está usando o sistema, o simples fato de haver acesso sugere interesse governamental nessas capacidades.

A reportagem é difícil de separar do pano de fundo político. Em fevereiro, segundo o texto de origem, o presidente Donald Trump ordenou que agências do governo parassem de usar os serviços da Anthropic depois que a empresa se recusou a alterar certas salvaguardas durante negociações de contrato militar. Essa medida criou a impressão de uma ruptura forte entre o governo e a empresa. A nova reportagem complica esse quadro ao sugerir que ao menos uma das mais importantes agências de inteligência do governo ainda tem acesso ao modelo mais recente da empresa.

Por que o Mythos importa

A descrição pública da Anthropic para o Mythos Preview enfatizou o trabalho de segurança de computadores, e não um conjunto estreito de recursos para consumidores. Esse enquadramento o diferencia da linguagem de marketing mais ampla frequentemente usada em torno de novos sistemas de IA. Ele também ajuda a explicar por que instituições de segurança nacional e defesa teriam interesse em testá-lo cedo. Ferramentas de IA centradas em segurança podem ser úteis para análise de código, revisão de sistemas, apoio à resposta a incidentes e outras tarefas tecnicamente exigentes em que velocidade e reconhecimento de padrões importam.

De acordo com a reportagem resumida pelo Engadget, a NSA é uma das cerca de 40 organizações às quais a Anthropic concedeu acesso ao Mythos Preview. Uma fonte também disse que o modelo está sendo usado mais amplamente dentro do departamento. O artigo não especifica a qual departamento isso se refere além da descrição citada da fonte, nem fornece detalhes operacionais. Ainda assim, a alegação sinaliza que o Mythos pode já estar avançando além de uma fase piloto estreita em partes do governo.

Isso seria significativo por outro motivo: o acesso pode criar impulso prático mesmo enquanto disputas legais ou políticas permanecem sem solução. No mercado de IA, especialmente para sistemas de fronteira, implantações limitadas muitas vezes viram a ponte entre o posicionamento de pesquisa e a dependência institucional. Uma vez que equipes técnicas começam a testar um modelo contra cargas de trabalho reais, as conversas sobre compras e políticas podem migrar de preocupações abstratas de conformidade para perguntas concretas sobre desempenho e valor de missão.

Uma reunião na Casa Branca aumenta as apostas

O timing também é importante. O Engadget relata que o CEO da Anthropic, Dario Amodei, se reuniu na sexta-feira com a chefe de gabinete da Casa Branca, Susie Wiles, e outros oficiais para discutir o Mythos. A Casa Branca depois descreveu a reunião como produtiva e construtiva. A Reuters, citada no texto de origem, disse que Trump afirmou aos repórteres não ter ideia da reunião quando questionado. Esses detalhes apontam para uma situação ainda fluida, com múltiplos centros de decisão e sem uma linha pública simples.

Para a Anthropic, a reunião parece fazer parte de um esforço mais amplo para manter canais abertos com autoridades do governo mesmo enquanto a empresa continua em litígio. Para o governo, isso sugere que a porta não está totalmente fechada para uma empresa que anteriormente havia enfrentado resistência. Para observadores externos, a justaposição é marcante: uma empresa descrita como restrita em um contexto está simultaneamente se reunindo com altos funcionários e vendo, segundo relatos, um de seus modelos mais novos ser usado dentro do aparato de segurança nacional.

A contradição pode ser mais aparente do que real. Governos não operam como um único ator, e política, compras, revisão jurídica e avaliação técnica muitas vezes seguem trilhas separadas. Ainda assim, a discrepância visível entre uma ordem de fevereiro para parar de usar os serviços da Anthropic e uma reportagem de abril sobre o uso da NSA destaca como pode ser difícil traçar limites claros para a adoção de IA avançada dentro do governo.

A batalha jurídica está longe de terminar

O suposto uso da NSA não significa que a disputa da Anthropic com o governo federal tenha sido resolvida. Segundo o texto de origem, a empresa processou o Departamento de Defesa em dois tribunais em março depois que o governo Trump a classificou como um risco à cadeia de suprimentos. O Pentágono respondeu pouco depois. Um tribunal concedeu à Anthropic uma liminar preliminar bloqueando temporariamente essa designação, enquanto juízes no outro caso negaram o pedido da empresa para retirar o rótulo.

Esses resultados mistos sublinham o status não resolvido do conflito. Uma liminar preliminar não é uma absolvição final, e uma negativa em processo separado mantém pressão material sobre a empresa. O resultado é um ambiente operacional confuso em que a Anthropic pode apontar alguma tração jurídica, mas ainda enfrenta resistência institucional significativa. Assim, o acesso relatado da NSA ao Mythos não cancela a disputa; ele a torna mais consequente.

Também afina uma questão de política mais ampla. Se um governo vê um fornecedor como um risco potencial, qual nível de acesso continua aceitável para avaliação, implantações piloto ou uso específico de missão? O material de origem não responde a essa pergunta, mas deixa claro que a relação prática entre a Anthropic e o aparato de segurança nacional dos EUA é mais complicada do que a simples briga pública sugere.

O que isso diz sobre a relação entre IA e governo

O significado mais profundo da reportagem sobre o Mythos talvez seja que provedores avançados de IA e instituições estatais agora estão tão entrelaçados que desacordos públicos já não produzem separações limpas. Empresas de modelos de fronteira querem grandes contratos governamentais e influência sobre políticas. Governos querem acesso a sistemas que possam oferecer vantagens estratégicas em cibersegurança e outras áreas técnicas. Isso cria uma relação definida menos por alinhamento simples e mais por negociação, alavancagem e cooperação seletiva.

O Mythos Preview parece estar diretamente nesse cruzamento. Ele é novo, voltado para segurança e aparentemente atraente o bastante para chegar rapidamente a dezenas de organizações. Ao mesmo tempo, a empresa por trás dele ainda contesta como o governo dos EUA a classificou e a restringiu. O resultado é um retrato revelador desta fase da indústria de IA: a adoção pode avançar mesmo quando confiança, governança e compras permanecem sem definição.

Por ora, a conclusão mais defensável é estreita. Com base na reportagem fornecida, o modelo mais recente da Anthropic estaria em uso na NSA, apesar de um conflito em curso entre a empresa e partes do governo dos EUA. Isso não prova uma parceria consolidada. É evidência de que capacidade, política e risco jurídico estão colidindo em tempo real em torno dos sistemas de IA de fronteira.

Este artigo é baseado na cobertura do Engadget. Leia o artigo original.

Originally published on engadget.com