O acesso da NSA levanta questões de política

A Agência de Segurança Nacional dos EUA estaria usando o modelo de IA mais poderoso da Anthropic, o Mythos Preview, segundo o resumo do The Decoder de uma reportagem da Axios que cita duas fontes.

A suposta implementação é notável porque a NSA está sob a autoridade do Pentágono, enquanto o Departamento de Defesa classificou separadamente a Anthropic como um risco de segurança e tentou, desde fevereiro, bloquear a empresa como fornecedora.

A situação reflete uma tensão crescente na adoção de IA pelo governo: as agências querem acesso a modelos avançados, mas esses mesmos sistemas podem gerar preocupações de segurança, compras públicas, vigilância e política de armamentos.

Um modelo restrito

A Anthropic limitou o acesso ao Mythos a cerca de 40 organizações em uma iniciativa chamada Project Glasswing. A empresa argumenta que as capacidades ofensivas de cibersegurança do modelo são perigosas demais para uma liberação ampla.

Essa restrição coloca o Mythos em uma categoria diferente da dos chatbots comerciais de uso geral. O modelo é tratado como uma capacidade sensível, e não apenas como mais uma ferramenta de produtividade.

O The Decoder observa que o CEO da Anthropic, Dario Amodei, se reuniu na semana passada com autoridades da Casa Branca para discutir a implementação do Mythos em agências governamentais. Os serviços de inteligência do Reino Unido também teriam acesso ao modelo por meio do AI Security Institute do país.

Disputa sobre uso aceitável

O Pentágono exigiu que a Anthropic disponibilizasse o Claude para todos os usos legais. A Anthropic recusou, traçando limites em torno de vigilância em massa e armas autônomas.

Essa divergência toca o centro do debate emergente sobre aquisição de IA. Um fornecedor de modelos pode querer definir linhas vermelhas sobre como seus sistemas são usados, enquanto compradores governamentais podem argumentar que a autoridade legal deve determinar os usos permitidos.

Para agências de inteligência e defesa, modelos de fronteira de IA podem ser úteis para análise cibernética, processamento de linguagem, triagem de informações e outras tarefas analíticas de alto volume. Mas as mesmas capacidades podem gerar preocupações quando aplicadas à vigilância, a operações cibernéticas ofensivas ou a sistemas que operam com menos controle humano.

Por que isso importa

O uso reportado do Mythos pela NSA sugere que sistemas poderosos de IA estão entrando em ambientes governamentais sensíveis antes mesmo de normas políticas estáveis terem se formado em torno de restrições de fornecedores, exclusões de segurança nacional e limites de uso aceitável.

O conflito também mostra que os compromissos de segurança em IA não são mais apenas uma questão de design de produto. Eles estão se tornando termos de aquisição, disputas legais e questões de segurança nacional.

Se agências adotam modelos restritos de IA enquanto outras partes do governo contestam o papel da fornecedora, o resultado pode ser uma abordagem fragmentada: um órgão trata um modelo como estrategicamente necessário, enquanto outro trata a empresa como uma preocupação de segurança.

O caso Mythos provavelmente será acompanhado de perto porque envolve várias das questões mais decisivas da governança de IA ao mesmo tempo: quem obtém acesso a modelos de fronteira, como sistemas com capacidade cibernética são controlados e se uma empresa privada de IA pode recusar certos usos governamentais enquanto continua atendendo clientes do setor público.

Este artigo é baseado na reportagem do The Decoder. Leia o artigo original.

Originally published on the-decoder.com