A IA defensiva avança, mas o acesso é desigual

O surgimento de ferramentas poderosas de inteligência artificial está mudando a cibersegurança em duas direções ao mesmo tempo. Os atacantes usam modelos para encontrar e explorar vulnerabilidades mais rápido do que antes, enquanto um grupo menor de grandes empresas e instituições está obtendo acesso a sistemas defensivos avançados capazes de identificar fraquezas em escala. O resultado, segundo a reportagem da Rest of World, é uma lacuna global de cibersegurança cada vez maior, na qual organizações com mais recursos podem se tornar mais resilientes mesmo quando todos ao redor ficam mais expostos.

A matéria se concentra no Mythos Preview da Anthropic, que, segundo a empresa, descobriu milhares de vulnerabilidades em grandes sistemas operacionais e navegadores web. O acesso inicial à ferramenta foi concedido a cerca de 40 empresas e instituições de tecnologia. Mas esse acesso não foi estendido à maioria dos governos e bancos centrais, deixando muitas organizações do setor público e com menos recursos dependentes de um punhado de grandes empresas de IA para ajudar a proteger sistemas críticos.

Essa assimetria importa porque o ambiente de ameaças está acelerando. A Rest of World cita dados da CrowdStrike mostrando que entidades habilitadas por IA aumentaram seus ataques em 89% em 2025 em relação ao ano anterior. O texto argumenta que os sistemas de IA agora podem transformar vulnerabilidades de software em armas em poucas horas após sua descoberta, comprimindo ainda mais o já difícil intervalo entre identificar uma falha e explorá-la.

Por que a lacuna pode se tornar sistêmica

A cibersegurança sempre foi distribuída de forma desigual. Empresas ricas podem contratar equipes técnicas profundas, comprar ferramentas caras e manter capacidades maduras de resposta a incidentes. Pequenas empresas, instituições locais e países em desenvolvimento muitas vezes não conseguem. O que muda na era da IA é a velocidade. Se ferramentas de ataque movidas por máquinas conseguem escanear, se adaptar e gerar caminhos de exploração muito mais rápido do que equipes humanas, as organizações que já operam com quadro reduzido e sistemas legados enfrentam uma desvantagem ainda maior.

O texto de origem destaca outro ponto de pressão: a mão de obra. Uma grande escassez global de profissionais de cibersegurança significa que, mesmo quando os líderes entendem a ameaça, pode não haver pessoas experientes suficientes para absorvê-la. A IA, em teoria, pode ajudar a preencher essa lacuna, mas só se ferramentas defensivas fortes estiverem amplamente disponíveis, forem acessíveis e puderem ser implantadas nos ambientes que mais precisam delas.

Esse não é o mundo descrito no relatório. Em vez disso, as defesas mais capazes parecem concentradas entre empresas de primeira linha e parceiros selecionados. Se softwares comerciais amplamente usados forem corrigidos rapidamente enquanto sistemas mais personalizados ou orientados à soberania ficarem para trás, a lacuna não será apenas entre organizações ricas e pobres. Também será entre ecossistemas de software com vínculos diretos com grandes empresas de tecnologia dos EUA e aqueles que não os têm.

A automação de ataques está reduzindo a barreira de habilidade

O significado cultural e político dessa mudança vai além da TI corporativa. Ferramentas de IA podem ajudar criminosos a produzir e-mails de phishing, vídeos deepfake, clones de voz e malware com muito menos esforço do que antes. Elas também podem ajudar a identificar alvos vulneráveis e gerar fluxos de exploração. Na prática, a IA pode reduzir o nível de especialização necessário para causar danos.

Essa dinâmica amplia o leque de atores que podem participar do cibercrime ou de campanhas de disrupção. A reportagem da Rest of World traz o exemplo de um grupo de hackers norte-coreanos que usou ferramentas de IA da OpenAI e do Cursor em uma operação que supostamente roubou até 12 milhões de dólares em criptomoedas ao longo de vários meses. Seja para codificação, reconhecimento ou engenharia social, o padrão é o mesmo: mais capacidade está se tornando disponível para mais atacantes a um custo menor.

Para os defensores, isso cria uma equação desequilibrada. Um hospital, banco local ou concessionária regional pode precisar proteger cada sistema crítico, cada caminho de fornecedores e cada fluxo de trabalho de funcionários. Já o atacante precisa apenas de uma abertura eficaz. A IA amplia essa disparidade se puder testar mais entradas mais rápido do que equipes com poucos recursos conseguem fechá-las.

Ninguém fica isolado por muito tempo

Um dos pontos mais fortes do relatório é que o risco cibernético não permanece ordenadamente local. Instituições menores e países menos protegidos fazem parte das mesmas redes financeiras, de comunicação e de software que conectam a economia global. Um elo fraco em uma jurisdição ou setor pode se tornar caminho para outros por meio de fornecedores, sistemas de pagamento, redes de parceiros ou dependências de infraestrutura.

Isso significa que a concentração de IA defensiva em um conjunto limitado de organizações pode gerar ganhos privados sem entregar segurança pública em escala. Mesmo multinacionais bem protegidas continuam expostas a fornecedores, clientes e sistemas estatais que podem demorar mais para detectar e corrigir falhas. Nesse sentido, o acesso desigual à IA defensiva não é apenas um problema de justiça. É um problema de segurança coletiva.

O artigo cita observadores que defendem que “cibersegurança nunca é um problema isolado”, e a lógica se sustenta. Se uma parte do sistema fica muito para trás, todo o sistema se torna mais difícil de confiar.

O desafio de política pública adiante

O material original não apresenta um plano regulatório detalhado, mas aponta para um dilema central de política pública. As empresas que desenvolvem modelos defensivos de ponta podem ter motivos legítimos para restringir o acesso, inclusive preocupações de que as mesmas ferramentas possam ser usadas de forma indevida em trabalho ofensivo. Ainda assim, restrições severas podem deixar o mundo mais amplo exposto justamente no momento em que a automação de ataques está ficando mais barata e rápida.

Essa tensão provavelmente vai moldar a próxima fase da governança de IA em cibersegurança. Governos podem pressionar por arranjos de acesso de interesse público, estruturas seguras de avaliação ou parcerias que ampliem a cobertura defensiva sem simplesmente liberar ferramentas de alto risco ao público. Enquanto isso, organizações com recursos limitados talvez precisem focar em resiliência prática: reduzir a superfície de ataque, corrigir falhas mais rápido, segmentar sistemas e se preparar para incidentes que cada vez mais provavelmente envolverão IA do outro lado.

A mudança cultural mais profunda já é visível. Cibersegurança não é mais apenas defender redes de adversários humanos usando software. Trata-se cada vez mais de defender instituições de software que ajuda a criar adversários melhores. Se o melhor da IA defensiva continuar restrito, a diferença entre quem consegue acompanhar e quem não consegue pode definir a próxima era da desigualdade digital.

Este artigo é baseado na reportagem da Rest of World. Leia o artigo original.

Originally published on restofworld.org