A X está suspendendo bots em escala, mas muitos usuários humanos também estão sendo atingidos

A mais recente campanha anti-bot da X está avançando em um ritmo que sinaliza urgência. Segundo a WIRED, a chefe de produto da plataforma, Nikita Bier, disse em 9 de abril que a X estava sinalizando e suspendendo bots a uma taxa de 208 contas por minuto e em alta. O alvo declarado é o comportamento automatizado, falso, inativo ou de spam que distorce o engajamento e degrada a plataforma. Mas o efeito visível para muitos usuários tem sido mais amplo do que essa declaração sugere.

A WIRED relata que a ofensiva também suspendeu ou apagou contas alternativas operadas por humanos, incluindo contas usadas em privado para salvar, curtir, republicar ou seguir discretamente conteúdo adulto de nicho. Essas chamadas contas alt geralmente existiam fora da identidade pública do usuário e eram usadas menos para publicar do que para curadoria pessoal. Em um sistema construído para detectar comportamento inautêntico, esses padrões parecem ter feito alguns usuários humanos parecerem máquinas.

O problema ilustra uma tensão antiga no trabalho de confiança e segurança: quanto mais rápido uma plataforma age em escala, maior a chance de colidir com casos-limite que não são maliciosos. Contas privadas ou de baixa atividade podem parecer contas de spam no papel, especialmente se elas passam a maior parte do tempo apenas observando, republicando ou interagindo em padrões restritos em torno de um tipo específico de conteúdo. Isso não significa que o objetivo de aplicação das regras seja ilegítimo. Significa que o custo de sistemas de detecção bruscos está sendo pago por usuários cujo comportamento é incomum, mas não necessariamente proibido.

O comportamento privado, e não as publicações públicas, parece ser o fio comum

Um dos detalhes mais reveladores da reportagem da WIRED é que alguns usuários afetados dizem que raramente ou nunca publicavam a partir dessas contas. Em vez disso, usavam-nas para organizar e consumir material adulto longe de suas identidades sociais principais. Isso importa porque sugere que a X pode estar lendo passividade, anonimato ou padrões repetitivos de engajamento como sinais de manipulação. A política da plataforma proíbe atividade inautêntica que prejudique a integridade da X, mas a linha entre comportamento parecido com spam e curadoria privada, altamente especializada, nem sempre é óbvia para os usuários pegos na varredura.

A WIRED também observa que isso não é uma limpeza isolada. Em outubro, a equipe de Bier disse que a X removeu 1,7 milhão de bots em um esforço para reduzir o spam em respostas, com planos de voltar a atenção para o spam em mensagens diretas depois. A onda atual, portanto, se encaixa em uma estratégia de produto mais ampla, e não em uma ação pontual de moderação. A X está tentando reafirmar o controle sobre a qualidade das contas e reduzir os sinais visíveis de manipulação da plataforma. A complicação é que a empresa não detalhou publicamente quantos bots genuínos foram removidos no novo impulso, nem quantos usuários humanos podem ter sido afetados injustamente.

Essa falta de transparência deixa os usuários juntando a lógica a partir de relatos e perdas. Para quem passou anos construindo arquivos privados, o dano foi imediato e pessoal. A reação descrita pela WIRED foi dramática, mas também compreensível: histórias inteiras de curadoria desapareceram em um fim de semana, com pouca explicação e sem clareza sobre a possibilidade de recuperação.