X suspend des bots à grande échelle, mais de nombreux utilisateurs humains sont aussi emportés

La dernière campagne anti-bots de X avance à un rythme qui témoigne d’un sentiment d’urgence. Selon WIRED, la responsable produit de la plateforme, Nikita Bier, a déclaré le 9 avril que X signalait et suspendait des bots au rythme de 208 comptes par minute, avec une hausse continue. L’objectif affiché est de cibler les comportements automatisés, faux, inactifs ou de spam qui faussent l’engagement et dégradent la plateforme. Mais l’effet visible pour de nombreux utilisateurs s’est révélé plus large que ne le laisse entendre ce message.

WIRED rapporte que la répression a aussi suspendu ou supprimé des comptes alternatifs gérés par des humains, y compris des comptes utilisés en privé pour enregistrer, aimer, republier ou suivre discrètement des contenus pour adultes de niche. Ces fameux comptes alt existaient souvent en dehors de l’identité publique d’un utilisateur et servaient moins à publier qu’à la curation personnelle. Dans un système conçu pour détecter les comportements inauthentiques, ces schémas semblent avoir donné à certains utilisateurs humains une apparence de machine.

Le problème illustre une tension durable dans le travail de confiance et de sécurité : plus une plateforme agit vite à grande échelle, plus elle risque de heurter des cas limites qui ne sont pas malveillants. Les comptes privés ou peu actifs peuvent ressembler, sur le papier, à des comptes de spam, surtout s’ils se contentent surtout de rester en retrait, de republier ou d’interagir selon des schémas étroits autour d’un type de contenu précis. Cela ne signifie pas que l’objectif d’application des règles est illégitime. Cela signifie que le coût des systèmes de détection brutaux est supporté par des utilisateurs dont le comportement est atypique, mais pas nécessairement interdit.

Le comportement privé, et non les publications publiques, semble être le fil conducteur

L’un des détails les plus révélateurs du reportage de WIRED est que certains utilisateurs concernés disent qu’ils publiaient rarement, voire jamais, à partir de ces comptes. Ils les utilisaient plutôt pour organiser et consommer du contenu pour adultes loin de leurs identités sociales principales. Cela compte, car cela suggère que X peut interpréter la passivité, l’anonymat ou des schémas d’engagement répétitifs comme des signes de manipulation. La politique de la plateforme interdit les activités inauthentiques qui nuisent à l’intégrité de X, mais la frontière entre comportement ressemblant à du spam et curation privée hautement spécialisée n’est pas toujours évidente pour les utilisateurs pris dans le filet.

WIRED note aussi qu’il ne s’agit pas d’un nettoyage isolé. En octobre, l’équipe de Bier a indiqué que X avait supprimé 1,7 million de bots afin de réduire le spam dans les réponses, avec l’intention de s’attaquer ensuite au spam dans les messages directs. La vague actuelle s’inscrit donc dans une stratégie produit plus large plutôt que dans un simple blitz de modération ponctuel. X cherche à reprendre le contrôle de la qualité des comptes et à réduire les signes visibles de manipulation de la plateforme. La difficulté est que l’entreprise n’a pas précisé publiquement combien de vrais bots ont été supprimés dans la dernière poussée, ni combien d’utilisateurs humains ont pu être injustement touchés.

Ce manque de transparence laisse les utilisateurs reconstituer la logique à partir d’anecdotes et de pertes. Pour ceux qui avaient passé des années à bâtir des archives privées, le préjudice a été immédiat et personnel. La réaction décrite par WIRED était dramatique, mais aussi compréhensible : des historiques entiers de curation ont disparu en un week-end, avec peu d’explications et sans savoir clairement si une récupération était possible.