X está suspendiendo bots a gran escala, pero muchos usuarios reales también están siendo arrastrados

La última campaña de X contra los bots avanza a un ritmo que transmite urgencia. Según WIRED, la jefa de producto de la plataforma, Nikita Bier, dijo el 9 de abril que X estaba marcando y suspendiendo bots a un ritmo de 208 cuentas por minuto y en aumento. El objetivo declarado son conductas automatizadas, falsas, inactivas o de spam que distorsionan la interacción y degradan la plataforma. Pero el efecto visible para muchos usuarios ha sido más amplio de lo que sugiere ese mensaje.

WIRED informa que la ofensiva también ha suspendido o eliminado cuentas alternas gestionadas por personas, incluidas cuentas usadas en privado para guardar, dar me gusta, republicar o seguir discretamente contenido adulto de nicho. Esas llamadas cuentas alt solían existir al margen de la identidad pública del usuario y se usaban menos para publicar que para la curaduría personal. En un sistema diseñado para detectar comportamiento no auténtico, esos patrones parecen haber hecho que algunos usuarios reales se vieran como máquinas.

El problema ilustra una tensión de larga data en el trabajo de confianza y seguridad: cuanto más rápido actúa una plataforma a gran escala, más probable es que choque con casos límite que no son maliciosos. Las cuentas privadas o de baja actividad pueden parecer cuentas de spam sobre el papel, especialmente si en su mayoría merodean, republican o interactúan siguiendo patrones estrechos alrededor de un tipo específico de contenido. Eso no significa que el objetivo de la aplicación de normas sea ilegítimo. Significa que el costo de los sistemas de detección toscos lo están pagando usuarios cuyo comportamiento es inusual, pero no necesariamente prohibido.

El comportamiento privado, no las publicaciones públicas, parece ser el hilo común

Uno de los detalles más reveladores del reportaje de WIRED es que algunos usuarios afectados dicen que rara vez o nunca publicaban desde estas cuentas. En cambio, las usaban para organizar y consumir material para adultos lejos de sus identidades sociales principales. Eso importa porque sugiere que X podría estar interpretando la pasividad, el anonimato o los patrones repetitivos de interacción como señales de manipulación. La política de la plataforma prohíbe la actividad no auténtica que socava la integridad de X, pero la línea entre un comportamiento parecido al spam y una curaduría privada y altamente especializada no siempre es obvia para los usuarios atrapados en la red.

WIRED también señala que esto no es una limpieza aislada. En octubre, el equipo de Bier dijo que X eliminó 1,7 millones de bots en un esfuerzo por reducir el spam en las respuestas, con planes de dirigir la atención después al spam en mensajes directos. La ola actual encaja por tanto en una estrategia de producto más amplia y no en una simple ofensiva de moderación puntual. X intenta reafirmar el control sobre la calidad de las cuentas y reducir los signos visibles de manipulación en la plataforma. La complicación es que la empresa no ha detallado públicamente cuántos bots reales fueron eliminados en el nuevo empuje ni cuántos usuarios reales pudieron verse afectados por error.

Esa falta de transparencia deja a los usuarios armando la lógica a partir de anécdotas y pérdidas. Para quienes habían pasado años construyendo archivos privados, el daño se sintió inmediato y personal. La reacción descrita por WIRED fue dramática, pero también comprensible: historiales enteros de curaduría desaparecieron en un fin de semana, con poca explicación y sin una idea clara de si la recuperación era posible.