X setzt Bots in großem Umfang außer Betrieb, doch viele menschliche Nutzer geraten ebenfalls ins Visier

Xs jüngste Anti-Bot-Kampagne läuft in einem Tempo, das Dringlichkeit signalisiert. Laut WIRED sagte der Produktchef der Plattform, Nikita Bier, am 9. April, dass X Bots mit einer Rate von 208 Konten pro Minute und steigend identifiziere und sperre. Das erklärte Ziel sind automatisierte, gefälschte, inaktive oder Spam-Aktivitäten, die Interaktionen verzerren und die Plattform verschlechtern. Für viele Nutzer fiel die sichtbare Wirkung jedoch breiter aus, als dieses Ziel vermuten lässt.

WIRED berichtet, dass das Vorgehen auch von Menschen betriebene Alternativkonten gesperrt oder gelöscht habe, darunter Konten, die privat zum Speichern, Liken, Reposten oder stillen Folgen von Nischen-Erwachseneninhalten genutzt wurden. Diese sogenannten Alt-Accounts existierten oft außerhalb der öffentlichen Identität eines Nutzers und dienten weniger dem Posten als der persönlichen Kuratierung. In einem System, das unechtes Verhalten erkennen soll, schienen solche Muster einige menschliche Nutzer wie Maschinen agieren zu lassen.

Das Problem verdeutlicht eine seit Langem bestehende Spannung in der Trust-and-Safety-Arbeit: Je schneller eine Plattform in großem Maßstab handelt, desto wahrscheinlicher kollidiert sie mit Grenzfällen, die nicht böswillig sind. Private oder wenig aktive Konten können auf dem Papier wie Spam-Konten wirken, besonders wenn sie vor allem lauern, reposten oder in engen Mustern um eine bestimmte Art von Inhalt interagieren. Das heißt nicht, dass das Durchsetzungsziel unberechtigt ist. Es bedeutet, dass die Kosten grober Erkennungssysteme von Nutzern getragen werden, deren Verhalten ungewöhnlich, aber nicht zwingend verboten ist.

Privates Verhalten statt öffentlicher Posts scheint der gemeinsame Nenner zu sein

Eines der aufschlussreicheren Details in der Berichterstattung von WIRED ist, dass einige betroffene Nutzer sagten, sie hätten von diesen Konten aus kaum oder nie gepostet. Stattdessen nutzten sie sie, um Erwachsenenmaterial abseits ihrer Hauptidentitäten in sozialen Netzwerken zu organisieren und zu konsumieren. Das ist wichtig, weil es nahelegt, dass Xs Durchsetzung Passivität, Anonymität oder repetitive Interaktionsmuster als Anzeichen von Manipulation liest. Die Richtlinien der Plattform verbieten unechte Aktivitäten, die die Integrität von X untergraben, doch die Grenze zwischen spamähnlichem Verhalten und privater, hochspezialisierter Kuratierung ist für Nutzer, die in die Maßnahme geraten, nicht immer klar.

WIRED weist außerdem darauf hin, dass es sich nicht um eine isolierte Bereinigung handelt. Im Oktober sagte Biers Team, X habe 1,7 Millionen Bots entfernt, um Reply-Spam zu reduzieren, und plane, sich als Nächstes dem Spam in Direktnachrichten zuzuwenden. Die aktuelle Welle passt daher in eine breitere Produktstrategie und ist kein einmaliger Moderationsschlag. X versucht, die Kontrolle über die Kontenqualität zurückzugewinnen und sichtbare Zeichen von Plattformmanipulation zu verringern. Die Komplikation besteht darin, dass das Unternehmen öffentlich weder detailliert erklärt hat, wie viele echte Bots in der jüngsten Aktion entfernt wurden, noch wie viele menschliche Nutzer womöglich fälschlich betroffen waren.

Diese mangelnde Transparenz zwingt Nutzer dazu, die Logik aus Anekdoten und Verlusten zusammenzusetzen. Für Menschen, die über Jahre private Archive aufgebaut hatten, war der Schaden unmittelbar und persönlich. Die von WIRED beschriebene Reaktion war dramatisch, aber auch nachvollziehbar: Ganze Kurationshistorien verschwanden an einem Wochenende, mit wenig Erklärung und ohne klares Gefühl dafür, ob eine Wiederherstellung möglich war.

Die Säuberung sagt ebenso viel über Plattformdesign wie über Pornografie aus

Es wäre leicht, dies nur als Geschichte über Erwachseneninhalt zu behandeln, doch das zugrunde liegende Problem ist größer. Viele soziale Plattformen ermutigen Nutzer, Identitäten aus Gründen der Privatsphäre, Professionalität, Fandom, Politik oder Sexualität auf verschiedene Konten zu verteilen. Ein System, das niedrig sichtbares oder eng gemustertes Verhalten aggressiv bestraft, kann daher mit legitimen Nutzungspraktiken kollidieren, die die Plattform selbst im Laufe der Zeit normalisiert hat.

Xs jüngste Säuberung zeigt außerdem, wie Moderationswerkzeuge, die auf ein Problem zielen, einen ganz anderen Teil der Plattformkultur destabilisieren können. Eine Kampagne zur Reduzierung gefälschter Interaktionen veränderte am Ende die Art und Weise, wie manche Menschen online mit Anonymität, Begehren und persönlichen Archiven umgehen. Selbst wenn das Unternehmen diese Konten als Kollateralschaden einer größeren Bereinigung betrachtet, erinnert der Effekt daran, dass Kontodurchsetzung keine neutrale Infrastruktur ist. Sie prägt, welche Arten privaten Verhaltens in einem öffentlichen Netzwerk weiterhin möglich bleiben.

Es gibt einen guten Grund, automatisierten Spam und künstliche Verstärkung zu entfernen, und X steht seit Jahren unter Druck, mehr dagegen zu tun. Doch wenn die Durchsetzung schnell ausgeweitet wird und die Erklärung hinterherhinkt, bleibt den Nutzern eine andere Lektion: Die Plattform kann einen bedeutenden Teil ihres digitalen Lebens löschen, ohne klar zwischen einem Bot und einer Person zu unterscheiden, die einfach nur einen separaten Raum wollte. In diesem Sinne ist die jüngste Säuberung nicht nur eine Moderationsgeschichte. Sie ist eine Geschichte darüber, wie fragil Online-Identität wird, wenn die Systeme, die Authentizität definieren, zugleich undurchsichtig und automatisiert sind.

Dieser Artikel basiert auf einer Berichterstattung von Wired. Den Originalartikel lesen.

Originally published on wired.com