Xは大規模にボットを停止しているが、多くの人間ユーザーも巻き込まれている

Xの最新のボット対策は、切迫感を示す速度で進んでいる。WIREDによると、同社のプロダクト責任者ニキータ・ビアは4月9日、Xが1分あたり208アカウントのペースでボットを検出し、停止しており、その数は増加していると述べた。公表されている対象は、エンゲージメントをゆがめ、プラットフォームを劣化させる自動化された偽アカウント、非アクティブアカウント、スパム行為だ。しかし、利用者の目に映る実際の影響は、その説明よりも広い。

WIREDは、この取り締まりによって、人間が運用する別アカウントも停止または削除されたと報じている。そこには、非公開でブックマークしたり、いいねや再投稿をしたり、ニッチな成人向けコンテンツを静かに追いかけるために使われていたアカウントも含まれる。こうしたいわゆる alt アカウントは、しばしばユーザーの公開アイデンティティの外側に存在し、投稿のためというより個人的な整理のために使われていた。不正な振る舞いを検出するよう設計された仕組みの中では、こうしたパターンが一部の人間ユーザーを機械のように見せてしまったのだろう。

この問題は、信頼と安全の仕事における長年の緊張関係を示している。プラットフォームが大規模に素早く動けば動くほど、悪意のない境界事例と衝突しやすくなる。非公開で活動量の少ないアカウントは、紙の上ではスパムアカウントに見えやすい。とくに、ほとんど潜んでいるだけだったり、再投稿を繰り返したり、特定の種類のコンテンツをめぐって狭いパターンで反応している場合はなおさらだ。だからといって、取り締まりの目的が不当だという意味ではない。むしろ、荒い検出システムのコストが、変わってはいるが必ずしも禁止されているわけではない行動をとる利用者に転嫁されているということだ。

共通点は公開投稿ではなく、非公開のふるまいにあるようだ

WIREDの報道で特に示唆的なのは、影響を受けた一部の利用者が、これらのアカウントからほとんど、あるいはまったく投稿していなかったと話している点だ。代わりに、主たるソーシャル上のアイデンティティから切り離して成人向け素材を整理し、消費するために使っていたという。これは重要だ。Xが、受動性、匿名性、あるいは反復的なエンゲージメントのパターンを、操作の兆候として読み取っている可能性を示すからだ。プラットフォームのポリシーは、Xの整合性を損なう不正な活動を禁じているが、スパムのように見える行動と、私的で高度に専門化された整理との境界は、網にかかった利用者には必ずしも明白ではない。

WIREDはまた、これが単発の清掃ではないとも指摘している。10月には、ビアのチームが、Xが返信スパムを減らすために170万件のボットを削除したと述べ、次はダイレクトメッセージのスパムに重点を移す計画だとした。したがって今回の波は、一回限りのモデレーション強化ではなく、より広い製品戦略の一部として位置づけられる。Xはアカウント品質の管理を取り戻し、プラットフォーム操作の目に見える兆候を減らそうとしている。ただし、今回の取り締まりで実際にどれだけの本物のボットが削除されたのか、またどれだけの人間ユーザーが誤って影響を受けたのかは、会社は公表していない。

その透明性の欠如のせいで、利用者は断片的な証言と失われたものからロジックをつなぎ合わせるしかない。何年もかけて非公開アーカイブを築いてきた人々にとって、被害は即座で個人的なものだった。WIREDが描写した反応は劇的だったが、それも理解できる。整理の履歴が週末のうちに丸ごと消え、ほとんど説明もなく、復旧できるかどうかもはっきりしなかったのだから。