X 正在大规模暂停机器人,但许多真人用户也被波及

X 最新的反机器人行动正在以一种传递紧迫感的速度推进。根据 WIRED 报道,平台产品负责人 Nikita Bier 在 4 月 9 日表示,X 正以每分钟 208 个账户且仍在上升的速度标记并暂停机器人。公开宣称的目标是自动化、虚假、非活跃或垃圾信息行为,因为这些行为会扭曲互动并削弱平台质量。但对许多用户来说,实际效果显然比这一表述更广。

WIRED 报道称,这次清理还暂停或删除了由真人运营的备用账户,其中包括被用来私下收藏、点赞、转发,或低调关注小众成人内容的账户。这些所谓的 alt 账户通常存在于用户的公开身份之外,与其说是用于发布,不如说是用于个人整理。在一个旨在识别非真实行为的系统里,这些模式似乎让一些真人用户看起来像机器。

这个问题说明了信任与安全工作中一个长期存在的张力:平台越是快速大规模行动,就越可能撞上并非恶意的边缘情况。私密或低活跃账户在纸面上很像垃圾账户,尤其当它们主要是潜伏、转发,或围绕某类特定内容进行狭窄模式的互动时。这并不意味着执法目标不正当,而是意味着粗放检测系统的成本,最终由那些行为异常但未必被禁止的用户承担。

共同特征似乎不是公开发帖,而是私下行为

WIRED 报道中一个更能说明问题的细节是,一些受影响用户表示,他们几乎从不或根本不会用这些账户发帖。相反,他们把这些账户用于在主社交身份之外整理和消费成人内容。这一点很重要,因为它表明 X 的执法可能把沉默、匿名或重复性的互动模式解读为操纵迹象。平台政策禁止破坏 X 完整性的非真实活动,但在被波及的用户看来,类似垃圾信息的行为与私密、极度专门化的整理之间的界线并不总是清晰。

WIRED 还指出,这并不是一次孤立的清理行动。去年 10 月,Bier 的团队表示,X 删除了 170 万个机器人,以减少回复区垃圾信息,并计划接下来把重点转向私信垃圾信息。因此,这一波行动更像是更广泛产品策略的一部分,而不是一次性的内容审核突袭。X 正试图重新掌控账户质量,并减少平台被操纵的可见迹象。问题在于,公司并未公开说明,在最新一轮行动中到底移除了多少真正的机器人,也没有说明有多少真人用户可能被误伤。

缺乏透明度使用户只能通过零散经历和损失来拼凑逻辑。对那些花了多年建立私人收藏的人来说,损失是直接而个人化的。WIRED 描述的反应十分强烈,但也可以理解:整整一套整理历史在一个周末内消失,几乎没有解释,也不清楚是否还有恢复的可能。

这次清理反映的不只是色情内容,还有平台设计

把这件事简单看作一篇关于成人内容的报道很容易,但背后的问题更大。许多社交平台都鼓励用户出于隐私、职业、追星、政治或性取向等原因,将身份分散在不同账户上。因此,一个对低可见度或狭窄模式行为采取强硬惩罚的系统,可能会与平台长期以来自己也在帮助正常化的合法用户实践发生冲突。

X 的最新清理还显示,原本针对某一问题的审核工具,如何会扰乱平台文化中完全不同的一部分。原本旨在打击虚假互动的行动,最终改变了某些人在线上管理匿名、欲望和个人档案的方式。即使公司将这些账户视为更大范围整治中的附带损害,这一结果也提醒人们,账户执法并不是中性的基础设施。它会塑造公共网络中还能维持哪些私密行为。

清除自动化垃圾信息和虚假放大行为确实有充分理由,而 X 多年来一直承受着采取更多行动的压力。但当执法迅速扩张而解释滞后时,用户得到的却是另一种教训:平台可以在没有清楚区分机器人和只想拥有一个独立空间的人类的情况下,抹去他们数字生活中重要的一部分。从这个意义上说,最新一轮清理不仅是一则内容审核新闻,也是一则关于在界定真实性的系统既不透明又自动化时,线上身份会变得多么脆弱的新闻。

本文基于 Wired 的报道。阅读原文

Originally published on wired.com