苹果在 Grok 的审核失灵引发关注后介入

在有关投诉和新闻报道将这些服务与一波未经同意的色情深度伪造内容联系起来后,苹果私下警告 X 和 Grok 背后的团队,他们需要拿出一项改进内容审核的计划。根据 NBC News 引述并由 The Verge 概述的报道,苹果告诉美国参议员,公司已在 1 月联系了这两家开发者,并要求作出改变。这个警告之所以重要,是因为 Grok 既可在 X 内使用,也有独立应用,这让苹果能够直接向市场上最受关注的 AI 产品之一施加影响。

核心问题并不含糊。彼时,Grok 的防护措施被描述为薄弱到足以让用户相对轻松地生成和传播真人的色情化深度伪造内容,以及所谓的脱衣图像。The Verge 说,这些图像不成比例地针对女性,而其中一些显然涉及未成年人。这种组合使问题同时落在了 AI 滥用、应用商店规则和儿童安全担忧的交汇点上。

苹果的介入也凸显了移动生态中一个反复出现的矛盾。应用商店往往把自己呈现为安全与内容政策的严格守门人,但在滥用危机展开时,公司却选择悄悄行动,而不是公开回应。The Verge 将这一做法描述为行业最强中介之一发出的低调权力宣示。尽管相关行为性质严重,且涉事应用都是覆盖面广的重要平台,苹果当时并未公开说明其介入。

X 让苹果满意地改进了,但 Grok 没有

根据 The Verge 描述的信件,苹果表示已审查了针对 X 和 Grok 提出的修改方案。其结论是,X 已在很大程度上解决了违规问题,而 Grok 仍未合规。苹果随后告知开发者,若不再作出额外修改,应用可能会被从 App Store 中移除。这一区别很重要,因为它表明苹果并未将母平台和这款 AI 产品视为同一种审核案例,尽管在实际运行中二者紧密相连。

这一事件说明,AI 产品触及平台治理规则的速度可能比传统社交功能更快。一个能够生成合成媒体的聊天机器人,会带来即时、可规模化且高度个人化的风险。当防护失效时,应用商店这样的分发渠道就会成为执法点。因此,苹果以移除相威胁并不只是例行的开发者反馈,而是在承认生成式 AI 工具可能造成足够严重的伤害,从而触发商店运营方除直接下架之外所能采取的最严厉制裁。

据报道,同样从通过 Google Play 分发这些应用中获利的谷歌,并未就此事公开置评。这种沉默映射出更广泛的行业模式。公司通过为快速增长的 AI 产品提供访问、托管或曝光来获利,但在决策不可避免之前,往往不愿谈论执行措施。结果是,公众了解这些系统如何被治理的主要窗口,往往来自外部报道,而非官方披露。