Anthropic 调查 Mythos 访问传闻
Anthropic 正在调查一份报告。该报告称,一群未经授权的用户获得了 Claude Mythos Preview 的访问权限。这是一款面向网络安全的 AI 工具,Anthropic 只向部分精选供应商提供。该公司告诉 TechCrunch,正在核实有关访问是否通过第三方供应商环境发生的说法,同时表示尚未发现 Anthropic 自身系统受到影响的证据。
这份报告之所以重要,是因为 Mythos 并不是面向普通消费者的聊天机器人。Anthropic 将该产品描述为一款企业安全工具,能力足够强大,若落入不当之手,可能被重新用于进攻性黑客行为。这种双重用途特征也解释了为何有限发布如此重要:访问控制是安全模型的一部分,而不仅仅是商业包装上的决定。
据称是如何获得访问权限的
据原始材料,Bloomberg 报道称,某私密在线论坛的成员通过第三方供应商获得了 Mythos 的访问权限。涉事人员尚未公开身份。报道称,其中一人受雇于一家与 Anthropic 有关联的第三方承包商,而该小组在行动中使用了此人的访问权限。
报道称,该小组还根据 Anthropic 以往对其他模型使用的命名或部署位置模式,对该模型的线上位置做出了有根据的猜测。Bloomberg 据称还看到了该工具的截图和现场演示。该小组被指在 Mythos 公布当日就已访问到该工具,并在此后持续 नियमित 使用。
这一事件为何重要
对于 AI 公司而言,这一事件以更尖锐的形式说明了一个熟悉的问题:模型核心可以受到保护,但仍可能通过其周边更广泛的生态系统暴露出来。供应商环境、承包商、预览计划以及与合作伙伴的早期部署,都会扩大访问凭证和路由信息可能泄露或被滥用的场所。
Anthropic 目前的表述比报告中的说法更为狭窄。公司并未表示其系统遭到入侵,而是说正在调查一项涉及第三方供应商环境的报告,且尚未看到活动影响 Anthropic 系统的证据。这一区分很重要,但并不能消除运营风险。对于受限的 AI 系统而言,即便是通过合作伙伴发生的未经授权使用,仍可能破坏受控发布的目的。
报道称,Mythos 曾作为一项名为 Project Glasswing 的倡议的一部分,向包括 Apple 在内的一小部分供应商发布。有限发布的初衷是降低恶意行为者利用该工具的可能性。如果一个私密团体在公告发布后立即通过供应商渠道获得访问权限,这就引发了关于预览部署如何被监控、访问范围如何划定,以及可疑使用能否被迅速发现的问题。
更广泛的 AI 安全挑战
该报告还指向了围绕未发布 AI 系统的文化问题。原始材料描述了一个 Discord 频道,其成员寻求有关未公开 AI 模型的信息。报告中提到的人将该群体描述为更关注试验新模型,而非造成伤害。即便这种描述准确,对一款网络安全工具进行未经授权的试验,也比围绕普通聊天机器人的好奇心构成更高风险的场景。
企业级 AI 安全产品必须足够有用,能够分析威胁、自动化调查并帮助防御者。而同样的能力如果被转向侦察或利用,也可能变得危险。这种张力使发布纪律成为产品安全的核心。它还意味着,参与预览的供应商也成为安全边界的一部分。
对 Anthropic 来说,当前任务是查明发生了什么,确认是否仍存在可用的访问路径,并判断围绕第三方环境的控制是否足够。对更广泛的行业而言,这一事件提醒我们,前沿 AI 治理依赖于平凡的操作细节:凭证、承包商、供应商权限、日志和内部命名规则。
目前,这起事件尚未被描述为对 Anthropic 自身系统的入侵。即便如此,关于 Mythos 的访问传闻表明,一旦其存在被知晓,受限 AI 工具会迅速成为目标。
本文基于 TechCrunch 的报道。阅读原文。
Originally published on techcrunch.com




