一场具有更广泛影响的 AI 安全争议
Anthropic 公布其 Claude Mythos Preview 模型后,迅速引发了当前 AI 周期中更具影响力的网络安全争论之一。公司表示,这一模型标志着一个关键转折点,称它能够在主要软件目标中发现漏洞,并自主开发可运行的利用代码。作为回应,Anthropic 并未将该模型广泛开放,而是在名为 Project Glasswing 的联盟框架下,只向包括 Microsoft、Apple、Google 和 Linux Foundation 在内的一小部分组织提供访问权限。
这种兼具非凡能力宣称与受限访问的组合,几乎注定会引发两种反应。一方认为,这标志着进攻性 AI 能力出现了令人担忧的跃升。另一方则认为,这不过是炒作、选择性表述,以及一家手里有重要产品可卖的公司所制造的顺手叙事。根据所提供的来源材料,更有意思的结论是:即便双方对其规模存在分歧,它们都在围绕着一个真实的变化打转。
Anthropic 认为发生了什么变化
根据来源文本,真正的担忧并不只是单独发现漏洞本身。更尖锐的说法是,Mythos Preview 在构建利用链方面尤其强大,也就是将一系列弱点组合起来,从而更深层次地攻破目标。这一点很重要,因为复杂攻击往往正是依赖这种链式组合,而不是某一个显眼的漏洞。
文中引用的研究人员认为,这可能代表一个重要门槛。云安全公司 Edera 的首席技术官 Alex Zenla 被描述为通常对这类说法持怀疑态度,但这次被说服,认为威胁确实存在。其担忧在于,AI 系统不只是越来越擅长发现缺陷,也越来越擅长构建攻击者在实践中使用的那种多步骤逻辑。
如果这一判断成立,那么这项发展不会只是让现有安全工作更快一些。它将改变漏洞利用开发的速度和规模,尤其是在复杂的软件环境中。
为什么怀疑者仍然重要
怀疑并非毫无道理。来源材料中提到的批评者指出,当前的 AI 代理已经让漏洞发现和利用变得比过去更容易、更便宜。按照这种观点,Mythos Preview 并不是一条清晰的历史分界线,而是既有趋势的延伸,而企业早已通过更快打补丁、更好的内部测试和更积极的安全研究在适应这种趋势。
这种批评也指向了围绕独占性的经济激励。一家公司可能会从把某个模型描述得特别危险、特别强大中获益,尤其是在访问权限只开放给少数组织时。这并不意味着这些说法是假的,但确实意味着应结合商业背景来理解。
不过,炒作的存在并不会抵消底层问题。如果先进模型在把多个漏洞串联起来方面越来越强,那么即使不完全接受 Anthropic 发布时的全部含义,防守方也很快会面临更高频率、更高速度的利用代码开发。
更深层的反思指向软件质量
来源材料中最持久的洞见是,Mythos 争议可能会引发一次清算,但未必是人们最初设想的那种。它并没有证明 AI 突然让防御变得不可能,反而凸显出现代软件在多大程度上仍然依赖不安全的默认设置、脆弱的依赖关系,以及发布后再补丁修补的习惯。
从这个意义上说,Mythos 与其说是一件单一的网络超级武器,不如说是对一个本就薄弱的基础进行压力测试。如果 AI 工具让识别可利用的漏洞组合变得更容易,那么那些把安全当作事后补充的产品将会暴露得更加明显。变化不只是攻击者能做什么,而是许多系统一开始就有多么缺乏余地。
这种解读在战略上是有价值的,因为它把注意力重新引向防守方仍然有主动权的地方:软件设计、安全开发实践、漏洞修复,以及架构加固。这些并不光鲜,但却是应对进攻性研究自动化最可信的回应。
为什么有限发布很重要
Anthropic 目前选择继续将该模型保密,也是故事的一部分。将访问限制在少数几十个组织,意味着公司认为大规模部署的风险并不只是理论上的。它也为全球一些最大的科技和软件管理者提供了一个受控环境,用来评估模型的行为及其影响。
这并不能终结争论,但表明各大机构已经认真到愿意参与评估。如果这些评估哪怕验证了所描述能力中的一部分,那么开发者和平台所有者提升基础安全性的压力将会迅速加大。
值得关注的门槛
现有来源材料并不能证明 Mythos Preview 已经永久改变了网络安全格局。但它支持一个更窄、但仍然重要的结论:领先实践者认为,AI 在生成利用链方面可能正在接近一个明显更危险的水平,而企业也已经开始以需要认真警惕的态度来应对这种可能性。
最可能的结果不会是现有防御的立刻崩塌,而是让脆弱软件所处的环境变得更严峻。那些一直把安全视为日后再补的团队,可能会发现“日后”已经不够用了。
这才是更可信的清算。无论 Mythos 是否会成为定义性模型,发展方向都很清楚。AI 系统正在变得更擅长攻击者看重的那类推理。为这种未来做好准备的组织,不会是反应最激烈的那些,而会是终于把安全软件开发视为基础而非可选项的那些。
本文基于 Wired 的报道。阅读原文。




