AI 赋能进攻性安全的一个分水岭时刻

谷歌表示,它发现了其所称的已知首例攻击者利用人工智能发现并武器化零日漏洞的案例。据对谷歌威胁情报集团一份新报告的报道,谷歌称已在这场计划中的大规模网络攻击实施之前将其阻止。

如果这一判断成立,它标志着网络安全格局中的一个重要转折。安全研究人员早已预期,大语言模型及相关 AI 系统会在进攻性漏洞研究中发挥作用。这里的意义并不在于 AI 未来某天可能帮助攻击者,而在于一家重要的威胁情报团队如今表示,它已经亲眼见到这一门槛被跨越。

谷歌称其发现了什么

The Decoder 总结的这份报告描述了攻击者在大规模网络行动中使用 AI。最引人注目的说法是零日漏洞案例本身:据称某威胁行为者利用 AI 发现并武器化了一个此前未知的漏洞。谷歌表示,这场计划中的行动在演变成大规模攻击之前就被打断了。

这一发现之所以重要,是因为零日漏洞处于网络风险的高价值层级。它们利用的是防御方在使用时尚未知的漏洞,这意味着常规补丁无法提供即时保护。如果 AI 实质性降低了发现此类缺陷的成本,或提升了发现速度,攻防之间的平衡可能会变得更加不稳定。

报告还称,来自中国和朝鲜的国家支持型行为者正在使用 AI 寻找漏洞。这把视角从单一事件扩大为一种战略性模式:政府及其相关团体可能已经把 AI 纳入网络侦察和漏洞利用开发工作流。

AI 辅助攻击周边的生态

原始报告中提到的一个细节是 GitHub 项目 wooyun-legacy。它被描述为一个基于超过 85,000 个来自中国 WooYun 平台的真实漏洞案例构建的 Claude 插件,目的是帮助 AI 模型更有效地分析代码。

这个例子说明了一个更广泛的问题。风险不只是前沿模型在抽象意义上变得更强,而是攻击者可以围绕这些模型叠加专门的数据集、工具和插件,让它们更擅长安全相关任务。换句话说,可用的进攻能力可能来自通用模型与领域定制脚手架的组合。

报告还称,俄罗斯关联团体正在在恶意软件中嵌入 AI 生成的混淆代码。给出的一个例子是名为 PROMPTSPY 的 Android 恶意软件,它使用 Gemini API 自主控制设备。这表明另一层变化正在发生:AI 不仅被用来发现漏洞,也被用来塑造载荷行为并隐藏其痕迹。

据称,犯罪团伙也在针对 AI 供应链下手,包括流行的开源包。这反映了随着 AI 采用扩大,攻击面也随之扩张。随着更多组织依赖开源组件、模型连接工具以及快速变化的软件包生态,攻击者拥有了更多植入破坏的入口。

防御正在变成 AI 对 AI

谷歌并没有把这份报告呈现为一场失控升级的故事。公司表示,它也开发了自己的 AI 防御措施,包括名为 Big Sleep 和 CodeMender 的工具。所提供材料没有详细说明这些系统的具体细节,但战略含义很清楚:防御者正越来越多地以 AI 辅助防御来回应 AI 辅助进攻。

这使得网络防御进入了一种比早期自动化浪潮更动态的竞争。过去的防御工具通常侧重规则、签名、启发式方法或异常检测。新一代工具可能会涉及能够理解代码、建模漏洞模式并加速补丁或缓解工作的系统。

不过,防御加速并不一定能抹平进攻优势。如果 AI 帮助攻击者更快地扩大侦察、生成变种并分析目标,防御者即便拥有更好的工具,也可能要面对更多可行威胁。

为什么这件事现在重要

这份报告最现实的后果,或许是它缩短了组织认真对待 AI 赋能进攻能力的时间线。安全负责人过去常把这视为一种正在逼近的挑战。而一例有据可查的 AI 辅助零日发现,将把讨论从预测推向现实。

这并不意味着每个攻击者都会突然拥有前沿级能力。有效利用漏洞仍取决于访问权限、工程能力、运营安全和目标选择。但这份报告表明,AI 现在可能已经在入侵链中最有价值的步骤之一上发挥实质作用。

对防御者而言,这意味着漏洞管理、软件供应链安全和代码审查都可能需要在新的假设下重新评估:攻击者可以比以往更快、更善于模式识别地寻找弱点。

首个确认案例的意义

在网络政策和威胁情报领域,首个确认案例之所以重要,是因为它会重置预期。这份报告似乎正在发挥这样的作用。它表明 AI 已经从钓鱼、翻译或低级脚本的辅助工具,进入了漏洞发现本身的领域。

在这一点上,AI 不再只是附属的网络安全问题,而是成为围绕软件安全展开的核心竞争的一部分。谷歌称其已阻止这次攻击,这无疑令人鼓舞。但更大的含义则没那么轻松。行业或许正进入一个新阶段:寻找并修复关键漏洞的竞赛,越来越多由双方的机器共同驱动。

本文基于 The Decoder 的报道。阅读原文

Originally published on the-decoder.com