争论已从可能性转向现在时

谷歌表示,围绕人工智能的网络安全讨论已经进入新阶段。据《卫报》报道,该公司的威胁情报团队得出结论,AI 驱动的黑客攻击在短短三个月内已从萌芽问题变成工业化规模的威胁。

这一警告意义重大,因为它重塑了长期以来围绕先进模型未来可能带来什么的讨论。谷歌的分析人士认为,使用将来的说法已经过时。在他们看来,威胁行为者现在就已经在利用商业 AI 工具来提高真实攻击中的速度、规模和复杂性。

这种区别对防御方很重要。如果 AI 只是一个即将到来的能力,组织可以把它当作规划问题来处理。如果它已经嵌入主动攻击中,它就变成了一个即时的运营问题,会影响漏洞管理、检测、事件响应以及防御补丁部署的速度。

商业模型已成为威胁图景的一部分

《卫报》报道称,谷歌的评估发现,来自中国、朝鲜和俄罗斯的犯罪组织以及与国家有关联的行为者似乎正在使用包括 Gemini、Claude 和 OpenAI 工具在内的商业模型来完善并扩大攻击规模。报道并不是说这些公司有意为恶意使用提供支持。更重要的是,广泛可用、能力强大的系统如今已成为进攻工具的一部分。

谷歌威胁分析师 John Hultquist 表示,人们存在一种误解,认为 AI 漏洞竞赛即将到来,而实际上它已经开始了。他说,威胁行为者正在利用 AI 提高对目标的持续性,测试行动,构建更好的恶意软件,并取得其他渐进式收益。

这些渐进式收益的重要性不亚于那些引人注目的突破。攻击活动之所以成功,往往是因为它们变得更便宜、更快速,也更容易重复,而不是因为每一次行动都极具创新性。如果 AI 降低了侦察、恶意软件改进、钓鱼变种或漏洞测试的摩擦,那么即使没有完全自主的网络进攻,其累积效应也可能十分可观。

零日风险是更大升级的一部分

《卫报》将谷歌的报告放在更广泛的背景中,其中包括 AI 公司本身发出的异常强烈警告。上个月,Anthropic 在表示其一款最新模型 Mythos 若被滥用会带来严重风险后,决定不发布它。Anthropic 称,该模型在主要操作系统和网页浏览器中识别出了零日漏洞,行业需要协调一致的防御行动。

谷歌的发现表明,防御方可能没有必要等到极端的前沿模型场景出现后再进行调整。报告称,一个犯罪团伙最近似乎即将利用一个零日漏洞开展大规模利用活动,并且似乎依赖 AI 模型协助这一行动。

这并不意味着 AI 已经取代了熟练的操作人员。但这确实意味着它可以放大他们的能力。在网络行动中,放大效应具有战略重要性,因为它改变了攻击经济学。可以并行运行更多攻击活动,工具可以更快改进,技能较低的参与者也可能比过去执行更有能力的行动。