从嘲讽安全测试到重建安全测试

特朗普政府在前沿人工智能监管问题上的立场已发生明显转变。它与 Google DeepMind、Microsoft 和 xAI 签署了新的协议,在先进模型发布前后进行政府安全检查。这一转向不仅体现在其所做之事上,也体现在其与政府早先立场之间的直接背离上。

据 Ars Technica 报道,唐纳德·特朗普总统此前曾将与拜登时期相关的自愿人工智能安全检查斥为扼杀创新的过度监管。上任不久后,政府甚至将美国人工智能安全研究所更名为人工智能标准与创新中心,即 CAISI,并从名称中去掉了“安全”一词;来源将此描述为对乔·拜登的明显挖苦。

如今,同一届政府正在恢复其曾经嘲讽过的一套政策框架。

Mythos 触发点

显而易见的转折点是 Anthropic 决定不发布其最新的 Claude Mythos 模型。Ars Technica 报道称,该公司认为该模型风险过高,不宜公开,因为不法分子可能会利用其先进的网络安全能力。这一决定似乎在华盛顿内部产生了很大影响。

白宫国家经济委员会主任 Kevin Hassett 据来源文字对 Fortune 表示,特朗普可能很快会发布行政命令,要求在先进人工智能系统发布前进行政府测试。如果真是如此,政府将从重新开展自愿合作,转向正式的发布前评估机制。

其中的政治讽刺意味很难忽视。此前将安全监管定位为进步刹车的白宫,如今却在一个前沿模型引发足够严重担忧、以至于其开发者选择扣住不发之后,考虑推行强制要求。

CAISI 扮演更大角色

CAISI 自身的公告明确表示,这些新协议是“在”拜登时期政策基础上的延伸。这个措辞很重要,因为它承认了在一段言辞断裂之后仍存在连续性。政府也许改了品牌名称,但对结构化模型评估的实际需求似乎重新显现出来了。

CAISI 主任 Chris Fall 表示,扩大的行业合作将帮助该中心在“一个关键时刻,以公共利益为导向扩大工作规模”。来源文字称,CAISI 迄今已完成约 40 次评估,其中包括对尚未发布的前沿模型进行的测试。

这些评估尤其重要,因为 CAISI 往往能够接触到安全防护被削弱或移除的系统。根据该机构的说法,这使评估人员能够比仅通过面向公众的部署更全面地评估与国家安全相关的能力和风险。

在实践中,这意味着政府审查的不只是发布后的成品。它还在查看当某些安全层被移除时模型能做什么,这是一种更具穿透力的能力评估方式。

国家安全正在推动政策转向

政府的新立场很大程度上是围绕国家安全来表述的。CAISI 说,一个由跨机构专家组成的工作组已经成立,专注于人工智能国家安全问题,旨在让评估人员与政府各部门不断演变的风险保持一致。

这一强调很重要,因为它解释了政治立场为何会重新调整。关于人工智能伦理或消费者危害的普遍争论,往往会沿着熟悉的意识形态分歧线把政策制定者分开。国家安全问题通常会更快地重新排列这些分歧线。一种被认为可能被用于危险网络滥用的模型,更容易被描绘成战略威胁,而不是常规的技术政策争议。

这并不能解决围绕人工智能应如何治理的更大争论,但它说明了当前推动政府行动的力量。焦点并不是抽象的安全口号,而是前沿系统可能在政府评估人员真正理解其风险画像之前,就为敌对方创造操作优势的可能性。

为何这次逆转重要

这些新协议的重要性体现在政策和信号两个层面。在政策上,它们恢复了一条渠道,使主要人工智能公司可以在模型发布前后接受政府审查。在信号上,它们表明,即便是对“人工智能安全”在言辞上持敌意的政府,也会在能力发展足够迅速时回到结构化监管。

参与的公司也很关键。Google DeepMind、Microsoft 和 xAI 都是正在构建或支持前沿系统的公司之一,因此它们的参与赋予这一框架实际分量。如果未来某项行政命令把测试变成强制要求,政府将已经拥有现成的合作关系和一定的操作经验可供依托。

与此同时,当前的转向也留下了一些未决问题。来源文字指出,已有部分公司签署协议,但并未给出完整名单或执法细节。它也没有说明,如果特朗普推进行政命令,“先进”系统的界限将如何界定。

即便如此,整体方向已经很清楚。一个曾试图淡化人工智能安全问题的白宫,正被前沿模型的表现以及这些模型开发者发出的警告重新拉回到这一议题上。

由能力变化重塑的人工智能政策争论

这一事件提醒人们,当理论担忧变成现实操作问题时,人工智能政策争论会迅速变化。特朗普政府并不是通过言辞上的妥协逐步转向拜登政府的看法,而似乎是在某个具体案例上作出反应:一家大型开发者判断某个模型风险过高,不能发布。

这一差别很重要。在新兴人工智能格局中,能力上的冲击可能比意识形态上的一致性更快地塑造政策。如果政府最终落实发布前强制测试,那么美国近期在前沿人工智能评估方面最强势的举措之一,将出自一位最初认为此类监管没有必要的总统。

  • 特朗普政府与 Google DeepMind、Microsoft 和 xAI 签署了新的自愿人工智能安全测试协议。
  • 此举推翻了它此前对拜登时期人工智能安全检查的否定态度。
  • Anthropic 决定不发布 Claude Mythos 似乎加速了这一转向。
  • 据报白宫下一步可能考虑发布一项要求先进人工智能系统在发布前接受测试的行政命令。

本文基于 Ars Technica 的报道。阅读原文