一项机密 AI 协议引发对控制与监督的新疑问
据报,谷歌已签署一项机密协议,允许美国国防部将其 AI 模型用于“任何合法政府目的”。The Verge 根据 The Information 的消息来源所描述的这项安排,将使谷歌在美国国家安全 AI 生态系统中的位置更加稳固,而此时外部和内部审视都在加剧。
时间点本身就是故事的一部分。据报,这项协议发布的时间距离谷歌员工敦促首席执行官 Sundar Pichai 阻止五角大楼使用公司 AI 还不到一天。员工担忧与公司立场之间的这一间隔,凸显了 AI 部署争论正如何迅速从原则转向合同措辞。
据报最关键的内容之一,不仅在于五角大楼可以使用谷歌系统,还在于合同显然并未赋予谷歌“控制或否决合法政府作战决策的任何权利”。如果属实,这将大幅限制公司在协议生效后对最终用途施加影响的能力,即便该协议也包含反对国内大规模监控或在没有适当人类监督和控制下使用自主武器的表述。
这种张力正触及当下军事 AI 政治的核心。公司通常强调高层级的安全保障,但真正的考验在于,当任务需求发生变化时,这些保障是否可执行。被报道的合同措辞表明,一种原则可以与政府广泛的作战裁量并存的模式。这与供应商仍保有实质性能力去阻止或限制特定用途的模式截然不同。
报道称,谷歌还将被要求应政府请求协助调整 AI 安全设置和过滤器。这个细节很重要,因为它把讨论从单纯的访问权限推进了一步。它意味着谷歌将积极参与根据国家安全需求调整系统,这可能成为政府与 AI 合作中最具争议的维度之一。
如果得到证实,这项协议将使谷歌与 OpenAI 和 xAI 一同进入机密 AI 合同领域,而 The Verge 指出,Anthropic 因拒绝与武器和监控防护相关的要求而被五角大楼列入黑名单。这个对比显示,竞争格局可能会迅速奖励那些愿意配合国防要求的公司。
更广泛的意义很直接。AI 采购不再只是云容量或研究声望的问题。它越来越关乎谁愿意提供模型、对其进行修改,并在模型进入政府系统后接受更少的控制。这项据报的谷歌与五角大楼协议再次表明,商业 AI 领导地位与国防基础设施之间的界线正逐月变得更薄。
本文根据 The Verge 的报道整理。阅读原文。
Originally published on theverge.com
