围绕AI与军用用途的内部争议再次浮出水面
超过600名谷歌员工签署了一封联名信,敦促首席执行官桑达尔·皮查伊阻止五角大楼将公司的AI模型用于机密用途,正如源材料所引用的报道所述。这封信标志着大型科技公司内部一场长期争论的又一次显著升级:先进的商业AI系统是否应被改造用于军事和情报工作,以及如果可以,应该受到何种限制。
这场员工行动在公司内部似乎具有真实分量。组织者称,许多签署者来自Google DeepMind,其中包括20多位首席专家、总监和副总裁。这些细节表明,这并不是局限于少数活动人士的象征性抗议,而是触及谷歌AI运作中技术和组织上都举足轻重的部分。
直接导火索是《The Information》的一篇报道,该报道称谷歌与五角大楼正在讨论一项在机密环境中部署Gemini AI的协议。这个前景让员工感到警惕,因为他们认为机密政府工作负载会带来截然不同的伦理门槛。正如源材料所引述的,他们的论点是,防止谷歌与有害机密应用产生关联的唯一可靠方式,就是直接拒绝此类工作负载,因为否则这些用途可能在大多数员工不知情、也没有实际内部干预机制的情况下发生。
为什么机密用途成了员工划出的界线
这封信的措辞很重要,因为它关注的不是一般军事用途,而是机密用途。这一区别反映的是对不透明性的担忧。在非机密环境中,外部观察者、公民社会组织、记者,甚至员工本人,都至少还有一定机会了解系统如何被部署。而在机密环境中,这种可见度会大幅下降。因此,担心下游危害的员工认为,保密改变的是治理问题本身,而不仅仅是使用场景。
对于谷歌这样的公司,这种担忧与另一现实发生冲突:大型AI供应商正越来越受到压力,要证明自己的系统不仅能服务企业和消费者,也能服务政府。机密部署不仅是政策问题,它也正在成为竞争前沿。如果一家公司拒绝,另一家公司可能会介入,从而加强与公共部门买家的关系,并扩大其模型的实际运作范围。
源材料把谷歌的内部争论置于更广泛的行业模式之中。微软已经签有在机密环境中提供AI服务的协议。报道还指出,OpenAI在2月宣布与五角大楼达成一项重新谈判的协议。这意味着谷歌面临的选择并非抽象问题,而是在竞争对手已经行动的市场里作出的判断。
更广泛的科技行业争论正在形成
这封信也出现在与Anthropic和五角大楼有关的另一场争议背景下。根据源材料,Anthropic正因被指定为供应链风险而卷入一场法律战,这一冲突与其拒绝放松美国军方使用其模型的护栏有关。这起案件很重要,因为它表明,围绕可接受军事用途的分歧,很快就会演变成采购、法律和战略层面的战斗。
综合来看,谷歌员工信和Anthropic争议指向AI行业中正在形成的一条断层线。公司希望把强大的系统卖进政府场景,但这些系统之所以吸引人,正是因为它们也会引发关于监控、目标打击、作战自主性以及军事决策支持规模化的担忧。与此同时,员工也越来越清楚,一旦基础设施被建立起来以支持机密访问,内部监督可能会变弱,而不是更强。
签署这封信的人并不是在争论一个假设中的未来,而是在回应一个现实:前沿模型已经被定位为敏感国家功能的工具。这使得公司内部治理比早期围绕云合同或孤立软件项目的争论时期更为关键。


