冷战工具在新技术时代的应用
美国国防部与全球领先的人工智能公司之一的关系已经走到了断裂边缘。国防部长Pete Hegseth向Anthropic发出了明确的最后通牒:同意允许军方不受限制地使用其AI技术,否则将被完全逐出五角大楼的供应链。
这一威胁是在周二华盛顿的一次紧张会议中提出的,Hegseth召唤了Anthropic首席执行官Dario Amodei,就该公司拒绝向军方提供对其AI模型进行机密行动的无限制访问权限进行了据称对抗性的讨论。最具争议的要求包括国内监视能力的条款,以及无需直接人类监管的致命自主任务。
也许最令人震惊的是Hegseth援引了《国防生产法》,这是一部冷战时期的法案,赋予总统强大的权力,可以强制国内产业为国防优先权服务。这部法律最初的设计目的是确保工厂可以在战争时期转向军事生产,但从未被用于强制AI公司交出其技术——这使得这一威胁成为美国技术政策史上前所未有的。
Anthropic的安全优先立场面临压力
Anthropic长期以来通过强调安全研究和负责任的部署在AI行业中独树一帜。这家公司由前OpenAI研究员Dario和Daniela Amodei创办,已经围绕宪法性AI的概念树立了自己的品牌——这种系统旨在通过内置的道德护栏来防止滥用。
这种安全优先的理念现在使该公司与五角大楼对整个军事行动中AI集成不断增长的需求产生了直接冲突。虽然Anthropic并未反对所有国防合同,但它在某些应用周围划了明确的界线,特别是那些涉及没有有意义的人类控制的自主致命武力,以及针对国内人口的大规模监视项目的应用。
该公司的立场反映了AI行业内关于在哪里划定道德界限的更广泛辩论。其他主要AI公司,包括OpenAI和Google,也在应对军事合同问题上表示过困扰,尽管大多数公司更愿意与国防机构协商合作条款。Anthropic更强硬的立场已经使其成为华盛顿日益激进的武器化人工智能推动中的一个焦点。
国防生产法:一种不寻常的武器
《国防生产法》于1950年在朝鲜战争初期签署生效。其最初目的很明确:确保美国工业能够迅速转向支持军事需求。在数十年间,它被用于从半导体制造到大流行医疗物资链的各种用途。
但是,应用DPA强制AI公司授予其模型访问权限代表了一种根本不同的干预方式。与有形商品不同,AI模型是知识产权,其能力和风险深深交织在一起。强制一家公司从其技术中移除安全护栏提出了远超越传统采购纠纷范围的问题。
法律专家指出,这样使用DPA可能会立即面临法庭质疑。这部法律是为了生产和供应链优先权而制定的,而不是为了推翻一家公司关于其技术如何部署的内部安全政策。任何援用该法的尝试都可能为整个技术行业树立影响深远的先例。
行业反应和更广泛的影响
这一僵局在硅谷引起了震波。其他AI公司正在密切关注,意识到这一结果可能会为政府与私人AI部门的互动方式建立新的规范。几位业界领导人私下表达了担忧,称屈服于五角大楼的要求可能会削弱许多人认为对防止灾难性AI滥用至关重要的安全研究。
国会的反应不一致。武装服务委员会的鹰派支持Hegseth的立场,辩称国家安全必须优先于企业安全偏好。其他议员,特别是参议院商业委员会的成员,已经警告说强制AI公司可能会将人才和创新赶往海外,最终削弱美国的竞争力。
欧盟也注意到了这一事件。欧盟官员指出这一对峙是支持他们自身对AI治理采取更具监管性方法的证据,一位高级外交官指出,这一事件突出了将AI安全决策交由政治任命人士主宰所带来的风险。
接下来会发生什么
周五的截止日期迫在眉睫。如果Anthropic拒绝遵守,Hegseth可能会按照他的威胁,将该公司从国防采购渠道中移除,切断一个重要的收入来源,并向其他AI公司发送警告信号。《国防生产法》的选项仍然存在,但将代表一次更加戏剧化的升级,其法律结果不确定。
对于Anthropic来说,这是生死攸关的抉择。屈服可能会削弱定义其企业身份的安全原则,并削弱与那些正因公司道德承诺而加入公司的员工的信任。抗拒可能会使公司不仅失去政府合同,还会失去政治好感,尤其是在AI监管正在华盛顿积极制定的时刻。
无论结果如何,这一对峙已经明确了一点:AI公司与政府之间的蜜月期已经结束。礼貌合作推进AI政策的时代正在让位于激烈的谈判,其中赌注不是用季度收益来衡量,而是用人类历史上最强大技术将如何被治理这一根本问题来衡量。
本文基于Ars Technica的报道。阅读原文。


