周五最后期限与关于 AI 伦理的冷战

作为 Claude 系列语言模型背后的 AI 安全公司,Anthropic 正面临与美国国防部的非凡对峙。据报道,五角大楼已要求 Anthropic 放松其对军事应用 AI 技术的限制——特别是其对自主武器系统和大规模监视使用的禁止。Anthropic 拒绝了,国防部回应威胁要援引《国防生产法》,这是一部冷战时期的法律,允许政府强制私营公司优先考虑国防生产。

该公司获准在周五之前遵守。如果 Anthropic 坚持拒绝,五角大楼可以依法强制该公司为军事目的提供访问其 AI 功能的权限,在 AI 行业中建立没有明确先例的法律和伦理对峙。

Anthropic 限制了什么

自成立以来,Anthropic 一直维护一项可接受的使用政策,明确禁止将其 AI 模型用于自主武器、大规模监视和该公司认为与其安全开发 AI 使命不相容的其他应用。这些限制在 AI 行业中并不罕见——大多数主要 AI 公司都有类似的政策——但 Anthropic 在其对 AI 安全承诺作为核心组织原则的表达中特别直言不讳。

该公司由前 OpenAI 研究人员 Dario 和 Daniela Amodei 创立,部分原因是对 AI 开发的步伐和治理的担忧。其品牌身份围绕负责任的 AI 开发建立,其在 AI 对齐和可解释性方面的研究使其成为安全优先的人工智能方法的领导者。在军事限制上退缩会破坏该公司的基本叙述。

《国防生产法》威胁

《国防生产法》于 1950 年朝鲜战争期间签署成为法律,赋予总统广泛的权力来指导私人工业优先考虑被认为对国防必要的合同和订单。它曾因各种目的周期性地被援引——最近是在 COVID-19 大流行期间强制生产医疗用品——但使用它来强制 AI 公司为军事应用提供其技术将代表该法律的前所未有的应用。

法律专家对这样的援引是否能经受司法审查意见分歧。《国防生产法》是为物理商品制造而设计的——钢铁、弹药、医疗设备——而不是强制软件公司改变其服务条款。AI 模型访问是否构成根据该法可被征用的"产品"的问题引发了法院尚未解决的新型法律问题。

  • 五角大楼要求 Anthropic 移除对自主武器和监视中 AI 使用的限制
  • Anthropic 拒绝了,理由是其对 AI 安全原则的根本承诺
  • 国防部威胁在周五援引《国防生产法》
  • 法律专家质疑《国防生产法》是否可以强制软件公司改变其政策
  • 这一僵局可能会为政府对 AI 公司的权威设立先例

行业影响

Anthropic 与五角大楼之间的对峙在一个一直与国家安全机构关系日益复杂的 AI 行业中掀起波澜。Google、Microsoft、Amazon 和 OpenAI 都拥有重大国防合同,每家都在其技术的军事应用方面面临内部和外部压力。Google 在 2018 年员工抗议后从五角大楼 AI 计划 Project Maven 中撤出而闻名,尽管该公司此后扩展了其国防工作。

如果《国防生产法》成功用于对抗 Anthropic,它将建立一个先例,即任何在美国运营的 AI 公司都可以被强制为军事目的提供其技术,无论其自身的伦理准则如何。这一前景可能会打消对 AI 安全研究的热情,推动以安全为重点的公司迁出美国司法管辖区,或创建一个分化的行业,其中公司必须在政府合同和安全承诺之间做出选择。

相反,如果 Anthropic 成功抵抗该命令——无论是通过法律诉讼还是政治谈判——它可能会加强 AI 公司有权对其技术的使用方式设定伦理边界的原则,即使客户是美国政府。

更广泛的紧张关系

这一僵局反映了自大型语言模型和其他先进 AI 系统开始展示具有明确军事应用的功能以来一直在积累的根本紧张关系。美国政府将 AI 优势视为国家安全的关键,特别是与正在为军事 AI 应用投入资源且伦理约束较少的中国的竞争中。从五角大楼的角度来看,允许一家领先的 AI 公司退出防御应用是国家无法承受的奢侈。

从 Anthropic 的角度来看,限制的存在正是因为该公司相信对强大 AI 系统不受约束的军事应用会带来灾难性风险——这些风险不会因为用户穿着美国制服就被消除。该公司的立场是,某些 AI 应用太危险,无论谁在要求,都不应该启用。

这一僵局如何解决可能会在未来多年影响 AI 行业与美国政府之间的关系。这是 AI 安全承诺是否能够承受国家安全要务的引力——以及政府是否将使用其最强大的法律工具来确保它们不能的测试案例。

本文基于 The Decoder 的报道。阅读原始文章