关于人工智能伦理的第一修正案之争
Anthropic 已对特朗普政府提起诉讼,寻求推翻政府对该人工智能公司技术的黑名单决定。该诉讼辩称,Anthropic 通过拒绝允许其 Claude AI 模型用于自主战争和大规模监视美国公民而行使了第一修正案权利,政府通过禁止联邦机构购买或使用该公司产品进行了报复。
这起案件代表了迄今为止人工智能行业与联邦政府之间最重大的法律冲突之一,考验了企业言论权与新兴技术和国家安全政策背景下的界限。白宫回应称 Anthropic 是一家"激进左翼、觉醒"公司,将对抗升级为关于人工智能在政府和军事行动中角色的更广泛的文化战争。
背景
由前 OpenAI 高管 Dario 和 Daniela Amodei 于 2021 年创立的 Anthropic,已将自己定位为业界最注重安全的人工智能公司之一。该公司一直强调负责任地开发人工智能的重要性,并发布了大量关于人工智能安全和对齐的研究。
政府争议据报道源于 Anthropic 拒绝了将其 Claude AI 系统提供用于自主致命武器系统和国内监视计划的请求。该公司辩称其人工智能模型不能安全可靠地用于这些应用,在这样的环境中部署它们将违反其负责任使用政策。
根据诉讼,政府随后将 Anthropic 列入政府采购黑名单,实际上切断了该公司与联邦合同的联系,并向其他政府机构发出信号,不应使用其技术。Anthropic 将此描述为对受保护言论的违宪报复。
法律论点
该诉讼提出了几个重大法律问题:
- 公司拒绝为特定政府应用提供人工智能技术是否构成受保护的第一修正案言论
- 政府是否可以因公司拒绝参与军事或监视计划而惩罚公司
- 现有采购法规如何适用于对其技术施加伦理使用限制的人工智能公司
- 黑名单是否构成对企业言论和商业活动的不合法事先限制
法律专家指出,该案位于几个不断发展的法律领域的交叉点,包括企业言论权、政府采购权和新兴技术监管。结果可能为人工智能公司与政府客户的互动方式以及他们是否可以对其技术的使用方式施加条件设定重要先例。
行业影响
该诉讼在人工智能行业中引起了波澜,各公司都在密切关注这场争议将如何解决。其他主要人工智能公司,包括 OpenAI、Google、Microsoft 和 Meta,对其技术的军事和政府使用有不同的政策。如果法院裁定政府可以因拒绝参与特定计划而惩罚公司,可能会迫使人工智能公司放弃伦理使用政策或冒被排除在利润丰厚的政府市场之外的风险。
反之,如果法院支持 Anthropic,可能会加强人工智能公司设定其技术部署方式界限的能力,即使在与政府打交道时也是如此。这对于确保人工智能开发以负责任的方式进行的更广泛努力具有重要意义,许多研究人员和政策制定者已将这一目标确定为至关重要,考虑到该技术的巨大潜力和危害。
政治层面
白宫将 Anthropic 描述为"激进左翼、觉醒"反映了美国人工智能政策日益增长的政治化。特朗普政府通常倾向于对人工智能的开发和部署采取更宽松的方法,尤其是在军事和安全背景下,同时批评那些基于伦理或安全顾虑施加限制的公司。
这种政治动态为诉讼增加了不确定性。虽然法院应该根据法律是非而不是政治考虑来裁定案件,但更广泛的政治背景可能会影响案件的诉讼方式以及任何裁决如何被公众和行业接收。
接下来会发生什么
该诉讼预计将通过联邦法院系统进行,初步听证会可能在来月内进行。Anthropic 要求获得黑名单违宪的宣告性判决和要求政府撤销黑名单的禁令。政府预计会辩称采购决定在行政分支的酌量权范围内,国家安全顾虑凌驾于任何第一修正案主张之上。
无论结果如何,该案已经突出了寻求对其技术施加伦理保障的人工智能公司与日益将人工智能视为应向任何授权目的提供的关键国家安全资产的政府之间日益增长的紧张关系。这种紧张关系如何解决将塑造美国乃至全世界人工智能治理的未来。
本文基于 Ars Technica 的报道。阅读原文。

