军事AI对齐问题
自2018年Joint Artificial Intelligence Center的成立和其继任机构Chief Digital and Artificial Intelligence Office在2022年成立以来,美国防部一直在积极采用AI。然而,随着五角大楼与越来越多的AI公司签订合同——从老牌国防承包商到硅谷初创公司再到前沿模型实验室——出现了一个新的挑战:不兼容的AI工具、不同的模型版本以及军方各指挥部和分支间能力水平的不一致。
五角大楼的应对措施是努力标准化其AI供应商,使他们都在官员们称之为同一基准的基础上运营——这是一套共享的模型版本、API、安全政策和性能基准,将允许不同的军事系统相互协作,并使监督官员能够清楚地了解部署了哪些AI能力。
Claude在军事背景下的应用
五角大楼试图标准化访问权限的AI系统中包括Anthropic的Claude——一个前沿大型语言模型,已被各种与国防相关的承包商以及DoD组织直接使用,用于包括文档分析、情报处理和决策支持在内的任务。Claude与OpenAI、Google和Microsoft系统的并行包含反映了五角大楼希望在多个前沿AI供应商间保持选择权,而不是依赖单一供应商的愿望。
Anthropic与军事承包的关系比其一些竞争对手更为复杂。该公司的可接受使用政策禁止使用Claude进行武器开发、攻击关键基础设施以及其他几类有害应用。但在军事背景下,禁止使用和允许使用案例之间的界限并不总是清晰的——文档分析、物流优化和决策支持是表面上中立的应用,但实际上可能有助于军事行动,包括致命行动。
OpenAI机器人主管Caitlin Kalinowski因该公司的Pentagon交易而辞职——理由是对致命自主性的关切和思考不足——这强调了前沿AI公司与军事客户接触时所面临的伦理紧张。Anthropic未公开披露Claude可供DoD客户使用的具体条款或哪些监督机制管理其军事使用。
军事目标选择的AI:核心问题
AI在军事环境中最敏感的应用是目标选择——使用自动化系统识别、优先排序,在某些情况下协助向敌方目标开火。美军的学说要求对致命武力决策进行人工授权,但AI在处理传感器数据、识别潜在目标和向人类决策者提出建议中的作用在近年来急剧扩大。
Project Maven是五角大楼基于AI的图像分析项目,处理无人机监视素材以识别供人类审查的目标。AI不做最终的致命决定——人类做——但它决定了哪些信息到达人类以及如何呈现,这引发了对学说名义上要求的有意义的人类监督质量的疑问。
标准化工作在一定程度上是对监督关切的回应:如果不同的AI系统对相同输入给出不同的输出,或者如果没有人完全了解哪些AI系统对哪些决策有贡献,那么对AI辅助目标选择的有意义的人类监督就变得极其困难。标准化创造了可审计性——知道哪个模型、哪个版本、在哪些安全设置下,参与了任何给定决策链的能力。
伦理架构问题
AI伦理社区的批评者辩称,标准化解决了治理问题,但没有解决更根本的伦理问题:AI是否应该用于目标选择决策,如果应该,在什么限制下。将所有军事AI供应商放在同一基准上意味着定义该基准是什么——什么价值观、什么安全政策、什么禁止的使用被烘焙到标准中。这个定义过程在很大程度上不为公众所知。
做好这一点的风险很高。引入目标选择决策偏见、产生虚幻威胁评估或被对抗性输入操纵的AI系统可能导致战斗情况下的灾难性错误。五角大楼的标准化推动是对这种风险的认可——但回应的充分性最终将由系统在无法完全预测的作战条件下的表现来判断。
本文基于MIT Technology Review的报道。阅读原文。
Originally published on technologyreview.com

