在整个国防企业中标准化人工智能

五角大楼正在有计划地推动其规模不断扩大的人工智能供应商采纳统一的"基准",为军事内部人工智能系统的开发、测试、部署和治理方式建立通用标准。美国国防部高级研究官员在概述该倡议时表示,这反映了管理一个不断扩大的人工智能生态系统所面临的挑战,该生态系统涵盖数十家公司、多个军事部门和一系列应用,从物流优化到战场决策支持。

过去几年,国防部加快了人工智能的采用速度,与众多科技供应商签订合同,包括洛克希德·马丁和雷神等大型国防承包商、帕兰提尔和安杜瑞尔等硅谷公司,以及众多专业人工智能初创企业。这些公司各自带来了自己的开发实践、测试方法以及对安全和伦理的不同理解。其结果是军事内部的人工智能景观在技术上参差不齐,在某些情况下难以一致地进行管理。

"同一基准"在实践中的含义

标准化工作涵盖人工智能开发和部署的多个维度:

  • 测试和评估:国防部希望所有人工智能供应商使用可比较的方法来测试其系统的性能、可靠性和故障模式。这包括标准化的基准任务、共同的评估指标和共享的测试基础设施,允许在相同的基础上对不同系统进行比较。
  • 安全和稳健性:在军事背景下部署的人工智能系统必须达到最低标准,以防止对抗性攻击、输入超出训练分布时的优雅降级以及在军事行动极端条件下的可预测行为。
  • 数据治理:该倡议包括标准,规定如何跨供应商获取、标记、存储和共享训练数据。数据质量是人工智能系统性能的关键决定因素,供应商间不一致的数据实践可能导致不一致的结果。
  • 互操作性:军事人工智能系统越来越需要相互通信,也需要与现有的指挥控制基础设施进行通信。通用的接口标准和数据格式对于实现这种整合至关重要。
  • 文档和可审计性:供应商应被要求保持详细记录,说明其系统如何训练、使用了哪些数据、进行了哪些测试以及发现了哪些限制。这些文档对于运营信心和法律责任至关重要。

伦理维度

五角大楼人工智能标准化努力中最受关注的方面之一是其与国防部人工智能伦理原则的交集。国防部在2020年采纳了其人工智能伦理原则,建立了五项承诺:人工智能系统应该是负责任的、公平的、可追溯的、可靠的和可治理的。这些原则受到一些人的赞誉,认为是负责任军事人工智能的有意义框架,但也遭到其他人的批评,认为过于模糊,无法约束实际的开发和部署决策。

国防部高级研究官员强调,标准化努力旨在落实这些原则,而非取代它们。通过为所有供应商建立具体的测试、文档和安全标准,国防部旨在赋予其伦理承诺实际力量。这个理念是,抽象的原则(如"可追溯性")在被转化为具体的人工智能系统决策日志、审计和解释要求时才变得有意义。

这对于军方向更具有后果性的人工智能应用迈进尤为重要。优化供应链物流的人工智能系统所引发的伦理关切与识别目标或建议使用武力的人工智能系统所引发的伦理关切是不同的。标准化努力旨在确保治理框架随应用的重要性而适当调整。

标准化的挑战

在整个国防企业中建立通用人工智能标准是一项艰巨的挑战,原因有多个。技术本身发展迅速,今天适当的标准可能在几年内就过时。军事内部人工智能应用的多样性意味着一刀切的方法不太可能奏效;适用于总结情报报告的自然语言处理系统的标准必然不同于指导自主车辆的计算机视觉系统的标准。

标准化与创新之间也存在张力。国防人工智能社区有意培养了一个多样化的供应商生态系统,恰恰是因为不同的公司带来不同的方法,这种多样性推动了创新。过于僵化的标准可能会阻碍产生突破性能力的实验,而过于宽松的标准可能无法解决在军事背景下部署人工智能的真实风险。

驾驭这种张力将要求国防部采用一个足够严格以确保安全和问责的标准框架,同时也足够灵活以适应人工智能开发的快速步伐。官员们表示,他们正在追求一种分层方法,具有适用于所有人工智能系统的基线要求,以及随应用的敏感性和后果性而增加的额外要求。

业界反应

国防人工智能产业对标准化努力的反应总体上是积极的,但也不是没有保留意见。习惯于广泛监管要求的大型国防承包商倾向于欢迎明确的标准,因为这可以减少不确定性并为拥有资源遵守的公司提供竞争优势。然而,较小的初创企业表示担心,繁重的合规要求可能对较小公司产生不成比例的影响,并可能放缓创新的步伐。

国防部已表示,它正在寻求业界对其标准框架开发的意见,认识到单方面自上而下的标准不如协作开发的标准有效。已召集多个业界工作组对提议的测试方法、文档要求和安全基准提供反馈。

这项标准化努力的结果将对军事范围之外产生影响。作为美国最大的单一人工智能技术消费者,国防部的标准决策将影响人工智能公司如何开发其产品,以及更广泛的技术产业如何处理人工智能安全和治理。把它做好不仅关系到国家安全,而且关系到人工智能发展的整个轨迹。

本文基于《Defense One》的报道。阅读原文