AI在目标击杀链中的应用
人工智能在军事目标打击中的整合一直是现代战争中最受关注但透明度最低的发展。现在,一位要求匿名的国防部官员首次提供了具体信息,说明生成式AI——支撑ChatGPT和其他大型语言模型的同一技术——如何被用来协助美国军方对伊朗的持续军事行动中的目标打击决策。
根据这位因话题敏感性而要求匿名的官员的说法,生成式AI系统被用作现有情报和目标数据之上的对话分析层。潜在目标列表被输入AI系统,该系统被要求分析信息、优先处理目标并根据包括飞机位置、任务目标和可用情报等因素生成建议。人类操作员随后审查、评估并对采取这些建议的行动负责。
两种不同的AI技术
这位官员的说法强调了一个在公众讨论AI在战争中的应用时经常被忽视的重要区别:五角大楼正在部署两种根本不同的AI类型来执行相关但不同的功能。
自2017年以来就开始运作的Maven项目使用计算机视觉和机器学习来处理由监视系统收集的大量图像和传感器数据——无人机镜头、卫星图像、信号情报。Maven在这些数据中识别潜在目标,并通过基于地图的界面将其呈现给人类操作员。这是AI作为数据处理器和模式识别器,对定义明确的监督任务进行操作。
生成式AI——基于大型语言模型构建的系统——从本质上是不同的。这些系统是对话式的、灵活的,能够对多种类型的信息进行推理。它们可以综合来自多个来源的情报、生成书面评估并回答开放式问题。但它们也更缺乏战斗测试,在推理上更缺乏透明度,更容易产生专家称之为"幻觉"的自信但错误的输出。
人类在环路中的问题
这位官员明确表示,人类仍然负责评估AI建议并做出最终目标打击决策。这种人类在环路中的框架是五角大楼关于AI的标准沟通方式,它既反映了真正的政策承诺,也反映了操作现实:没有军事指挥官会将生死攸关的决策完全外包给算法。
但人类对AI建议给予多少尊重的实际问题——特别是在时间压力和认知负荷下——比任何官方声明所能表达的都要复杂。关于不确定性下决策的研究一致发现,当看似权威的系统提供自信的建议时,人类监督往往变得草率而非真正有意义。
Claude、OpenAI和争取五角大楼合同的竞争
这位官员的评论出现在商业AI与美国军方关系急剧重塑的背景下。Anthropic的Claude是第一个被批准用于五角大楼机密用途的大型语言模型,据报道曾在伊朗和委内瑞拉的行动中部署。但在与五角大楼就Anthropic是否可以限制其模型使用方式发生纠纷后,国防部将Anthropic指定为供应链风险,特朗普总统呼吁政府对该公司AI的使用在六个月内结束。
OpenAI填补了这一空白,在2月28日宣布与军方达成协议,允许在机密环境中使用其技术。Elon Musk的xAI已经为Grok达成了类似的协议。这些商业关系的速度——以及它们所受到的有限的公众审查——引来了AI安全研究人员和军备控制专家的批评,他们辩称AI集成到致命军事系统中的速度超过了治理框架所能容纳的范围。
本文基于MIT Technology Review的报道。阅读原始文章。
Originally published on technologyreview.com

