五角大楼的 AI 推进进入了新阶段

美国国防部表示,已与七家科技公司达成协议,将人工智能引入机密军事计算机网络,这一举措表明 AI 正迅速被纳入作战决策过程。根据所提供报道,被点名的公司包括 Google、Microsoft、Amazon Web Services、Nvidia、OpenAI、Reflection 和 SpaceX。

五角大楼表示,其目标是帮助增强战斗人员在复杂作战环境中的决策能力。这种表述虽然笼统,但其含义十分明确。AI 不再仅仅被视为一种实验性的后台工具,而是被放在更接近任务执行的位置上,在那里,速度、解读、后勤以及与打击目标相关的工作流程都可能关系重大。

这些合同意味着什么

国防部多年来一直在加速采用 AI,而这些协议进一步强化了这一趋势。所给来源称,AI 可以缩短识别和打击目标所需时间,同时也有助于组织维护和供应链。这种组合说明了国防机构为何对其感兴趣:军事优势往往取决于能否比对手更快处理信息,同时在压力下让大型技术系统保持运转。

把商业 AI 提供商带入机密环境也反映了一种现实。最先进的 AI 能力中很大一部分是在私营部门开发的。与其在内部构建每一项相关工具,五角大楼似乎正在把领先的模型开发者、云服务提供商、半导体公司和系统运营方纳入其采购范围。

伦理问题并未消失

与此同时,报道明确指出,政策环境仍不稳定。批评者担心 AI 会侵犯美国人的隐私,或者让机器在战场上选择打击目标。参与新协议的一家公司表示,其合同在某些情况下要求有人类监督,这是一个重要细节,因为它表明即便在承包商之间,对于自动化应当止步何处也并未形成一致共识。

这些担忧并非抽象。来源指出,在其他冲突中,具备 AI 能力的军事行动已加剧了外界对这些系统可能在脆弱、快速变化且信息不完整的情境下造成平民伤害的担忧。这就是为什么关于人类判断、操作员训练和系统可靠性的争论仍然处于核心位置。

速度与控制

乔治城大学安全与新兴技术中心的 Helen Toner 在来源中指出了核心张力:现代战争越来越涉及指挥中心里的人员在混乱、快速演变的场景中做出复杂决定。AI 可以帮助总结信息或分析监控画面,但有用性并不会消除过度信任的风险。

这给五角大楼带来了棘手的实施问题。军方希望快速部署,因为它把 AI 视为一种战略优势。但快速推进可能会与较慢的工作相冲突,例如训练操作员、制定作战原则,以及在系统出错、不确定,或被用于超出预期范围时建立保障措施。

从实际角度看,真正困难的问题不是 AI 是否会被使用。它已经在被使用。问题在于人类保留多少裁量权,输出如何被验证,以及指挥官如何在错误可能不可逆的环境中看待模型生成的建议。

Anthropic 的缺席引人注目

承包商名单也揭示了 AI 行业中的政治与伦理分歧。Anthropic 明显缺席。根据所提供报道,该公司与特朗普政府的争议集中在军事用途相关的安全和伦理担忧上。该公司寻求保证,确保其技术不会被用于完全自主武器或对美国人的监控,而国防部长 Pete Hegseth 则坚持军方必须保留将系统用于任何合法目的的选项。

这一分歧很重要,因为它突显了愿意进入广泛国防安排的公司与试图设定更窄条件的公司之间更深层次的裂痕。随着 AI 系统变得更强大,这些合同边界可能会成为最重要的治理工具之一。

  • 七家公司将为机密的五角大楼网络提供 AI 能力。
  • 官方目标是支持复杂作战环境中的决策。
  • 围绕自主性、隐私和平民伤害的担忧仍然存在。
  • Anthropic 的缺席凸显了业界在军事约束问题上的未决争议。

应用 AI 的决定性考验

这些协议意义重大,因为它们将 AI 从消费级应用和生产力软件推进到任何技术都能进入的最具后果性的领域之一。军事组织重视速度、规模和信息优势。AI 承诺提供这三者。但它也带来了不透明性、脆弱性,以及对看起来充满信心、实际上却出错的系统产生依赖的诱惑。

这意味着,五角大楼最新的合同不仅仅是采购新闻。它们是对先进 AI 将如何被治理的一次早期测试,因为其失败代价衡量的不是效率损失,而是生命、问责和战略稳定。

本文基于 Fast Company 的报道。阅读原文