争论正在从审批节点转向设计架构
随着军方组织加大对自主且日益具备智能体特征的系统的投资,人类控制的问题正越来越少地是口号问题,而更多地成为系统设计问题。Breaking Defense 描述的一项新提案认为,如果机器已经塑造了战场态势、压缩了可选方案,并且在最终审批请求出现之前就限制了人的选择,那么通常所说的“human in the loop”就还不够。
作者将他们的想法称为“Synthesized Command & Control”。他们的核心主张是,有意义的人类控制应当更早嵌入决策过程。与其在一条由 AI 支持的流程末端要求某个人批准或否决一次打击,不如从一开始就把指挥官偏好和作战意图系统性地写入软件。
为什么最终批准可能来得太晚
文章对标准模式的批评很直接。如果允许 AI 系统以机器速度在上游就对兵力部署、目标优先级或建议表述做出选择,那么人类在最后一环的角色可能比看上去更窄。指挥官在技术上也许仍然可以授权行动,但那发生时,自动化系统已经塑造了决策发生的条件。
这正是人机协同中的核心张力。若要求人在每一步都审批,AI 的速度优势就会消失。若只在最后审批,人类虽然保留了形式上的权力,却可能失去对更大作战逻辑的实际影响力。
该提案: 编码意图,而不仅是许可
提议的答案是预先编码人类偏好。在这种模型中,诸如指挥官意图之类的概念会被转化为算法内部的约束和指导。目标不只是建立一个人类可以叫停机器的检查点,而是确保机器的方案生成过程从一开始就受到人类判断的限制。
这种做法反映出对 AI 治理思路的更广泛转变。问题不仅在于系统能否被中断,还在于系统的推理空间是否足够早就与人类权威保持一致,从而使其速度和规模仍然兼容人类权威。
军事 AI 类别仍缺乏清晰定义
文章还指出了当前国防 AI 领域中的一个概念问题:automatic、semi-autonomous、autonomous 和 agentic autonomous 等术语长期存在模糊性。这种定义上的不清晰会给采购、监管和条令带来困难。如果不同主体对同一标签有不同理解,那么关于控制、问责和可接受使用的讨论甚至在技术问题展开之前就可能变得混乱。
在投入和赌注都很大的背景下,这一点尤为重要。文章提到 Defense Autonomous Warfare Group 近 550 亿美元的融资请求,并指出美国国防高层对该议题高度关注。随着支出和政治焦点上升,对作战类别的模糊不清就不再只是语义问题,而会成为治理风险。
是框架,不是最终方案
该提案并未解决所有问题。把人类意图翻译成代码很困难,而指挥意图本身也可能含糊、有争议,或受战场条件变化影响。尽管如此,这一论点指出了“人类批准”简单叙事中的一个真实弱点。后期的批准按钮也许满足了形式要求,却未必能保留实质控制。
这也是为什么这场争论超越了军事圈。它触及了许多领域都会出现的更广泛 AI 问题:在人类价值真正塑造结果的系统工作流中,究竟在哪个节点发生作用?作者的回答是,在高速冲突环境中,等到最后一步远远不够。如果军事 AI 仍要受人类判断约束,这种判断就必须在系统开始行动之前被设计进系统。
本文基于 Breaking Defense 的报道。阅读原文。
Originally published on breakingdefense.com


