高风险对话

国防部长Pete Hegseth计划与Anthropic首席执行官Dario Amodei会面,此次会面凸显了关于美国军队如何使用人工智能的日益激烈的辩论。此次会面正值国防部加快在广泛的军事应用中部署AI,从情报分析到后勤再到自主武器系统。

Anthropic是Claude模型系列背后的AI安全公司,在AI行业中将自己定位为谨慎的声音,强调安全研究和负责任部署的重要性。该公司与国防部直接合作的意愿代表了其对政府伙伴关系方法的显著演变,与Hegseth的会面可能会影响多年来合作的条款。

国防部的AI雄心

国防部多年来一直在人工智能领域进行大量投资,但在现届政府的推动下,步伐大幅加快。国防部的首席数字和人工智能办公室(CDAO)被委以在所有军事部门推广AI采用的任务,该部门已向技术公司授予数十亿美元的合同用于AI相关工作。

重点关注领域包括军事设备的预测性维护、卫星图像和信号数据的自动化情报分析、战场指挥官的决策支持工具,以及——最具争议的——能够以不同人类监督程度识别和交战目标的自主武器系统。

Hegseth一直直言不讳地表示,美国必须更快地在军事应用中部署AI,否则面临被中国甩在后面的风险。中国已将AI赋能的战争作为其军事现代化战略的核心支柱。他的立场反映了国防机构内对过度谨慎的AI安全可能造成危险能力差距的更广泛关注。

Anthropic的平衡之举

对于Anthropic来说,与Hegseth的会面代表了一个微妙的平衡举动。该公司由前OpenAI研究人员在2021年创立,他们的离职部分出于对AI开发步伐和安全性的担忧。其公司身份是建立在负责任AI的概念周围,并且已经发布了关于AI对齐、安全基准和在没有充分保障的情况下部署强大AI系统的风险的广泛研究。

与此同时,Anthropic是一家融资超过100亿美元并面临产生收入压力的商业公司。政府合同代表着重大的商业机会,国防和情报机构是高级AI能力最渴望和资金充足的客户之一。

该公司已经采取了向政府工作迈进的步骤。Anthropic的模型可通过Amazon Web Services的GovCloud获得,该公司已与各种政府机构在AI安全和评估方面进行了合作。然而,相比一些竞争对手,它对明确的军事伙伴关系更为谨慎,其可接受使用政策对其技术的某些应用施加了限制。

更广泛的行业分歧

Hegseth-Amodei会面反映了技术行业内对军事AI的更广泛分歧。一些公司,如Palantir、Anduril和Shield AI,已经围绕防御应用建立了业务,并接受国防部作为主要客户。其他公司,包括一些主要的AI实验室,态度更为模棱两可,在商业机会和与军事应用关联的声誉风险之间进行平衡。

Google在2018年因员工抗议而著名地从Project Maven(国防部应用AI进行无人机图像分析的计划)中撤出。该公司后来改弦更张,此后赢得了大量国防合同。Microsoft一直维持与军队接触的一致立场,主张民主国家应该获得最好的可用技术。

  • 国防部正在加快在情报、后勤和自主武器中的AI采用
  • 国防官员主张美国必须更快地跟上中国军事AI项目的步伐
  • AI安全倡导者担忧在没有充分保障的情况下在高风险军事背景下部署强大系统
  • 尽管早期犹豫不决,但几家主要的AI公司已扩展了政府和国防工作

利害所在

关于军事AI的辩论并非仅仅是学术性的。在接下来的几个月和几年内做出的关于如何将AI系统整合到军事行动中的决定可能对战争的性质、升级的风险以及冲突区域中平民的保护产生深远影响。

快速部署的倡导者主张AI可以通过改进瞄准精度和态势感知来使军事行动更加精确并减少平民伤亡。批评者反驳称该技术的可靠性还不足以进行生死决策,部署AI武器系统可能会通过使军事行动显得成本较低来降低使用武力的门槛。

Hegseth和Amodei之间的会面不太可能解决这些紧张关系,但它可以帮助界定Anthropic与国防机构合作的参数。如果AI行业最注重安全的公司之一能够找到一个可行的军事合作框架,它可能会为其他公司树立一个模板。如果谈判因关于安全标准的不可调和的分歧而破裂,可能会加深科技行业与国防部之间的分歧,此时双方都表示合作是必要的。

一个决定性的时刻

对于整个AI行业来说,人工智能与军事系统不断深化的整合代表了一个决定性的时刻。在学术研究实验室中孵化并通过消费者聊天机器人商业化的技术现在被要求执行一些可以想象到的最具影响力的任务。这种转变如何被管理——以及由谁管理——不仅会影响战争的未来,还会影响AI行业本身的未来。

本文基于C4ISRNET的报道。阅读原文