AI模型的机密训练环境

五角大楼计划建立安全的机密环境,其中生成式AI公司——包括Anthropic和可能其他前沿AI实验室——可以在机密军事数据上训练其模型的定制版本,MIT Technology Review已获悉。该倡议将代表商业AI与国家安全运作融合的重大升级,超越当前的安排(AI模型回答关于机密材料的问题),转向机密材料塑造模型本身的局面。

目前,像Anthropic的Claude这样的AI模型在机密环境中使用,以协助包括情报分析的任务,根据多份报告,还包括进行中的军事行动中的目标选择。但在这些部署中,AI系统是在机密输入上运行的标准商业模型——它们没有在机密数据上训练,也没有使用机密数据训练。从安全角度来看,这种区别至关重要。

在机密数据上训练意味着什么

在机密数据上训练模型会将该信息嵌入到模型的权重中——数学参数编码了模型所知道的一切及其推理方式。与仅仅将机密信息作为特定查询上下文处理的模型不同,在机密数据上训练的模型会将情报模式、分析框架和潜在的具体敏感信息纳入其基本架构。

安全含义是巨大的。一旦机密信息被嵌入到模型权重中,就变得极其困难去移除。处理机密文件的标准程序——访问控制、审计跟踪、需知协议——无法清晰地映射到机器学习模型参数上。在机密数据上训练的模型代表一种新的安全工件,现有框架并未设计来管理它。

国防官员承认这些风险,但辩称军事特定AI模型的能力优势——训练以理解特定领域的术语、运营安全协议和机密分析框架——证明了投资开发适当的安全架构是合理的。

Anthropic的复杂处境

Anthropic与国防部的关系变得越来越紧张。该公司已公开承诺对其AI的军事应用采取严格政策,报道表明美国官员质疑Anthropic是否值得信任进行作战系统。机密训练计划将使Anthropic——以及可能的其他参与AI公司——处于前所未有的位置:具有安全许可的公司员工在机密环境内工作,训练关于情报的模型,这些情报他们甚至可能不被允许在自己的组织内讨论。

OpenAI的优势和竞争格局

OpenAI似乎比竞争对手更快地采取行动以满足五角大楼的要求。该公司与国防部的妥协——涉及放宽之前对其模型的军事使用限制——据报道使其获得了机密合同的优先定位。50亿美元的Amazon-OpenAI交易提供了扩展军事AI部署的计算基础设施,进一步巩固了OpenAI作为国家安全应用主要商业AI供应商的地位。

五角大楼的机密训练倡议,如果按计划进行,将定义商业AI公司与美国国防机构关系的下一阶段——对AI安全研究、AI实验室之间的竞争动态和国际AI治理框架有影响。它提出的关于将国家机密嵌入商业AI架构的问题在国防部门或技术行业的历史中都没有明确先例。

本文基于MIT Technology Review的报道。阅读原文

Originally published on technologyreview.com