AI 竞争中的新战场

AI 安全公司 Anthropic(Claude 系列大语言模型的幕后公司)披露,其旗舰系统面临其所称的"工业级"模型蒸馏——一种外部行为体系统地查询 Claude 以生成训练数据的做法,这些数据被用来以原始开发成本的一小部分构建竞争对手的 AI 系统。

模型蒸馏涉及向强大的 AI 系统输入精心设计的提示,并使用其输出来训练较小、更便宜的模型,该模型模仿原始模型的功能。虽然该技术在研究社区中已被了解多年,但 Anthropic 将威胁描述为"工业级"表明问题已远超学术实验,发展为协调的商业活动。

蒸馏如何运作

蒸馏的基本机制很简单。攻击者从目标模型生成数千或数百万个提示-响应对,然后将这些对用作新模型的训练数据。生成的系统可以在特定任务上近似目标模型的行为,而无需从原始数据从头开始训练所带来的巨大计算成本。

工业级蒸馏特别令人担忧的是其效率。训练像 Claude 这样的前沿 AI 模型需要数亿美元的计算、数据策划和工程人才投入。蒸馏模型可以以极低的成本获得该功能的很大一部分,从而削弱了公司投资推动 AI 研究边界的经济动力。

这些攻击很难检测和防止,因为它们可以分布在数千个 API 账户中,每个账户都进行看似合法的查询。Anthropic 已实施速率限制、使用模式分析和其他技术对策,但坚定的攻击者可以调整其策略以规避检测。

对 AI 行业的影响

蒸馏威胁直击为 AI 研究提供资金的商业模式的核心。Anthropic、OpenAI 和 Google 等公司投入数十亿美元开发前沿模型,期望通过 API 访问费用和企业合同收回这些投资。如果竞争对手可以通过蒸馏廉价地复制这些模型的功能,前沿 AI 开发的经济学就会变得不可持续。

这种动态造成了令人担忧的悖论。通过 API 使 AI 系统广泛可访问——这对采用和收入生成至关重要——同时也暴露它们于蒸馏。公司必须平衡开放性和保护,这是一个没有简单技术解决方案的挑战。

  • 模型蒸馏可以以少于 1% 的原始训练成本复制前沿模型 80-90% 的特定任务性能
  • 该技术对于狭窄、明确定义的任务特别有效,其中蒸馏模型可以匹配或接近原始模型的质量
  • 开源 AI 模型已被证明从针对专有系统的蒸馏中获得显著益处
  • 保护 AI 模型输出作为知识产权的法律框架仍然未充分发展

法律和伦理灰色地带

模型蒸馏的合法性存在于模糊的区域。大多数 AI 公司的服务条款禁止使用其输出训练竞争模型,但执法困难,法律先例很少。法院尚未明确裁定 AI 生成的输出是否符合知识产权保护条件,该做法的全球性质使司法管辖权执法变得复杂。

一些研究人员辩称蒸馏是技术进步的自然和有益的部分,类似于硬件行业的反向工程。其他人则主张它代表了一种盗窃形式,最终会通过阻止对基础研究的投资来减缓 AI 进展。

Anthropic 的公开披露既是对行业的警告,也是号召采取行动。通过明确命名这个问题,该公司推动对蒸馏作为威胁的更广泛认可,并可能为监管或法律响应奠定基础。

前进的道路

针对蒸馏的技术对策正在迅速发展。在模型输出中嵌入可检测签名的水印技术、高级使用监视系统和合同执行机制都是新兴防御工具包的一部分。然而,可访问性和保护之间的根本紧张关系不太可能仅通过技术来解决。

行业在反蒸馏标准、更清晰的 AI 输出知识产权框架,以及潜在的管理 AI 生成内容用于训练目的的新法规方面的合作可能都是全面应对这一挑战所必需的。目前,Anthropic 对这一威胁的直率评估提醒人们,AI 行业的竞争动态正在以超越模型性能基准的方式加强。

本文基于 AI News 的报道。阅读原始文章

Originally published on