NSA接入引发政策问题

据The Decoder对Axios报道的总结,且消息来源为两名知情人士,美国国家安全局据称正在使用Anthropic最强大的AI模型Mythos Preview。

这项据称的部署之所以引人注目,是因为NSA隶属于五角大楼权限之下,而国防部此前已将Anthropic单独列为安全风险,并自今年2月以来一直试图阻止其作为供应商进入。

这一情况反映出政府采用AI时日益加剧的张力:各机构希望获得先进模型,但同样的系统也可能引发安全、采购、监控和武器政策方面的担忧。

受限模型

Anthropic已在名为Project Glasswing的项目下,将Mythos的使用限制在约40个组织内。该公司表示,这一模型的进攻性网络能力过于危险,不适合广泛开放。

这种限制使Mythos不同于通用商业聊天机器人。该模型被视为一种敏感能力,而不仅仅是另一种生产力工具。

The Decoder提到,Anthropic首席执行官Dario Amodei上周会见了白宫官员,讨论将Mythos部署到各政府机构。报道称,英国情报部门也通过该国AI安全研究所获得了这一模型的访问权限。

关于可接受用途的分歧

五角大楼要求Anthropic为所有合法用途提供Claude。Anthropic拒绝了这一要求,并就大规模监控和自主武器划定了界限。

这场分歧触及了新兴AI采购争论的核心。模型提供方可能希望定义其系统使用的红线,而政府采购方则可能认为,应由法律权限决定允许的用途。

对于情报和国防机构来说,前沿AI模型可用于网络分析、语言处理、信息分流以及其他高吞吐量分析工作。但同样的能力在用于监控、进攻性网络行动,或在较少人工控制下运行的系统时,也会引发担忧。

为什么这很重要

据报道NSA使用Mythos表明,即使围绕供应商限制、国家安全排除和可接受用途边界的稳定政策规范尚未形成,强大的AI系统也正在进入敏感政府环境。

这一冲突还表明,AI安全承诺不再只是产品设计问题。它们正变成采购条款、法律争议和国家安全问题。

如果各机构采用受限AI模型,而政府其他部门又质疑该供应商的角色,结果可能是碎片化的做法:一个部门把某个模型视为战略必需,另一个部门则把供应商视为安全隐患。

Mythos案例很可能会受到密切关注,因为它同时涉及几个最关键的AI治理问题:谁能接触前沿模型、如何控制具备网络能力的系统,以及私营AI公司能否在继续服务公共部门客户的同时拒绝某些政府用途。

本文基于The Decoder的报道。阅读原文

Originally published on the-decoder.com