一套受限的 AI 系统似乎已经进入政府中最敏感的用户手中

据报道,美国国家安全局正在使用 Mythos Preview,这是 Anthropic 新近公布、用于网络安全工作的 AI 模型,尽管该公司并未将这一系统公开发布。根据所提供的报道,Anthropic 本月早些时候表示,Mythos 的能力过强,足以实施进攻性网络攻击,因此不能广泛发布,访问权限仅限于大约 40 个组织。美国国家安全局似乎就是其中未公开披露的接收方之一。

如果这一情况属实,这种安排捕捉到了当前前沿 AI 政策所处的复杂阶段。各国政府希望先进模型用于防御和运营任务,尤其是在网络安全领域。与此同时,这些机构也在面对部署同样可被用于进攻目的工具所带来的风险。报道中提到的美国国家安全局使用 Mythos 的情况,把这种张力以前所未有的鲜明方式呈现出来。

报道所称美国国家安全局如何使用 Mythos

文章称,美国国家安全局主要使用 Mythos 来扫描环境中的可被利用漏洞。这一说法比围绕 AI 部署常见的宽泛营销措辞更具体,也更明确。它指向一个实际用例:将强大的模型用于数字基础设施,帮助在对手之前发现薄弱环节。

这一点很重要,因为漏洞发现正处于防御与进攻的边界。能够帮助防御者识别缺陷的系统,天生也可能暴露攻击者可利用的路径。正如报道所描述的那样,Anthropic 自身的立场似乎也承认了这种双重用途问题。该公司将 Mythos 宣传为面向网络安全任务的前沿模型,但由于担心其进攻能力,仍未将其公开发布。

这样的表述使美国国家安全局据称获得访问权限这件事格外引人注目。与消费者发布或企业测试版不同,这似乎是一项仅面向高度筛选机构的受控部署。根据所提供文本,英国 AI 安全研究所也已确认获得访问权限。这些细节共同指向一种模式:尤其强大的系统,可能会优先与国家机构或准国家机构共享,而不是直接进入开放商业市场。

美国政府内部的矛盾

这篇报道最关键的地方,不只是美国国家安全局可能在使用 Anthropic 的技术,而是据称这一部署发生之时,Anthropic 仍与国防部存在冲突。根据所提供文本,几周前五角大楼曾将 Anthropic 贴上“供应链风险”的标签,因为该公司拒绝让某个模型的全部能力获得不受限制的访问。

这就形成了一幅令人瞩目的联邦政府分裂图景。国家安全体系的一部分据称正从 Anthropic 的受限网络模型中获取价值;另一部分则在更广泛的采购和控制争议中将该公司视为风险。对于任何关注联邦 AI 市场的人来说,这都是一个重要信号。华盛顿并不是作为单一买家、持有单一立场在行动。不同机构似乎正根据任务需求、访问要求和机构优先级,以不同方式评估先进 AI 系统。

报道还补充了另一条政治上敏感的信息:五角大楼的争议起因于 Anthropic 拒绝让 Claude 用于大规模国内监控和自主武器开发。这些是当前围绕生成式 AI 军事和情报用途争论中最难划线的问题之一。即便没有所提供报道之外的进一步确认,其含义也已十分明确:访问谈判不再只是技术集成或定价问题,而是在演变为一场关于提供方愿意允许模型在哪里、以及不允许在哪里被使用的争论。

为何这不仅仅关乎一家公司或一个模型

据报道,美国国家安全局使用 Mythos,释放出人工智能行业下一阶段可能如何发展的信号。最大的战略问题已经不再是政府是否会使用前沿模型,而是访问将如何被分层、谁能获得特权使用,以及这些部署将受到什么条件约束。

如本文所述,Anthropic 的做法似乎依赖于选择性分发,而不是广泛发布。这将使公司更能控制高度先进系统如何被测试,以及谁可以操作它。它也可能减少公众监督,因为最具影响力的部署发生在少数获准机构内部。

对于美国政府而言,这一事件凸显出一个结构性问题。各机构希望在网络安全和国家安全工作中使用先进 AI,但模型提供方可能坚持设置与各机构雄心并不一致的使用限制。这种落差可能会形成一种拼接式体系:部分机构通过更窄、更具任务针对性的安排获得访问,而另一些机构则仍被困在围绕控制权、透明度或可允许用途的争议中。

这也表明,网络防御可能成为最早一个让高度受限的前沿 AI 模型真正落地发挥作用的领域。报道所描述的用例具体、紧迫,而且对政策制定者来说易于理解:扫描可被利用的漏洞,比围绕自主性或广义智能支持的更大目标更容易被辩护。这使网络安全成为厂商认为过于危险、因而不宜广泛发布的系统的理想试验场。

仍未得到证实的部分

这则报道中有几个重要部分仍停留在“据报道”而非公开记录的政府政策层面。TechCrunch 说 Axios 报道了美国国家安全局的使用情况。TechCrunch 还表示已联系美国国家安全局寻求评论,而 Anthropic 拒绝置评。这意味着,至少根据所提供材料,双方都没有对这项安排、其条款或范围作出直接的官方确认。

关于监督机制也仍有未解之问。所提供文本并未说明 Mythos 的访问如何被审计、哪些技术保障机制约束其使用,或美国国家安全局的使用是否仅限于测试、内部分析,还是已经进入运营部署。这些未知因素很重要,因为它们决定了这究竟是一次探索性试点,还是更持久采购路径的一部分。

更广泛的信号

即便存在这些保留意见,这也绝不是一条无关紧要的行业花絮。它表明,前沿 AI 研究与国家安全应用之间的界线正在迅速推进。一款被描述为不适合公开发布的模型,可能已经落入世界上最精密情报机构之一的手中。与此同时,同一家公司据称又因公民自由和武器相关理由,抵制其他形式的政府访问。

这才是事情的核心。AI 政策辩论不再只是关于先进系统有多强大或多危险,而是关于谁先获得访问、谁被拒绝,以及哪些机构能够通过采购压力塑造规则。如果报道属实,Mythos 正是这一新秩序形成过程中的早期例子。

要点

  • TechCrunch 报道称,美国国家安全局据说正在使用 Anthropic 受限的 Mythos Preview 模型。
  • 所提供报道称,由于 Anthropic 认为 Mythos 过于强大、不适合公开发布,因此其访问范围仅限于约 40 个组织。
  • 据报道,美国国家安全局主要将该模型用于扫描环境中的可被利用漏洞。
  • 这一部署似乎与五角大楼就访问权限和允许用途与 Anthropic 的持续争议并存。

本文基于 TechCrunch 的报道。阅读原文

Originally published on techcrunch.com