NSAの利用が政策上の疑問を呼ぶ

The DecoderがAxios報道を要約し、2人の関係者を引用したところによると、米国家安全保障局はAnthropicの最も強力なAIモデルであるMythos Previewを使用していると報じられている。

この報道は注目に値する。NSAは国防総省の管理下にある一方で、国防総省はAnthropicを別途セキュリティリスクと位置づけ、2月以降、同社をベンダーとして排除しようとしてきたからだ。

この状況は、政府によるAI導入における緊張の高まりを示している。各機関は先進的なモデルへのアクセスを求めるが、同じシステムがセキュリティ、調達、監視、兵器政策に関する懸念を引き起こす可能性がある。

制限付きモデル

AnthropicはProject Glasswingと呼ばれる取り組みの下で、Mythosのアクセスを約40組織に制限している。同社は、同モデルの攻撃的サイバー機能は広く公開するには危険すぎると主張している。

この制限により、Mythosは一般向けの商用チャットボットとは異なる扱いを受ける。単なる生産性向上ツールではなく、機微な能力として扱われている。

The Decoderによれば、AnthropicのDario Amodei CEOは先週、Mythosを政府機関全体に展開する件についてホワイトハウス当局者と会談した。また、英国の情報機関も同国のAI Security Instituteを通じてこのモデルにアクセスできると報じられている。

許容される使用をめぐる対立

国防総省はAnthropicに対し、Claudeをあらゆる合法的用途で利用可能にするよう求めている。これに対しAnthropicは、大規模監視と自律兵器には線を引くとして拒否した。

この対立は、新たに浮上しているAI調達論争の核心に触れている。モデル提供企業は自社システムの使用に関するレッドラインを定めたい一方で、政府側の買い手は、許容される用途は法的権限によって決まるべきだと主張する可能性がある。

情報・防衛機関にとって、最前線のAIモデルはサイバー分析、言語処理、情報トリアージ、その他大量処理の分析業務に有用だ。しかし同じ能力は、監視、攻撃的サイバー作戦、あるいは人間の統制が弱いシステムに適用されると懸念を生む。

なぜ重要か

報じられているNSAのMythos使用は、ベンダー制限、国家安全保障上の除外、許容利用の境界をめぐる安定した政策規範がまだ形成される前から、強力なAIシステムが機微な政府環境に入り込んでいることを示している。

またこの対立は、AI安全性の約束がもはや製品設計の問題だけではないことも示している。調達条件、法的争い、国家安全保障上の問題へと変わりつつある。

機関が制限付きAIモデルを採用する一方で、政府内の別の部門がベンダーの役割に異議を唱えるなら、結果は断片化した対応になる可能性がある。ある部署はそのモデルを戦略的に不可欠とみなし、別の部署は提供企業を安全保障上の懸念とみなす、という具合だ。

Mythosの事例は、誰が最先端モデルにアクセスできるのか、サイバー能力のあるシステムをどう管理するのか、民間AI企業が一部の政府用途を拒否しつつ公共部門の顧客にサービスを提供できるのか、という重要なAIガバナンスの論点を一度に含んでいるため、今後も注目されるだろう。

この記事はThe Decoderの報道に基づいています。元記事を読む

Originally published on the-decoder.com