AIモデルのための機密訓練環境

ペンタゴンは、Anthropicを含む生成AIの企業——および潜在的には他のフロンティアAIラボ——が機密軍事データで自身のモデルのカスタム版を訓練できる、安全で機密の環境を確立することを計画していると、MIT Technology Reviewが報じた。この構想は、商業AIの国家安全保障作戦への統合における大きな規模の拡大を表し、現在の——AIモデルが機密資料に関する質問に答える——取り決めを超えて、機密資料がモデル自体を形成する1つへと移行している。

現在、AnthropicのClaudeのようなAIモデルは機密設定で使用され、情報分析を含むタスク、および複数の報告によると進行中の作戦での目標選定を支援している。しかし、これらの展開では、AIシステムは機密入力で動作する標準的な商業モデルである——機密データで訓練されていない。この区別は安全保障の観点から非常に重要である。

機密データでの訓練が意味するもの

機密データでモデルを訓練することは、その情報をモデルの重み——モデルが知っているすべてと推論方法をエンコードする数学的パラメータ——に埋め込むことになる。特定のクエリの文脈として機密情報をただ処理するモデルとは異なり、機密データで訓練されたモデルは、インテリジェンスパターン、分析的フレームワーク、および潜在的に特定の機密情報をその基本的なアーキテクチャに組み込むことになる。

セキュリティの影響は実質的である。機密情報がモデルの重みに埋め込まれると、それを削除することが非常に困難になる。機密文書を扱うための標準的な手順——アクセス制御、監査証跡、知る必要性プロトコル——は機械学習モデルのパラメータに正確にマップされない。機密データで訓練されたモデルは、既存のフレームワークが管理するために設計されていなかった新しい種類のセキュリティアーティファクトを表す。

防衛当局者はこれらのリスクを認めるが、軍事特化AIモデルの能力的利点——ドメイン固有の用語、運用セキュリティプロトコル、および機密分析フレームワークを理解するために訓練される——は適切なセキュリティアーキテクチャの開発への投資を正当化すると主張している。

Anthropicの複雑な立場

AnthropicとDODの関係はますます複雑になっている。同社はAIの軍事応用に関する厳密なポリシーに公開で約束しており、報道からはUS当局者がAnthropicが戦闘システムで信頼できるかどうか疑問を持つことが示唆されている。機密訓練プログラムはAnthropic——および潜在的に参加している他のAI企業——を前例のない位置に置くことになる:セキュリティクリアランスを持つ企業従業員が機密環境内で、自分たちの組織内でも議論することが許可されないない可能性がある情報についてのモデルを訓練するために働く。

OpenAIの利点と競争環境

OpenAIはペンタゴンの要件に対応するために競合他社より速く動いているように見える。同社とDODとの妥協——以前にモデルに適用されていた軍事使用に関するいくつかの制限を緩和することを含む——は、機密契約の優先的な位置をもたらしたと報道されている。スケーリングされた軍事AIデプロイメント用の計算インフラストラクチャを提供する500億ドルのAmazon-OpenAIディールは、国家安全保障アプリケーション用の主要な商業AIベンダーとしてのOpenAIの立場をさらに確実にしている。

ペンタゴンの機密訓練構想は、計画通りに進行する場合、商業AI企業と米国防衛機関との関係の次の段階を定義する——AI安全性研究、AIラボ間の競争ダイナミクス、および国際的なAIガバナンスフレームワークへの影響を伴う。州の秘密を商業AIアーキテクチャに埋め込むことに関する質問は、防衛部門またはテクノロジー産業の歴史にはっきりした前例がない。

この記事はMIT Technology Reviewの報道に基づいています。元の記事を読む