軍事AI整合問題

米国防部は、2018年の Joint Artificial Intelligence Center の設立、および2022年のその後継機関である Chief Digital and Artificial Intelligence Office の設立以来、積極的な AI 採用の軌跡をたどっています。しかし、ペンタゴンが確立された防衛請負業者からシリコンバレーのスタートアップ、最先端モデルラボに至るまで、増加するばかりの AI 企業との契約に署名するにつれて、新たな課題が浮上しました。互換性のない AI ツール、異なるモデルバージョン、および軍事コマンドと各部門間での一貫性のない能力レベルの拡散です。

ペンタゴンの対応は、その AI プロバイダーを標準化し、すべてが官員らが同じベースラインと呼んでいるもので動作するようにする取り組みです。これは、モデルバージョン、API、安全ポリシー、およびパフォーマンスベンチマークの共有セットであり、異なる軍事システムが相互運用し、監視担当官が、どこにどのような AI 能力が配備されているかについて一貫した描像を持つことを可能にするでしょう。

軍事状況下での Claude

ペンタゴンがアクセスを標準化しようとしている AI システムの中には、Anthropic の Claude——文書分析、インテリジェンス処理、意思決定支援などのタスクで、防衛関連の各種請負業者および DoD 組織によって直接使用されている最先端大規模言語モデルの1つがあります。Claude を OpenAI、Google、Microsoft のシステムと並べて含めることは、ペンタゴンが単一ベンダーに依存するのではなく、複数の最先端 AI プロバイダー間でオプションを維持したいという願いを反映しています。

Anthropic は、その競争相手の何社よりも、軍事契約とより複雑な関係を持っています。同社の利用可能方針は、Claude を兵器開発、重要インフラへの攻撃、およびその他のいくつかの有害なアプリケーションカテゴリに使用することを禁止しています。しかし、軍事状況下での禁止使用例と許可使用例の線引きは常に明確とは限りません。文書分析、物流最適化、および意思決定支援は表面上は中立的なアプリケーションですが、実際には致命的なものを含む軍事作戦に貢献する可能性があります。

OpenAI のロボティクス責任者 Caitlin Kalinowski 氏がペンタゴン取引により辞任したこと——致命的自律性と十分な検討不足に関する懸念を理由に——は、軍事顧客と協力する際に最先端 AI 企業が直面する倫理的緊張を強調しています。Anthropic は、Claude が DoD 顧客に利用可能な具体的な条件、またはその軍事使用を管理する監視メカニズムについて公表していません。

軍事標的選定における AI:中心的問題

軍事状況下での AI の最も敏感な応用は標的選定です。自動化されたシステムを使用して敵の標的を識別、優先順位付け、そして場合によっては接触させるのに役立てます。米軍の学説は致命的武力決定に対する人間の認可を必要としていますが、センサーデータ処理、潜在的標的の識別、および人間の意思決定者への推奨提示における AI の役割は、ここ数年で劇的に拡大しています。

ペンタゴンの AI ベースの画像分析プログラムである Project Maven は、ドローン監視映像を処理して、人間の確認のための関心のある標的を識別します。AI は最終的な致命的決定を下しません——人間が下します——しかし、それは人間に到達する情報と、それがどのように構成されるかを形作り、これは学説が名目上必要とする有意義な人間による監視の質に関する質問を提起します。

標準化の取り組みは、監視上の懸念への対応の一部です。異なる AI システムが同じ入力に対して異なる出力を与える場合、またはどの AI システムがどの決定に貢献するかについて誰も完全な説明を持っていない場合、AI 支援標的選定の有意義な人間による監視は極めて困難になります。標準化は監査可能性を作成します。どのモデル、どのバージョン、どの安全設定下で、特定の決定チェーンに関与していたかを知る能力です。

倫理的アーキテクチャの問題

AI 倫理コミュニティの批評家は、標準化が統治の問題に対処しているが、より根本的な倫理的問題を解決していないと主張しています。AI を標的選定決定に使用すべきかどうか、そしてそうであれば、どのような制約下でかということです。すべての軍事 AI プロバイダーを同じベースラインに置くことは、そのベースラインが何であるか——どのような値、どのような安全ポリシー、どのような禁止使用が標準に組み込まれているか——を定義することを意味します。この定義プロセスは、大部分が公開視点の外で行われています。

これを正しく行うことの利害関係は高いです。標的選定決定に偏見を導入する AI システム、脅威評価を幻覚させる、または対抗的入力によって操られる AI システムは、戦闘状況での壊滅的な誤りに貢献する可能性があります。ペンタゴンの標準化推進は、このリスクの認識です。しかし、対応の適切性は、最終的には、事前に完全に予測できない作戦条件下でシステムがどのように実行されるかによって判断されるでしょう。

この記事は MIT Technology Review のレポートに基づいています。元の記事を読む