キル・チェーンにおけるAI

人工知能を軍事目標設定に統合することは、現代の戦争における最も綿密に監視され、最も透明性に欠ける発展の1つです。今、背景で発言している国防総省の当局者が、生成型AI──ChatGPTおよび他の大規模言語モデルを支えるのと同じ技術──がイランに対する継続中のUS軍事キャンペーンにおける目標決定を支援するために使用されている方法について、初めて具体的な洞察を提供しました。

匿名を要求した当局者によると、生成型AIシステムは既存のインテリジェンスおよび目標設定データ上の会話分析層として使用されています。潜在的なターゲットのリストはAIシステムに入力され、情報を分析し、航空機の位置、ミッション目標、利用可能なインテリジェンスを含む要因に基づいてターゲットを優先順位付けし、推奨事項を生成するよう求められます。人間のオペレータはこれらの推奨事項を確認、評価し、行動に責任を持ちます。

2つの異なるAI技術

当局者のアカウントは、戦争におけるAIに関する公開討論でしばしば見落とされている重要な区別を強調しています:ペンタゴンは関連しているが異なる機能のために、基本的に異なる2つのAIのタイプを展開しています。

少なくとも2017年以来運用されているProject Mavenは、コンピュータビジョンと機械学習を使用して、監視システムによって収集される膨大な量のイメージおよびセンサーデータを処理します──ドローン映像、衛星画像、信号インテリジェンス。Mavenはこのデータ内の潜在的なターゲットを特定し、マップベースのインターフェースを通じて人間のオペレータに提示します。これはデータプロセッサおよびパターン認識装置としてのAIであり、明確に定義された監視されたタスクで動作します。

生成型AI──大規模言語モデルに基づいて構築されたシステム──は異なる種類です。これらのシステムは会話型であり、柔軟であり、多くの種類の情報にわたって推論する能力があります。複数のソースからインテリジェンスを合成し、書面による評価を生成し、オープンエンドの質問に答えることができます。しかし、それらはまた戦闘テストが少なく、その推論において透明性が低く、専門家がハルシネーションと呼ぶ自信過剰だが間違った出力の種類に容易です。

ヒューマン・イン・ザ・ループの問題

当局者は、人間がAI推奨事項の評価と最終的なターゲット決定の責任を負いながら、明確に述べました。このヒューマン・イン・ザ・ループフレーミングはペンタゴンのAIに関する通信では標準であり、真の政策コミットメントと運用現実の両方を反映しています:どの軍事司令官も生死の決定を完全にアルゴリズムに外注しようとはしません。

しかし、人間がAI推奨事項にどの程度従うか──特に時間的圧力と認知的負荷下で──という実際の質問は、どの公開声明よりも複雑です。不確実性の下での意思決定に関する研究は一貫して、信頼できるように見えるシステムが自信のある推奨事項を提供する場合、人間による監視はむしろ表面的で本当ではないことを発見しています。

Claude、OpenAI、およびペンタゴン契約争奪レース

当局者のコメントは、商業AIと米軍の関係の劇的な再構築の真最中にあります。Anthropic's Claudeは、ペンタゴン機密使用のために承認された最初の大規模言語モデルであり、イランとベネズエラの作戦で展開されたと報じられています。しかし、Anthropicがそのモデルの使用方法を制限できるかどうかについてペンタゴンとの紛争に従った後、国防総省はAnthropicをサプライチェーンリスクに指定し、トランプ大統領は政府によるこの会社のAIの使用を6か月以内に終了するよう要求しました。

OpenAIは、2月28日に軍がその技術を機密設定で使用するための合意を発表して、ギャップを埋めました。Elon MuskのxAIはGrokの同様のディールに達しました。これらの商業関係の速度──そして彼らが受け取った限定的な公開精査──は、致命的な軍事システムへのAI統合がガバナンスフレームワークが対応できるよりも高速に進行していると主張するAI安全研究者および軍備管理専門家からの批判を引き出しています。

この記事はMIT Technology Reviewのレポーティングに基づいています。元の記事を読む