陸軍は、自律型サイバー防御をどこまで進めるべきかを試している

米陸軍は、民間部門のテクノロジー指導者を交えた最近のウォーゲームで、将来の攻撃が人間のオペレーターを圧倒しうることを検証したことを受け、サイバー防御におけるAIのより攻撃的な役割を急いで検討している。この演習はAI Table Top Exercise 2.0として知られ、14社のテクノロジー企業幹部、陸軍関係者、米サイバー軍が一堂に会し、2027年のインド太平洋危機が米軍ネットワークへのサイバー戦争へとエスカレートするという厳しいシナリオを扱った。

主な結論は、AIが単独でサイバー防御を解決できるというものではなかった。むしろ、敵対勢力が適応型のAI対応攻撃システムを用いて、人間が応答するより速く探索し、悪用し、戦術を切り替えてくるなら、人間速度の防御ではもはや不十分になりうるということだった。これを受け、陸軍当局は、検知から行動へ移れるエージェント型AIや、こうしたシステムにより大きな自律性を与えるべき状況を定める政策枠組みについて、より率直に語るようになっている。

警告から対応へ

ダニエル・ドリスコル陸軍長官の主席サイバー顧問であるブランドン・ピューは、この問題をリスク許容度の観点から位置づけた。平時には、人間の監督が引き続き原則となるかもしれない。だが戦時、特に攻撃が集中する局面では、ソフトウェアエージェントの行動を許可する別の基準が必要になる可能性がある。これが、当局が「リスクの連続体」と表現した可能性のある政策の背景にある考え方であり、状況に応じて人間の関与の度合いを変えるアプローチだ。

この区別は極めて重要だ。国防総省はすでに、自らのネットワーク上の侵入検知にAIを活用している。しかし、検知は最初の一歩にすぎない。より難しい問題は、侵害が進行中のときに、AIシステムが自ら直接的な対応措置を取るべきかどうかである。

ピューによれば、陸軍は検知におけるAI活用ではすでに強みを持つが、今後は悪意ある振る舞いを特定するだけでなく、それに対応できるエージェント型機能へと前進する必要がある。具体的には、システムの隔離、接続の遮断、対抗措置の発動、あるいは攻撃が拡大する前に中断させることなどが考えられる。

なぜ陸軍はこれを急務とみるのか

陸軍サイバー軍を率いるクリストファー・ユーバンク中将は、この課題を率直に表現した。エージェント型AIの世界では、防御側に「もっと速くパッチを当てろ」と言うのは現実的ではない、と彼は述べた。攻撃側のシステムが、防御側の変化に継続的に適応しながら繰り返し攻撃を仕掛けてくるなら、人間チームだけでは追いつくには遅すぎる可能性がある。

演習シナリオはまさにその前提に基づいて構築された。当局によれば、仮想の敵対勢力はAIを使って、陸軍の防御態勢に人間の防御者より速く適応するサイバー攻撃を次々に発射した。こうした圧力は通常のネットワーク防御とは異なる。サイバー作戦を速度競争へと変え、ためらいそのものが脆弱性になる。

そのように見ると、陸軍が自律性を高めようとしているのは、自動化への熱意というより、時間圧縮への現実的な対応である。攻撃ループが加速するなら、防御ループも加速しなければならない。

ドクトリン形成における産業界の役割

この演習の注目点のひとつは、狭く脚本化された技術シミュレーションとして実施されたわけではないことだ。Strategic Competitive Studies Project が設計・運営し、14社のテクノロジー企業幹部が提言を行い、軍関係者がそれらを問いただすセミナー形式が採られた。この形式は、陸軍が単に製品を探しているのではなく、商業的なAIの考え方が軍のサイバードクトリンにどう影響すべきかを理解しようとしていることを示している。

これは重要な違いだ。核心的な問いは、単にツールが動くかどうかではなく、誰がどの条件下で、それを承認できるのか、どのような安全策があるのか、誤検知や意図しない結果をどの程度許容するのか、ということだ。これらは工学の問題であると同時に、政策と指揮の問題でもある。

陸軍はそのことを認識しているようだ。演習は最終的な答えを出さなかったし、当局もその点を率直に認めている。しかし、遅れが壊滅的になりうる紛争シナリオで、自律防御をどう考えるかについて、軍指導者に外部の視点を与えた。

政策上の問題は技術面より難しいかもしれない

エージェント型のサイバーシステムを構築するのは難しい。しかし、それを信頼できるものにするのはさらに難しいかもしれない。反応が遅すぎる防御AIは無力だ。逆に、反応が速すぎる、あるいは広範すぎるAIは、友軍の運用を妨げたり、正当な通信を遮断したり、危機の最中に新たなリスクを生み出したりする恐れがある。

だからこそ、新たに浮上している「リスクの連続体」という概念は、特定の製品発表以上に重要かもしれない。それは、陸軍が自律性のレベルが固定されたものではなく、条件付きのものとなる未来に備えていることを示唆している。通常のネットワーク環境では厳格な人間管理が求められるかもしれない。だが、大規模な戦時攻撃では、さもなければ機械主導の攻撃に追い抜かれるという状況なら、はるかに緩い監督が正当化される可能性がある。

このような枠組みは、倫理的・運用上のすべての問題を解決するわけではないが、技術能力を指揮権限と任務の文脈に結びつける手段を提供するだろう。実務上、それがエージェント型防御を大規模に使えるかどうかを決める要因になるかもしれない。

次に来るもの

陸軍の次の段階には、ツール開発と政策設計の両方が含まれる見込みだ。当局は、新たなAI能力を迅速に導入すると同時に、その使用を統制する規則の整備も進めたいとしている。この二本立ては理にかなっている。どちらか一方だけでは失敗するからだ。ドクトリンのない技術は混乱を生み、実用的な技術のないドクトリンは無意味になる。

より広い意味では、軍のサイバー防御は新たな段階に入っている。AIはもはや分析官の補助としてだけ扱われていない。人間のタイミングがもはや十分でないときに、機械速度で行動する必要があるかもしれない運用主体として考えられている。

陸軍はまだ、そのエージェントにどこまでの自由を与えるかを決めていない。しかし今回のウォーゲームを経て、その決定を先送りすること自体が、より大きなリスクになりうる未来に備えていることは明らかだ。

この記事は Breaking Defense の報道に基づいています。元記事を読む