防御AIは進歩しているが、利用機会は不均等だ
強力な人工知能ツールの台頭は、サイバーセキュリティを同時に二つの方向から変えている。攻撃者はモデルを使って脆弱性をこれまで以上に素早く発見し悪用している一方で、ごく一部の大企業や機関だけが、弱点を大規模に特定できる高度な防御システムへのアクセスを得ている。Rest of World の報道によれば、その結果として世界のサイバーセキュリティ格差は広がり、資源の豊富な組織はより強靭になり、その周囲の組織はさらに危険にさらされる可能性がある。
記事の中心にあるのは Anthropic の Mythos Preview だ。同社によると、このツールは主要なオペレーティングシステムやウェブブラウザで数千件の脆弱性を発見したという。初期アクセスはおよそ40のテクノロジー企業や機関に与えられた。しかしそのアクセスは大半の政府や中央銀行には及ばず、多くの公共部門や資源の乏しい組織は、重要システムを守るために少数の大手AI企業に依存せざるを得ない状態になっている。
この非対称性が重要なのは、脅威環境が加速しているからだ。Rest of World は CrowdStrike のデータを引用し、AI対応の主体による攻撃は2025年に前年より89%増加したとしている。記事は、AIシステムがソフトウェアの脆弱性を発見から数時間以内に兵器化できるようになり、欠陥の特定から悪用までのもともと短い時間枠がさらに圧縮されていると論じている。
なぜこの格差は構造的になり得るのか
サイバーセキュリティは長らく不均等に分配されてきた。資金力のある企業は、深い技術チームを雇い、高価なツールを購入し、成熟したインシデント対応能力を維持できる。小規模企業、地方機関、発展途上国にはそれが難しいことが多い。AI時代に変わるのは速度だ。機械駆動の攻撃ツールが、人間のチームよりはるかに速くスキャンし、適応し、攻撃経路を生成できるなら、すでに少人数で旧式のシステムを抱える組織は、さらに厳しい不利を背負うことになる。
原文は別の圧力点も指摘している。世界的なサイバーセキュリティ人材不足により、リーダーが脅威を理解していても、それを吸収できる経験豊富な人材が足りない可能性がある。理論上、AIはその穴を埋める助けになり得るが、それは強力な防御ツールが広く、手頃な価格で、最も必要とされる環境に展開可能な場合に限られる。
しかし、報道が描く世界はそうではない。むしろ、最も高性能な防御は最上位の企業や選ばれたパートナーに集中しているように見える。広く使われる商用ソフトが迅速に修正される一方で、より個別化された、あるいは主権重視のシステムが遅れれば、格差は富裕組織と貧困組織の間だけでなく、米国の大手テクノロジー企業と直接つながるソフトウェア・エコシステムと、そうでないものの間にも生まれる。
攻撃の自動化が技術のハードルを下げている
この変化の文化的・政治的な意味は、企業ITを超えて広がる。AIツールは、犯罪者がフィッシングメール、ディープフェイク動画、音声クローン、マルウェアを以前よりはるかに少ない労力で作るのを助けることができる。さらに、脆弱な標的を見つけ、悪用の手順を生成する助けにもなる。実際、AIは被害を与えるのに必要な専門知識の量を引き下げている。
この動きは、サイバー犯罪や妨害キャンペーンに参加できる主体の範囲を広げる。Rest of World の報道には、OpenAI と Cursor のAIツールを使った北朝鮮系ハッカー集団の例があり、その作戦では数か月にわたって最大1200万ドル相当の暗号資産が盗まれたとされる。これらのツールがコーディング、偵察、ソーシャルエンジニアリングのいずれに直接使われるにせよ、パターンは同じだ。より多くの攻撃者に、より低コストで、より大きな能力が提供されている。
防御側にとっては、これは不均衡な計算になる。病院、地方銀行、地域の公益企業は、あらゆる重要システム、ベンダー経路、従業員の業務フローを守らなければならない。一方、攻撃者は効果的な突破口を一つ見つければよい。AIが、リソース不足のチームが閉じるよりも速く、より多くの突破口を試せるなら、この不均衡はさらに拡大する。
誰も長くは隔離されない
この報告の最も強い指摘の一つは、サイバーリスクがきれいに局地的なままでは終わらないことだ。小規模な機関や防御の弱い国も、世界経済をつなぐ同じ金融、通信、ソフトウェアのネットワークの一部である。一つの法域や業界の弱いリンクが、ベンダー、決済システム、パートナーネットワーク、インフラ依存関係を通じて他へ侵入する経路になることがある。
つまり、防御AIが限られた組織に集中すると、私的利益は生むかもしれないが、大規模な公共安全にはつながらない。最も防御の堅い多国籍企業でさえ、検知や修正が遅れがちなサプライヤー、顧客、政府系システムにさらされている。この意味で、防御AIへの不平等なアクセスは単なる公平性の問題ではなく、集団安全保障の問題だ。
記事は、観察者が「サイバーセキュリティは決して孤立した問題ではない」と述べていると引用するが、その論理は成り立つ。システムの一部が大きく遅れれば、システム全体の信頼は損なわれる。
今後の政策課題
ソース資料は詳細な規制の青写真を示していないが、中心的な政策ジレンマを示唆している。最先端の防御モデルを開発する企業には、同じツールが攻撃目的に悪用される懸念を含め、アクセスを制限する正当な理由があるかもしれない。しかし厳しい制限は、攻撃の自動化がより安く、より速くなるまさにその時に、より広い世界を無防備にするおそれがある。
この緊張関係は、サイバーセキュリティにおけるAIガバナンスの次の段階を形作るだろう。政府は、公共利益にかなうアクセス手段、安全な評価枠組み、あるいは高リスクツールを単純に公開せずに防御範囲を広げるパートナーシップを求めるかもしれない。一方、資源の限られた組織は、攻撃面を減らし、迅速にパッチを当て、システムを分離し、反対側にAIがいる可能性がますます高いインシデントに備えるといった実務的なレジリエンスに注力する必要があるだろう。
より深い文化的変化はすでに見えている。サイバーセキュリティは、もはやソフトウェアを使う人間の敵対者からネットワークを守るだけではない。より良い敵対者を作るのを助けるソフトウェアから、機関を守ることへとますます重心が移っている。最良の防御AIへのアクセスが狭いままなら、追いつける者と追いつけない者の差が、次のデジタル不平等の時代を定義するかもしれない。
この記事は Rest of World の報道に基づいています。元の記事を読む。
