公開コードをめぐる急転換
提供された出典文によると、NHSイングランドは自ら作成したソフトウェアを公開状態から引き上げ、ソースコードのリポジトリを既定で非公開にするよう職員に指示している。この動きは、そのソフトウェアが納税者の資金で開発され、他者が再利用できるという理由で、従来は公開されてきた組織にとって大きな方針転換となる。
この変更は、ますます高性能になる人工知能システムが公開コードを取り込み、弱点を推測し、攻撃者が脆弱性を見つける手助けをするかもしれないという懸念によって進められている。新ガイダンスは、明示的に公開を維持する承認済みの理由がない限り、5月11日までにリポジトリを非公開にするよう求めているとされる。
AIを引き金にした要因: Mythos
出典文は、NHSイングランドがこの新方針の理由として、Anthropic の AI システム Mythos を具体的に挙げたと伝えている。このガイダンスは、公開リポジトリがソースコードだけでなく、アーキテクチャ上の判断、設定の詳細、文脈情報まで漏らすリスクを高めると主張している。AI が大規模なコード分析や推論能力を高めるにつれ、そうした情報が悪用される可能性があるというのだ。
この懸念は、サイバーセキュリティの考え方が大きく変わりつつあることを反映している。これまで防御側は、露出したシステムやコードを人間の攻撃者が探ることを心配してきた。新たな恐れは、AI がその作業の一部を自動化し、ソフトウェア資産を大規模に処理して、露出から悪用までの時間を圧縮することだ。
批判派が逆効果だと考える理由
提供された報道で引用されたセキュリティ専門家は、この方針は不要で逆効果だと主張している。理由の一つは、オープンソースソフトウェアが長く別の安全性の理屈に支えられてきたことだ。公開されていれば、より多くの人がコードを検査し、テストし、修正できるため、品質が向上するという考え方である。リポジトリを閉じても、脆弱性が本当に消えるわけではなく、透明性だけが失われる可能性がある。
出典文はまた、英国政府支援の AI Security Institute が Mythos を調査し、同システムは「小規模で防御の弱い脆弱な企業システム」しか攻撃できないと結論づけたと述べている。真に安全なシステムやネットワークが広く危険にさらされる兆候はなかったという。もしこの評価が正しければ、NHSイングランドの対応は実証された脅威に対して過剰かもしれない。
オープンな行政と防御的な秘匿
この争点は、今まさに衝突が増えている二つの政策的直感の交差点にある。一方は、税金で賄われたデジタル基盤は重複を避け、公共サービスを改善し、国費で作られた成果を他者が活用できるよう、公開で共有されるべきだとする。もう一方は、AI が攻撃者の偵察コストを下げるにつれて、防御的な秘匿の価値が高まるという考え方だ。
NHSイングランドの新ルールは、少なくとも今のところ、明確に後者を選んでいる。しかし、そのトレードオフは大きい。コードが既定で閉じられれば、協力は難しくなり、外部レビューは狭まり、医療運用やデータシステムに影響しうるソフトウェアへの公開性は低下する。
より大きな議論の予告編
NHSの決定は英国だけの問題ではない。多くの公共機関が同じ問いの別バージョンを考えているからだ。AI時代の安全保障上の脅威は、オープンソース公開の前提条件を変えるべきなのか。それとも、開放から退くことは短期的な安心感と引き換えに、長期的な耐性を犠牲にするのか。
答えは一律ではないだろう。一部のコードベースは、確かに公開すべきでない機密性の高い運用情報を露出しているかもしれない。別のものは、外部の監視がなくなると逆に安全性が下がる可能性がある。重要なのは、恐れではなく証拠によってそれを見分けることだ。
この決定が示すもの
直近のシグナルは、技術的な証拠に争いが残っていても、先進的なAIモデルがすでに現実の संस्थ組織ポリシーに影響を与えているということだ。NHSイングランドは、ソフトウェアの扱い方を変える前に合意形成を待っているのではなく、先回りして「既定で閉じる」方向へ動いている。
このアプローチが実際に安全性を高めるかどうかはまだ不明だ。ただ確かなのは、AI安全保障の議論が理論段階を超えたということだ。今やそれは、公共部門組織内の調達ルール、公開基準、デジタル透明性の境界を作り変えている。
もしより多くの政府が NHS の道をたどれば、AI の最大の間接的な影響の一つは、より静かなインターネットかもしれない。公開コードは減り、オープンなリポジトリは減り、公共のデジタル基盤とは何かの定義が変わっていく。
この記事は New Scientist の報道に基づいています。元記事を読む。
Originally published on newscientist.com

