Anthropic のサイバーセキュリティ物語に再現圧力がかかる
Anthropic は Claude Mythos を、アクセス制限を正当化できるだけの強力な能力を備えた、厳格に管理されたサイバーセキュリティモデルとして提示してきた。提示されたソース文によれば、同社は Project Glasswing を通じて Mythos Preview を 11 の組織からなるコンソーシアムに限定し、その理由として攻撃的な潜在能力を挙げていた。内部テストや英国の AI Security Institute による監査では、このモデルがソフトウェアのバグを見つけ、自力で実用的なエクスプロイトを構築し、シミュレーション上で企業ネットワーク全体を侵害できたと報告されている。ただし、そのネットワークは小規模で、防御が弱く、脆弱であることが条件だった。
これは重大な主張の集合であり、新しい動きはそれらが否定されたことではない。むしろ、排他性をめぐる物語の一部が今、挑戦を受けているということだ。ソースで説明されている 2 つの独立した再現実験は、小型でよりオープンなモデルでも、Anthropic が公開してきた脆弱性分析の多くを再現できることを示唆している。
この違いは重要だ。議論の焦点は、Mythos が能力を持つかどうかから、示された能力が本当に唯一無二なのかどうかへ移っている。
再現実験が見つけたもの
最初の再現実験は AISLE によるものだった。AISLE は 2025 年半ば以降、オープンソースソフトウェアを対象に AI 支援のバグハントを行っている企業だ。ソースによると、AISLE は OpenSSL で 15 件、curl で 5 件の脆弱性を報告している。創業者の Stanislav Fort は、Anthropic の公開サンプルからコード断片を使い、小型で一部オープンな複数のモデルが自力でどこまで到達できるかを試したという。
2 つ目の取り組みは Vidoc Security によるもので、GPT-5.4 と Claude Opus 4.6 をオープンなコーディングエージェント OpenCode と組み合わせた。これらの研究は合わせて、Anthropic が印象的なバグ発見やエクスプロイト推論を示したとき、その性能のどれだけが Mythos 固有で、どれだけがモデル全体で広がりつつある能力の前線を反映しているのか、という実務的な問いに答えようとしている。
ソース文の初期的な答えは、その前線が Anthropic のアクセス制御が示すよりも広い可能性がある、というものに見える。




