OpenAIはサイバー防御向けのアクセスを一般向けAI安全ルールから切り分ける
OpenAIは、精査済みのセキュリティ研究者向けに特化したモデル変種GPT-5.5-Cyberを公開した。これは、最先端AI企業が二重用途の能力をどう扱うかにおいて、注目すべき転換点となる。提供された報告によると、このシステムは「Trusted Access for Cyber」プログラムを通じて利用可能で、一般向けではなく、重要インフラを守る防御側を対象としている。
この動きは、AIラボがもはや無視しにくくなった緊張関係を反映している。同じ安全策は、悪意あるハッキング要求を遮断する一方で、脆弱性の再現、パッチの検証、マルウェア解析といった正当な防御業務も妨げる。OpenAIの対応は、単一の安全姿勢を維持するのではなく、アクセスを階層化することだ。
アクセスモデルの仕組み
報告書によれば、OpenAIは現在3つのアクセスレベルを採用している。公開モデルは標準的な制限を維持する。中間層は、防御的なセキュリティ作業向けにフィルターを緩和する。最も許容度の高いGPT-5.5-Cyberは、認可されたペネトレーションテストや、それに関連する高機微な作業に限定される。
OpenAIは、システムが今でもパスワードの窃取や第三者システムへの攻撃といった行為をブロックすると述べている。しかし、出典に挙げられた例からは、Cyber版が主流のAIシステムでは通常拒否されるレベルの運用詳細を許可していることが明らかだ。そこでは、既知の脆弱性に対するエクスプロイトコードを生成しただけでなく、テスト用サーバーに対して実際に攻撃を実行し、マシンを掌握し、システム情報を読み戻したデモが示されている。
これは小さな方針変更ではない。制御された環境の外では攻撃的手法と見分けがつかないようなことを、先進的なサイバー防御ではAIシステムがますます実行できる必要がある、という事実を正式に認めたものだ。
誰がどの条件でアクセスできるのか
OpenAIによると、最も制限の少ない版は、精査済みの重要インフラ防御担当者に限定される。報告書に挙げられたローンチパートナーには、Cisco、CrowdStrike、Palo Alto Networks、Cloudflare、Intel、Snyk、SentinelOneが含まれる。Codex Securityを通じて、大規模なオープンソースプロジェクトに取り組む一部の開発者も割引アクセスを受けられる。
同社はまた、こうした機能を開放する一方で、ユーザー認証も強化している。2026年6月1日以降、最上位アクセス層の利用者にはフィッシング耐性のある認証が必要になる。この要件は、ラボがアカウント侵害を、単なるモデルの悪用だけでなくリスク面の一部として見ていることを示している。
なぜ重要なのか
GPT-5.5-Cyberの重要性は、生のモデル知能というより、その周囲の運用体制にある。出典は明確に、Cyber版を標準モデルより賢いものとしてではなく、セキュリティ関連の話題で制限が少ないものとして位置づけている。つまり、この製品の本質はガバナンス設計だ。同等か近い基盤能力、異なる権限、異なる監視、異なる利用者層。
これは業界全体のひな型になる可能性が高い。セキュリティチームには、エクスプロイトを推論し、脆弱性を再現し、悪意あるコードを迅速に調査できるツールが必要だ。一方で政策担当者は、同じシステムが攻撃的サイバー行為の参入障壁を下げかねないと懸念している。高度な能力を本人確認と審査の背後に置くことで、OpenAIはこの2つの要請を同時に満たそうとしている。
タイミングも重要だ。報告書は、ホワイトハウスが高性能なサイバー対応モデルの公開をどう規制するか検討していると述べている。これによりGPT-5.5-Cyberは単なる製品発表ではなくなる。危険なAI能力を、モデル設計、アクセス制御、あるいはその両方で管理すべきかをめぐる、新たな政策論争における初期の試金石なのだ。
より大きな変化
長年にわたり、主流のAI安全実践はモデルのインターフェースでの拒否動作を重視してきた。GPT-5.5-Cyberは、より分断された将来を示唆している。公開モデルは保守的なままにし、信頼された専門ユーザーには、消費者向けアシスタントというより専門ツールに近い振る舞いをするシステムへのアクセスを与える。
このモデルが定着すれば、フロンティアラボはますます規制対象インフラの提供者に近づき、自社システムが何をできるかだけでなく、誰にどの版をどのセキュリティ条件の下で使わせるかまで決める存在になるだろう。
この記事はThe Decoderの報道に基づいています。元の記事を読む。
Originally published on the-decoder.com



