安全テストをあざ笑う立場から、その再構築へ

トランプ政権は先端AIの監督に関する姿勢を大きく変え、Google DeepMind、Microsoft、xAIと新たな協定を結び、先進モデルの公開前後に政府による安全確認を実施することにした。この転換は、その内容だけでなく、政権の以前の立場からの直接的な離反という点でも注目に値する。

Ars Technicaによれば、ドナルド・トランプ大統領は以前、バイデン時代に関連する自主的なAI安全チェックを、イノベーションを妨げる規制の行き過ぎだとして退けていた。就任直後には、米国AI安全研究所の名称をAI標準・イノベーションセンター、すなわち CAISI に変更し、名称から「安全」の語を削った。出典はこれをジョー・バイデンへの痛烈な当てこすりだとしている。

いまや同じ政権が、かつて嘲笑した政策枠組みの一部を復活させている。

Mythos が引き金に

明らかな転機となったのは、Anthropic が最新モデル Claude Mythos の公開を見送ったことだった。Ars Technica は、同社がそのモデルは公開するには危険すぎると判断したと報じている。悪意ある者がその高度なサイバーセキュリティ能力を悪用しかねないからだ。この判断はワシントン内部に強い影響を与えたようだ。

ホワイトハウス国家経済会議のケビン・ハセット所長は、出典本文によれば Fortune に対し、トランプ氏がまもなく、先進AIシステムを公開前に政府がテストすることを義務づける大統領令を出すかもしれないと述べた。そうなれば、政権は再び広がった自主協力から、正式な公開前評価制度へと移行することになる。

政治的な皮肉は見逃しがたい。安全監督を進歩の足かせとみなしていたホワイトハウスが、フロンティアモデルが十分深刻な懸念を引き起こし、その開発者が公開を見送るほどだったため、いまや義務化を検討しているのだ。

CAISI の役割拡大

CAISI 自身の発表でも、新たな協定はバイデン政権時代の政策を「土台にしている」と明記された。この表現は、言説上の断絶があった後でも継続性を認めている点で重要だ。政権は名称を変えたかもしれないが、構造化されたモデル評価の実務的必要性は再び前面に出てきたようだ。

CAISI のクリス・フォール所長は、拡大した産業連携が、同センターの取り組みを「重要な局面で公共の利益のために」拡大する助けになると述べた。出典本文によると、CAISI はこれまでに約 40 件の評価を実施しており、その中にはまだ公開されていないフロンティアモデルへのテストも含まれる。

こうした評価が特に重要なのは、CAISI がしばしば安全対策を弱めたり取り除いたりしたシステムへのアクセスを得るためだ。機関によれば、それによって評価者は公開向けの配備だけを見るよりも、国家安全保障に関わる能力やリスクをより徹底的に評価できる。

実際には、政府は公開後の洗練された製品を確認するだけではなく、一部の安全層が外されたときにモデルが何をできるのかを調べている。これは、はるかに踏み込んだ能力評価の形だ。

政策転換を動かす国家安全保障

政権の新しい姿勢は、国家安全保障を中心に強く位置づけられている。CAISI は、政府全体の新たなリスクと足並みをそろえるため、AI に関する国家安全保障上の懸念に焦点を当てた省庁横断の専門家タスクフォースを設置したと述べている。

この強調が重要なのは、政治的な再配置を説明できるからだ。AI 倫理や消費者被害をめぐる一般的な議論は、政策担当者をおなじみのイデオロギー軸で分断しやすい。国家安全保障の問題は、そうした軸をより早く組み替えることが多い。危険なサイバー悪用に使われうると見なされたモデルは、通常の技術政策の争点よりも、戦略的脅威として描きやすい。

それで AI をどう統治すべきかという大きな議論が決着するわけではないが、いま政権を動かしているものは何かを明確にする。問題は、抽象的な「安全」ブランドではない。フロンティアシステムが、政府の評価者がそのリスク特性を把握する前に、敵対的な行為者に実務上の優位を与えうるかもしれないことだ。

この逆転の意味

新たな協定の重要性は、政策面とシグナル面の両方にある。政策面では、大手AI企業がフロンティアシステムを公開前後に政府の監督へ回す回路を復活させる。シグナル面では、「AI安全」に言説上敵対的な政権であっても、能力が十分速く進めば構造化された監督に戻ることを示している。

参加企業も重要だ。Google DeepMind、Microsoft、xAI は最先端システムを構築または支援する企業群の一部であり、その関与がこの枠組みに実務的な重みを与える。将来の大統領令でテストが義務化された場合でも、政府はすでに進行中の関係と一定の運用実績を持っていることになる。

一方で、今回の転換は複数の未解決の問いを残している。出典本文は一部企業が協定に署名したと述べているが、完全な一覧や執行の詳細は示していない。また、トランプ氏が大統領令を進める場合に、何をもって「先進」システムとみなすのか、その基準も説明していない。

それでも、流れは明白だ。AI 安全を軽視しようとしていたホワイトハウスは、フロンティアモデルの振る舞いと、それを作る企業からの警告によって、再びその問題へ引き戻された。

能力によって組み替えられるAI政策論争

この出来事は、理論上の懸念が運用上の問題になると、AI政策論争が急速に変わりうることを思い出させる。トランプ政権は、言説上の妥協によって徐々にバイデンの見方へ近づいたわけではない。むしろ、大手開発者があるモデルを公開するには危険すぎると判断した具体例に反応したように見える。

その違いは重要だ。新たに形成されつつあるAI環境では、能力の衝撃がイデオロギー的一貫性よりも速く政策を形作るかもしれない。そして政権が公開前テストの義務化に踏み切れば、フロンティアAI評価に関する近年の米国で最も強い動きの一つが、当初はその種の監督を不要だと見なしていた大統領のもとから生まれることになる。

  • トランプ政権は Google DeepMind、Microsoft、xAI と新たな自発的AI安全テスト協定を結んだ。
  • この動きは、バイデン時代のAI安全チェックを以前に退けた姿勢を覆すものだ。
  • Anthropic が Claude Mythos を公開しない判断をしたことが、この転換を早めたようだ。
  • ホワイトハウスは次に、先進AIシステムの公開前テストを義務化する大統領令を検討する可能性がある。

この記事は Ars Technica の報道に基づいています。元記事を読む