AI安全にとって重要な転換点
批評家から業界の分岐点と呼ばれている中、AnthropicはResponsible Scaling Policyへの広範な変更を火曜日に発表し、創業以来同社のアイデンティティの中核であった堅い安全措置を廃止しました。タイミングは顕著でした—同じ日に報告によると、国防長官Pete Hegsenthが同社にU.S.軍に対して無制限のClaudeへのアクセスを与えるよう圧力をかけていたことが明らかになりました。
2年以上にわたり、AnthropicのRSPはAI業界で最も具体的な安全約束の一つでした。このポリシーは明確な一線を引いていました:モデルが適切な安全対策なしに特定の能力閾値に達した場合、開発は停止されます。その約束は今や消え去り、企業が競争の激しいAI環境の現実をより反映していると述べる、「リスクレポート」と「フロンティア安全ロードマップ」のより柔軟なフレームワークに置き換わっています。
シフトの背景にある論理
Anthropicは変更を集団行動の問題に対する実用的な対応として説明しています。「2年半経った今、正直に評価すると、この変更の理論の一部は私たちが望んだ通りに展開しましたが、他の部分はそうではありません」と同社は更新されたポリシードキュメントに書きました。基本的な論理は率直です:責任のある開発者が一社だけ一時停止している間に競争相手が前進し続ければ、最も注意深い企業ではなく最も不用心な企業が形作る世界になる可能性があります。
「AI開発を停止することは本当に誰の役にも立たないと感じました」とAnthropicの主任科学者Jared Kaplanはtime誌に述べています。「AIの急速な進歩を考えると、競争相手が前進している場合に一方的なコミットメントを作ることは本当に理にかなっていないと感じました。」これはテクノロジーにおける馴染みのある議論です—責任のある行動者が強力なテクノロジーがどのように発展するかを形作る安全志向の見通しを確保するために最前線にいる必要があるという考えです。
しかし、この論理は同社の急速に高まる商業的成功と不安定に存在しています。Anthropicはこの月だけで$30 billionの新規投資を調達し、評価額は$380 billionに達しています。Cloudeモデルはコーディングアプリケーションのためにとりわけ広範な賞賛を集めています。最新バージョンは同社自身によって最も安全なものとして説明されています—安全誓約がまさに能力とリソースが最高の時点で弱体化する必要がある理由を疑問に呼び起こします。
Pentagonの最後通牒
部屋の中の象は国防総省からの同時の圧力キャンペーンです。Axiosによる報道によると、国防長官Hegsenthはanthropicの最高経営責任者Dario Amodeiに金曜日までにClaudeへの無制限アクセスを軍に提供するか、結果に直面するかを与えました。それらの結果はDefense Production Actの発動、同社の既存防衛契約の切断、またはAnthropicを供給チェーンリスクとして指定することを含むかもしれません—これは他のPentagon請負業者がClaudeを彼らのワークフローで使用していないことを認証するよう強制する動きです。
Claudeは現在軍の最も機密性の高い作戦に使用されている唯一のAIモデルとして報告されています。「私たちがこれらの人々と話し続けている唯一の理由は、私たちが彼らが必要であり、今必要であることです」と防衛関係者はAxiosに述べました。このモデルはベネズエラでの最近の軍事作戦中に使用されたと報じられており、Amodeiが防衛パートナーPalantirと提起した話題です。
Anthropicはペンタゴンのために使用ポリシーを適応させることを提供していると報告されていますが、アメリカ人の大量監視またはヒューマンインボルブメントなしで発砲する兵器システムに使用されることを許可することに対する境界線を引きました。政府の圧力に直面して、これらの境界線が保持されるかどうかは未解決の問題のままです。
ゆっくりとした変化への懸念
安全研究者は様々な反応を示しています。非営利団体METRの責任者Chris Painterは変更を理解可能ですがおそらく不吉なものとして説明しました。透明なリスク報告の強調を称賛しましたが、「段階的な変化」効果についての懸念を提起しました—硬い安全線がソフトな指針になると、個々の譲歩は合理的に見えるが、累積的な方向は問題があるという考えです。
Painterは新しいRSPがAnthropicが「リスクを評価および軽減する方法が能力のペースに追いついていないため、その安全計画をトリアージモードにシフトする必要があると信じている」ことを示唆していることを指摘しました。彼は率直に追加しました:「これはAIが引き起こす可能性のある潜在的な壊滅的リスクに社会が準備されていないという更なる証拠です。」
Googleの進化との並列は無視するのが難しいです。検索大手は有名に「Don't be evil」のモットーの下で操業していましたが、商業的圧力が高まったため静かにそれをコード行動から削除しました。Anthropicの軌道が同様の弧を辿るかどうかは、同社が今後数週間と数ヶ月で何をするかに依存するでしょう—特にPentagonとのこう着に関して。
次に何が起こるのか
新しいRSPフレームワークは二項停止/実行決定を段階的な評価と公開開示で置き換えます。理論上、これはより微妙な安全ガバナンスを提供します。実際には、批評家は重要な瞬間に開発の一時停止を強制したであろう唯一のメカニズムを削除することを懸念しています。
より広いAI業界にとって、メッセージは明確です:安全に最も声高に取り組んでいる企業でさえ、評価額が上昇し、競争が激化し、政府が電話をかけてくると、その約束を維持するのが困難であることに気付いています。AI開発が遅くなるかどうかについての質問ではありません—明らかにそうはなりません。再構築されているガードレールが重要である十分に強いかどうかです。
この記事はEngadgetの報道に基づいています。オリジナル記事を読む


