金曜日の期限と人工知能倫理をめぐる冷戦

Claude言語モデルファミリーの背後にあるAI安全企業Anthropicは、US Department of Defenseとの異例の対立に直面しています。報道によると、Pentagonはアンスロピックに対してそのAI技術の軍事応用に対する制限を緩和することを要求しており、特に自律型兵器システムと大規模監視での使用の禁止を対象としています。Anthropicは拒否しており、Defense Departmentはこれに対してDefense Production Actを発動すると脅迫で対応しました。これは冷戦時代の法律で、政府が民間企業に国防生産の優先を強要することを認めています。

同社は金曜日までに従うよう期限を与えられました。Anthropicが拒否を続ければ、PentagonはAnthropicに対してAI機能への軍事目的でのアクセスを提供することを法的に強要でき、AI業界に明確な前例のない法的および倫理的対立を引き起こします。

Anthropicが制限してきたもの

設立以来、AnthropicはそのAIモデルを自律型兵器、大規模監視、およびAIを安全に開発するという同社のミッションと両立しないと同社が考えるその他の応用に対する使用を明確に禁止する利用可能な使用方針を維持してきました。これらの制限はAI業界では珍しくありません—ほとんどの主要なAI企業は同様のポリシーを持っています—しかし、Anthropicはコア組織原則としてのAI安全へのコミットメントについて特に声高に主張してきました。

同社はOpenAIの元研究者であるDarioとDaniela Amodeiによって設立されました。これは一部、AI開発のペースとガバナンスに関する懸念によるものです。そのブランドアイデンティティは責任あるAI開発の周りに構築されており、AI alignmentとinterpretabilityへの研究は、人工知能への安全優先のアプローチのリーダーとしてのポジションを確立しています。軍事制限に後退することは、同社の基礎的ナラティブを損なわせるでしょう。

Defense Production Actの脅迫

1950年の朝鮮戦争中に法律に署名されたDefense Production Actは、大統領に対して民間産業に国防に必要と見なされる契約と注文を優先するよう指示する広い権限を与えています。これは様々な目的のために定期的に発動されてきました—最近ではCOVID-19パンデミック中に医療用品の生産を強要するために—しかし、それを使ってAI企業に軍事応用のためにそのテクノロジーを提供することを強要することは、法律の前例のない応用を表すでしょう。

法律専門家は、そのような発動が司法的精査に耐えるかどうかについて分かれています。DPAは物理的な商品製造—鋼、弾薬、医療機器—のために設計されました。ソフトウェア企業にそのサービス利用規約を変更することを強要するためではありません。AI modelアクセスが法律の下で没収できる「product」を構成するかどうかという質問は、裁判所がまだ対処していない新しい法的質問を提起しています。

  • PentagonがAnthropicに対して自律型兵器と監視でのAI使用に関する制限の削除を要求
  • Anthropicは創設以来のコアなAI安全原則を引用して拒否
  • Defense DepartmentがFridayの期限までにDefense Production Actの発動を脅迫
  • 法律専門家が冷戦時代の法律がAI企業に適用されるかどうかについて議論
  • 結果はAI業界全体に対する政府当局の前例を設定する可能性がある

業界への含意

AnthropicとPentagonの対立は、国家安全保障機関との関係がますます複雑になっているAI業界全体に衝撃を与えます。Google、Microsoft、Amazon、およびOpenAIはすべて重要な防衛契約を持っており、それぞれは彼らのテクノロジーの軍事応用に関して内部および外部の圧力に直面しています。Googleは有名に2018年の従業員抗議の後、Pentagon AIプログラムであるProject Mavenから撤退しましたが、同社はそれ以来防衛作業を拡大しています。

Defense Production ActがAnthropicに対して正常に使用された場合、United Statesで運営されているすべてのAI企業がその独自の倫理的ガイドラインに関わらず軍事目的のためにそのテクノロジーを提供することを強要される可能性があるという前例を確立するでしょう。その見通しはAI安全の研究を冷やし、安全重視の企業をUS jurisdictionの外に移動させるよう促す、または企業が政府契約と安全コミットメントの間で選択しなければならない分割された業界を作成する可能性があります。

逆に、Anthropicが要求に正常に抵抗する場合—法的異議または政治的交渉を通じて—AI企業が彼らのテクノロジーの使用方法に対する倫理的な境界を設定する権利を持つという原則を強化する可能性があります。顧客がUS政府であっても。

より広い緊張

この対立は、大規模言語モデルおよび他の高度なAIシステムが軍事応用との明確な機能を実証し始めてから構築されている基本的な緊張を反映しています。US政府はAIの支配を国家安全保障に不可欠と見なしており、特にChinaとの競争において、倫理的制約が少ない軍事AI応用に資源を注ぎ込んでいます。Pentagonの視点からは、主要なAI企業が防衛応用からopt outすることを許可することは、国が余裕がない贅沢です。

Anthropicの視点からは、制限が存在するのは、同社が強力なAIシステムの制約のない軍事応用が致命的なリスクをもたらすと信じているためです—ユーザーがアメリカの制服を着ているだけでは排除されないリスク。同社の立場は、AIの一部の応用は、誰が尋ねるかに関わらず、有効にするには危険すぎるということです。

この対立がどのように解決されるかは、今後数年間のAI業界とUS政府の関係を形作る可能性があります。AI安全コミットメントが国家安全保障の命令の重力引きに耐えることができるかどうかの試験ケース—そして政府がそれらが耐えることができないようにするためにその最も強力な法的ツールを使用するかどうか。

この記事はThe Decoderによるレポーティングに基づいています。元の記事を読む