高い賭け金での会話
国防長官ピート・ヘグセスはAnthropic CEOダリオ・アモデイとの会面が予定されており、この会談はアメリカ軍がどのように人工知能を活用すべきかについての議論の激化を物語っている。この会談は、国防総省がインテリジェンス分析からロジスティクス、自律型兵器システムに至るまで、さまざまな軍事アプリケーション全体でAIを配置する取り組みを加速させている中で行われる。
ClaudeファミリーのモデルのAlを開発するAI安全企業Anthropicは、AI業界での慎重な声として位置づけられており、安全研究と責任ある配置の重要性を強調している。ペンタゴンとの直接的な関わりを持つことでの同社の意欲は、政府パートナーシップへのアプローチの注目すべき進化を示しており、ヘグセスとの会談は今後数年間にわたってその関わりの条件を形作る可能性がある。
ペンタゴンのAI野心
国防総省は数年間にわたってAIに積極的に投資してきたが、現在の政権下でそのペースは飛躍的に加速している。ペンタゴンのChief Digital and Artificial Intelligence Office (CDAO)は、すべての軍事サービス全体でのAI採用の拡大を任務とされており、同省はAI関連作業のための技術企業に数十億ドルの契約を授与している。
焦点となっている主要分野には、軍事装備の予測保守、衛星画像とシグナルデータのインテリジェンス分析の自動化、戦場の指揮官のための意思決定支援ツール、そして最も物議を醸しているのは、人間による監視の程度が異なる形で目標を特定し関わることができる自律型兵器システムが含まれている。
ヘグセスは、米国が軍事アプリケーションでのAI配置をより速く進めなければ、AI対応戦を軍事近代化戦略の中心柱としている中国に後れを取る危険性があるという見解を明確に述べている。彼の立場は、AI安全に対する過度な慎重さが危険な能力格差を生む可能性があるという防衛機関全体での懸念を反映している。
Anthropicのバランス取り
Anthropicにとって、ヘグセスとの会談は繊細なバランス取りを表している。同社は2021年にOpenAIの元研究者によって設立され、部分的にはAI開発のペースと安全性に関する懸念による理由で立ち去った。その企業アイデンティティは責任あるAIの概念の周りに構築されており、AI整合性、安全性ベンチマーク、および適切な保護手段なしで強力なAIシステムを配置することのリスクについて広範な研究を公開している。
同時に、Anthropicは100億ドル以上の資金を調達しており、収益を生み出す圧力に直面している商業企業である。政府契約は重要なビジネス機会を表しており、防衛およびインテリジェンス機関は高度なAI機能のための最も関心が高く資金が豊富な顧客の中にある。
同社はすでに政府業務への歩みを進めている。Anthropicのモデルはアマゾン・ウェブ・サービスのGovCloudを通じて利用可能であり、同社はAI安全性と評価に関するさまざまな政府機関と関わっている。しかし、明示的な軍事パートナーシップに関しては一部の競争相手より慎重であり、その許容使用ポリシーは同社の技術の特定のアプリケーションに制限を課している。
より広い業界の分裂
ヘグセス・アモデイ会談は、軍事AIに関する技術業界内での、より広い分裂を反映している。Palantir、Anduril、Shield AIなどの一部の企業は、防衛アプリケーションを中心にビジネスを構築し、ペンタゴンを主要顧客として受け入れている。その他、主要なAIラボの一部を含めて、商業的な機会と軍事アプリケーションとの関連性の評判上のリスクとのバランスを取ることに対してより曖昧である。
Googleは2018年の従業員による抗議の後、ドローン画像分析にAIを適用するペンタゴンプログラムであるProject Mavenから撤退したことで有名である。同社はその後、方針を変更し、それ以来、重要な防衛契約を獲得している。Microsoftは軍事との関わりについて一貫した姿勢を維持しており、民主的国家が利用可能な最高の技術にアクセスできるべきであると主張している。
- ペンタゴンはインテリジェンス、ロジスティクス、自律型兵器全体でのAI採用を加速させている
- 防衛当局者は、米国が中国の軍事AIプログラムとのペースを保つためにより速く行動する必要があると主張している
- AI安全推進派は、適切な保護手段なしで高い賭け金の軍事状況での強力なシステムの配置について懸念している
- いくつかの主要なAI企業は、以前の躊躇にもかかわらず政府および防衛業務を拡大した
何が危機に瀕しているのか
軍事AIに関する論争は単なる学術的なものではない。AIシステムが軍事作戦にどのように統合されるかについて、今後数か月および数年のうちに下される決定は、戦争の性質、エスカレーションのリスク、および紛争地帯での民間人の保護に対して深遠な結果をもたらす可能性がある。
迅速な配置の擁護者は、AIはターゲティング精度を改善し、状況認識を向上させることで民間人の死傷者を減らし、軍事作戦をより正確にすることができると主張している。批評家は、この技術はまだ人命がかかった決定に対して十分に信頼性がなく、AIが軍事行動をより低リスクに見えるようにすることで武力の使用の閾値を低める可能性があると反論している。
ヘグセスとアモデイの間の会談はこれらの緊張を解決する可能性は低いが、防衛機関との関わりのパラメーターを定義するのに役立つ可能性がある。AI業界の最も安全意識の高い企業の1つが軍事協力のための実行可能な枠組みを見つけることができれば、他の企業が従うためのテンプレートを設定する可能性がある。交渉が安全基準について和解できない相違で決裂した場合、両者が協力が不可欠であると述べている時に、業界とペンタゴンの間の分裂を深める可能性がある。
定義的な瞬間
AI業界全体にとって、軍事システムへの人工知能の統合の増加は、定義的な瞬間を表している。学術研究所で培養され、消費者チャットボットを通じて商業化された技術は、現在、想像できる最も重要なタスクのいくつかを実行するよう求められている。その転換がどのように管理されるか、そして誰によって管理されるか、戦争の将来だけでなく、AI業界自体の将来を形作るであろう。
この記事はC4ISRNETによるレポートに基づいています。元の記事を読む。


