En Fredag Deadline och ett Kall Krig över AI-etik

Anthropic, AI-säkerhetföretaget bakom Claude-familjen av språkmodeller, står inför en extraordinär konfrontation med USA:s försvarsdepartement. Enligt rapporter har Pentagon krävt att Anthropic slappnar av sina begränsningar på militära tillämpningar av sin AI-teknik — särskilt förbuden mot användning i autonoma vapen och massövervakning. Anthropic har vägrat, och Försvarsdepartementet har besvarat med hot att åberopa Defense Production Act, en lag från kalla krigets tid som tillåter regeringen att tvinga privata företag att prioritera nationell försvarsmässig produktion.

Företaget har fått tid fram till fredag att följa med. Om Anthropic förblir ovillig kan Pentagon lagligen tvinga företaget att tillhandahålla åtkomst till sina AI-kapaciteter för militära ändamål, vilket skapar en juridisk och etisk konfrontation utan någon tydlig prejudikat i AI-industrin.

Vad Anthropic har Begränsat

Sedan grundandet har Anthropic upprätthållit en acceptabel användningspolicy som uttryckligt förbjuder användningen av dess AI-modeller för autonoma vapen, massövervakning och andra tillämpningar som företaget anser vara oförenliga med dess uppdrag att utveckla AI säker. Dessa begränsningar är inte ovanliga i AI-industrin — de flesta stora AI-företag har liknande policyer — men Anthropic har varit särskilt vocal om sitt åtagande till AI-säkerhet som en grundläggande organisationsprincip.

Företaget grundades av tidigare OpenAI-forskare Dario och Daniela Amodei, delvis på grund av oron om takten och styringen av AI-utveckling. Dess varumärkesidentitet är byggt kring ansvarsfull AI-utveckling, och dess forskning inom AI-justering och tolkbarhet positionerar det som ledare i safety-first-tillvägagångssättet till artificiell intelligens. Att ge vika för militära begränsningar skulle underminera företagets grundläggande berättelse.

Hotet från Defense Production Act

Defense Production Act, undertecknad 1950 under Koreakriget, ger presidenten bred befogenhet att direkt privat industri att prioritera kontrakt och order som anses nödvändiga för nationellt försvar. Det har åberopats periodvis för olika ändamål — senast under COVID-19-pandemin för att tvinga produktion av medicinska förnödenheter — men att använda det för att tvinga ett AI-företag att tillhandahålla sin teknik för militär tillämpning skulle representera en aldrig tidigare skedd tillämpning av lagen.

Juridiska experter är oense om huruvida ett sådant åberopande skulle stå emot rättslig granskning. DPA var utformad för tillverkning av fysiska varor — stål, ammunition, medicinsk utrustning — inte för att tvinga ett mjukvarufirma att ändra sina användarvillkor. Frågan om AI-modellåtkomst utgör en "produkt" som kan beslagtas enligt lagen väcker nya juridiska frågor som domstolar ännu inte har behandlat.

  • Pentagon kräver att Anthropic tar bort begränsningar för AI-användning i autonoma vapen och övervakning
  • Anthropic vägrade, citerade dess grundläggande åtagande till AI-säkerhetsprinciper
  • Försvarsdepartementet hotar att åberopa Defense Production Act före fredagen
  • Juridiska experter ifrågasätter om DPA kan tvinga ett mjukvarufirma att ändra sina policyer
  • Konfrontationen kan fastställa prejudikat för myndighetsbefogenheter över AI-företag

Industriskonsekvenser

Konfrontationen mellan Anthropic och Pentagon skickar shockwave genom AI-industrin som navigerar ett växande komplext förhållande med nationella säkerhetsmyndigheter. Google, Microsoft, Amazon och OpenAI har alla betydande försvarsmässiga kontrakt, och var och en har ställts inför interna och externa påtryckningar om militär tillämpning av sin teknologi. Google drog sig berömt från Project Maven, ett Pentagon AI-program, efter anställdas protester 2018, även om företaget sedan har utökat sitt försvarsmässiga arbete.

Om Defense Production Act framgångsrikt används mot Anthropic skulle det fastställa ett prejudikat att all AI-företag som verkar i USA kunde tvingas att tillhandahålla sin teknik för militär användning oavsett sina egna etiska riktlinjer. Denna utsikt kan kylas AI-säkerhetsforskning, tvinga säkerhetscentrerade företag att flytta utanför USA:s jurisdiktion, eller skapa en bifurkerad industri där företag måste välja mellan regeringskontrakt och säkerhetåtaganden.

Omvänt, om Anthropic framgångsrikt motstånd ordern — antingen genom rättslig utmaning eller politisk förhandling — kan det befästa principen att AI-företag har rätt att sätta etiska gränser för hur deras teknik används, även när kunden är USA:s regering.

Den Bredare Spänningen

Konfrontationen reflekterar en grundläggande spänning som har växande sedan stora språkmodeller och andra avancerade AI-system började demonstrera förmågor med tydlig militär tillämpning. USA-regeringen ser AI-dominans som väsentlig för nationell säkerhet, särskilt i konkurrens med Kina, som häller resurser i militär AI-tillämpning med färre etiska begränsningar. Från Pentagon perspektiv är det att tillåta ett ledande AI-företag att välja bort försvarsmässiga tillämpningar en lyx som nationen inte kan ge sig.

Från Anthropic perspektiv existerar begränsningarna just för att företaget tror att obegränsad militär tillämpning av kraftfulla AI-system skapar katastrofala risker — risker som inte elimineras helt enkelt för att användaren bär en amerikansk uniform. Företagets position är att vissa AI-tillämpningar är för farliga att möjliggöra, oavsett vem som frågar.

Hur denna konfrontation löses kommer sannolikt att forma relationen mellan AI-industrin och USA-regeringen under åren framåt. Det är ett testfall för om AI-säkerhetsåtaganden kan motstå gravitationens drag från nationella säkerhetskrav — och om regeringen använder sina mest kraftfulla juridiska verktyg för att se till att de inte kan.

Denna artikel är baserad på rapportering av The Decoder. Läs originalartikeln.