Ett kalkryligt verktyg för en ny teknologisk era

Förhållandet mellan det amerikanska försvarsdepartementet och ett av världens ledande AI-företag har nått en brytpunkt. Försvarsdepartementets Pete Hegseth har utfärdat ett klart ultimatum till Anthropic: gå med på att tillåta obegränsad militär användning av er AI-teknik före fredag, eller ställs inför uteslutning från Pentagons leveranskedje.

Hotet kom under ett ansträngt möte i Washington på tisdagen, där Hegseth kallade Anthropic VD Dario Amodei för det som källor beskrev som en konfrontativ diskussion om företagets vägrande att ge militären obegränsad åtkomst till sina AI-modeller för klassificerade operationer. Bland de mest kontroversiella kraven var bestämmelser för inhemska övervakningsförmågor och dödliga autonoma uppdrag utan direkt mänsklig övervakning.

Kanske mest slående var Hegseth invokering av Defence Production Act, en lag från kalla kriget som ger presidenten omfattande befogenhet att tvinga inhemska industrier att tjäna nationalförsvaret. Ursprungligen utformad för att säkerställa att fabriker kunde omvandlas till krigstidsproduktion, har lagen aldrig använts för att tvinga ett AI-företag att överge sin teknik — vilket gör detta hot exempel att föra utan precedens i historien för amerikansk teknikpolitik.

Anthropics säkerhetsfokuserade ställning under press

Anthropic har länge utmärkt sig i AI-industrin genom sin betoning på säkerhetsforskning och ansvarsfull distribution. Företaget, grundat av före detta OpenAI-forskarna Dario och Daniela Amodei, har byggt sitt varumärke kring konceptet konstitutionell AI — system utformade med inbyggda etiska skyddsmekanismer för att förhindra missbruk.

Denna säkerhetsfokuserad filosofi har nu placerat företaget på kollisionskurs med Pentagons växande aptit för AI-integration i militär verksamhet. Medan Anthropic inte motsatt sig alla försvarsavtal har företaget dragit gränser kring vissa tillämpningar, särskilt de som inbegriper autonomt dödligt våld utan betydande mänsklig kontroll och massövervakning riktad mot inhemsk befolkning.

Företagets ställning återspeglar en bredare debatt i AI-industrin om var man ska dra etiska gränser. Andra större AI-företag, inklusive OpenAI och Google, har även hanterat militära avtal, men flertalet har varit mer villiga att förhandla om villkoren för samarbete med försvarsmyndigheter. Anthropics hårdare linje har gjort det till en blixtledare i Washingtons allt aggressivare satsning för att beväpna artificiell intelligens.

Defence Production Act: Ett ovanligt vapen

Defence Production Act undertecknades 1950, under de inledande stadierna av Koreakriget. Dess ursprungliga syfte var enkelt: se till att den amerikanska industrin snabbt kunde omorientera produktionen för att stödja militära behov. Under decennierna har den påberopats för allt från halvledarproduktion till medicinsk försörjningskedja under pandemier.

Men att tillämpa DPA för att tvinga ett AI-företag att ge åtkomst till sina modeller representerar en fundamentalt annorlunda typ av ingripande. Till skillnad från fysiska varor är AI-modeller immateriell egendom vars möjligheter och risker är djupt sammanflätade. Att tvinga ett företag att ta bort säkerhetsskydd från sin teknik väcker frågor långt bortom traditionella upphandlingstvister.

Juridiska experter har noterat att sådan användning av DPA sannolikt skulle mötas med omedelbar rättslig utmaning. Lagen utformades för produktions- och försörjningskedjeprioriteter, inte för att åsidosätta ett företags interna säkerhetspolicy om hur dess teknik implementeras. Alla försök att åberopa den kan slå fast ett prejudikat med långtgående konsekvenser för hela tekniksektorn.

Reaktioner från industrin och större konsekvenser

Konfrontationen har skickat chockvågor genom Silicon Valley. Andra AI-företag iakttar noga, medveten om att resultatet kan fastställa nya normer för hur regeringen interagerar med den privata AI-sektorn. Flera branschledare har privat uttryckt oro för att att ge vika för Pentagons krav kan underminera säkerhetsforskning som många anser vara väsentlig för att förhindra katastrofal AI-missbruk.

Kongressens svar har varit blandade. Falkar i utskotten för väpnade tjänster har stött Hegseth position, argumenterande att nationell säkerhet måste gå före företagssäkerhet. Andra, särskilt medlemmar av Senatens handelsutsaupp, varnade att härdhandskarna på AI-företag kan driva talang och innovation utomlands, vilket till slut försvagar USA:s konkurrensmässiga ställning.

Europeiska unionen har också tagitNotis. EU-tjänstemän har pekat på konfrontationen som bevis som stöder sin egen mer regulatorisk strategi för AI-styrning, med en högre diplomat som noterade att episoden understryker riskerna med att lämna AI-säkerhetsbeslut till politiska tillsattas nyck.

Vad händer nu

Fredagens deadline närmar sig. Om Anthropic vägrar att följa, kan Hegseth genomföra sitt hot att ta bort företaget från försvarsupphandlingskanaler, strypa en betydande intäktsström och skicka ett budskap till andra AI-företag. Defence Production Act alternativet förblir på bordet men skulle representera en mycket mer dramatisk eskalering med osäkra juridiska resultat.

För Anthropic är kalkylen existentiell. Att kapitulera kan undergräva säkerhetsprinciper som definierar dess företagsidentitet och urholka förtroendet från anställda som anslutit sig helt på grund av företagets säkerhetsbeslut. Motstånd kan kosta företaget inte bara statliga avtal utan också politisk goodwill på en tid då AI-reglering aktivt formas i Washington.

Oavsett utfallet har konfrontationen gjort en sak tydlig: hämndemånaden mellan AI-företag och regering är över. Eran med hövlig samarbete kring AI-politik ger plats för hårt förhandlande där insatserna mäts inte i kvartalsvinster utan i grundläggande frågor om hur den mäktigaste teknologin i människans historia kommer att styras.

Denna artikel är baserad på rapportering av Ars Technica. Läs originalartikeln.