De vrijdagdeadline en een Koude Oorlog over AI-ethiek
Anthropic, het AI-veiligheidsbedrijf achter de Claude-modellenreeks, staat voor een buitengewone confrontatie met het Amerikaanse Ministerie van Defensie. Volgens rapporten heeft het Pentagon Anthropic gevraagd om beperkingen op militaire toepassingen van zijn AI-technologie te versoepelen — specifiek zijn verboden op gebruik in autonome wapensystemen en massasurveillance. Anthropic heeft geweigerd en het Ministerie van Defensie heeft met een bedreiging gereageerd om de Defense Production Act in te roepen, een Koude-Oorlogswet die de regering toestemming geeft particuliere bedrijven te verplichten nationale defensieproductie prioriteit te geven.
Het bedrijf is gegeven tot vrijdag om in te stemmen. Als Anthropic zijn weigering aanhoudt, kan het Pentagon het bedrijf wettelijk verplichten toegang tot zijn AI-mogelijkheden voor militaire doeleinden te verlenen, wat een juridische en ethische confrontatie creëert zonder duidelijke precedent in de AI-industrie.
Wat Anthropic heeft beperkt
Sinds de oprichting handhaaft Anthropic een acceptabel gebruiksbeleid dat expliciet het gebruik van zijn AI-modellen voor autonome wapens, massasurveillance en andere toepassingen verbiedt die het bedrijf onverenigbaar acht met zijn missie AI veilig te ontwikkelen. Deze beperkingen zijn niet ongebruikelijk in de AI-industrie — de meeste grote AI-bedrijven hebben vergelijkbare beleidsregels — maar Anthropic is bijzonder vocaal geweest over zijn toezegging aan AI-veiligheid als kernorganisatieprincipe.
Het bedrijf is opgericht door voormalige OpenAI-onderzoekers Dario en Daniela Amodei, deels vanwege zorgen over het tempo en de governance van AI-ontwikkeling. De merkidentiteit ervan is gebouwd rond verantwoorde AI-ontwikkeling, en zijn onderzoek naar AI-alignment en interpreteerbaarheid heeft het gepositioneerd als leider in de safety-first benadering van kunstmatige intelligentie. Terugkrabbelen op militaire beperkingen zou het grondverhaal van het bedrijf ondermijnen.
De bedreiging van de Defense Production Act
De Defense Production Act, ondertekend in 1950 tijdens de Koreaanse Oorlog, geeft de president brede autoriteit om particuliere industrie te bevelen contracten en orders die nodig worden geacht voor nationale defensie prioriteit te geven. Het is periodiek ingeroepen voor verschillende doeleinden — meest recent tijdens de COVID-19-pandemie om productie van medische voorraden af te dwingen — maar het gebruiken om een AI-bedrijf te dwingen zijn technologie voor militaire toepassingen te verstrekken zou een ongekend gebruik van de wet vertegenwoordigen.
Juridische experts zijn verdeeld over of zo'n inroeping zou standhouden onder gerechtelijke toetsing. De DPA was ontworpen voor fysieke goederenproductie — staal, munitie, medische apparatuur — niet om een softwarebedrijf zijn servicevoorwaarden te dwingen wijzigen. De vraag of AI-modeltoegang een "product" vormt dat onder de wet kan worden inbeslaggenomen, roept nieuwe juridische vragen op die rechtbanken nog niet hebben behandeld.
- Pentagon vraagt Anthropic om beperkingen op AI-gebruik in autonome wapens en surveillance te verwijderen
- Anthropic weigert en roept fundamentele toezegging aan AI-veiligheidsprincipes
- Ministerie van Defensie dreigt de Defense Production Act in te roepen tegen vrijdag
- Juridische experts discussiëren of de DPA een softwarebedrijf kan dwingen beleid te wijzigen
- Het conflict zou precedent kunnen stellen voor overheidsautoriteit over de gehele AI-industrie
Implicaties voor de industrie
De confrontatie tussen Anthropic en het Pentagon zendt schokgolven door een AI-industrie die een steeds complexere relatie met nationale veiligheidsinstanties navigeert. Google, Microsoft, Amazon en OpenAI hebben alle aanzienlijke defensiecontracten en elk heeft interne en externe druk over militaire toepassingen van hun technologie ondervonden. Google trok zich beroemd terug uit Project Maven, een Pentagon AI-programma, na werknemersprotesten in 2018, hoewel het bedrijf sindsdien zijn defensiewerk heeft uitgebreid.
Als de Defense Production Act met succes tegen Anthropic wordt ingeroepen, zou het een precedent stellen dat elk AI-bedrijf dat in de Verenigde Staten opereert zou kunnen worden gedwongen zijn technologie voor militaire doeleinden ter beschikking te stellen ongeacht zijn eigen ethische richtlijnen. Die vooruitzicht zou AI-veiligheidsonderzoek kunnen afkoelen, bedrijven gericht op veiligheid dwingen buiten Amerikaanse jurisdictie te verhuizen, of een gesplitste industrie creëren waarin bedrijven moeten kiezen tussen regeringscontracten en veiligheidstoezeggingen.
Omgekeerd, als Anthropic de order succesvol bestrijdt — hetzij door juridische uitdaging hetzij door politieke onderhandeling — zou het het principe kunnen versterken dat AI-bedrijven het recht hebben ethische grenzen in te stellen over hoe hun technologie wordt gebruikt, zelfs wanneer de klant de Amerikaanse regering is.
De bredere spanning
Het conflict weerspiegelt een fundamentele spanning die is opgebouwd sinds grote taalmodellen en andere geavanceerde AI-systemen zijn gaan aantonen van vermogen met duidelijke militaire toepassingen. De Amerikaanse regering beschouwt AI-dominantie als essentieel voor nationale veiligheid, vooral in competitie met China, dat middelen in militaire AI-toepassingen met minder ethische beperkingen pompt. Vanuit het Pentagon-perspectief is het toestaan dat een leidend AI-bedrijf zich uit defensietoepassingen terugtrekt een luxe die de natie zich niet kan permitteren.
Vanuit Anthropic's perspectief bestaan de beperkingen precies omdat het bedrijf gelooft dat onbeperkte militaire toepassing van krachtige AI-systemen catastrofale risico's stelt — risico's die niet eenvoudigweg verdwijnen omdat de gebruiker een Amerikaans uniform draagt. De positie van het bedrijf is dat sommige toepassingen van AI te gevaarlijk zijn om in te schakelen, ongeacht wie erom vraagt.
Hoe dit conflict wordt opgelost zal waarschijnlijk de relatie tussen de AI-industrie en de Amerikaanse regering voor jaren bepalen. Het is een testcase voor of AI-veiligheidstoezeggingen stand kunnen houden tegen de zwaartekracht van nationale veiligheidsimperatieven — en of de regering zijn meest krachtige juridische instrumenten zal gebruiken om zeker te stellen dat die niet kunnen.
Dit artikel is gebaseerd op rapportage van The Decoder. Lees het originele artikel.



