Een Koude Oorlog-instrument voor een nieuw technologisch tijdperk

De relatie tussen het Amerikaanse Ministerie van Defensie en een van 's werelds toonaangevende kunstmatige intelligentiebedrijven is op een breekpunt aangekomen. Defensieminister Pete Hegseth heeft een scherp ultimatum aan Anthropic gesteld: ga akkoord met onbeperkt militair gebruik van de AI-technologie tegen vrijdag, of word volledig uit de Pentagonvoorraadbevoorrading verwijderd.

De dreiging kwam tijdens een gespannen bijeenkomst in Washington op dinsdag, waar Hegseth Anthropic-CEO Dario Amodei ontbood voor wat bronnen beschreven als een confrontationeel gesprek over de weigering van het bedrijf om het leger onbeperkte toegang tot zijn AI-modellen voor geclassificeerde operaties te verlenen. Onder de meest omstreden eisen waren bepalingen voor interne bewakingsmogelijkheden en dodelijke autonome missies zonder direct menselijk toezicht.

Misschien wel het meest opvallende was Hegseth's aanroeping van de Defense Production Act, een statuut uit de Koude Oorlog dat de president brede autoriteit geeft om binnenlandse industrieën te verplichten nationale defensieprioriteiten te dienen. Oorspronkelijk ontworpen om fabrieken in staat te stellen om te draaien naar oorlogsproductie, is de wet nooit gebruikt om een AI-bedrijf zijn technologie af te nemen — wat deze bedreiging ongekend maakt in de geschiedenis van het Amerikaanse technologiebeleid.

Anthropics veiligheidsprioritaire houding onder druk

Anthropic heeft zich lang onderscheiden in de AI-industrie door de nadruk op veiligheidsonderzoek en verantwoorde implementatie. Het bedrijf, opgericht door voormalige OpenAI-onderzoekers Dario en Daniela Amodei, heeft zijn merk gebouwd rond het concept van grondwettelijke AI — systemen ontworpen met ingebouwde ethische waarborgen bedoeld om misbruik te voorkomen.

Die veiligheidsprioritaire filosofie heeft het bedrijf nu op een botskoers met het toenemende verlangen van het Pentagon voor AI-integratie in militaire operaties gezet. Hoewel Anthropic niet tegen alle defensiecontracten heeft geprotesteerd, heeft het duidelijke grenzen gesteld rond bepaalde toepassingen, met name die waarbij autonome dodelijke kracht zonder betekenisvol menselijk toezicht en massale bewakingsprogramma's gericht op binnenlandse bevolkingen betrokken zijn.

De positie van het bedrijf weerspiegelt een breder debat binnen de AI-industrie over waar ethische grenzen moeten worden getrokken. Andere grote AI-bedrijven, waaronder OpenAI en Google, hebben ook met militaire contracten worstelen, hoewel de meeste meer bereid waren om voorwaarden van engagement met defensie-agentschappen te onderhandelen. Anthropic's hardere lijn heeft het een bliksemafleider gemaakt in Washington's steeds agressievere duw om kunstmatige intelligentie te wapenen.

De Defense Production Act: Een ongewoon wapen

De Defense Production Act werd in 1950 ondertekend, tijdens de vroege stadia van de Koreaanse Oorlog. Het originele doel was eenvoudig: ervoor zorgen dat de Amerikaanse industrie snel de productie kon verschuiven om militaire behoeften te ondersteunen. In de afgelopen decennia is het gebruikt voor alles van halfgeleiderproductie tot medische voorraadbevoorrading van pandemieën.

Maar de DPA toepassen om een AI-bedrijf te verplichten toegang tot zijn modellen te verlenen, vertegenwoordigt een fundamenteel ander soort interventie. In tegenstelling tot fysieke goederen, zijn AI-modellen intellectueel eigendom waarvan de mogelijkheden en risico's diep verstrengeld zijn. Het bedrijf dwingen om veiligheidswaarbogen uit zijn technologie te verwijderen, stelt vragen die veel verder gaan dan traditionele inkoopgeschillen.

Juridische experts hebben opgemerkt dat een dergelijk gebruik van de DPA waarschijnlijk onmiddellijke gerechtelijke uitdagingen zou ondergaan. De wet was ontworpen voor productie- en voorraadbevoerrading prioriteiten, niet voor het overschrijven van interne veiligheidsbeleid van een bedrijf over hoe de technologie wordt geïmplementeerd. Elke poging om het in te roepen, zou een precedent kunnen stellen met verreikende gevolgen voor de gehele technologiesector.

Industriereacties en bredere gevolgen

De impasse heeft schokgolven door Silicon Valley gestuurd. Andere AI-bedrijven kijken nauw toe, zich ervan bewust dat het resultaat nieuwe normen voor de interactie van de regering met de particuliere AI-sector zou kunnen vaststellen. Verschillende industrieleiders hebben zich privé bezorgd uitgesproken dat het voldoen aan de eisen van het Pentagon het veiligheidsonderzoek zou kunnen ondermijnen dat velen als essentieel beschouwen om catastrofaal AI-misbruik te voorkomen.

Reacties van het Congres waren gemengd. Falken in de commissies voor Gewapende Diensten hebben Hegseth's positie ondersteund, stellende dat nationale veiligheid voorrang moet krijgen op veiligheidsvoorkeuren van bedrijven. Anderen, met name leden van de Senaatscommissie Handel, hebben gewaarschuwd dat het onder druk zetten van AI-bedrijven talent en innovatie naar het buitenland zou kunnen drijven, wat uiteindelijk Amerika's concurrentieve positie zou verzwakken.

De Europese Unie heeft ook aandacht besteed. EU-functionarissen hebben naar de confrontatie gewezen als bewijs ter ondersteuning van hun eigen meer regelgevende benadering van AI-bestuur, waarbij een senior diplomaat opmerkt dat het incident de risico's onderstreept van het laten van AI-veiligheidsbeslissingen aan de grillen van politieke benoemingen.

Wat gebeurt er nu

De vrijdagdeadline loemt groot op. Als Anthropic weigert in te stemmen, zou Hegseth zijn bedreiging kunnen uitvoeren om het bedrijf uit defensie inkoopkanalen te verwijderen, een significante inkomstenstream af te snijden en een boodschap aan andere AI-bedrijven te sturen. De Defense Production Act-optie blijft op tafel maar zou een veel meer dramatische escalatie vertegenwoordigen met onzekere juridische uitkomsten.

Voor Anthropic is de berekening existentieel. Capitulatie zou de veiligheidsprincipes die de bedrijfsidentiteit definiëren, kunnen ondermijnen en het vertrouwen van werknemers die specifiek vanwege de ethische verbintenissen van het bedrijf zijn gebleven, kunnen aantasten. Weerstand zou het bedrijf niet alleen regeringscontracten maar ook politieke goodwill kunnen kosten op een moment dat AI-regulering actief in Washington wordt gevormd.

Wat de uitkomst ook is, de confrontatie heeft één ding duidelijk gemaakt: de huwelijksreis tussen AI-bedrijven en de regering is voorbij. Het tijdperk van beleefde samenwerking aan AI-beleid maakt plaats voor onderhandelingen op harde hand waarbij de inzetten niet worden gemeten in kwartaalwinsten, maar in de fundamentele vragen van hoe de machtigste technologie in de menselijke geschiedenis zal worden geregeerd.

Dit artikel is gebaseerd op verslaglegging door Ars Technica. Lees het originele artikel.