Un Termen Limită Vineri și o Război Rece Over AI Ethics
Anthropic, compania de siguranță AI din spatele familiei de modele lingvistice Claude, se confruntă cu o confruntare extraordinară cu Departamentul Apărării al Statelor Unite. Conform rapoartelor, Pentagon a cerut ca Anthropic să relaxeze restricțiile sale privind aplicațiile militare ale tehnologiei sale AI — în special prohibițiile asupra utilizării în sisteme de arme autonome și supraveghere în masă. Anthropic a refuzat, iar Departamentul Apărării a răspuns cu o amenință de a invoca Legea Producției de Apărare, o lege din epoca Război Rece care permite guvernului să constrângă companiile private să prioritizeze producția de apărare națională.
Companiei i-a fost dat termen până vineri pentru a se conforma. Dacă Anthropic continuă refuzul, Pentagon ar putea forța legal compania să furnizeze acces la capacitățile sale AI pentru scopuri militare, creând o confruntare legală și etică fără precedent clar în industria AI.
Ce a Restricționat Anthropic
De la înființarea sa, Anthropic menține o politică de utilizare acceptabilă care interzice în mod explicit utilizarea modelelor sale AI pentru arme autonome, supraveghere în masă și alte aplicații pe care compania le consideră incompatibile cu misiunea sa de a dezvolta AI în siguranță. Aceste restricții nu sunt neobișnuite în industria AI — cea mai mare parte a companiilor AI majore au politici similare — dar Anthropic a fost deosebit de vocală cu privire la angajamentul ei față de siguranța AI ca principiu organizațional fundamental.
Compania a fost fondată de foștii cercetători OpenAI Dario și Daniela Amodei, în parte din cauza preocupărilor cu privire la ritmul și guvernanța dezvoltării AI. Identitatea sa de marcă este construită în jurul dezvoltării responsabile a AI, iar cercetarea sa în domeniul alinerii și interpretabilității AI o poziționează ca lider în abordarea safety-first a inteligenței artificiale. A renunța la restricțiile militare ar submina povestea fundamentală a companiei.
Amenința Legii Producției de Apărare
Legea Producției de Apărare, semnată în 1950 în timpul Razboiului din Coreea, acordă președintelui o autoritate largă pentru a direcționa industria privată să prioritizeze contractele și comenzile considerate necesare pentru apărarea națională. A fost invocată periodic pentru diverse scopuri — cel mai recent în timpul pandemiei COVID-19 pentru a forța producția de echipamente medicale — dar utilizarea ei pentru a forța o companie AI să furnizeze tehnologia sa pentru aplicații militare ar reprezenta o aplicație fără precedent a legii.
Experții legali sunt împărțiți cu privire la dacă o astfel de invocație ar rezista examinării judiciare. DPA a fost conceput pentru fabricarea de bunuri fizice — oțel, muni, echipamente medicale — nu pentru a constrânge o companie de software să-și modifice condițiile de serviciu. Întrebarea dacă accesul la modelele AI constituie un "produs" care poate fi confiscat sub lege ridică întrebări juridice noi pe care instanțele nu le-au abordat încă.
- Pentagon cere Anthropic să elimine restricțiile pe utilizarea AI în arme autonome și supraveghere
- Anthropic a refuzat, citând angajamentul fundamental al acesteia pe principiile siguranței AI
- Departamentul Apărării amenință invocarea Legii Producției de Apărare până vineri
- Experții legali se întreabă dacă DPA poate constrânge o companie de software să schimbe politicile sale
- Confruntarea ar putea stabili precedent pentru autoritatea guvernamentală asupra companiilor AI
Implicații Industriale
Confruntarea dintre Anthropic și Pentagon trimite șocuri prin industria AI care a navigat o relație din ce în ce mai complexă cu agențiile de securitate națională. Google, Microsoft, Amazon și OpenAI au toate contracte de apărare semnificative, iar fiecare s-a confruntat cu presiune internă și externă privind aplicațiile militare ale tehnologiei sale. Google a fost celebră că s-a retras din Project Maven, un program Pentagon AI, după proteste ale angajaților în 2018, deși compania și-a extins de atunci munca de apărare.
Dacă Legea Producției de Apărare este utilizată cu succes împotriva Anthropic, ar stabili un precedent că orice companie AI care funcționează în Statele Unite ar putea fi forțată să furnizeze tehnologia sa pentru scopuri militare indiferent de propriile sale orientări etice. Această perspectivă ar putea opri cercetarea siguranței AI, ar putea împinge companiile concentrate pe siguranță să se mute în afara jurisdicției SUA, sau ar putea crea o industrie bifurcată în care companiile trebuie să aleagă între contracte guvernamentale și angajamente pe siguranță.
Dimpotrivă, dacă Anthropic rezistă cu succes ordinii — fie printr-o contestație legală, fie printr-o negociere politică — ar putea consolida principiul că companiile AI au dreptul de a stabili granițe etice cu privire la modul în care este utilizată tehnologia lor, chiar și atunci când clientul este guvernul SUA.
Tensiunea Mai Largă
Confruntarea reflectă o tensiune fundamentală care s-a construit de când modelele lingvistice mari și alte sisteme AI avansate au început să demonstreze capabilități cu aplicații militare clare. Guvernul SUA vede dominația AI ca fiind esențială pentru securitatea națională, în special în competiția cu China, care pune resurse în aplicații militare AI cu mai puține constrângeri etice. Din perspectiva Pentagon, a permite unei companii AI de top să se retragă din aplicații de apărare este un lux pe care națiunea nu-și poate permite.
Din perspectiva Anthropic, restricțiile există tocmai pentru că compania crede că aplicația militară neconstrânsă a sistemelor AI puternice creează riscuri catastrofale — riscuri care nu sunt eliminate pur și simplu pentru că utilizatorul poartă un uniform american. Poziția companiei este că unele aplicații AI sunt prea periculoase pentru a fi activate, indiferent de cine cere.
Modul în care se va rezolva această confruntare va determina probabil relația dintre industria AI și guvernul SUA pentru ani de zile. Este un caz de testare pentru a vedea dacă angajamentele privind siguranța AI pot rezista la tragerea gravitațională a imperativelor de securitate națională — și dacă guvernul va folosi cele mai puternice instrumente juridice ale sale pentru a se asigura că nu pot.
Acest articol se bazează pe raportarea The Decoder. Citiți articolul original.

