Un instrument al Războiului Rece pentru o nouă epocă tehnologică
Relația dintre Ministerul Apărării al SUA și una dintre companiile de inteligență artificială de top din lume a atins punctul de rupere. Secretarul Apărării Pete Hegseth a pus o ultimă condiție clară Anthropic: acceptați să permiteți utilizarea militară nelimitată a tehnologiei AI a dvs. până vineri, sau confruntați-vă cu excluderea din lanțul de aprovizionare al Pentagonului.
Amenințarea a venit în cursul unei ședințe tensionate la Washington marți, în care Hegseth l-a convocat pe CEO-ul Anthropic Dario Amodei pentru ceea ce sursele au descris ca o discuție conflictuală despre refuzul companiei de a acorda militarilor acces nelimitat la modelele sale AI pentru operațiuni clasificate. Printre cererile cel mai controversate au fost prevederi privind capacități de supraveghere internă și misiuni autonome letale fără control direct uman.
Poate cel mai izbitor a fost invocarea de către Hegseth a Legii privind Producția de Apărare, un statut din perioada Războiului Rece care acordă președintelui autoritate cuprinzătoare pentru a forța industriile interne să servească prioritățile apărării naționale. Proiectat inițial pentru a asigura că fabricile ar putea schimba producția către producția de timp de război, legea nu a fost niciodată folosită pentru a forța o companie AI să-și predea tehnologia — ceea ce face această amenință fără precedent în istoria politicii tehnologiei americane.
Poziția axată pe siguranță a Anthropic sub presiune
Anthropic s-a remarcat de mult timp în industria AI prin accentul pus pe cercetarea siguranței și implementarea responsabilă. Compania, fondată de foștii cercetători OpenAI Dario și Daniela Amodei, și-a construit marca în jurul conceptului de AI constituțional — sisteme proiectate cu garanții etice încorporate destinate să prevină abuzurile.
Această filozofie de prioritate a siguranței a pus compania pe curs de coliziune cu apetitul în expansiune al Pentagonului pentru integrarea AI în întreaga operații militare. Deși Anthropic nu s-a opus tuturor contractelor de apărare, compania a trasat linii ferme în jurul anumitor aplicații, în special a celor care implică forță autonomă letală fără control uman semnificativ și programe de supraveghere în masă vizând populația internă.
Poziția companiei reflectă un dezbatere mai largă în industria AI cu privire la unde să traseze granițele etice. Alte companii majore de AI, inclusiv OpenAI și Google, au luptat și ele cu contracte militare, deși majoritatea au fost mai dispuse să negocieze termenii angajamentului cu agențiile de apărare. Poziția mai dură a Anthropic a făcut-o o țintă în împingerea din ce în ce mai agresivă a Washingtonului pentru a înarma inteligența artificială.
Legea privind Producția de Apărare: o armă neobișnuită
Legea privind Producția de Apărare a fost semnată în 1950, în stadiile inițiale ale Războiului din Coreea. Scopul său original era simplu: asigurați-vă că industria americană ar putea schimba rapid producția pentru a sprijini nevoile militare. De-a lungul deceniilor, a fost invocată pentru tot ceea ce merge de la fabricarea semiconductorilor până la lanțuri de aprovizionare medicală pandemice.
Dar aplicarea DPA pentru a forța o companie AI să acorde acces la modelele sale reprezintă un tip fundamental diferit de intervenție. Spre deosebire de bunurile fizice, modelele AI sunt proprietate intelectuală ale cărei capacități și riscuri sunt profund împletite. A forța o companie să elimine garanții de siguranță din tehnologia sa ridică întrebări care merg departe dincolo de disputele tradiționale de achiziții.
Experții juridici au observat că o astfel de utilizare a DPA s-ar confrunta probabil cu contestații judiciare imediate. Legea a fost concepută pentru priorități de producție și lanț de aprovizionare, nu pentru a anula politicile interne de siguranță ale unei companii cu privire la modul în care-și implementează tehnologia. Orice tentativă de a o invoca ar putea stabili un precedent cu implicații de amploare pentru întregul sector tehnologic.
Reacții din industrie și implicații mai largi
Confruntarea a trimis șocuri prin Silicon Valley. Alte companii AI urmăresc de aproape, conștiente că rezultatul ar putea stabili noi standarde pentru modul în care guvernul interacționează cu sectorul AI privat. Mulți lideri industriali au exprimat în privat ingrijorare că cedarea exigențelor Pentagonului ar putea submina cercetarea siguranței pe care mulți o consideră esențială pentru a preveni utilizarea catastrofală a AI.
Răspunsurile Congresului au fost mixte. Falcii din comisiile Serviciilor Armate au susținut poziția lui Hegseth, argumentând că securitatea națională trebuie să aibă precedență asupra preferințelor de siguranță corporative. Alții, în special membrii Comisiei de Comerț a Senatului, au avertizat că presiunea asupra companiilor AI ar putea împinge talentul și inovația în străinătate, în cele din urmă slăbind poziția competitivă a Americii.
Uniunea Europeană a luat de asemenea seama. Oficialii UE au arătat la confruntare ca dovadă care sprijină propria lor abordare mai reglementară a guvernanței AI, cu un diplomat senior observând că episodul subliniază riscurile de a lăsa deciziile de siguranță AI la voia unor politicieni numiți.
Ce se întâmplă în continuare
Termenul de vineri se apropie. Dacă Anthropic refuză să se conformeze, Hegseth ar putea urma amenințarea sa de a elimina compania din canalele de aprovizionare pentru apărare, tăiind un flux semnificativ de venituri și trimitând un mesaj altor companii AI. Opțiunea Legii privind Producția de Apărare rămâne pe masă, dar ar reprezenta o escaladare mult mai dramatică cu rezultate juridice incerte.
Pentru Anthropic, calculul este existențial. Capitularea ar putea submina principiile de siguranță care definesc identitatea corporativă a acesteia și eroda încrederea angajaților care s-au alăturat special datorită angajamentelor de siguranță ale companiei. Rezistența ar putea costa companiei nu doar contracte guvernamentale, ci și bunăvoință politică la un moment când reglementarea AI se formează activ la Washington.
Indiferent de rezultat, confruntarea a clarificat un lucru: luna de miere dintre companiile AI și guvern s-a încheiat. Era colaborării politicoase la politica AI cedează locului negocierilor brutale în care miza se măsoară nu în câștiguri trimestriale, ci în întrebări fundamentale despre cum va fi guvernată cea mai puternică tehnologie din istoria umană.
Acest articol se bazează pe rapoarte de Ars Technica. Citiți articolul original.

