La scadenza di venerdì e una guerra fredda sull'etica dell'AI

Anthropic, l'azienda di sicurezza AI dietro la famiglia di modelli linguistici Claude, sta affrontando uno scontro straordinario con il Dipartimento della Difesa degli Stati Uniti. Secondo i rapporti, il Pentagono ha chiesto ad Anthropic di allentare i vincoli sulle applicazioni militari della sua tecnologia AI — in particolare i divieti sull'uso in sistemi di armi autonome e sorveglianza di massa. Anthropic ha rifiutato e il Dipartimento della Difesa ha risposto con una minaccia di invocare il Defense Production Act, una legge dell'era della Guerra Fredda che consente al governo di costringere le aziende private a dare priorità alla produzione per la difesa nazionale.

All'azienda è stato dato un termine fino a venerdì per conformarsi. Se Anthropic mantiene il suo rifiuto, il Pentagono potrebbe costringere legalmente l'azienda a fornire l'accesso alle sue capacità AI per scopi militari, configurando uno scontro legale ed etico senza precedenti chiari nell'industria dell'AI.

Ciò che Anthropic ha limitato

Sin dalla sua fondazione, Anthropic ha mantenuto una politica di uso accettabile che vieta esplicitamente l'uso dei suoi modelli AI per armi autonome, sorveglianza di massa e altre applicazioni che l'azienda ritiene incompatibili con la sua missione di sviluppare AI in modo sicuro. Questi vincoli non sono insoliti nel settore dell'AI — la maggior parte delle principali aziende di AI ha politiche simili — ma Anthropic è stata particolarmente vocale nel suo impegno verso la sicurezza dell'AI come principio organizzativo centrale.

L'azienda è stata fondata dai ricercatori di OpenAI Dario e Daniela Amodei, in parte a causa di preoccupazioni riguardanti il ritmo e la governance dello sviluppo dell'AI. La sua identità di marca è costruita attorno allo sviluppo responsabile dell'AI, e la sua ricerca sull'allineamento dell'AI e l'interpretabilità l'ha posizionata come leader nell'approccio della sicurezza al primo posto dell'intelligenza artificiale. Fare un passo indietro sui vincoli militari minerebbe la narrativa fondativa dell'azienda.

La minaccia del Defense Production Act

Il Defense Production Act, firmato nel 1950 durante la guerra di Corea, dà al presidente l'ampia autorità di dirigere le industrie private a dare priorità ai contratti e agli ordini ritenuti necessari per la difesa nazionale. È stato invocato periodicamente per vari scopi — più recentemente durante la pandemia di COVID-19 per costringere la produzione di forniture mediche — ma utilizzarlo per costringere un'azienda AI a fornire la sua tecnologia per applicazioni militari rappresenterebbe un'applicazione senza precedenti della legge.

Gli esperti legali sono divisi su se una tale invocazione resisterebbe al controllo giudiziario. Il DPA è stato progettato per la produzione di beni fisici — acciaio, munizioni, apparecchiature mediche — non per costringere un'azienda di software a modificare i suoi termini di servizio. La questione se l'accesso al modello AI costituisce un "prodotto" che può essere requisito secondo la legge solleva nuove questioni legali che i tribunali non hanno ancora affrontato.

  • Il Pentagono richiede ad Anthropic di rimuovere i vincoli sull'uso dell'AI in armi autonome e sorveglianza
  • Anthropic rifiuta, citando l'impegno fondamentale verso i principi di sicurezza dell'AI
  • Il Dipartimento della Difesa minaccia di invocare il Defense Production Act entro venerdì
  • Gli esperti legali si interrogano se il DPA può costringere un'azienda software a modificare le sue politiche
  • Lo scontro potrebbe stabilire un precedente per l'autorità governativa sull'intera industria dell'AI

Implicazioni industriali

Lo scontro tra Anthropic e il Pentagono invia onde d'urto attraverso un'industria dell'AI che sta navigando una relazione sempre più complessa con le agenzie di sicurezza nazionale. Google, Microsoft, Amazon e OpenAI hanno tutti significativi contratti di difesa e ciascuno ha affrontato pressioni interne ed esterne sulle applicazioni militari della loro tecnologia. Google si è famosamente ritirato da Project Maven, un programma AI del Pentagono, dopo le proteste dei dipendenti nel 2018, anche se l'azienda ha da allora ampliato il suo lavoro sulla difesa.

Se il Defense Production Act fosse invocato con successo contro Anthropic, creerebbe un precedente per cui qualsiasi azienda AI che opera negli Stati Uniti potrebbe essere costretta a fornire la sua tecnologia per scopi militari indipendentemente dalle sue linee guida etiche. Quella prospettiva potrebbe raffreddare la ricerca sulla sicurezza dell'AI, spingere le aziende focalizzate sulla sicurezza a trasferirsi al di fuori della giurisdizione statunitense, o creare un'industria biforcata in cui le aziende devono scegliere tra contratti governativi e impegni per la sicurezza.

Al contrario, se Anthropic resistesse con successo all'ordine — sia attraverso un ricorso legale che una trattativa politica — potrebbe rafforzare il principio secondo il quale le aziende AI hanno il diritto di stabilire confini etici su come viene utilizzata la loro tecnologia, anche quando il cliente è il governo degli Stati Uniti.

La tensione più ampia

Lo scontro riflette una tensione fondamentale che è cresciuta da quando i modelli linguistici di grandi dimensioni e altri sistemi AI avanzati hanno iniziato a dimostrare capacità con chiare applicazioni militari. Il governo degli Stati Uniti considera il dominio dell'AI essenziale per la sicurezza nazionale, in particolare nella competizione con la Cina, che sta versando risorse nelle applicazioni militari dell'AI con meno vincoli etici. Dal punto di vista del Pentagono, consentire a un'azienda AI principale di escludere le applicazioni di difesa è un lusso che la nazione non può permettersi.

Dal punto di vista di Anthropic, i vincoli esistono proprio perché l'azienda ritiene che l'applicazione militare illimitata di potenti sistemi AI pone rischi catastrofici — rischi che non vengono eliminati semplicemente perché l'utente indossa un'uniforme americana. La posizione dell'azienda è che alcune applicazioni dell'AI sono troppo pericolose da abilitare, indipendentemente da chi le richiede.

Il modo in cui questo scontro si risolve probabilmente modellerà la relazione tra l'industria dell'AI e il governo degli Stati Uniti per gli anni a venire. È un caso di test per sapere se gli impegni per la sicurezza dell'AI possono resistere alla gravità inesorabile degli imperativi della sicurezza nazionale — e se il governo utilizzerà i suoi strumenti legali più potenti per garantire che non possano.

Questo articolo si basa sul rapporto di The Decoder. Leggi l'articolo originale.