Uno Strumento della Guerra Fredda per un'Era Tecnologica Nuova
La relazione tra il Dipartimento della Difesa degli Stati Uniti e una delle principali società di intelligenza artificiale del mondo ha raggiunto il punto di rottura. Il Segretario della Difesa Pete Hegseth ha lanciato un ultimatum netto ad Anthropic: accettare di consentire l'uso militare illimitato della sua tecnologia di IA entro venerdì, oppure affrontare l'espulsione dalla catena di approvvigionamento del Pentagono completamente.
La minaccia è arrivata durante un incontro teso a Washington martedì, dove Hegseth ha convocato il CEO di Anthropic Dario Amodei per quello che le fonti hanno descritto come una discussione scontro sulla rifiuto della società di concedere all'esercito l'accesso illimitato ai suoi modelli di IA per operazioni classificate. Tra le richieste più controverse c'erano disposizioni per le capacità di sorveglianza domestica e le missioni autonome letali senza supervisione umana diretta.
Forse ancora più sorprendente è stata l'invocazione di Hegseth del Defense Production Act, una norma dell'era della Guerra Fredda che concede al presidente l'autorità ampia di costringere le industrie nazionali a servire le priorità della difesa nazionale. Originariamente progettato per garantire che le fabbriche potessero passare alla produzione di guerra, la legge non è mai stata utilizzata per forzare un'azienda di IA a consegnare la sua tecnologia, rendendo questa minaccia senza precedenti nella storia della politica tecnologica americana.
La Posizione di Anthropic Incentrata sulla Sicurezza Sotto Pressione
Anthropic si è sempre distinta nel settore dell'IA attraverso l'enfasi sulla ricerca sulla sicurezza e il dispiegamento responsabile. L'azienda, fondata dai ricercatori di OpenAI Dario e Daniela Amodei, ha costruito il suo marchio intorno al concetto di IA costituzionale, sistemi progettati con salvaguardie etiche integrate pensate per prevenire l'abuso.
Quella filosofia incentrata sulla sicurezza ha ora messo l'azienda in rotta di collisione con l'appetito crescente del Pentagono per l'integrazione dell'IA nelle operazioni militari. Sebbene Anthropic non si sia opposta a tutti i contratti di difesa, ha tracciato linee ferme intorno a determinate applicazioni, in particolare quelle che coinvolgono la forza letale autonoma senza un controllo umano significativo e i programmi di sorveglianza di massa che mirano alle popolazioni domestiche.
La posizione dell'azienda riflette un dibattito più ampio nel settore dell'IA su dove tracciare i confini etici. Altre principali aziende di IA, incluso OpenAI e Google, hanno anche affrontato i contratti militari, sebbene la maggior parte sia stata più disponibile a negoziare i termini di impegno con le agenzie di difesa. La linea più dura di Anthropic l'ha resa un fulmine della spinta sempre più aggressiva di Washington per militarizzare l'intelligenza artificiale.
Il Defense Production Act: Un'Arma Insolita
Il Defense Production Act è stato firmato in legge nel 1950, durante i primi stadi della Guerra di Corea. Il suo scopo originale era semplice: garantire che l'industria americana potesse rapidamente passare la produzione per supportare le esigenze militari. Nel corso dei decenni, è stato invocato per tutto, dalla produzione di semiconduttori alla catene di approvvigionamento mediche pandemiche.
Ma l'applicazione del DPA per costringere un'azienda di IA a concedere l'accesso ai suoi modelli rappresenta un tipo fondamentalmente diverso di intervento. A differenza dei beni fisici, i modelli di IA sono proprietà intellettuale le cui capacità e rischi sono profondamente intrecciati. Forzare un'azienda a rimuovere i guardrail di sicurezza dalla sua tecnologia solleva domande che vanno ben oltre le controversie tradizionali di approvvigionamento.
Gli esperti legali hanno notato che tale uso del DPA probabilmente affronterebbe sfide legali immediate. La legge è stata progettata per le priorità di produzione e della catena di approvvigionamento, non per prevalere sulle politiche di sicurezza interna di un'azienda su come la sua tecnologia viene schierata. Qualsiasi tentativo di invocarla potrebbe stabilire un precedente con implicazioni di vasta portata per l'intero settore tecnologico.
Reazioni dell'Industria e Implicazioni Più Ampie
La situazione di stallo ha inviato onde d'urto attraverso la Silicon Valley. Altre aziende di IA stanno guardando da vicino, consapevoli che l'esito potrebbe stabilire nuove norme per il modo in cui il governo interagisce con il settore privato dell'IA. Diversi leader del settore hanno espresso privatamente preoccupazione che arrendersi alle richieste del Pentagono potrebbe minare la ricerca sulla sicurezza che molti considerano essenziale per prevenire l'uso improprio catastrofico dell'IA.
Le risposte del Congresso sono state miste. I falchi sui comitati dei Servizi Armati hanno sostenuto la posizione di Hegseth, sostenendo che la sicurezza nazionale deve avere la precedenza sulle preferenze di sicurezza aziendali. Altri, in particolare i membri del Senato Commerciale, hanno avvertito che la coercizione sulle aziende di IA potrebbe spingere il talento e l'innovazione all'estero, indebolendo in ultima analisi la posizione competitiva americana.
L'Unione Europea ha anche preso nota. I funzionari dell'UE hanno indicato il confronto come prova a supporto del loro approccio più regolamentare alla governance dell'IA, con un senior diplomatico che ha notato che l'episodio sottolinea i rischi di lasciare le decisioni sulla sicurezza dell'IA ai capricci dei funzionari politici.
Cosa Succede Dopo
La scadenza di venerdì incombe grande. Se Anthropic rifiuta di conformarsi, Hegseth potrebbe seguire la sua minaccia di rimuovere l'azienda dai canali di approvvigionamento della difesa, tagliando un flusso di entrate significativo e inviando un messaggio ad altre aziende di IA. L'opzione del Defense Production Act rimane sul tavolo ma rappresenterebbe un'escalation molto più drammatica con risultati legali incerti.
Per Anthropic, il calcolo è esistenziale. Arrendersi potrebbe minare i principi di sicurezza che definiscono la sua identità aziendale e erodere la fiducia con i dipendenti che si sono uniti specificamente a causa degli impegni etici dell'azienda. Resistere potrebbe costare all'azienda non solo i contratti governativi ma anche la buona volontà politica in un momento in cui la regolamentazione dell'IA è attivamente plasmata a Washington.
Qualunque sia l'esito, il confronto ha reso una cosa chiara: la luna di miele tra le aziende di IA e il governo è finita. L'era della collaborazione cortese sulla politica dell'IA sta cedendo il passo a negoziati spietati in cui le puntate sono misurate non in guadagni trimestrali ma nelle domande fondamentali di come la tecnologia più potente nella storia umana sarà governata.
Questo articolo è basato su reportage di Ars Technica. Leggi l'articolo originale.

