Un outil de la Guerre froide pour une nouvelle ère technologique
La relation entre le Département américain de la défense et l'une des principales sociétés d'intelligence artificielle au monde a atteint un point de rupture. Le secrétaire à la défense Pete Hegseth a adressé un ultimatum clair à Anthropic : accepter d'autoriser l'utilisation militaire sans restriction de sa technologie IA d'ici vendredi, ou faire face à une expulsion complète de la chaîne d'approvisionnement du Pentagone.
La menace a émergé lors d'une réunion tendue à Washington mardi, où Hegseth a convoqué le PDG d'Anthropic Dario Amodei pour ce que les sources ont décrit comme une discussion confrontationnelle sur le refus de l'entreprise d'accorder à l'armée un accès illimité à ses modèles d'IA pour les opérations classifiées. Parmi les demandes les plus controversées figuraient des dispositions pour les capacités de surveillance domestique et les missions autonomes meurtrières sans surveillance humaine directe.
Peut-être encore plus frappant a été l'invocation par Hegseth de la Loi de défense-production, un statut de l'époque de la Guerre froide qui confère au président une autorité considérable pour contraindre les industries nationales à servir les priorités de la défense nationale. Conçue à l'origine pour garantir que les usines puissent se convertir à la production de temps de guerre, la loi n'a jamais été utilisée pour forcer une entreprise d'IA à céder sa technologie — rendant cette menace sans précédent dans l'histoire de la politique technologique américaine.
La position de sécurité d'abord d'Anthropic sous pression
Anthropic s'est longtemps distinguée dans l'industrie de l'IA par son accent sur la recherche en sécurité et le déploiement responsable. L'entreprise, fondée par les anciens chercheurs d'OpenAI Dario et Daniela Amodei, a construit sa marque autour du concept d'IA constitutionnelle — des systèmes conçus avec des garde-fous éthiques intégrés destinés à prévenir les abus.
Cette philosophie centrée sur la sécurité a maintenant mis l'entreprise en collision directe avec l'appétit croissant du Pentagone pour l'intégration de l'IA dans les opérations militaires. Bien qu'Anthropic ne s'soit pas opposée à tous les contrats de défense, elle a tracé des lignes claires autour de certaines applications, en particulier celles impliquant la force meurtrière autonome sans contrôle humain significatif et les programmes de surveillance de masse ciblant les populations nationales.
La position de l'entreprise reflète un débat plus large au sein de l'industrie de l'IA sur où tracer les limites éthiques. D'autres grandes entreprises d'IA, y compris OpenAI et Google, ont également dû affronter des contrats militaires, bien que la plupart aient été plus disposées à négocier les termes d'engagement avec les organismes de défense. La ligne plus dure adoptée par Anthropic en a fait un point d'éclair dans la poussée croissante et agressive de Washington pour militariser l'intelligence artificielle.
La Loi de défense-production : une arme inhabituellement
La Loi de défense-production a été signée en 1950, au début de la Guerre de Corée. Son objectif initial était simple : garantir que l'industrie américaine pourrait rapidement se reconvertir pour soutenir les besoins militaires. Au cours des décennies, elle a été invoquée pour tout, de la fabrication des semi-conducteurs aux chaînes d'approvisionnement médicales en temps de pandémie.
Mais l'application de la DPA pour contraindre une entreprise d'IA à accorder l'accès à ses modèles représente un type d'intervention fondamentalement différent. Contrairement aux biens physiques, les modèles d'IA sont une propriété intellectuelle dont les capacités et les risques sont profondément entrelacés. Forcer une entreprise à supprimer les garde-fous de sécurité de sa technologie soulève des questions bien au-delà des différends d'approvisionnement traditionnels.
Les experts juridiques ont noté que cet usage de la DPA ferait probablement face à des contestations immédiates en justice. La loi a été conçue pour les priorités de production et de chaîne d'approvisionnement, non pour contourner les politiques de sécurité internes d'une entreprise sur la manière dont sa technologie est déployée. Toute tentative de l'invoquer pourrait établir un précédent aux implications considérables pour l'ensemble du secteur technologique.
Réactions de l'industrie et implications plus larges
L'impasse a envoyé des ondes de choc à travers la Silicon Valley. D'autres entreprises d'IA observent attentivement, conscientes que l'issue pourrait établir de nouvelles normes pour la façon dont le gouvernement interagit avec le secteur privé de l'IA. Plusieurs chefs de l'industrie ont exprimé en privé la préoccupation que céder aux demandes du Pentagone pourrait saper la recherche en sécurité que beaucoup considèrent comme essentielle pour prévenir les abus cataclysmiques de l'IA.
Les réactions du Congrès ont été mitigées. Les faucons des comités des services armés ont soutenu la position de Hegseth, affirmant que la sécurité nationale doit prendre le pas sur les préférences de sécurité des entreprises. D'autres, notamment les membres de la Commission du commerce du Sénat, ont averti que contraindre les entreprises d'IA pourrait chasser les talents et l'innovation à l'étranger, affaiblissant finalement la position concurrentielle de l'Amérique.
L'Union européenne a également pris note. Les responsables de l'UE ont souligné l'affrontement comme preuve soutenant leur propre approche plus réglementaire de la gouvernance de l'IA, un diplomate senior notant que l'épisode souligne les risques de laisser les décisions de sécurité de l'IA aux caprices des fonctionnaires nommés politiquement.
Ce qui se passe ensuite
L'échéance de vendredi approche. Si Anthropic refuse de se conformer, Hegseth pourrait donner suite à sa menace de retirer l'entreprise des canaux d'acquisition de défense, coupant un flux de revenus important et envoyant un message à d'autres entreprises d'IA. L'option de la Loi de défense-production reste sur la table mais représenterait une escalade beaucoup plus dramatique aux résultats juridiques incertains.
Pour Anthropic, le calcul est existentiel. Céder pourrait saper les principes de sécurité qui définissent son identité d'entreprise et éroder la confiance avec les employés qui ont adhéré spécifiquement en raison des engagements éthiques de l'entreprise. Résister pourrait coûter à l'entreprise non seulement les contrats gouvernementaux mais aussi la bonne volonté politique à un moment où la régulation de l'IA est activement élaborée à Washington.
Quel qu'en soit l'issue, l'affrontement a rendu une chose évidente : la lune de miel entre les entreprises d'IA et le gouvernement est terminée. L'ère de la collaboration courtoise sur la politique de l'IA cède la place à des négociations difficiles où les enjeux se mesurent non en gains trimestriels mais dans les questions fondamentales de savoir comment la technologie la plus puissante de l'histoire humaine sera gouvernée.
Cet article est basé sur un reportage d'Ars Technica. Lisez l'article original.

