Un revers pour Washington dans sa riposte contre un grand fournisseur d’IA

Un juge fédéral a offert à Anthropic une victoire initiale majeure dans son conflit croissant avec le gouvernement américain, en accordant une injonction préliminaire qui empêche les agences de mettre en œuvre des ordres désignant l’entreprise comme un risque pour la chaîne d’approvisionnement pendant que l’affaire suit son cours. Mais, en l’espace de quelques heures, la direction du Pentagone a répliqué publiquement, affirmant qu’une partie de l’interdiction gouvernementale visant Anthropic restait en vigueur.

Le litige porte sur l’affrontement entre le pouvoir fédéral de passation de marchés et la tentative d’une entreprise d’IA d’imposer des limites à l’usage de ses modèles. Breaking Defense rapporte qu’après le refus d’Anthropic d’accepter un libellé contractuel autorisant « toute utilisation licite » de son Claude AI par l’armée, le président Donald Trump a ordonné le 27 février aux agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic. Le secrétaire à la Défense Pete Hegseth a ensuite écrit sur les réseaux sociaux qu’aucun sous-traitant, fournisseur ou partenaire travaillant avec l’armée américaine ne pouvait mener d’activité commerciale avec Anthropic.

La décision: vraisemblablement une mesure de rétorsion, pas une évaluation neutre du risque

Le 4 mars, l’administration a suivi avec deux lettres officielles désignant Anthropic comme un risque pour la chaîne d’approvisionnement au titre de textes distincts : l’un applicable à l’ensemble du gouvernement fédéral et l’autre spécifique au Département de la Défense. Anthropic a répondu par deux plaintes, contestant à la fois l’action fédérale élargie et la désignation plus ciblée sur la défense.

L’injonction préliminaire de la juge Rita Lin suspend désormais l’exécution des ordres pour les 17 agences fédérales nommées comme défenderesses dans l’affaire californienne, jusqu’à ce que le contentieux soit tranché. Dans un passage frappant cité par Breaking Defense, Lin a écrit que le dossier « suggère fortement » que les motifs invoqués pour la désignation d’Anthropic étaient prétextuels et que la véritable motivation du gouvernement était une rétorsion illégale. En accordant l’injonction, elle a estimé qu’Anthropic était susceptible de l’emporter dans sa plainte, un seuil élevé à ce stade de la procédure.

Cette formulation compte. Les injonctions préliminaires ne sont pas des jugements définitifs, mais elles signalent qu’un tribunal voit une forte probabilité que la mesure contestée était irrégulière. En pratique, l’ordonnance perturbe un effort gouvernemental très visible visant à isoler un fournisseur d’IA de premier plan des contrats fédéraux et envoie un avertissement sur l’ampleur que peuvent prendre les agences lorsque les différends commerciaux croisent la rhétorique de sécurité nationale.

La réaction du Pentagone montre que le combat est loin d’être terminé

L’injonction n’a pas réglé le conflit politique et juridique central. Breaking Defense rapporte que le sous-secrétaire à la Défense et directeur de la technologie Emil Michael a affirmé sur les réseaux sociaux que l’ordonnance comportait « des dizaines d’erreurs factuelles » et a déclaré que la désignation de risque pour la chaîne d’approvisionnement restait « pleinement en vigueur » au titre du texte à portée gouvernementale générale, qu’il estime ne pas relever de la compétence de la juge Lin.

Cette réponse révèle une fragmentation plus profonde dans la manière dont le gouvernement pourrait chercher à défendre sa position. Même avec une décision de justice en place, des responsables semblent prêts à soutenir que des bases juridiques distinctes préservent au moins une partie de l’effet pratique de la liste noire. Cela ouvre la voie à des batailles judiciaires parallèles, à des interprétations divergentes des agences et à une incertitude persistante pour les sous-traitants qui doivent savoir si les outils d’Anthropic sont autorisés dans les travaux fédéraux.

L’affaire est exceptionnellement importante car elle ne concerne pas seulement les intérêts commerciaux d’un fournisseur. Elle porte sur la question de savoir si une entreprise d’IA peut résister à un libellé contractuel militaire qu’elle juge trop large sans être écartée par des pouvoirs de passation de marchés habituellement associés à des préoccupations plus traditionnelles sur la chaîne d’approvisionnement. Si les tribunaux concluent que le gouvernement a utilisé ces pouvoirs comme sanction pour un désaccord de politique, la décision pourrait influencer la manière dont les litiges sur la gouvernance de l’IA se déroulent dans la commande publique fédérale.

Pourquoi cela compte pour le secteur de l’IA

Pour les entreprises d’IA, le bras de fer autour d’Anthropic devient un premier test de l’influence que le gouvernement américain estime devoir exercer sur les fournisseurs commerciaux de modèles qui veulent des contrats fédéraux tout en souhaitant définir les limites de leur déploiement. Cette tension est particulièrement forte dans les contextes de sécurité nationale, où les agences peuvent rechercher une flexibilité maximale tandis que les fournisseurs peuvent vouloir préserver des garde-fous liés à la surveillance, aux usages militaires ou au risque réputationnel.

Le contentieux met également sous pression l’expression « risque pour la chaîne d’approvisionnement ». Traditionnellement, cette formule évoque des préoccupations de fiabilité, de compromission, d’influence étrangère ou de vulnérabilités cachées dans des systèmes critiques. Ici, la première appréciation de la juge suggère que la désignation a peut-être servi à autre chose entièrement : une rétorsion après un désaccord sur les termes du contrat. Si cette interprétation se confirme, l’affaire pourrait restreindre la manière dont les outils de passation de marchés peuvent être utilisés contre les fournisseurs d’IA qui refusent certaines exigences gouvernementales.

Pour l’instant, l’issue est contrastée mais incontestablement importante. Anthropic a remporté une décision précoce significative, et le gouvernement a été invité à suspendre des mesures clés pendant que l’affaire se poursuit. Dans le même temps, des responsables du Pentagone signalent qu’ils n’acceptent pas les implications pratiques de l’injonction avec l’ampleur qu’Anthropic lui attribue probablement.

Le secteur en retire un message clair. L’architecture juridique qui encadre l’IA au sein du gouvernement s’écrit encore en temps réel, et certaines de ses règles les plus importantes pourraient émerger non pas de la loi ou de directives administratives, mais de batailles judiciaires acharnées sur la rédaction contractuelle, la rétorsion et les limites du pouvoir exécutif.

Cet article s’appuie sur un reportage de Breaking Defense. Lire l’article original.

Originally published on breakingdefense.com