Un délai de vendredi et une Guerre froide sur l'éthique de l'IA
Anthropic, l'entreprise de sécurité de l'IA derrière la famille de modèles de langage Claude, fait face à une confrontation extraordinaire avec le département américain de la Défense. Selon les rapports, le Pentagone a demandé qu'Anthropic assouplisse ses restrictions sur les applications militaires de sa technologie d'IA — en particulier ses interdictions d'utilisation dans les systèmes d'armes autonomes et la surveillance de masse. Anthropic a refusé, et le département de la Défense a réagi en menaçant d'invoquer la Defense Production Act, une loi de l'époque de la Guerre froide qui permet au gouvernement de contraindre les entreprises privées à prioriser la production de défense nationale.
L'entreprise a reçu jusqu'à vendredi pour se conformer. Si Anthropic maintient son refus, le Pentagone pourrait contraindre légalement l'entreprise à fournir l'accès à ses capacités d'IA à des fins militaires, créant une confrontation juridique et éthique sans précédent clair dans l'industrie de l'IA.
Ce qu'Anthropic a restreint
Depuis sa fondation, Anthropic maintient une politique d'utilisation acceptable qui interdit explicitement l'utilisation de ses modèles d'IA pour les armes autonomes, la surveillance de masse et d'autres applications que l'entreprise considère comme incompatibles avec sa mission de développer l'IA de manière sûre. Ces restrictions ne sont pas inhabituelles dans l'industrie de l'IA — la plupart des grandes entreprises d'IA ont des politiques similaires — mais Anthropic a été particulièrement vocal sur son engagement envers la sécurité de l'IA en tant que principe organisationnel fondamental.
L'entreprise a été fondée par d'anciens chercheurs d'OpenAI, Dario et Daniela Amodei, en partie en raison de préoccupations concernant le rythme et la gouvernance du développement de l'IA. Son identité de marque est construite autour du développement responsable de l'IA, et ses recherches sur l'alignement de l'IA et l'interprétabilité l'ont positionnée comme un leader dans l'approche basée sur la sécurité d'abord de l'intelligence artificielle. Faire marche arrière sur les restrictions militaires minerait la narration fondatrice de l'entreprise.
La menace de la Defense Production Act
La Defense Production Act, signée en 1950 pendant la guerre de Corée, donne au président une large autorité pour diriger l'industrie privée à prioriser les contrats et commandes jugés nécessaires à la défense nationale. Elle a été invoquée périodiquement à diverses fins — plus récemment pendant la pandémie de COVID-19 pour contraindre la production de fournitures médicales — mais l'utiliser pour forcer une entreprise d'IA à fournir sa technologie pour des applications militaires représenterait une application sans précédent de la loi.
Les experts juridiques sont divisés sur la question de savoir si une telle invocation résisterait à l'examen judiciaire. La DPA a été conçue pour la fabrication de biens physiques — acier, munitions, équipements médicaux — non pas pour contraindre une entreprise de logiciels à modifier ses conditions de service. La question de savoir si l'accès au modèle d'IA constitue un « produit » qui peut être réquisitionné en vertu de la loi soulève des questions juridiques novatrices que les tribunaux n'ont pas encore traitées.
- Le Pentagone demande qu'Anthropic retire les restrictions sur l'utilisation de l'IA dans les armes autonomes et la surveillance
- Anthropic a refusé, citant son engagement fondamental envers les principes de sécurité de l'IA
- Le département de la Défense menace d'invoquer la Defense Production Act d'ici vendredi
- Les experts juridiques questionnent si la DPA peut contraindre une entreprise de logiciels à changer ses politiques
- L'impasse pourrait établir un précédent pour l'autorité gouvernementale sur les entreprises d'IA
Implications pour l'industrie
La confrontation entre Anthropic et le Pentagone envoie des ondes de choc dans une industrie de l'IA qui navigue dans une relation de plus en plus complexe avec les agences de sécurité nationale. Google, Microsoft, Amazon et OpenAI ont tous des contrats de défense importants, et chacun a fait face à des pressions internes et externes concernant les applications militaires de leur technologie. Google s'est célèbrement retiré de Project Maven, un programme d'IA du Pentagone, après les protestations des employés en 2018, bien que l'entreprise ait depuis étendu son travail de défense.
Si la Defense Production Act est utilisée avec succès contre Anthropic, cela établirait un précédent selon lequel toute entreprise d'IA opérant aux États-Unis pourrait être contrainte de fournir sa technologie à des fins militaires, indépendamment de ses propres directives éthiques. Cette perspective pourrait refroidir la recherche en matière de sécurité de l'IA, pousser les entreprises axées sur la sécurité à se relocaliser en dehors de la juridiction américaine, ou créer une industrie bifurquée où les entreprises doivent choisir entre les contrats gouvernementaux et les engagements en matière de sécurité.
Inversement, si Anthropic résiste avec succès à l'ordre — que ce soit par un défi juridique ou une négociation politique — cela pourrait renforcer le principe selon lequel les entreprises d'IA ont le droit de fixer des limites éthiques sur la façon dont leur technologie est utilisée, même lorsque le client est le gouvernement américain.
La tension plus large
L'impasse reflète une tension fondamentale qui se construit depuis que les grands modèles de langage et autres systèmes d'IA avancés ont commencé à démontrer des capacités ayant clairement des applications militaires. Le gouvernement américain considère la domination de l'IA comme essentielle à la sécurité nationale, en particulier en compétition avec la Chine, qui investit massivement dans les applications d'IA militaire avec moins de contraintes éthiques. Du point de vue du Pentagone, permettre à une entreprise d'IA leader de se retirer des applications de défense est un luxe que la nation ne peut pas se permettre.
Du point de vue d'Anthropic, les restrictions existent précisément parce que l'entreprise croit que l'application militaire sans contrainte de puissants systèmes d'IA pose des risques catastrophiques — des risques qui ne sont pas éliminés simplement parce que l'utilisateur porte un uniforme américain. La position de l'entreprise est que certaines applications de l'IA sont trop dangereuses pour être activées, indépendamment de qui demande.
La façon dont cette impasse se résout façonnera probablement la relation entre l'industrie de l'IA et le gouvernement américain pour les années à venir. C'est un cas de test pour savoir si les engagements en matière de sécurité de l'IA peuvent résister à l'attraction gravitationnelle des impératifs de sécurité nationale — et si le gouvernement utilisera ses outils juridiques les plus puissants pour s'assurer qu'ils ne peuvent pas.
Cet article est basé sur un reportage de The Decoder. Lire l'article original.

