L’accès de la NSA soulève des questions de politique publique

La National Security Agency américaine utiliserait le modèle d’IA le plus puissant d’Anthropic, Mythos Preview, selon le résumé par The Decoder d’un article d’Axios citant deux sources.

Ce déploiement rapporté est notable parce que la NSA relève de l’autorité du Pentagone, tandis que le département de la Défense a par ailleurs classé Anthropic comme un risque pour la sécurité et a tenté depuis février d’empêcher l’entreprise d’être fournisseur.

La situation reflète une tension croissante dans l’adoption de l’IA par les gouvernements: les agences veulent accéder à des modèles avancés, mais ces mêmes systèmes peuvent soulever des préoccupations de sécurité, de marchés publics, de surveillance et de politique d’armement.

Un modèle restreint

Anthropic a limité l’accès à Mythos à environ 40 organisations dans le cadre d’un effort appelé Project Glasswing. L’entreprise affirme que les capacités offensives de cybersécurité du modèle sont trop dangereuses pour une diffusion large.

Cette restriction place Mythos dans une catégorie différente de celle des chatbots commerciaux généralistes. Le modèle est traité comme une capacité sensible, et non comme un simple outil de productivité.

The Decoder indique que le PDG d’Anthropic, Dario Amodei, a rencontré la semaine dernière des responsables de la Maison Blanche pour discuter du déploiement de Mythos dans les agences gouvernementales. Les services de renseignement britanniques auraient également accès au modèle via l’AI Security Institute du pays.

Litige sur l’usage acceptable

Le Pentagone a exigé qu’Anthropic rende Claude disponible pour tous les usages légaux. Anthropic a refusé, traçant des limites autour de la surveillance de masse et des armes autonomes.

Ce désaccord touche au cœur du débat émergent sur les achats d’IA. Un fournisseur de modèle peut vouloir définir des lignes rouges quant à l’usage de ses systèmes, tandis que les acheteurs publics peuvent estimer que l’autorité légale doit déterminer les usages autorisés.

Pour les agences de renseignement et de défense, les modèles d’IA de pointe peuvent être utiles pour l’analyse cyber, le traitement du langage, le tri d’informations et d’autres tâches analytiques à grand volume. Mais ces mêmes capacités peuvent susciter des inquiétudes lorsqu’elles sont appliquées à la surveillance, à des opérations cyber offensives ou à des systèmes fonctionnant avec moins de contrôle humain.

Pourquoi cela compte

L’usage rapporté de Mythos par la NSA suggère que des systèmes d’IA puissants entrent dans des environnements gouvernementaux sensibles avant même que des normes politiques stables ne se soient formées autour des restrictions des fournisseurs, des exclusions de sécurité nationale et des limites d’usage acceptable.

Le conflit montre aussi que les engagements de sécurité en matière d’IA ne relèvent plus seulement de la conception produit. Ils deviennent des conditions d’achat, des litiges juridiques et des questions de sécurité nationale.

Si des agences adoptent des modèles d’IA restreints tandis que d’autres parties du gouvernement contestent le rôle du fournisseur, le résultat pourrait être une approche fragmentée: un bureau considère un modèle comme stratégiquement nécessaire, tandis qu’un autre considère le fournisseur comme un sujet de sécurité.

Le dossier Mythos sera probablement suivi de près, car il réunit plusieurs questions cruciales de gouvernance de l’IA: qui a accès aux modèles de pointe, comment les systèmes capables d’actions cyber sont contrôlés, et si une entreprise privée d’IA peut refuser certains usages gouvernementaux tout en continuant à servir des clients du secteur public.

Cet article s’appuie sur le reportage de The Decoder. Lire l’article original.

Originally published on the-decoder.com