Un revirement rapide sur le code public

NHS England retire de la vue du public les logiciels qu’elle a écrits et demande au personnel que les dépôts de code source soient privés par défaut, selon une directive décrite dans le texte source fourni. Cette mesure marque un changement brutal pour une institution dont les logiciels étaient traditionnellement rendus publics au motif qu’ils étaient financés par les contribuables et pouvaient être réutilisés par d’autres.

Ce changement est motivé par la crainte que des systèmes d’intelligence artificielle de plus en plus performants puissent ingérer du code public, en déduire des faiblesses et aider des attaquants à identifier des vulnérabilités. La nouvelle directive fixerait au 11 mai la date limite pour rendre les dépôts privés, sauf raison explicitement approuvée de les conserver publics.

Le déclencheur IA: Mythos

Le texte source indique que NHS England a cité spécifiquement un système d’IA d’Anthropic appelé Mythos comme raison de cette nouvelle posture. La directive soutient que les dépôts publics augmentent le risque de divulguer non seulement le code source, mais aussi des décisions d’architecture, des détails de configuration et des informations contextuelles pouvant être exploités à mesure que les systèmes d’IA progressent dans l’analyse et le raisonnement à grande échelle sur le code.

Cette crainte reflète un changement plus large dans la pensée en cybersécurité. Pendant des années, les défenseurs se sont inquiétés d’attaquants humains parcourant des systèmes et du code exposés. La nouvelle crainte est que l’IA automatise une partie de ce travail, en traitant des artefacts logiciels à une échelle qui réduit le temps entre exposition et exploitation.

Pourquoi les critiques disent que la mesure pourrait se retourner contre elle

Des experts en sécurité cités dans le reportage fourni soutiennent que cette politique est inutile et contre-productive. L’une des raisons est que les logiciels open source reposent depuis longtemps sur une autre théorie de la sécurité: la visibilité publique peut améliorer la qualité parce que davantage de personnes peuvent inspecter, tester et corriger le code. Fermer les dépôts peut réduire la transparence sans pour autant éliminer réellement les vulnérabilités.

Le texte source note aussi que l’AI Security Institute soutenu par le gouvernement britannique a examiné Mythos et conclu qu’il ne pouvait attaquer que des “systèmes d’entreprise petits, faiblement défendus et vulnérables”, sans signe qu’un système ou réseau réellement sécurisé soit largement menacé. Si cette évaluation est exacte, la réponse de NHS England peut être disproportionnée par rapport à la menace démontrée.

Gouvernement ouvert contre secret défensif

Ce désaccord se situe à l’intersection de deux instincts politiques qui s’affrontent plus souvent aujourd’hui. L’un estime que les infrastructures numériques financées par l’argent public devraient être partagées ouvertement afin d’éviter les doublons, d’améliorer les services publics et de permettre à d’autres de bâtir sur le travail financé par l’État. L’autre affirme que le secret défensif devient plus précieux à mesure que l’IA réduit le coût de la reconnaissance pour les attaquants.

La nouvelle règle de NHS England privilégie clairement la seconde vision, du moins pour l’instant. Mais l’arbitrage est lourd. Une fois le code fermé par défaut, la collaboration devient plus difficile, l’examen externe se réduit et le public a moins de visibilité sur un logiciel susceptible de façonner les opérations de santé et les systèmes de données.

Un avant-goût d’un débat plus large

La décision du NHS compte au-delà de la Grande-Bretagne, car de nombreuses institutions publiques se posent une version de la même question. Les menaces de sécurité de l’ère de l’IA doivent-elles modifier les hypothèses par défaut qui sous-tendent la publication open source? Ou bien revenir à la fermeture sacrifie-t-il la résilience à long terme au profit d’un sentiment de contrôle à court terme?

La réponse ne sera probablement pas uniforme. Certains dépôts de code peuvent effectivement exposer des détails opérationnels sensibles qui ne devraient pas être publics. D’autres peuvent devenir moins sûrs lorsque l’examen externe disparaît. Le défi consiste à distinguer ces cas à partir de preuves, et non de la peur.

Ce que la décision signale

Le signal immédiat est que les modèles d’IA avancés influencent déjà des politiques institutionnelles réelles, même si les preuves techniques restent contestées. NHS England n’attend pas qu’un consensus soit atteint pour changer la façon dont ses logiciels sont gérés. Elle avance de manière préventive vers une posture de fermeture par défaut.

Reste à savoir si cette approche améliore la sécurité. Ce qui est certain, c’est que le débat sur la sécurité de l’IA est sorti de la théorie. Il remodèle désormais les règles d’achat, les normes de publication et les limites de la transparence numérique au sein des organisations du secteur public.

Si davantage de gouvernements suivent la voie du NHS, l’un des plus grands effets indirects de l’IA pourrait être un internet plus silencieux: moins de code public, moins de dépôts ouverts et une redéfinition de ce à quoi une infrastructure numérique publique est censée ressembler.

Cet article s’appuie sur un reportage de New Scientist. Lire l’article original.

Originally published on newscientist.com