Standardisation de l'IA dans toute l'entreprise de défense
Le Pentagone déploie un effort concerté pour aligner sa liste croissante de fournisseurs d'intelligence artificielle sur ce que les responsables décrivent comme "la même base de référence", établissant des normes communes sur la façon dont les systèmes d'IA sont développés, testés, déployés et gouvernés au sein de l'armée. L'initiative, exposée par le chef de la recherche du Département de la défense, reflète les défis de gérer un écosystème d'IA en expansion qui s'étend sur des dizaines d'entreprises, de multiples services militaires et un large éventail d'applications allant de l'optimisation logistique au soutien à la prise de décision sur le champ de bataille.
À mesure que le DOD a accéléré son adoption de l'IA au cours des dernières années, il a contracté avec une variété diversifiée de fournisseurs technologiques, allant de grands entrepreneurs en défense comme Lockheed Martin et Raytheon à des entreprises de la Silicon Valley comme Palantir et Anduril à des startups plus petites spécialisées en IA. Chacune de ces entreprises apporte ses propres pratiques de développement, méthodologies de test et approches de sécurité et d'éthique. Le résultat est un paysage d'IA au sein de l'armée qui est techniquement hétérogène et, dans certains cas, difficile à gouverner de manière cohérente.
Ce que signifie "la même base de référence" en pratique
L'effort de normalisation englobe plusieurs dimensions du développement et du déploiement de l'IA :
- Test et évaluation : Le DOD souhaite que tous les fournisseurs d'IA utilisent des méthodes comparables pour tester les performances, la fiabilité et les modes de défaillance de leurs systèmes. Cela comprend des tâches d'étalonnage standardisées, des métriques d'évaluation communes et une infrastructure de test partagée qui permet de comparer différents systèmes sur une base équitable.
- Sécurité et robustesse : Les systèmes d'IA déployés dans des contextes militaires doivent répondre à des normes minimales de résilience aux attaques adversariales, de dégradation gracieuse lorsque les entrées tombent en dehors des distributions d'entraînement, et de comportement prévisible dans les conditions extrêmes qui caractérisent les opérations militaires.
- Gouvernance des données : L'initiative comprend des normes sur la façon dont les données d'entraînement sont sourcées, étiquetées, stockées et partagées entre les fournisseurs. La qualité des données est un déterminant critique des performances du système d'IA, et les pratiques de données incohérentes entre les fournisseurs peuvent entraîner des résultats incohérents.
- Interopérabilité : Les systèmes d'IA militaire ont de plus en plus besoin de communiquer entre eux et avec l'infrastructure de commandement et de contrôle existante. Les normes d'interface communes et les formats de données sont essentiels pour permettre cette intégration.
- Documentation et auditabilité : Les fournisseurs doivent maintenir des enregistrements détaillés sur la façon dont leurs systèmes ont été entraînés, quelles données ont été utilisées, quels tests ont été effectués et quelles limitations ont été identifiées. Cette documentation est essentielle pour la confiance opérationnelle et la responsabilité juridique.
La dimension éthique
L'un des aspects les plus observés de l'effort de normalisation de l'IA du Pentagone est son intersection avec les principes éthiques de l'IA du département. Le DOD a adopté ses principes d'éthique de l'IA en 2020, établissant cinq engagements : que les systèmes d'IA doivent être responsables, équitables, traçables, fiables et gouvernables. Ces principes ont été salués par certains comme un cadre significatif pour une IA militaire responsable et critiqués par d'autres comme trop vagues pour contraindre les décisions réelles de développement et de déploiement.
Le chef de la recherche du DOD a souligné que l'effort de normalisation est conçu pour mettre en œuvre ces principes, et non pour les remplacer. En établissant des normes concrètes pour les tests, la documentation et la sécurité que tous les fournisseurs doivent respecter, le département vise à donner une force pratique à ses engagements éthiques. L'idée est que les principes abstraits comme la "traçabilité" deviennent significatifs lorsqu'ils sont traduits en exigences spécifiques d'enregistrement, d'audit et d'explication des décisions du système d'IA.
Ceci est particulièrement important alors que l'armée se tourne vers des applications d'IA plus conséquentes. Les systèmes d'IA qui optimisent la logistique de la chaîne d'approvisionnement soulèvent des préoccupations éthiques différentes de celles des systèmes d'IA qui identifient les cibles ou recommandent l'utilisation de la force. L'effort de normalisation est conçu pour assurer que le cadre de gouvernance s'adapte correctement aux enjeux de l'application.
Défis de la normalisation
Établir des normes communes d'IA dans toute l'entreprise de défense est un défi formidable pour plusieurs raisons. La technologie elle-même évolue rapidement, et les normes appropriées aujourd'hui peuvent devenir obsolètes en quelques années. La diversité des applications d'IA au sein de l'armée signifie qu'une approche taille unique ne fonctionnera probablement pas ; les normes d'un système de traitement du langage naturel qui résume les rapports de renseignement différeront nécessairement de celles d'un système de vision par ordinateur qui guide les véhicules autonomes.
Il existe également une tension entre la normalisation et l'innovation. La communauté de l'IA de défense a délibérément cultivé un écosystème diversifié de fournisseurs précisément parce que différentes entreprises apportent des approches différentes, et cette diversité stimule l'innovation. Des normes trop rigides pourraient étouffer l'expérimentation qui produit des capacités révolutionnaires, tandis que des normes trop lâches pourraient ne pas résoudre les risques réels du déploiement de l'IA dans des contextes militaires.
Naviguer dans cette tension exigera que le DOD adopte un cadre de normes suffisamment rigoureux pour assurer la sécurité et la responsabilité, mais suffisamment flexible pour s'adapter au rythme rapide du développement de l'IA. Les responsables suggèrent qu'ils poursuivent une approche par niveaux, avec des exigences de base applicables à tous les systèmes d'IA et des exigences supplémentaires qui s'adaptent à la sensibilité et aux conséquences de l'application.
Réaction de l'industrie
La réaction de l'industrie de l'IA de défense à l'effort de normalisation a été généralement positive, bien que non sans réserves. Les grands entrepreneurs en défense, habitués à des exigences réglementaires considérables, tendent à accueillir favorablement les normes claires car elles réduisent l'incertitude et offrent un avantage concurrentiel aux entreprises disposant des ressources pour se conformer. Cependant, les plus petites startups ont exprimé des préoccupations selon lesquelles les exigences de conformité onéreuses pourraient affecter de manière disproportionnée les petites entreprises et ralentir le rythme de l'innovation.
Le DOD a indiqué qu'il cherche des contributions de l'industrie sur le développement de son cadre de normes, reconnaissant que les normes unilatérales de haut en bas sont moins susceptibles d'être efficaces que celles développées de manière collaborative. Plusieurs groupes de travail industriels ont été convoqués pour fournir des commentaires sur les méthodologies de test proposées, les exigences de documentation et les points de référence de sécurité.
Le résultat de cet effort de normalisation aura des implications bien au-delà du domaine militaire. En tant que plus grand consommateur unique de technologie d'IA aux États-Unis, les décisions de normes du DOD influenceront la façon dont les entreprises d'IA développent leurs produits et la façon dont l'industrie technologique plus large aborde la sécurité et la gouvernance de l'IA. Bien faire cela est important non seulement pour la sécurité nationale, mais pour la trajectoire du développement de l'IA dans son ensemble.
Cet article est basé sur les reportages de Defense One. Lire l'article original.



