Un accord classifié sur l’IA soulève de nouvelles questions sur le contrôle et la supervision

Google aurait signé un accord classifié autorisant le département américain de la Défense à utiliser ses modèles d’IA pour « tout usage gouvernemental licite ». L’arrangement rapporté, décrit par The Verge à partir d’informations de The Information, placerait Google plus fermement dans l’écosystème américain de l’IA liée à la sécurité nationale, à un moment où les contrôles internes et externes s’intensifient.

Le calendrier fait partie de l’histoire. L’accord a été signalé moins d’un jour après que des employés de Google ont demandé au PDG Sundar Pichai de bloquer l’usage de l’IA de l’entreprise par le Pentagone, estimant que de tels systèmes pourraient être utilisés de manière « inhumaine ou extrêmement nuisible ». Cet écart entre les préoccupations des employés et la position de l’entreprise souligne à quelle vitesse les débats sur le déploiement de l’IA passent des principes au langage contractuel.

L’un des éléments rapportés les plus conséquents n’est pas simplement que le Pentagone peut utiliser les systèmes de Google, mais que le contrat ne donnerait apparemment pas à Google « le droit de contrôler ou de bloquer toute décision opérationnelle gouvernementale licite ». Si cela est exact, cela limiterait fortement la capacité de l’entreprise à orienter les usages finaux une fois l’accord entré en vigueur, même si l’accord contiendrait aussi des dispositions contre la surveillance de masse intérieure ou les armes autonomes sans supervision et contrôle humains appropriés.

Cette tension est au cœur de la politique actuelle de l’IA militaire. Les entreprises insistent souvent sur des garde-fous de haut niveau, mais le véritable test consiste à savoir si ces garde-fous peuvent être appliqués lorsque les besoins opérationnels évoluent. Le langage contractuel rapporté suggère un modèle où les principes coexistent avec une large discrétion opérationnelle du gouvernement. C’est une posture très différente de celle où le fournisseur conserve une capacité réelle à interrompre ou restreindre certains usages.

Le rapport indique également que Google devrait aider à ajuster les paramètres et filtres de sécurité de l’IA à la demande du gouvernement. Ce détail compte, car il va au-delà du simple accès. Il implique un rôle de soutien actif dans l’adaptation des systèmes aux besoins de sécurité nationale, ce qui pourrait devenir l’une des dimensions les plus contestées des partenariats entre gouvernements et IA.

S’il est confirmé, l’accord placerait Google aux côtés d’OpenAI et de xAI dans l’univers des contrats classifiés d’IA, tandis que The Verge note qu’Anthropic a été mise sur liste noire par le Pentagone après avoir refusé des exigences liées aux garde-fous sur les armes et la surveillance. Ce contraste montre à quelle vitesse le paysage concurrentiel peut récompenser les entreprises prêtes à s’adapter aux exigences de défense.

L’enjeu plus large est clair. Les achats d’IA ne se résument plus à la capacité cloud ou au prestige de la recherche. Ils portent de plus en plus sur les acteurs prêts à fournir des modèles, à les modifier et à accepter une moindre maîtrise une fois qu’ils sont intégrés aux systèmes gouvernementaux. Cet accord rapporté entre Google et le Pentagone serait un nouveau signe que la frontière entre leadership commercial en IA et infrastructure de défense s’amincit mois après mois.

Cet article s’appuie sur un reportage de The Verge. Lire l’article original.