L'IA dans la chaîne de mort
L'intégration de l'intelligence artificielle dans les ciblages militaires a été l'une des évolutions les plus étroitement surveillées et les moins transparentes de la guerre moderne. Désormais, un officiel du Département de la Défense s'exprimant sous le couvert de l'anonymat a fourni pour la première fois un aperçu spécifique de la manière dont l'IA générative – la même technologie qui sous-tend ChatGPT et autres grands modèles de langage – est utilisée pour aider les décisions de ciblage dans l'actuelle campagne militaire américaine contre l'Iran.
Selon l'officiel, qui a demandé l'anonymat en raison de la sensibilité du sujet, les systèmes IA générative sont utilisés comme une couche d'analyse conversationnelle sur les données de renseignement et de ciblage existantes. Une liste de cibles potentielles est alimentée dans le système IA, qui est invité à analyser les informations, à hiérarchiser les cibles et à générer des recommandations en fonction de facteurs tels que le positionnement des aéronefs, les objectifs de la mission et les renseignements disponibles. Les opérateurs humains examinent ensuite, évaluent et prennent la responsabilité de mettre en œuvre ces recommandations.
Deux technologies IA différentes
Le témoignage de l'officiel met en évidence une distinction importante qui est souvent perdue dans les discussions publiques sur l'IA à la guerre : le Pentagone déploie deux types fondamentalement différents d'IA pour des fonctions connexes mais distinctes.
Project Maven, opérationnel depuis au moins 2017, utilise la vision par ordinateur et l'apprentissage automatique pour traiter les énormes volumes de données d'images et de capteurs collectées par les systèmes de surveillance – images de drones, imagerie satellite, renseignement de signaux. Maven identifie les cibles potentielles au sein de ces données et les présente aux opérateurs humains via une interface basée sur une carte. Ceci est l'IA en tant que processeur de données et reconnaisseur de motifs, opérant sur des tâches bien définies et supervisées.
L'IA générative – les systèmes construits sur de grands modèles de langage – est d'un type différent. Ces systèmes sont conversationnels, flexibles et capables de raisonner sur diverses types d'informations. Ils peuvent synthétiser des renseignements à partir de plusieurs sources, générer des évaluations écrites et répondre à des questions ouvertes. Mais ils sont aussi moins testés au combat, moins transparents dans leur raisonnement et plus sujets aux types de résultats confiants mais erronés que les experts appellent hallucinations.
La question homme-dans-la-boucle
L'officiel a été explicite : les humains restent responsables de l'évaluation des recommandations de l'IA et de la prise des décisions de ciblage final. Ce cadre homme-dans-la-boucle est standard dans les communications du Pentagone sur l'IA, et il reflète à la fois un véritable engagement politique et la réalité opérationnelle : aucun commandant militaire ne va externaliser entièrement les décisions de vie ou de mort à un algorithme.
Mais la question pratique de savoir à quel point les humains cèdent aux recommandations de l'IA – surtout sous la pression du temps et la charge cognitive – est plus complexe que ce que peut capturer une déclaration officielle. La recherche sur la prise de décision en situation d'incertitude montre de manière cohérente que lorsque des systèmes qui semblent autorités fournissent des recommandations confiantes, la surveillance humaine tend à devenir superficielle plutôt que véritable.
Claude, OpenAI et la course aux contrats du Pentagone
Les commentaires de l'officiel interviennent au moment où les relations commerciales entre l'IA et l'armée américaine se restructurent radicalement. Claude d'Anthropic a été le premier grand modèle de langage approuvé pour un usage classifié au Pentagone et aurait été déployé lors d'opérations en Iran et au Venezuela. Mais après un différend avec le Pentagone sur la capacité d'Anthropic à limiter l'utilisation de son modèle, le Département de la Défense a désigné Anthropic comme un risque de chaîne d'approvisionnement, et le Président Trump a demandé que l'utilisation gouvernementale de l'IA de la société soit interrompue dans les six mois.
OpenAI a comblé le vide en annonçant le 28 février un accord pour que l'armée utilise ses technologies dans des cadres classifiés. xAI d'Elon Musk a atteint un accord similaire pour Grok. La rapidité de ces relations commerciales – et l'examen public limité qu'elles ont reçu – a attiré des critiques de chercheurs en sécurité de l'IA et d'experts en contrôle des armements qui soutiennent que l'intégration de l'IA dans les systèmes militaires mortels progresse plus rapidement que les cadres de gouvernance peuvent s'adapter.
Cet article est basé sur des reportages de MIT Technology Review. Lire l'article original.

