Une revendication fédérale sur la gouvernance de l'IA

La Maison Blanche a publié un nouveau cadre de politique d'intelligence artificielle qui établirait la primauté fédérale sur la réglementation de l'IA, annulant effectivement la mosaïque de lois des États qui ont émergé alors que le Congrès a du mal à adopter une législation nationale complète sur l'IA. La proposition représente le mouvement fédéral le plus affirmé à ce jour pour revendiquer la juridiction sur la gouvernance de l'IA et pourrait annuler ou préempter des dizaines de mesures d'État déjà en place ou passant par les législatures des États.

Le cadre, élaboré par le Bureau de la politique scientifique et technologique en coordination avec plusieurs agences fédérales, articule une vision de la gouvernance de l'IA construite autour des normes fédérales pour la sécurité, la transparence et la responsabilité — avec l'objectif explicite de garantir que le développement de l'IA se déroule selon un ensemble unique de règles nationales plutôt que dans un environnement réglementaire fragmenté d'État en État que l'administration soutient nuirait à l'innovation et à la compétitivité américaines.

Ce que couvre le cadre

La proposition traite plusieurs domaines contestés de la politique d'IA, y compris les exigences de transparence dans le contenu généré par l'IA, les normes pour les systèmes d'IA à haut risque utilisés dans l'emploi, le crédit, le logement et les soins de santé, et les directives pour les systèmes d'IA déployés par les agences fédérales. Sur la question de la préemption, le cadre soutient que les réglementations des États incohérentes créent un environnement de conformité inenable pour les développeurs d'IA et qu'une norme fédérale uniforme est nécessaire pour permettre à l'industrie de se développer efficacement.

Le cadre adopte une approche moins intrusive de la réglementation prescriptive de l'IA que la Loi sur l'IA de l'UE, qui a été critiquée par les entreprises technologiques américaines comme étant excessivement bureaucratique. Au lieu de cela, elle met l'accent sur les engagements volontaires, les normes développées par l'industrie par le biais d'organismes comme NIST, et l'intervention ciblée dans des cas d'usage à haut risque spécifiques plutôt que une réglementation catégorique large des systèmes d'IA.

La préemption des lois des États est contentieuse

L'aspect préemption de la proposition est de loin son élément le plus controversé. Plus de 40 États ont adopté ou envisagent activement une législation liée à l'IA, couvrant des domaines allant des exigences de divulgation des deepfakes aux audits de prise de décision algorithmique aux restrictions de reconnaissance faciale. Certaines de ces lois — en particulier les cadres complets d'IA de la Californie et du Colorado — ont été élaborés par des processus complets des parties prenantes et sont considérés par leurs partisans comme des protections importantes des droits des consommateurs et civiques.

Les groupes de défense des consommateurs et les organisations de libertés civiles ont réagi vigoureusement à la proposition de préemption, arguant que la primauté fédérale en matière de politique d'IA, si elle n'est pas accompagnée de fortes protections fédérales, laisserait effectivement les gens avec des garanties plus faibles que celles dont ils jouiraient en vertu de nombreuses lois des États. La Electronic Frontier Foundation et l'ACLU ont toutes deux signalé leur opposition, et plusieurs procureurs généraux des États devraient contester toute préemption qui serait mise en œuvre par voie d'action exécutive plutôt que par une législation du Congrès.

La réaction de l'industrie est divisée

La réponse de l'industrie technologique est plus nuancée. Les grandes entreprises d'IA comme Google, OpenAI et Microsoft ont généralement favorisé l'uniformité fédérale par rapport à la fragmentation des États, et ont fait du lobbying intensif contre les mandats au niveau des États qu'elles considèrent comme techniquement irréalisables ou nuisibles commercialement. Cependant, certaines petites entreprises d'IA et technologues de la société civile ont exprimé des préoccupations quant au fait que le modèle de conformité volontaire du cadre manque de mécanismes d'application capables de tenir les plus grands acteurs responsables.

L'alignement du cadre avec l'agenda de dérégulation plus large de l'administration Trump façonne le contexte politique. Les critiques notent que la même administration a utilisé son appareil réglementaire pour contester les exigences de gouvernance de l'IA qu'elle s'oppose tout en avançant agressivement sur les applications d'IA qu'elle favorise, en particulier dans les contextes de sécurité nationale et de défense.

Dynamique du Congrès

Le cadre d'action exécutive du cadre reflète l'échec continu du Congrès à adopter une législation complète sur l'IA. Plusieurs projets de loi bipartites ont été introduits au cours des trois dernières années, mais les désaccords sur les normes de responsabilité, les protections des droits civiques et la réglementation sectorielle par rapport à la réglementation horizontale ont empêché toute mesure d'atteindre le parquet pour un vote. En l'absence d'action législative, les cadres exécutifs comme celui-ci établissent une politique de facto — mais avec moins de permanence et de clarté juridique qu'une loi.

Les experts juridiques ne sont pas d'accord sur la mesure dans laquelle l'action exécutive seule peut effectivement préempter la loi sur l'IA de l'État, notant que la véritable préemption nécessite généralement soit une autorité statutaire, soit un processus de prise de règles par une agence. La capacité du cadre à réprimer l'innovation des États en matière de politique d'IA peut en fin de compte dépendre moins de sa force juridique et davantage de la question de savoir si les agences fédérales poursuivent ou s'abstiennent activement de contester des mesures d'État spécifiques.

Dimension internationale

Le cadre porte également des coups implicites à l'approche réglementaire de l'Union européenne, en soulignant à plusieurs reprises la compétitivité américaine et en arguant que la réglementation lourde de l'IA à l'étranger a étouffé le développement de l'IA européenne par rapport à ses homologues américains. Cela met en place une divergence continue entre les cadres de gouvernance de l'IA américains et de l'UE qui compliquera les opérations des sociétés technologiques mondiales naviguant les deux régimes simultanément.

Cet article est basé sur un reportage d'Engadget. Lisez l'article original.