Uma reivindicação federal sobre a governança de IA

A Casa Branca divulgou uma nova estrutura de política de inteligência artificial que estabeleceria a supremacia federal sobre a regulamentação de IA, efetivamente anulando o mosaico de leis estaduais que surgiram enquanto o Congresso lutava para aprovar uma legislação abrangente de IA nacional. A proposta representa o movimento federal mais assertivo até o momento para reclamar jurisdição sobre a governança de IA e poderia anular ou bloquear dezenas de medidas estaduais já em vigor ou passando pelas legislaturas estaduais.

A estrutura, desenvolvida pelo Office of Science and Technology Policy em coordenação com múltiplas agências federais, articula uma visão de governança de IA construída em torno de padrões federais para segurança, transparência e responsabilidade — com o objetivo explícito de garantir que o desenvolvimento de IA proceda sob um único conjunto de regras nacionais em vez de um ambiente regulatório fragmentado estado por estado que a administração argumenta prejudicaria a inovação e a competitividade dos EUA.

O que a estrutura abrange

A proposta aborda várias áreas contestadas da política de IA, incluindo requisitos de transparência em conteúdo gerado por IA, padrões para sistemas de IA de alto risco utilizados em emprego, crédito, habitação e saúde, e diretrizes para sistemas de IA implantados por agências federais. Sobre a questão do bloqueio, a estrutura argumenta que as regulamentações estaduais inconsistentes criam um ambiente de conformidade inviável para os desenvolvedores de IA e que um padrão federal uniforme é necessário para permitir que a indústria escale efetivamente.

A estrutura adota uma abordagem mais leve para a regulamentação prescritiva de IA em comparação com a Lei de IA da UE, que foi criticada por empresas de tecnologia dos EUA como excessivamente burocrática. Em vez disso, enfatiza compromissos voluntários, padrões desenvolvidos pela indústria através de órgãos como NIST, e intervenção direcionada em casos de uso específicos de alto risco em vez de regulamentação categórica ampla de sistemas de IA.

O bloqueio da lei estadual é contencioso

O aspecto de bloqueio da proposta é de longe seu elemento mais controverso. Mais de 40 estados aprovaram ou estão considerando ativamente legislação relacionada a IA, cobrindo áreas que vão desde requisitos de divulgação de deepfake até auditorias de tomada de decisão algorítmica até restrições de reconhecimento facial. Algumas dessas leis — particularmente as estruturas integrais de IA da Califórnia e do Colorado — foram desenvolvidas através de processos extensivos de partes interessadas e são vistas por seus proponentes como protações importantes de direitos do consumidor e cívicos.

Grupos de defesa do consumidor e organizações de liberdades civis reagiram vigorosamente à proposta de bloqueio, argumentando que a supremacia federal na política de IA, se não acompanhada de protegências federais fortes, deixaria efetivamente as pessoas com proteções mais fracas do que teriam sob muitas leis estaduais. A Electronic Frontier Foundation e a ACLU sinalizaram ambas a oposição, e vários procuradores-gerais dos estados devem desafiar qualquer bloqueio que seja implementado através de ação executiva em vez de legislação do Congresso.

A reação da indústria está dividida

A resposta da indústria de tecnologia é mais matizada. Grandes empresas de IA como Google, OpenAI e Microsoft geralmente favoreceram a uniformidade federal sobre a fragmentação estadual e fizeram lobby extenso contra mandatos em nível estadual que veem como tecnicamente inviáveis ​​ou comercialmente prejudiciais. No entanto, algumas empresas menores de IA e tecnólogos da sociedade civil expressaram preocupação de que o modelo de conformidade voluntária da estrutura carace de mecanismos de aplicação capazes de responsabilizar os maiores atores.

O alinhamento da estrutura com a agenda desreguladora mais ampla da administração Trump molda o contexto político. Críticos notam que a mesma administração usou seu aparato regulatório para desafiar os requisitos de governança de IA que se opõe enquanto se move agressivamente nas aplicações de IA que favorece, particularmente em contextos de segurança nacional e defesa.

Dinâmica do Congresso

O enquadramento da ação executiva da estrutura reflete a falha contínua do Congresso em aprovar legislação abrangente de IA. Múltiplos projetos de lei bipartidários foram introduzidos nos últimos três anos, mas desacordos sobre padrões de responsabilidade, proteções de direitos cívicos e regulamentação setorial versus regulamentação horizontal impediram qualquer medida de chegar ao piso para votação. Na ausência de ação legislativa, estruturas executivas como esta estabelecem política de fato — mas com menos permanência e clareza legal do que um estatuto.

Especialistas legais discordam sobre a extensão em que a ação executiva sozinha pode realmente bloquear a lei de IA estadual, observando que o verdadeiro bloqueio geralmente requer autoridade estatutária ou um processo de elaboração de regras de agência. A capacidade da estrutura de suprimir a inovação estadual na política de IA pode, em última análise, depender menos de sua força legal e mais de se as agências federais perseguem ativamente ou se abstêm de desafiar medidas estaduais específicas.

Dimensão internacional

A estrutura também tira tiros implícitos na abordagem regulatória da União Europeia, enfatizando repetidamente a competitividade dos EUA e argumentando que a regulamentação pesada de IA no exterior sufocou o desenvolvimento de IA europeia em relação aos pares americanos. Isto estabelece uma divergência contínua entre estruturas de governança de IA dos EUA e da UE que complicará as operações de empresas de tecnologia globais navegando ambos os regimes simultaneamente.

Este artigo é baseado em reportagens do Engadget. Leia o artigo original.