Un reclamo federal sobre la gobernanza de IA
La Casa Blanca ha publicado un nuevo marco de política de inteligencia artificial que establecería la primacía federal sobre la regulación de IA, efectivamente anulando el mosaico de leyes estatales que han surgido mientras el Congreso ha luchado por aprobar legislación integral de IA nacional. La propuesta representa el movimiento federal más asertivo hasta ahora para reclamar jurisdicción sobre la gobernanza de IA y podría anular o desestimar docenas de medidas estatales ya en vigencia o pasando a través de las legislaturas estatales.
El marco, desarrollado por la Office of Science and Technology Policy en coordinación con múltiples agencias federales, articula una visión de la gobernanza de IA construida alrededor de estándares federales para seguridad, transparencia y responsabilidad — con el objetivo explícito de garantizar que el desarrollo de IA proceda bajo un único conjunto nacional de reglas en lugar de un entorno regulatorio fragmentado estado por estado que la administración argumenta dañaría la innovación y la competitividad de los EE.UU.
Lo que cubre el marco
La propuesta aborda varias áreas controvertidas de la política de IA, incluyendo requisitos para transparencia en contenido generado por IA, estándares para sistemas de IA de alto riesgo usados en empleo, crédito, vivienda y atención médica, y directrices para sistemas de IA implementados por agencias federales. En la cuestión de la anulación, el marco argumenta que las regulaciones estatales inconsistentes crean un entorno de cumplimiento inviable para los desarrolladores de IA y que un estándar federal uniforme es necesario para permitir que la industria escale efectivamente.
El marco adopta un enfoque más ligero para la regulación prescriptiva de IA que la Ley de IA de la UE, que ha sido criticada por empresas de tecnología estadounidenses como excesivamente burocrática. En cambio, enfatiza compromisos voluntarios, estándares desarrollados por la industria a través de organismos como NIST, e intervención dirigida en casos de uso específicos de alto riesgo en lugar de regulación categórica amplia de sistemas de IA.
La anulación de la ley estatal es contenciosa
El aspecto de anulación de la propuesta es por lejos su elemento más controvertido. Más de 40 estados han aprobado o están considerando activamente legislación relacionada con IA, cubriendo áreas que van desde requisitos de divulgación de deepfake hasta auditorías de toma de decisiones algorítmica hasta restricciones de reconocimiento facial. Algunas de estas leyes — particularmente los marcos integrales de IA de California y Colorado — han sido desarrollados a través de procesos extensivos de partes interesadas y son vistos por sus proponentes como protecciones importantes de derechos de consumidor y civiles.
Grupos de defensa del consumidor y organizaciones de libertades civiles han reaccionado agudamente a la propuesta de anulación, argumentando que la primacía federal en la política de IA, si no va acompañada por protecciones federales fuertes, efectivamente dejaría a las personas con salvaguardas más débiles de las que tendrían bajo muchas leyes estatales. La Electronic Frontier Foundation y la ACLU han señalado ambas oposición, y se espera que varios fiscales generales estatales desafíen cualquier anulación que sea implementada a través de acción ejecutiva en lugar de legislación del Congreso.
La reacción de la industria está dividida
La respuesta de la industria tecnológica es más matizada. Grandes empresas de IA como Google, OpenAI y Microsoft generalmente han favorecido la uniformidad federal sobre la fragmentación estatal, y han hecho cabildeo extenso contra mandatos a nivel estatal que ven como técnicamente inviables o comercialmente perjudiciales. Sin embargo, algunas empresas de IA más pequeñas y tecnólogos de la sociedad civil han expresado preocupación de que el modelo de cumplimiento voluntario del marco carezca de mecanismos de aplicación capaces de responsabilizar a los actores más grandes.
La alineación del marco con la agenda desreguladora más amplia de la administración Trump moldea el contexto político. Los críticos notan que la misma administración ha usado su aparato regulatorio para desafiar requisitos de gobernanza de IA que se opone mientras se mueve agresivamente en aplicaciones de IA que favorece, particularmente en contextos de seguridad nacional y defensa.
Dinámicas del Congreso
El marco de acción ejecutiva del marco refleja el fracaso continuo del Congreso de aprobar legislación integral de IA. Múltiples proyectos de ley bipartidistas han sido introducidos en los últimos tres años, pero desacuerdos sobre estándares de responsabilidad, protecciones de derechos civiles, y regulación sectorial versus horizontal han impedido que cualquier medida llegue al piso para votación. En ausencia de acción legislativa, marcos ejecutivos como este establecen política de facto — pero con menos permanencia y claridad legal que un estatuto.
Expertos legales están en desacuerdo sobre el alcance en que la acción ejecutiva sola puede efectivamente anular la ley de IA estatal, señalando que la anulación genuina típicamente requiere ya sea autoridad estatutaria o un proceso de elaboración de reglas de agencia. La capacidad del marco de suprimir la innovación estatal en política de IA puede en última instancia depender menos de su fuerza legal y más en si las agencias federales persiguen activamente o se abstienen de desafiar medidas estatales específicas.
Dimensión internacional
El marco también hace críticas implícitas al enfoque regulatorio de la Unión Europea, enfatizando repetidamente la competitividad estadounidense y argumentando que la regulación de IA de mano pesada en el extranjero ha sofocado el desarrollo de IA europeo en relación con sus pares estadounidenses. Esto establece una divergencia continua entre marcos de gobernanza de IA de los EE.UU. y la UE que complicará las operaciones de empresas tecnológicas globales navegando ambos regímenes simultáneamente.
Este artículo se basa en reportajes de Engadget. Lee el artículo original.


