Noticias

La solicitud de preferencia de OpenAI destaca las inconvenientes de las leyes estatales

Published

on

Las propuestas de políticas de Operai Inc. para el plan de acción de inteligencia artificial del presidente Donald Trump, introducen un tema preparado para desencadenar el debate sobre la política de IA más fundamental del año. La compañía instó al gobierno federal a proteger a los desarrolladores de IA al evitar las leyes estatales de IA que corren el riesgo de “atascar la innovación y, en el caso de la IA, socavando la posición de liderazgo de Estados Unidos”.

Hay más de 781 proyectos de ley de IA actualmente pendientes en las legislaturas estatales y una floreciente industria de $ 227 millones en el gobierno de IA. La preferencia federal podría eliminarlos al instante.

La preferencia federal de las leyes estatales de IA es fundamentalmente un debate sobre la seguridad nacional, el dominio económico y el federalismo. Si Estados Unidos sofoca a su industria de IA con un mosaico fragmentado de leyes de IA estatales restrictivas, corre el riesgo de perder el liderazgo de la industria a China, que está cerrando rápidamente la brecha con avances en Deepseek y Manus.

Aunque audaz, la propuesta de OpenAI para la preferencia federal no es sorprendente en su sustancia o momento. La propuesta se produjo después de una orden ejecutiva de enero que requería la creación de un plan de acción de IA centrado en mantener el liderazgo de los Estados Unidos en el desarrollo de la IA y eliminar las cargas en el sector privado.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca emitió una solicitud que busca información sobre las políticas que deberían incorporarse. Openai presentó varias recomendaciones, sobre todo la preferencia federal de las leyes estatales de IA.

A cambio del intercambio de datos voluntarios con el gobierno federal, OpenAI solicitó que el sector privado recibiera “alivio del 781 y contando proyectos de ley relacionados con la IA ya presentados este año en los estados de EE. UU.”.

La preferencia federal ha estado en el radar del Congreso desde el año pasado. En diciembre, la Fuerza de Tarea de la Casa Bipartidista sobre Inteligencia Artificial emitió un informe integral sobre políticas y hallazgos relacionados con la IA. El informe observó que “[p]La resención de las leyes estatales de IA por legislación federal es una herramienta que el Congreso podría usar “.

Las preocupaciones sobre un marco regulatorio estatal de IA fragmentado están bien fundados desde un punto de vista práctico. No hay regulaciones federales integrales que actualmente rigan el desarrollo o el uso de la IA, dejando un vacío regulatorio que los estados individuales han comenzado a llenarse con diferentes políticas de IA.

En mayo de 2024, Colorado se convirtió en el primer estado en aprobar un proyecto de ley de IA integral que imponga regulaciones sobre desarrolladores y despliegadores de sistemas de “IA de alto riesgo”. La Legislatura de Virginia aprobó un proyecto de ley AI similar el mes pasado, mientras que un representante del estado de Texas recientemente presentó un proyecto de ley de inteligencia artificial integral que estaría entre los más restrictivos del país. Mientras tanto, California promulgó 18 nuevas leyes de IA que entraron en vigencia este año, enfocándose, como muchos otros estados, en una regulación de IA específica de dominio.

El mosaico de la regulación estatal de IA ya se ha desarrollado. En los varios cientos de facturas estatales separadas, las compañías de IA (y tal vez incluso las compañías que simplemente usan IA) podrían estar sujetas a 50 estándares de seguridad de IA diferentes, requisitos de informes y agencias de informes. Esto aumentaría los costos de cumplimiento y obstaculizaría la inversión y el crecimiento.

Las regulaciones de IA estatales establecidas en California, el hogar para las principales compañías de IA como OpenAI, Google LLC, Meta Platforms Inc. y PBC antrópico, podrían dictar efectivamente la política de IA para el resto del país. Y el estado ya ha demostrado una propensión a avanzar en la regulación de IA desaconsejada, como se ve en SB 1047, que aprobó ambas cámaras legislativas, pero fue vetado por el gobernador Gavin Newsom (D).

El proyecto de ley habría impuesto responsabilidad a los desarrolladores de grandes modelos de IA basados ​​en estándares de prueba ambiguos y subdesarrollados, potencialmente sofocando la innovación. Demostrando aún más la desconexión entre las prioridades estatales y federales, ocho miembros democráticos del Congreso escribieron una carta a Newsom instándolo a vetar el proyecto de ley.

Los estados están mal equipados para regular una tecnología de rápida evolución y compleja, particularmente cuando se cruza con la seguridad nacional y los asuntos exteriores.

Dada la adopción e integración generalizada de la IA en la sociedad, junto con su papel crítico en la economía y la seguridad nacional, se ha vuelto análogo a la infraestructura esencial, como la red eléctrica o Internet. El gobierno federal no puede permitir que vacilara bajo un mosaico fragmentado de las regulaciones estatales de IA.

Pero la decisión de evitar las leyes estatales de IA es solo el primer paso: el mayor desafío radica en redactar la legislación habilitadora.

El poder de la preferencia federal proviene del Artículo VI, Cláusula 2 de la Constitución, también conocida como la Cláusula Supremacía. Para evitar las leyes estatales de IA, el Congreso debe aprobar legislación que proporcione la preferencia federal, lo que puede ser más desafiante de lo que parece.

Primero, el término “AI” no está definido universal o constantemente. Una definición que es demasiado amplia o estrecha podría conducir a regulaciones involuntarias de las tecnologías tradicionales o no evitar regulaciones sobre otras tecnologías de IA previstas.

En segundo lugar, el alcance de la preferencia federal será tan polémica como la cuestión fundamental de si se debe permitir la preferencia. Por ejemplo, surgirán debates sobre si todas las leyes de IA estatales deben ser preventadas o solo aquellos que afectan aspectos específicos, como el desarrollo del modelo, la capa de aplicación o las interacciones del usuario final.

Un enfoque posible es una forma más específica de preferencia, centrándose específicamente en las regulaciones estatales que rigen la capacitación, el despliegue y las pruebas de los modelos de IA fronteriza. Según este marco, el gobierno federal podría establecer estándares y regulaciones exclusivamente para los modelos fronterizos (o simplemente evitar que los estados lo hagan sin ningún estándar federal), mientras que los estados podrían retener la autoridad sobre los usos de la capa de aplicación de la IA y las interacciones de los usuarios, como restringir el uso de herramientas de IA en las entrevistas de trabajo. Pero en la práctica, incluso estas categorías pueden ser difíciles de definir cuidadosamente.

El desarrollo de la IA exige un progreso rápido y una inversión a largo plazo, y la incertidumbre a nivel estatal corre el riesgo de obstaculizar el avance de los Estados Unidos.

Este artículo no refleja necesariamente la opinión de Bloomberg Industry Group, Inc., el editor de Bloomberg Law y Bloomberg Tax, o sus propietarios.

Información del autor

Oliver Roberts es profesor adjunto de derecho en la Universidad de Washington en la Facultad de Derecho de St. Louis, co-cabeza del Grupo de Práctica AI de Holtzman Vogel, y fundador y CEO de Wickard.ai.

Escribe para nosotros: Directrices del autor

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version