La regulación de la inteligencia artificial en peligro: Navegando por tiempos inciertos
Recientemente, la Corte Suprema destrozó el poder de las agencias federales, según señaló Morning Brew.
Hace menos de un año, el impulso hacia la regulación de la inteligencia artificial estaba ganando un impulso significativo, marcado por hitos importantes como la Cumbre de Seguridad de la IA en el Reino Unido, la Orden Ejecutiva de la IA de la Administración Biden y el Acta de la IA de la UE. Sin embargo, una reciente decisión judicial y posibles cambios políticos están creando más incertidumbre sobre el futuro de la regulación de la IA en los Estados Unidos. Este artículo explora las implicaciones de estos desarrollos en la regulación de la IA y los posibles desafíos por delante.
La reciente decisión de la Corte Suprema en Loper Bright Enterprises v. Raimondo debilita la autoridad de las agencias federales para regular diversos sectores, incluida la inteligencia artificial. Al revertir un precedente de cuarenta años conocido como «deferencia Chevron», la decisión judicial traslada el poder de interpretar las leyes ambiguas aprobadas por el Congreso de las agencias federales al poder judicial.
La diferencia entre la experiencia de las agencias y la supervisión judicial
Las leyes existentes suelen ser vagas en muchos campos, incluidos los relacionados con el medio ambiente y la tecnología, dejando la interpretación y regulación a cargo de las agencias. Esta vaguedad en la legislación a menudo es intencional, tanto por razones políticas como prácticas. Sin embargo, ahora cualquier decisión regulatoria de una agencia federal basada en esas leyes puede impugnarse más fácilmente en los tribunales, y los jueces federales tienen más poder para decidir qué significa una ley. Este cambio podría tener consecuencias significativas para la regulación de la IA. Los defensores argumentan que asegura una interpretación más consistente de las leyes, libre de posibles excesos de las agencias.
Sin embargo, el peligro de esta decisión es que en un campo tan dinámico como la IA, las agencias a menudo tienen más experiencia que los tribunales. Por ejemplo, la Comisión Federal de Comercio (FTC) se enfoca en la protección al consumidor y los problemas de competencia relacionados con la IA, la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) aborda el uso de la IA en decisiones de contratación y empleo para prevenir la discriminación y la Administración de Alimentos y Medicamentos (FDA) regula la IA en dispositivos médicos y software como un dispositivo médico (SaMD).
Estas agencias contratan a personas con conocimientos en IA para estas actividades. El poder judicial no tiene esa experiencia existente. Sin embargo, la opinión mayoritaria dijo que «…las agencias no tienen una competencia especial para resolver ambigüedades estatutarias. Los tribunales sí».
Desafíos y necesidades legislativas
El efecto neto de Loper Bright Enterprises v. Raimondo podría ser socavar la capacidad de establecer y hacer cumplir regulaciones de IA. Según el New Lines Institute: «Este cambio [para invalidar la deferencia Chevron] significa que las agencias deben desarrollar argumentos que involucren detalles técnicos complejos pero que sean lo suficientemente persuasivos para una audiencia no familiarizada con el campo para justificar cada regulación que imponen».
La opinión disidente de la jueza Elena Kagan discrepó sobre qué organismo podría proporcionar una regulación útil de manera más efectiva. «De un solo golpe, la mayoría [de la corte] se otorga exclusivo poder sobre cada tema abierto, sin importar cuán impulsado por la experiencia o cargado de políticas, que implica el significado de la ley regulatoria. Como si no tuviera suficiente en su plato, la mayoría se convierte en el zar administrativo del país.” Específicamente sobre la IA, Kagan dijo durante los argumentos orales del caso: «Y lo que el Congreso quiere, presumimos, es que las personas que realmente conocen sobre IA decidan esas cuestiones».
En el futuro, al aprobar una nueva ley que afecte el desarrollo o uso de la IA, si el Congreso desea que las agencias federales lideren la regulación, deberán indicarlo explícitamente dentro de la legislación. De lo contrario, esa autoridad residiría en los tribunales federales. Ellen Goodman, profesora especializada en legislación relacionada con la política de la información en la Universidad de Rutgers, dijo en FedScoop: «La solución siempre fue obtener una legislación clara del Congreso, pero ‘ahora es aún más cierto'».
Panorama político
Sin embargo, no hay garantía de que el Congreso incluiría esta estipulación, ya que hacerlo está sujeto a la composición del cuerpo. Un punto de vista conservador expresado en la plataforma recientemente adoptada por el Partido Republicano establece claramente la intención de revocar la Orden Ejecutiva de la IA existente. Específicamente, la plataforma dice: «Revocaremos la peligrosa Orden Ejecutiva de Joe Biden que obstaculiza la Innovación de la IA e impone ideas de extrema izquierda en el desarrollo de esta tecnología». Según Lance Eliot, comentarista de la industria de la IA en Forbes: «Esto implicaría presumiblemente eliminar las estipulaciones sobre requisitos de informes relacionados con la IA, enfoques de evaluación de la IA, [y] limitaciones de uso y desuso de la IA».
Basándose en informes de otro artículo de Forbes, una de las personas que influyen en el impulso para revocar la Orden Ejecutiva de la IA es el empresario tecnológico Jacob He, quien ‘cree que las leyes existentes ya gobiernan adecuadamente la IA y que «una maraña de regulaciones» perjudicaría la competencia de EE. UU. con China.’ Sin embargo, son las mismas leyes y la consecuente interpretación y regulación por parte de las agencias federales las que han sido socavadas por la decisión en Loper Bright Enterprises v. Raimondo.
En lugar de la orden ejecutiva actual, la plataforma agrega: «En su lugar, los republicanos apoyan el desarrollo de IA basado en la libertad de expresión y el florecimiento humano». Un nuevo informe del Washington Post menciona un esfuerzo liderado por aliados del expresidente Donald Trump para crear un nuevo marco que, entre otras cosas, «haga a América primero en la IA». Eso podría incluir la reducción de regulaciones, ya que la plataforma establece la intención de «eliminar regulaciones costosas y onerosas», especialmente aquellas que, en su opinión, «entorpecen los empleos, la libertad, la innovación y hacen que todo sea más caro».
Perspectiva regulatoria
Independientemente de qué partido político gane la Casa Blanca y el control del Congreso, habrá un entorno regulatorio de IA diferente en los Estados Unidos.
En primer lugar, la decisión de la Corte Suprema en Loper Bright Enterprises v. Raimondo plantea preocupaciones significativas sobre la capacidad de las agencias federales especializadas para hacer cumplir regulaciones de IA significativas. En un campo tan dinámico y técnico como la IA, el impacto probable será frenar o incluso obstaculizar la regulación significativa de la IA.
Un cambio en el liderazgo en la Casa Blanca o el Congreso también podría modificar los esfuerzos regulatorios de la IA. Si los conservadores ganan, es probable que haya menos regulación y que la regulación restante sea menos restrictiva para las empresas que desarrollan y utilizan tecnologías de IA.
Este enfoque sería en marcado contraste con el Reino Unido, donde el partido Laborista recientemente prometió en su manifiesto introducir «regulaciones vinculantes sobre el puñado de empresas que desarrollan los modelos de IA más poderosos». Los Estados Unidos también tendrían un ambiente regulatorio de IA muy diferente al de la UE con su recientemente aprobada Ley de IA.
El efecto neto de todos estos cambios podría ser una menor alineación global en la regulación de la IA, aunque se desconoce cómo esto podría impactar el desarrollo de la IA y la cooperación internacional. Esta discrepancia regulatoria podría complicar las asociaciones internacionales de investigación, acuerdos de intercambio de datos y el desarrollo de estándares globales de IA. Menos regulaciones de IA podrían, de hecho, estimular la innovación en los Estados Unidos, pero también podrían generar preocupaciones sobre la ética y seguridad de la IA, y el impacto potencial de la IA en los empleos. Esta inquietud podría, a su vez, tener un impacto negativo en la confianza en las tecnologías de IA y las empresas que las construyen.
Es posible que, ante regulaciones debilitadas, las principales empresas de IA colaboren proactivamente en pautas éticas y de seguridad. Del mismo modo, podría haber un mayor enfoque en el desarrollo de sistemas de IA más interpretables y más fáciles de auditar. Esto podría ayudar a las empresas a anticipar posibles críticas negativas y demostrar un desarrollo responsable.
Como mínimo, habrá un período de mayor incertidumbre sobre la regulación de la IA. A medida que el panorama político cambia y las regulaciones se modifican, es crucial que los responsables políticos, líderes empresariales y la comunidad tecnológica colaboren de manera efectiva. Los esfuerzos unificados son esenciales para garantizar que el desarrollo de la IA siga siendo ético, seguro y beneficioso para la sociedad.
GIPHY App Key not set. Please check settings