El gobernador de California, Gavin Newsom, ha vetado el proyecto de ley SB 1047, que muchos creían transformaría el panorama del desarrollo de la inteligencia artificial en el estado y el país. El veto, publicado el pasado domingo, podría otorgar a las empresas de IA la capacidad de demostrar que pueden proteger proactivamente a los usuarios de los riesgos de la IA.
El proyecto de ley SB 1047 habría requerido que las empresas de IA incluyeran un «interruptor de emergencia» en los modelos, implementaran un protocolo de seguridad por escrito y contrataran a un auditor de seguridad independiente antes de comenzar a entrenar los modelos. También habría otorgado al fiscal general de California acceso al informe del auditor y el derecho a demandar a los desarrolladores de IA.
Algunos veteranos de la industria de la IA creían que el proyecto de ley podría tener un efecto inhibidor en el desarrollo de la IA. Muchos en la industria agradecieron a Newsom por vetar el proyecto de ley, señalando que el veto podría proteger el desarrollo de código abierto en el futuro. Yann Le Cun, científico jefe de IA en Meta y un oponente vocal del SB 1047, publicó en X que la decisión de Newsom era «sensata».
El inversor destacado en IA y director general de Andreessen Horowitz, Marc Andreessen, dijo que Newsom había tomado partido «a favor del dinamismo de California, el crecimiento económico y la libertad para computar».
Otros actores de la industria también opinaron, mencionando que si bien creen que la regulación en el espacio de la IA es necesaria, no debería dificultar que los desarrolladores más pequeños y los modelos de IA más pequeños prosperen.
Por otro lado, no todos están celebrando la decisión de Newsom, con grupos de política tecnológica y de seguridad condenando el veto.
Estados Unidos no tiene una regulación federal sobre la IA generativa. Si bien algunos estados han desarrollado políticas sobre el uso de la IA, ninguna ley impone reglas sobre la tecnología. La política federal más cercana en el país es una orden ejecutiva del presidente Joe Biden, la cual establece un plan para que las agencias utilicen sistemas de IA y pide a las empresas de IA que presenten voluntariamente modelos para su evaluación antes de su lanzamiento público. OpenAI y Anthropic acordaron permitir que el gobierno probara sus modelos.
La administración Biden también ha dicho que planea monitorear los modelos de peso abierto en busca de posibles riesgos.
GIPHY App Key not set. Please check settings