La aprobación de la Ley de Innovación en Seguridad del Modelo de Inteligencia Artificial en California ha generado controversias en el mundo tecnológico. Esta regulación, conocida como SB 1047, impone medidas estrictas a las empresas de inteligencia artificial que operan en el estado, exigiendo precauciones antes de entrenar modelos complejos. Los desarrolladores deben asegurarse de poder cerrar rápidamente modelos considerados inseguros y proteger los modelos de lenguaje de modificaciones post-entrenamiento que puedan causar daños graves. Esta legislación se presenta como salvaguarda para proteger a la sociedad del mal uso de la IA, a la vez que despierta críticas por sus posibles implicaciones legales para los desarrolladores independientes.
El profesor Hinton, ex director de IA de Google, respalda la ley al reconocer los riesgos asociados con los potentes sistemas de inteligencia artificial. Sin embargo, empresas como OpenAI y pequeños desarrolladores han expresado su preocupación por las posibles sanciones penales a las que podrían enfrentarse si no cumplen con los requisitos de seguridad establecidos en la legislación. Algunos argumentan que esto podría perjudicar la innovación y el desarrollo independiente en el campo de la IA, al imponer cargas adicionales y burocracia a los creadores de modelos.
Por otro lado, empresas como Apple, Amazon, Google, Meta y OpenAI se han comprometido a seguir un conjunto voluntario de reglas de seguridad de inteligencia artificial propuestas por la Administración Biden. Estas normas incluyen la prueba del comportamiento de los sistemas de IA para garantizar la ausencia de tendencias discriminatorias y problemas de seguridad. Los resultados de estas pruebas deberán ser compartidos con entidades gubernamentales y académicas para su revisión. A pesar de que estas directrices no tienen aplicación legal por el momento, representan un avance hacia la transparencia y responsabilidad en el uso de la inteligencia artificial.
Es importante destacar el interés de Apple en estas regulaciones, dado el próximo lanzamiento de Apple Intelligence, una función que estará disponible en los sistemas operativos iOS 18.1 y macOS Sequoia 15.1. Esta nueva funcionalidad requerirá dispositivos con chip M1 o superior, como el iPhone 15 Pro, iPad, y computadoras Mac compatibles. La implementación de normas de seguridad en el desarrollo de la inteligencia artificial es crucial para garantizar su uso ético y responsable en beneficio de la sociedad en su conjunto. La decisión final sobre la aprobación del proyecto de ley en California quedará en manos del gobernador Gavin Newsom, quien tiene hasta finales de septiembre para pronunciarse al respecto.
GIPHY App Key not set. Please check settings