La próxima propuesta de OpenAI será sometida a controles de seguridad por parte del gobierno de Estados Unidos, según ha anunciado Sam Altman, CEO de la compañía, en medio de crecientes preocupaciones sobre la seguridad de los sistemas de inteligencia avanzada.
En una publicación en X, Altman señaló que OpenAI ha estado trabajando con el Instituto de Seguridad de Inteligencia Artificial de EE. UU., un organismo gubernamental, en un acuerdo para proporcionar acceso temprano a su próximo modelo base y colaborar para impulsar la ciencia de las evaluaciones de inteligencia artificial.
El jefe de OpenAI también hizo hincapié en que la empresa ha modificado sus políticas de no difamación, permitiendo que los empleados actuales y anteriores planteen preocupaciones sobre la empresa y su trabajo libremente, y se mantiene comprometida a asignar al menos el 20% de sus recursos informáticos a la investigación de seguridad.
En respuesta a las inquietudes, cinco senadores de EE. UU. escribieron a Altman cuestionando el compromiso de OpenAI con la seguridad, así como los posibles actos de represalia contra empleados anteriores que expresaron públicamente sus preocupaciones. «OpenAI ha anunciado un compromiso orientado al desarrollo seguro, seguro y responsable de la inteligencia artificial en interés público. Estos informes plantean preguntas sobre cómo OpenAI está abordando las preocupaciones emergentes sobre la seguridad», escribieron los senadores.
Según Bloomberg, el director de estrategia de OpenAI, Jason Kwon, respondió con una carta reafirmando el compromiso de la empresa con el desarrollo de inteligencia artificial en beneficio de toda la humanidad. También mencionó que el laboratorio se dedica a «implementar protocolos rigurosos de seguridad» en cada etapa del proceso.
En cuanto a las medidas que se están tomando, mencionó el plan de OpenAI de asignar el 20% de sus recursos informáticos a la investigación de seguridad (anunciado por primera vez en julio pasado), la eliminación de la cláusula de no difamación en los contratos laborales de empleados actuales y anteriores para garantizar que puedan plantear preocupaciones con comodidad, y la asociación con el Instituto de Seguridad de Inteligencia Artificial para colaborar en la liberación segura de modelos.
Las preocupaciones de seguridad en torno a OpenAI comenzaron a aumentar en mayo cuando Ilya Sutskever y Jan Leike, los dos co-líderes del equipo de superalineación de OpenAI que trabajaban en sistemas y procesos de seguridad para controlar modelos de inteligencia artificial superinteligentes, renunciaron en cuestión de horas.
Leike, en particular, fue contundente sobre su partida y señaló que «la cultura y los procesos de seguridad de la empresa han pasado a un segundo plano frente a los productos llamativos».
Posteriormente a las salidas, surgieron informes de que el equipo de superalineación también había sido desmantelado. Sin embargo, OpenAI ha continuado sin detenerse, lanzando una serie de productos mientras comparte investigaciones internas y esfuerzos en el frente de la confianza y seguridad. Incluso ha formado un nuevo comité de seguridad, que está revisando los procesos y garantías de la empresa.
En resumen, OpenAI está trabajando activamente en abordar las preocupaciones de seguridad en torno a sus avanzados sistemas de inteligencia artificial, fortaleciendo sus protocolos y colaboraciones con entidades gubernamentales para garantizar la seguridad y el beneficio de la humanidad.
GIPHY App Key not set. Please check settings