Según una encuesta reciente realizada por PwC a 1,001 ejecutivos con roles de negocio y tecnología en Estados Unidos, el 73% de los encuestados actualmente utilizan o planean utilizar inteligencia artificial generativa en sus organizaciones.
Sin embargo, solo el 58% de los encuestados han comenzado a evaluar los riesgos de la inteligencia artificial. Para PwC, la inteligencia artificial responsable está relacionada con el valor, la seguridad y la confianza, y debería formar parte de los procesos de gestión de riesgos de una empresa.
Jenn Kosar, líder de aseguramiento de PwC en Estados Unidos, mencionó que hace seis meses podría haber sido aceptable que las empresas comenzaran a implementar proyectos de inteligencia artificial sin considerar estrategias de inteligencia artificial responsable, pero ya no es así.
Kosar destacó que ahora estamos en un punto en el que es crucial construir sobre la base de la inteligencia artificial responsable. Proyectos anteriores eran internos y limitados a pequeños equipos, pero ahora estamos viendo una adopción a gran escala de la inteligencia artificial generativa.
Los proyectos piloto de inteligencia artificial generativa en realidad contribuyen mucho a la estrategia de inteligencia artificial responsable, ya que las empresas podrán determinar qué funciona mejor con sus equipos y cómo utilizan los sistemas de inteligencia artificial.
La responsabilidad en la inteligencia artificial y la evaluación de riesgos han cobrado relevancia en los últimos días después de que xAI de Elon Musk desplegara un nuevo servicio de generación de imágenes a través de su modelo Grok-2 en la plataforma social X (anteriormente Twitter). Los usuarios iniciales reportan que el modelo parece ser en gran medida ilimitado, lo que permite a los usuarios crear todo tipo de contenido controvertido e inflamatorio, incluyendo deepfakes de políticos y estrellas del pop cometiendo actos de violencia o en situaciones abiertamente sexuales.
Los encuestados en la encuesta también fueron interrogados sobre 11 capacidades que PwC identificó como «un subconjunto de capacidades que las organizaciones parecen estar priorizando más comúnmente hoy en día». Estas incluyen la capacitación, la contratación de especialistas en riesgos de inteligencia artificial, la privacidad de los datos, la gobernanza de los datos, la ciberseguridad, la prueba del modelo, la gestión del modelo, la gestión de riesgos de terceros, software especializado para la gestión de riesgos de inteligencia artificial, y la supervisión y auditoría.
Según la encuesta de PwC, más del 80% de los encuestados informaron progreso en estas capacidades. Sin embargo, solo el 11% afirmó haber implementado todas las capacidades, aunque PwC mencionó que muchos podrían estar exagerando su progreso.
PwC señaló que algunos de estos indicadores para la inteligencia artificial responsable pueden ser difíciles de gestionar, lo que podría ser una razón por la cual las organizaciones encuentran difícil implementarlos por completo.
Para guiar a las empresas en la transformación hacia la inteligencia artificial, PwC sugiere formas de crear una estrategia integral de inteligencia artificial responsable, como crear una estructura de propiedad y pensar en todo el ciclo de vida de los sistemas de inteligencia artificial, implementando políticas de seguridad y confianza en toda la organización y preparándose para futuras regulaciones.
GIPHY App Key not set. Please check settings