in

recurrir a los humanos cuando hay temas espinosos

China planea restringir que los chatbots con inteligencia artificial influyan en las emociones humanas de maneras que puedan llevar al suicidio o la autolesión o incluso a apostar en juegos de azar, según un borrador de las normas que se han hecho públicas esta semana. 

Las regulaciones propuestas por la Administración del Ciberespacio para los denominados «servicios interactivos de IA con características humanas», según una traducción de CNBC del documento en chino, pretende desarrollar medidas para aplicarlas en el futuro a los productos o servicios de IA ofrecidos al público. Por ahora es un borrador y se espera lanzar la normativa más adelante. Ahora se reciben comentarios públicos hasta el 25 de enero.

Hace unos días veíamos cómo un apagón en San Francisco demostró que cuando hay problemas, los coches autónomos necesitan de la intervención humana para salir del caos; también hemos recogido historias de gente que se gana la vida arreglando problemas causados por la IA… y ahora tenemos que en China, si una persona tiene un tema delicado que tratar, el plan será exigir que una persona tome las riendas de la conversación. 

Regular la IA que parece humana pero no lo es
Los chatbots, al estilo de ChatGPT tan usado en Europa o del reconocido DeepSeek de China, que simulan la personalidad humana e involucran emocionalmente a los usuarios a través de texto, imágenes, audio o video… pueden tener muchas consecuencias negativas. 

Al fin y al cabo no son personas expertas en la psicología humana, sino máquinas entrenadas con millones de datos varios. Ya hay casos de suicidios de adolescentes incitados por una IA e incluso han demandado a OpenAI por este motivo. 

Las normas planificadas por Pekín marcarían el primer intento mundial de regular la IA con características humanas o antropomórficas, tal y como ha explicado Winston Ma, profesor adjunto de la Facultad de Derecho de la Universidad de Nueva York. El oaís tiene una regulación para la IA generativa del año 2023,pero según el experto esta versión «marca un salto de la seguridad del contenido a la seguridad emocional». 

Las normas, publicadas el sábado para consulta pública por la Administración del Ciberespacio de China (CAC), exigirían a los proveedores notificar claramente a los usuarios que están interactuando con una IA, no con un humano. 

Claves del borradorComo recoge CNBC, el borrador de las normas propone que

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Por qué la manicura de la reina Sofía es la más elegante: el look de uñas que siempre funciona

“Si estás deprimido, estás viviendo en el pasado. Si estás ansioso, estás viviendo en el futuro”