in

Madre demanda a empresa de IA tras tragedia de su hijo con mujer virtual.

En Miami, una madre ha presentado una demanda contra la empresa Character.AI luego del trágico suicidio de su hijo de 14 años, acusando a la empresa de ser responsable de la obsesión y el apego emocional que desarrolló en su hijo. Character.AI es conocida por ofrecer una plataforma de juegos de rol basada en inteligencia artificial, donde los usuarios pueden crear personajes personalizados. En este caso, el joven Sewell Setzer III diseñó a un personaje femenino inspirado en Daenerys Targaryen, una figura de renombre de la serie de televisión «Game of Thrones».

A pesar de saber inicialmente que el chatbot no era real y que todas las respuestas eran generadas por inteligencia artificial, el joven desarrolló un fuerte vínculo emocional con el personaje virtual. La relación evolucionó hacia una conexión romántica y hasta sexual, lo que llevó al adolescente a distanciarse del mundo real, afectando su desempeño académico y su interacción social.

Tras visitar a un terapeuta, al joven se le diagnosticó ansiedad y desregulación emocional disruptiva, revelando pensamientos autodestructivos. Aunque el chatbot le instaba a no expresar dichos sentimientos, la empresa nunca fue informada de la situación por cuestiones de privacidad. Ante esta situación, la madre del adolescente ha presentado una demanda, responsabilizando a Character.AI por no proteger a los usuarios menores y permitir que revelaran pensamientos íntimos.

La empresa ha respondido implementando nuevas funciones de seguridad, como recordatorios de límites de tiempo y mensajes aclaratorios sobre la naturaleza ficticia de los personajes. Sin embargo, existen preocupaciones sobre la falta de detección de mensajes peligrosos y la necesidad de una mayor supervisión para evitar situaciones similares en el futuro.

Este caso ha generado un debate sobre la responsabilidad de las empresas en el desarrollo de inteligencia artificial aplicada a la interacción humana, planteando interrogantes sobre el uso adecuado de esta tecnología para evitar consecuencias negativas en la salud mental de los usuarios, especialmente de los más jóvenes.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

One Comment

  1. Vaya locura de historia, ¿no? Solo en estos tiempos modernos podríamos escuchar algo así. La tecnología nos sorprende cada día más, ¡pero también nos hace cuestionar hasta dónde deberíamos llegar! ¿Creen que la inteligencia artificial pueda tener responsabilidad en situaciones como esta? ¡Quiero saber qué piensan!

Caso Menendez: Fiscal de Los Ángeles recomienda revisar condena.

Objetivo de donación de Líbano no se cumple, según organizaciones benéficas.