Hay personas que hablan con ChatGPT como si fuera su amigo, su psicólogo y hasta su pareja. OpenAI se ha enfrentado a numerosas críticas por los riesgos que supone para la salud mental, especialmente en casos que han desembocado en psicosis e incluso suicidios. Ahora, se enfrentan a un problema aún más grave: hay personas usando ChatGPT para planear asesinatos y se empieza a cuestionar la responsabilidad de OpenAI en todo esto.
El tiroteo de la Universidad Florida. El 17 de abril de 2025, Phoenix Ikner, un estudiante de la Universidad de Florida, mató a tiros a dos personas e hiriendo a siete más. Cuentan en el Wall Street Journal que, cuatro minutos antes del ataque, Ikner le preguntó a ChatGPT a cuántos compañeros tenía que matar para hacerse famoso. El chatbot le respondió que “normalmente 3 o más muertos, 5 o 6 víctimas en total, hace que llegue a los medios nacionales”. También subió una imagen de la pistola Glock con la que cometió el ataque y le preguntó si tenía algún tipo de seguro que tuviera que desactivar. «Si hay una bala en la recámara y aprietas el gatillo? Disparará», respondió ChatGPT.
No ha sido el único. No es la primera vez que sabemos que un criminal acude a la IA para planificar un ataque. También sucedió en el tiroteo de Tumbler Ridge, Canadá, lo que ha desembocado en una demanda colectiva a OpenAI por parte de las familias de las víctimas. Y hay más: el autor del frustrado ataque con explosivos en un hotel en Las Vegas en 2025 también había acudido a la IA para planear su ataque. La pregunta que surge es evidente ¿Cuándo deben avisar a las autoridades?
Qué dice OpenAI. En declaraciones al Wall Street Journal, una portavoz de OpenAI defiende que la compañía colaboró con las autoridades compartiendo las conversaciones de Ikner, que ChatGPT no es el responsable de sus acciones y que siguen mejorando sus medidas de seguridad. Entre estas medidas, dice que están fortaleciendo la evaluación de posibles acciones violentas y cuentan con un equipo de expertos en seguridad que alerta cuando los mensajes suponen un riesgo creíble. Sin embargo, según fuentes internas de la compañía, el debate interno se centra en dónde se debe trazar la línea entre la privacidad de los usuarios y la seguridad.
OpenAI pudo frenarlo. Es lo que denuncian las familias de las víctimas del tiroteo de Tumbler Ridge. El sistema de OpenAI identificó mensajes problemáticos ocho meses antes del tiroteo y el caso pasó a ser revisado por los empleados de la empresa. Algunos empleados eran partidarios de alertar a las autoridades porque pensaron que los mensajes podían desembocar en violencia real, pero tras debatirlo internamente se decidió suspender la cuenta sin dar el aviso.
En el caso del tirador de Florida, los mensajes que hemos descrito se enviaron minutos antes del ataque, pero no habían sido los únicos. OpenAI compartió el historial con las autoridades, que descubrieron que la noche anterior estuvo compartiendo ideas suicidas con el chatbot. Las autoridades están investigando el papel que jugó el chatbot en la ejecución del ataque ya que, según el fiscal general de Florida, «Si se tratara de una persona al otro lado de la pantalla, la acusaríamos de asesinato».
La IA como confesionario. Lo que antes consultábamos con búsquedas de Google, ahora se lo preguntamos a la IA. Sin embargo, con Google hacemos búsquedas mucho más concretas e impersonales, mientras que un chatbot hace que la interacción sea mucho más profunda, más íntima. La IA se ha convertido en nuestra confidente y compañera; una a la que le pedimos consejo amoroso y apoyo emocional. A medida que va integrándose en nuestras vidas, era cuestión de tiempo que también surgieran casos como estos.
Imagen | Xataka

GIPHY App Key not set. Please check settings