«Será un trabajo estresante y tendrás que sumergirte de lleno desde el primer momento». Con esa advertencia poco habitual, Sam Altman, CEO de OpenAI, ha
Lo que está en juego es la posibilidad de que los modelos de IA más avanzados causen daños reales a gran escala… y de que alguien tenga la responsabilidad directa de evitarlo
Anteponer la gestión de riesgos a la comercial
Este puesto será una pieza clave para OpenAI en un momento ‘crítico’. Los modelos mejoran a una velocidad sin precedentes y ya no solo generan texto o imágenes: encuentran vulnerabilidades de seguridad, influyen en estados mentales y empiezan a mostrar capacidades que podrían ser reutilizadas con fines destructivos.
El propio Altman lo reconoce sin rodeos: en 2025, dice, la compañía ya ha experimentado «un adelanto» del impacto de estos sistemas en la salud mental, y ahora empieza a observar cómo los modelos se vuelven lo bastante competentes en ciberseguridad como para detectar fallos críticos.
La empresa asume que el desarrollo de IA avanzada conlleva riesgos inevitables, y que la única opción responsable es poner a alguien bien pagado, con poder real y bajo enorme presión, a vigilar dónde y cuándo puede producirse el daño.



GIPHY App Key not set. Please check settings