in

Ingenieros de OpenAI crean agente de datos IA usado por 4,000 empleados y replicable por todos

En un sector como el de la moda, donde la capacidad para interpretar rápidamente las preferencias del consumidor y optimizar las cadenas de suministro marca la diferencia entre el éxito y el estancamiento, la inteligencia artificial está dejando de ser una tecnología experimental para convertirse en una herramienta operativa esencial. El reciente desarrollo interno de OpenAI ofrece una ventana al futuro de la analítica empresarial, un未来 que ya está siendo explorado por compañías de diversos sectores, incluido el textil y el retail de lujo.

La compañía detrás de ChatGPT ha implementado un agente de análisis de datos que, en menos de un año, ha pasado de ser un proyecto Experimental a ser utilizado por más de 4.000 de sus aproximadamente 5.000 empleados diariamente. Este sistema, concebido y ejecutado por un reducido equipo de dos ingenieros en un plazo de tres meses —con un 70% de su código generado por inteligencia artificial—, permite a los trabajadores plantear consultas en lenguaje natural a través de plataformas como Slack o su interfaz web, y recibir a cambio gráficos, cuadros de mando e informes analíticos detallados en cuestión de minutos. Anteriormente, tareas como comparar ingresos por regiones o cohortes de clientes requerían horas de trabajo manual, buceando entre 70.000 conjuntos de datos y escribiendo consultas SQL complejas.

El corazón de esta herramienta reside en su capacidad para navegar una plataforma de datos corporativos que supera los 600 petabytes de información. Su arquitectura se sustenta en seis capas de contexto, que van desde metadatos de esquemas hasta descripciones curadas por expertos y conocimiento institucional extraído de aplicaciones como Slack, Google Docs o Notion. Sin embargo, el elemento más innovador es el proceso de «Codex Enrichment»: un sistema asincrónico donde el agente de codificación de OpenAI examina el código subyacente de las tablas de datos críticas, determinando sus dependencias, propietarios, granularidad y claves de unión. Este mapeo automatizado se almacena en una base de datos vectorial, permitiendo que el agente relacione conceptos como «ingresos» con las tablas correspondientes sin necesidad de que el usuario conozca su nomenclatura técnica.

La versatilidad del agente trasciende los departamentos tradicionalmente tecnológicos. Los equipos financieros lo emplean para desgloses de revenue, los de producto para estudiar la adopción de nuevas funcionalidades, y los ingenieros para depurar regresiones de rendimiento, como analizar si un componente de ChatGPT se ha vuelto más lento y desglosar los factores de latencia implicados. Su diseño horizontal —que evita los silos de información— permite a un directivo combinar en una única consulta datos comerciales, métricas de ingeniería y analíticas de producto, algo poco común en los agentes empresariales convencionales.

No obstante, los responsables del proyecto reconocen una limitación fundamental: la tendencia de los modelos de lenguaje a mostrar exceso de confianza. Para mitigarlo, han refinado la instrucción inicial del agente, forzándolo a invertir más tiempo en una fase de descubrimiento y validación antes de ejecutar análisis. La instrucción, que suena a un manual para un analista junior, insta a «comparar escenarios posibles y verificar la tabla correcta antes de proceder». Las evaluaciones internas revelaron además un principio contraintuitivo: menos contexto curado y más preciso produce mejores resultados que saturar al modelo con información no filtrada. Por ello, el sistema prioriza los dashboards e informes ejecutivos previamente validados como «fuente de verdad», relegando el historial genérico de consultas.

En materia de seguridad, el enfoque es pragmático pero estricto. El agente opera únicamente como una capa de interfaz, heredando los permisos de acceso del usuario mediante su token personal, lo que impide que acceda a datos no autorizados. Su capacidad de escritura se restringe a un esquema de pruebas temporal y no puede actuar en canales públicos. Para construir confianza, el sistema muestra en tiempo real su razonamiento intermedio, las tablas seleccionadas y los enlaces a los resultados subyacentes, permitiendo al usuario interrumpir o redirigir el análisis. Además, cada tarea incluye una autoevaluación del modelo sobre su propio desempeño.

Pese al evidente potencial comercial, OpenAI ha descartado comercializar directamente esta solución. Su estrategia se centra en compartir los bloques de construcción —las APIs de respuestas, evaluaciones y el modelo GPT-5.2, sin ajustes específicos— para que otras empresas puedan replicar el sistema. Esta filosofía se alinea con su iniciativa Frontier, una plataforma para que las construyan y gestionen agentes, y con alianzas con consultoras como McKinsey o tecnológicas como AWS.

El mensaje final de los artífices del proyecto es claro: la carrera por los agentes de IA no se decidirá solo por la calidad de los modelos, sino por la solidez de los datos subyacentes. «La gobernanza de datos no es sexy, pero es crucial», afirman. Los datos deben estar suficientemente limpios, anotados y con una fuente de verdad definida para que un agente sea efectivo. Para la industria de la moda, esta lección es particularmente relevante. Empresas del sector que manejan volúmenes masivos de información sobre ventas, tendencias en redes sociales o comportamientos de consumidores podrían obtener beneficios similares: desde la predicción de demandas hasta la personalización de diseños o la optimización de Stock.

Sin embargo, la implementación requiere una base datos madura. Los consejos prácticos para directivos de moda que contemplen este camino incluyen: 1) Invertir en la limpieza y estandarización de catálogos de productos y datos de ventas; 2) Establecer repositorios centralizados de conocimiento, como informes de tendencias validados, que sirvan como «fuente de verdad»; 3) Comenzar con pilotos departmentalizados, como análisis de rendimiento de colecciones, antes de integrar múltiples fuentes; y 4) Diseñar interfaces que permitan la interrupción y supervisión humana, esenciales para mantener la confianza en un entorno donde las decisiones afectan a la creatividad y la marca.

La velocidad de adopción de estas tecnologías está marcando una brecha entre compañías. Como señalan desde OpenAI, «las empresas que las implementan avanzarán muy rápidamente, mientras que las que no corren el riesgo de quedarse atrás». En un mundo de moda where los ciclos de tendencia se acortan y la competitividad es feroz, la capacidad de transformar datos en intuición accionable en minutos, no en días, podría redefinir la ventaja competitiva.
«

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Shia LaBeouf y Mia Goth se separan por razones reales

Endor Labs lanza AURI gratuita tras estudio que revela 90% inseguridad en código IA