in

Microsoft usa Fabric IQ para corregir agentes empresariales de IA con realidades divergentes

Los recientes anuncios de Microsoft en el campo de la inteligencia artificial empresarial señalan un cambiosignificativo para industrias como la de la moda, donde la dispersión de datos entre diferentes departamentos ha limitado la eficacia de los agentes automatizados. Para 2026, los ingenieros de datos que trabajan con sistemas multi-agente se encuentran con un obstáculo persistente: los agentes desarrollados en plataformas disímiles, por equipos separados, carecen de una comprensión unificada de cómo opera realmente el negocio. En una casa de moda, esto se traduce en que el agente de diseño, el de gestión de inventario y el de atención al cliente pueden tener interpretaciones divergentes sobre qué constitutes una «tendencia emergente», un «stock disponible» o un «cliente premium»,generando decisiones inconsistentes o erróneas.

La raíz del problema radica en que cada agente carga consigo su propia versión de la realidad empresarial. Cuando estas definiciones fragmentadas interactúan en un entorno de agentes, el resultado no es un simple fallo del modelo, sino una alucinación impulsada por un contexto compartido insuficiente. Microsoft aborda este desafío con una ampliación sustancial de Fabric IQ, su capa de inteligencia semántica presentada en noviembre de 2025. La ontología de negocio de Fabric IQ ahora es accesible a través del Model Context Protocol (MCP) para cualquier agente, independientemente del vendedor o tecnología con la que fue construido. Paralelamente, se incorpora la planificación empresarial a esta capa, integrando datos históricos, señales en tiempo real y metas organizacionales formales en un único nivel consultable. Junto a esto, el Database Hub unifica bajo un mismo plano de gestión bases de datos como Azure SQL, Cosmos DB, PostgreSQL, MySQL y SQL Server dentro de Fabric. Los data agents de Fabric han alcanzado su disponibilidad general.

El objetivo global es crear una plataforma unificada donde todos los datos y su significado semántico estén disponibles y sean accesibles para cualquier agente, proporcionando el contexto que las empresas requieren. Amir Netz, CTO de Microsoft Fabric, buscó una analogía cinematográfica para ilustrar la importancia de esta capa compartida: «Es un poco como la chica de ’50 First Dates’. Cada mañana despiertan y olvidan todo, y tienes que explicárselo de nuevo. Esta es la explicación que les das cada mañana». La capa semántica actúa como esa memoria colectiva que evita tener que reconstruir constantemente el entendimiento básico del negocio.

El acceso MCP es el elemento que desplaza a Fabric IQ de una característica vinculada a Fabric a una infraestructura compartida para despliegues multi-vendedor. Netz fue claro al respecto: «No importa de quién sea el agente, cómo fue construido o cuál sea su rol. Hay cierto conocimiento común, cierto contexto común que todos los agentes compartirán». Este contexto compartido también marca una distinción clara entre lo que hace la ontología y lo que hace la recuperación aumentada por generación (RAG). Netz no descarta RAG como técnica, pero la ubica en un espacio específico: RAG maneja grandes cuerpos de documentos como regulaciones, manuales internos o documentación técnica, donde la recuperación bajo demanda es más práctica que cargarlo todo en el contexto.

» No esperamos que los humanos lo recuerden todo de memoria», explicó. «Cuando alguien hace una pregunta, hay que saber ir a buscar un poco, encontrar la parte relevante y traerla de vuelta». Sin embargo, RAG no resuelve el estado de negocio en tiempo real. No indica a un agente qué aviones están en el aire ahora, si una tripulación tiene horas de descanso suficientes o cuál es la prioridad actual en una línea de producto. «El error del pasado fue pensar que una sola tecnología podía darlo todo. El modelo cognitivo de los agentes es similar al humano: hay cosas que deben estar disponibles en memoria, cosas disponibles bajo demanda y cosas observadas y detectadas en tiempo real».

Los analistas de la industria reconocen la lógica detrás del enfoque de Microsoft, pero plantean interrogantes sobre la ejecución. Robert Kramer, analista en Moor Insights and Strategy, señala que la pila amplia de Microsoft —que incluye Power BI, Microsoft 365, Dynamics y Azure— le da una ventaja estructural para convertirse en la plataforma por defecto para despliegues de agentes empresariales. «Microsoft conecta naturalmente los datos empresariales con los usuarios, los flujos de trabajo operativos y ahora los sistemas de IA que operan en ese entorno», comentó. La contrapartida, según Kramer, es que Microsoft compite en una superficie más amplia que Databricks o Snowflake, cuya reputación se basa en la profundidad de la plataforma de datos en sí.

La pregunta más inmediata para los equipos de datos, añade Kramer, es si el acceso MCP realmente reduce el trabajo de integración. «La mayoría de las empresas no operan en un único entorno de IA. Finanzas puede usar un conjunto de herramientas, ingeniería otro, y la cadena de suministro otra distinta. Si Fabric IQ puede actuar como una capa de contexto de datos común a la que esos agentes acceden, empieza a reducir la fragmentación típica alrededor de los datos empresariales. Pero, si solo añade otro protocolo que aún requiere mucho trabajo de ingeniería, la adopción será más lenta».

Sanjeev Mohan, analista independiente, considera que el desafío mayor es organizativo, no técnico. «No creo que comprendan plenamente las implicaciones aún», dijo refiriéndose a los equipos de datos empresariales. «Esto es un desfase clásico de capacidades: las capacidades se expanden más rápido que la imaginación de las personas para usarlas. El trabajo más difícil será asegurar que la capa de contexto sea confiable y trustworthy». Holger Mueller, analista principal en Constellation Research, ve en MCP el mecanismo adecuado, pero urge cautela en la ejecución. «Para que las empresas se beneficien de la IA, necesitan acceder a sus datos —a menudo desorganizados y en silos— de una manera estándar y sencilla para la IA. Eso es lo que MCP hace. El diablo está en los detalles: qué tan bueno es el acceso, cómo rinde y cuánto cuesta. El acceso y la gobernanza aún deben resolverse».

El anuncio del Database Hub, en acceso anticipado, refuerza la propuesta de Microsoft al unificar la gestión y observabilidad de múltiples motores de bases de datos. Devin Pratt, director de investigación en IDC, indica que esta dirección integrada sigue la tendencia del mercado. IDC prevé que para 2029, el 60% de las plataformas de datos empresariales unificarán cargas de trabajo transaccionales y analíticas. «El ángulo de Microsoft es reunir más piezas en un enfoque coordinado, mientras que los rivales avanzan por líneas similares pero desde puntos de partida diferentes», declaró Pratt.

Para los ingenieros de datos responsables de hacer que los pipelines sean aptos para IA, la implicación práctica de estos anuncios es un desplazamiento en dónde reside el trabajo difícil. Conectar fuentes de datos a una plataforma es un problema resuelto. Definir qué significan esos datos en términos de negocio y hacer que esa definición esté disponible de manera consistente para cada agente que la consulte, no lo es. Este giro tiene una consecuencia concreta: la capa semántica —la ontología que mapea entidades, relaciones y reglas operativas de negocio— se está convirtiendo en infraestructura de producción. Deberá ser construida, versionada, gobernada y mantenida con la misma disciplina que un pipeline de datos. Esta es una nueva categoría de responsabilidad para los equipos de ingeniería de datos, y la mayoría de las organizaciones aún no han dotado de personal ni estructurado para ella.

La tendencia más amplia que reflejan los anuncios de esta semana es que, en 2026, la carrera de plataformas de datos ya no se trata principalmente de capacidad de cómputo o almacenamiento. Se trata de qué plataforma puede entregar el contexto compartido más confiable a la gama más amplia de agentes. Para la industria de la moda, donde la agilidad en la respuesta a tendencias, la optimización de inventario y la personalización son críticas, contar con una base de datos semánticamente unificada podría ser la clave para desbloquear el potencial completo de la IA en todo el ciclo de vida del producto, desde el boceto hasta la experiencia del cliente final.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

El ministro exige regulación urgente del uso de noticias por la inteligencia artificial

IA rescata clientes perdidos por correo de voz en pequeñas empresas de servicios.