En el ámbito de la inteligencia artificial, la interoperabilidad entre agentes autónomos se está convirtiendo en un tema crucial. A medida que estos agentes se vuelven más ubicuos, la necesidad de un marco estandarizado para gobernar sus interacciones se vuelve cada vez más importante. Investigadores de la Universidad Carnegie Mellon han propuesto un nuevo protocolo de interoperabilidad que aborda la identidad, la responsabilidad y la ética de los agentes de inteligencia artificial.
Este protocolo, denominado LOKA (Orquestación en Capas para Agentes Conocedores), se basa en lo que los investigadores denominan una Capa de Identidad Universal para Agentes. Este enfoque asigna a los agentes una identidad única y verificable, lo que permite a los usuarios y a otros agentes verificar su identidad de manera segura.
LOKA opera como una pila de capas. La primera capa se centra en la identidad, definiendo qué es el agente. Esto incluye un identificador descentralizado, o un «ID criptográficamente verificable único». La siguiente capa es la de comunicación, donde el agente informa a otro agente de su intención y de la tarea que debe realizar. A esto le sigue la capa de ética y la capa de seguridad.

La capa de ética de LOKA define cómo se comporta el agente. Incorpora un marco de toma de decisiones éticas flexible pero robusto que permite a los agentes adaptarse a estándares éticos variables según el contexto en el que operan. El protocolo LOKA emplea modelos de toma de decisiones colectivas, lo que permite a los agentes dentro del marco determinar sus próximos pasos y evaluar si estos pasos se alinean con los estándares de inteligencia artificial ética y responsable.
Por otro lado, la capa de seguridad utiliza lo que los investigadores describen como criptografía resistente a la cuántica. Esto garantiza que las interacciones entre agentes sean seguras y estén protegidas contra posibles amenazas.
LOKA se destaca de otros protocolos porque establece información crucial para que los agentes se comuniquen entre sí y operen de forma autónoma en diferentes sistemas. Podría ser especialmente útil para las empresas, ya que garantiza la seguridad de los agentes que despliegan en el mundo y proporciona una forma rastreable de comprender cómo el agente tomó decisiones. Un temor común entre las empresas es que un agente acceda a otro sistema o a datos privados y cometa un error.
El sistema destaca la necesidad de definir quién son los agentes, cómo toman decisiones y cómo se les hace responsables. La visión es crear ecosistemas donde estos agentes puedan ser confiables, responsables y éticamente interoperables en sistemas diversos.
LOKA competirá con otros protocolos y estándares de agentes que están surgiendo. Protocolos como MCP y A2A han encontrado una gran audiencia, no solo por las soluciones técnicas que brindan, sino porque estos proyectos están respaldados por organizaciones conocidas. Sin embargo, LOKA opera de manera independiente y ha recibido comentarios alentadores y emocionantes de otros investigadores e instituciones para expandir el proyecto de investigación LOKA.

GIPHY App Key not set. Please check settings