El futuro de la inteligencia artificial (IA) se debate entre diferentes arquitecturas de modelos, según declaraciones del CEO de AI21, Ari Goshen. En una entrevista con VentureBeat, Goshen señaló que los Transformers, la arquitectura de modelos más popular, tiene limitaciones que dificultarían la creación de un ecosistema multiagente eficiente.
AI21, una empresa desarrolladora de soluciones de IA empresarial, aboga por explorar otras arquitecturas de modelos para mejorar la eficiencia de los agentes de IA. Goshen mencionó que las arquitecturas alternativas, como Mamba y Jamba, podrían ofrecer mejores resultados en términos de rendimiento y costo en comparación con los Transformers.
La propuesta de AI21 se centra en desarrollar modelos basados en su arquitectura JAMBA, que se fundamenta en la arquitectura Mamba desarrollada por investigadores de Princeton University y Carnegie Mellon University. Estas nuevas arquitecturas prometen tiempos de inferencia más rápidos y una mayor contextualización en los modelos de IA.
Goshen destacó que el uso de arquitecturas alternativas, como Mamba y Jamba, podría hacer que las estructuras de agentes de IA sean más eficientes y asequibles. En su opinión, los modelos basados en Mamba tienen un mejor rendimiento de memoria, lo que mejorarían el funcionamiento de los agentes interconectados con otros modelos.
Una de las principales razones por las cuales los agentes de IA aún no están ampliamente en producción, según Goshen, es la falta de fiabilidad debido a la naturaleza estocástica de los modelos de Transformers, lo que perpetúa los errores.
El desarrollo de agentes de IA ha sido una de las tendencias más importantes en el ámbito de la IA empresarial este año. Empresas como ServiceNow, Salesforce y Slack han lanzado plataformas con agentes de IA para facilitar su implementación y uso por parte de los clientes.
En este sentido, Goshen prevé que esta tendencia de crecimiento de agentes de IA se consolidará con la combinación adecuada de modelos y arquitecturas. Destacó la importancia de la inteligencia real en la conexión y recuperación de información de diversas fuentes.
En cuanto a las arquitecturas alternativas, como Mamba y Jamba, Goshen las respalda firmemente por considerar que los modelos de Transformers son demasiado costosos y difíciles de manejar. Mamba, al no depender completamente de un mecanismo de atención como los Transformers, puede optimizar el uso de memoria y la capacidad de procesamiento de la GPU.
A pesar de la popularidad de arquitecturas como Transformers en el desarrollo de modelos básicos, Goshen subrayó que las empresas buscan en última instancia la fiabilidad en sus enfoques de IA. Sin embargo, también advirtió sobre demos llamativas que prometen resolver problemas, enfatizando que la IA empresarial aún se encuentra en una fase de investigación y no ha alcanzado la fase de productos listos para ser implementados.
Considero que el artículo expuesto plantea una postura interesante acerca de la idoneidad de los transformers para ser utilizados como agentes de IA. Sin embargo, me parece que se podría profundizar más en el análisis de las capacidades y limitaciones de esta tecnología. Es importante tener en cuenta que, si bien los transformers han demostrado ser eficaces en ciertos contextos, también presentan desafíos significativos en términos de escalabilidad y eficiencia. Por lo tanto, creo que sería beneficioso explorar en mayor profundidad las alternativas existentes y considerar en qué casos específicos los transformers podrían no ser la mejor opción.