La Revolución de la Inteligencia Artificial en Dispositivos Móviles: Hyena Edge
En un esfuerzo por trascender la arquitectura tradicional de los modelos de lenguaje grandes (LLM, por sus siglas en inglés), Liquid AI, una startup de modelos de base con sede en Boston y derivada del Instituto Tecnológico de Massachusetts (MIT), ha anunciado el desarrollo de «Hyena Edge». Este innovador modelo convolucional multi-híbrido está diseñado para funcionar en teléfonos inteligentes y otros dispositivos de borde, prometiendo una mayor eficiencia y rendimiento en tareas de inteligencia artificial.
La presentación de Hyena Edge se produce en vísperas de la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR) 2025, uno de los eventos más destacados en el ámbito de la investigación en aprendizaje automático, que este año se celebrará en Viena, Austria. El modelo ha sido diseñado para superar las limitaciones de los modelos basados en la arquitectura Transformer, que sustentan a la mayoría de los LLM populares como OpenAI’s GPT y Google’s Gemini.

Hyena Edge se caracteriza por su enfoque convolucional y multi-híbrido, que lo distingue de los diseños tradicionales basados en atención. Esta arquitectura, fruto del marco de síntesis de arquitecturas personalizadas (STAR) de Liquid AI, utiliza algoritmos evolutivos para diseñar automáticamente la columna vertebral del modelo y optimizar su rendimiento en varios objetivos específicos del hardware, como la latencia, el uso de memoria y la calidad.
En pruebas realizadas en un teléfono inteligente Samsung Galaxy S24 Ultra, Hyena Edge demostró ser más eficiente y rápido que un modelo Transformer++ comparable, con una latencia más baja, una huella de memoria más pequeña y mejores resultados en puntos de referencia. El modelo logró hasta un 30% de reducción en la latencia de prellenado y decodificación en comparación con su contraparte Transformer++, con ventajas de velocidad que aumentan en longitudes de secuencia más largas.
Además de su eficiencia, Hyena Edge ha demostrado un rendimiento destacado en varios puntos de referencia para pequeños modelos de lenguaje, incluyendo Wikitext, Lambada, PiQA, HellaSwag, Winogrande, ARC-easy y ARC-challenge. En todos estos benchmarks, Hyena Edge igualó o superó el desempeño del modelo GQA-Transformer++, con mejoras notables en las puntuaciones de perplejidad en Wikitext y Lambada, y mayores tasas de precisión en PiQA, HellaSwag y Winogrande.
Liquid AI tiene previsto open-sourcing una serie de modelos de base líquidos, incluido Hyena Edge, en los próximos meses. El objetivo de la empresa es construir sistemas de inteligencia artificial generales eficientes y capaces que puedan escalar desde centros de datos en la nube hasta dispositivos de borde personales.
El éxito de Hyena Edge no solo resalta el potencial de arquitecturas alternativas para desafiar a los Transformers en entornos prácticos, sino que también posiciona a Liquid AI como uno de los actores emergentes a seguir en el panorama cambiante de los modelos de inteligencia artificial. A medida que los dispositivos móviles se espera que ejecuten cargas de trabajo de inteligencia artificial sofisticadas de forma nativa, modelos como Hyena Edge podrían establecer un nuevo estándar para lo que la inteligencia artificial optimizada para el borde puede lograr.

GIPHY App Key not set. Please check settings