in

Liquid, empresa derivada de MIT, lanza modelos AI pequeños y eficientes.

La startup Liquid AI, cofundada por antiguos investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Instituto Tecnológico de Massachusetts (MIT), ha presentado sus primeros modelos de inteligencia artificial multimodales.

Estos modelos, conocidos como «Liquid Foundation Models (LFMs)», se destacan por no basarse en la arquitectura transformer descrita en el influyente artículo de 2017 «Attention Is All You Need». En cambio, Liquid afirma que su objetivo es explorar formas de construir modelos fundamentales más allá de los Generative Pre-trained Transformers (GPTs), utilizando principios básicos similares a los empleados por ingenieros en la construcción de motores, automóviles y aviones.

Los LFMs están disponibles en tres tamaños y variantes diferentes: LFM 1.3B (el más pequeño), LFM 3B y LFM 40B MoE (el más grande, un modelo «Mixture-of-Experts» similar al Mixtral de Mistral). La «B» en sus nombres hace referencia a mil millones, indicando la cantidad de parámetros que rigen el procesamiento de información, el análisis y la generación de resultados del modelo. Por lo general, los modelos con un mayor número de parámetros son más capaces en una variedad más amplia de tareas.

Liquid AI asegura que el modelo LFM 1.3B supera en rendimiento a los modelos basados en transformer de tamaño comparable, como el Llama 3.2-1.2B de Meta y el Phi-1.5 de Microsoft, en numerosas pruebas de referencia externas, incluyendo el desafiante Massive Multitask Language Understanding (MMLU), que abarca 57 problemas en campos científicos, tecnológicos, de ingeniería y matemáticas (STEM); siendo la primera vez que una arquitectura no basada en GPT supera de manera significativa a los modelos basados en transformer.

Estos modelos están diseñados para ofrecer un rendimiento de vanguardia al tiempo que optimizan la eficiencia de memoria, con el LFM-3B de Liquid requiriendo solo 16 GB en comparación con los más de 48 GB necesarios por el modelo Llama-3.2-3B de Meta.

La voz de Maxime Labonne, Jefe de Posentrenamiento en Liquid AI, resuena con orgullo al describir los LFMs como «el lanzamiento más destacado de mi carrera :)», destacando la capacidad de estos modelos para superar a los basados en transformer utilizando significativamente menos memoria.

Liquid AI ha construido sus modelos base para ser versátiles en múltiples modalidades de datos, incluyendo audio, video y texto, con el objetivo de abordar un amplio espectro de desafíos específicos de la industria, desde servicios financieros hasta biotecnología y electrónica de consumo.

Aunque los modelos no son de código abierto, los usuarios pueden acceder a ellos a través del playground de inferencia de Liquid, Lambda Chat, o Perplexity AI. La compañía se encuentra optimizando sus modelos para su despliegue en hardware de NVIDIA, AMD, Apple, Qualcomm y Cerebras, extendiendo invitaciones a adoptadores tempranos y desarrolladores para probar y brindar retroalimentación sobre los modelos.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Caminata por la Verdad y la Reconciliación en Kitchener: Unión de la Comunidad

Millonaria inversión para mejorar sistemas de riego en Girona.