MLCommons ha presentado hoy sus últimos resultados de inferencia de MLPerf. Estos nuevos resultados marcan el debut de un nuevo benchmark de inteligencia artificial generativa, así como los primeros resultados de pruebas validadas para el próximo procesador Blackwell de Nvidia.
MLCommons es una organización multi-interesada y neutral en cuanto a proveedores que gestiona los benchmarks de MLPerf tanto para el entrenamiento de IA como para la inferencia de IA. Esta última ronda de benchmarks de inferencia de MLPerf, lanzada por MLCommons, ofrece una visión integral del paisaje en constante evolución del hardware y software de IA. Con 964 resultados de rendimiento presentados por 22 organizaciones, estos benchmarks sirven como un recurso vital para los tomadores de decisiones empresariales que navegan por el complejo mundo de la implementación de IA. Al ofrecer mediciones estandarizadas y reproducibles de las capacidades de inferencia de IA en diversos escenarios, MLPerf permite a las empresas tomar decisiones informadas sobre sus inversiones en infraestructura de IA, equilibrando el rendimiento, la eficiencia y el coste.
Como parte de MLPerf Inference v 4.1, se han añadido una serie de destacados. Por primera vez, MLPerf está evaluando el rendimiento de un Modelo de Mezcla de Expertos (MoE), específicamente el modelo Mixtral 8x7B. Esta ronda de benchmarks presenta una impresionante variedad de nuevos procesadores y sistemas, muchos de ellos haciendo su primera aparición pública. Entradas destacadas incluyen el MI300x de AMD, el TPUv6e (Trillium) de Google, Granite Rapids de Intel, SpeedAI 240 de Untether AI y el Nvidia Blackwell B200 GPU.
David Kanter, fundador y responsable de MLPerf en MLCommons, comentó durante una llamada que «tenemos una tremenda diversidad de presentaciones y eso es realmente emocionante. Cuantos más sistemas diferentes veamos, mejor para la industria, más oportunidades y más cosas que comparar y aprender».
Una de las principales novedades de esta ronda fue la introducción del benchmark de Mezcla de Expertos (MoE), diseñado para abordar los desafíos planteados por los modelos de lenguaje cada vez más grandes. Este enfoque MoE permite una implementación más eficiente y una especialización de tareas, ofreciendo potencialmente soluciones de IA más flexibles y rentables para las empresas.
Por otro lado, los resultados de MLPerf Inference 4.1 muestran importantes avances en inferencia de IA gracias a Nvidia Blackwell. Este nuevo GPU está ofreciendo un rendimiento prometedor, proporcionando hasta 4 veces más rendimiento que la generación anterior de productos por GPU. Además, se destacan los continuos avances en el rendimiento del GPU Hopper de Nvidia, que ahora ofrece hasta un 27% más de rendimiento que en la última ronda de resultados hace seis meses, todo gracias a la optimización del software.
En resumen, los benchmarks de MLPerf Inference 4.1 revelan avances significativos en el rendimiento de la IA, tanto con la llegada de nuevos procesadores como con las mejoras en los GPU existentes. Estos resultados proporcionan una visión valiosa del panorama actual de la implementación de IA y ofrecen a las empresas herramientas para tomar decisiones fundamentadas en sus inversiones en infraestructura de IA.
GIPHY App Key not set. Please check settings