Un nuevo desafío en el mundo de la inteligencia artificial está sacudiendo el mercado de hardware de cómputo para IA. La compañía Cerebras Systems ha lanzado al mercado en primavera de 2024 su tercer chip de tercera generación, basado en su tecnología estrella de motor a escala de obleas, desafiando así la dominancia de Nvidia en este sector.
Hasta ahora, Nvidia ha sido el líder en el mercado de hardware de cómputo para IA con sus unidades de procesamiento gráfico (GPU). Sin embargo, la llegada del nuevo chip de Cerebras está generando una alternativa innovadora y competitiva para las empresas que buscan soluciones avanzadas.
El mercado de inferencia de IA está en pleno crecimiento, con estimaciones que predicen que alcanzará los 90.600 millones de dólares para el 2030. La inferencia es el proceso en el cual un modelo de IA entrenado evalúa nuevos datos y produce resultados, siendo fundamental para todas las aplicaciones de IA, desde interacciones en tiempo real hasta análisis de datos a largo plazo.
Cerebras, fundada en 2016 por un equipo de expertos en IA y diseño de chips, es una pionera en el campo del hardware de inferencia de IA. Su producto estrella, el Wafer-Scale Engine (WSE), es un revolucionario procesador de IA que establece un nuevo estándar en rendimiento y eficiencia. El chip de tercera generación CS-3 cuenta con 4 billones de transistores, siendo el chip de red neuronal físicamente más grande jamás producido. Esto significa que los chips individuales pueden manejar grandes cargas de trabajo sin necesidad de redes, lo que permite mayor velocidad de procesamiento, escalabilidad y menor consumo de energía.
Cerebras destaca en el procesamiento de modelos de lenguaje grandes (LLMs), con informes que indican que su chip puede procesar hasta 1.800 tokens por segundo para el modelo Llama 3.1 8B, superando con creces las soluciones actuales basadas en GPU. Además, con un precio inicial de tan solo 10 centavos por millón de tokens, Cerebras se posiciona como una solución competitiva en el mercado.
A pesar de la potencia de su tecnología, Cerebras se enfrenta a un mercado competitivo. Nvidia, con su GPU Hopper, ha sido un pilar en el entrenamiento y ejecución de modelos de IA. Sin embargo, la competencia se está intensificando con la llegada de Groq, otra startup de chips de IA que ofrece un procesador especializado en inferencia de lenguaje.
Los líderes empresariales deben evaluar sus cargas de trabajo de IA, considerar las ofertas de hardware y servicios en la nube de cada proveedor, y mantenerse informados sobre los avances en este sector en constante evolución para tomar decisiones informadas. La entrada de Cerebras y Groq al campo de la inferencia de IA está cambiando el juego significativamente, ofreciendo alternativas especializadas que superan a procesadores GPU como los de Nvidia.
GIPHY App Key not set. Please check settings