in

Meta revoluciona la inteligencia artificial con su API Llama a velocidad récord

La revolución de la inteligencia artificial (IA) continúa a pasos agigantados, con Meta dando un paso crucial al anunciar su asociación con Cerebras Systems. Esta colaboración tiene como objetivo potenciar la nueva API de Llama, ofreciendo a los desarrolladores velocidades de inferencia hasta 18 veces más rápidas que las soluciones tradicionales basadas en GPU. Esta noticia ha generado un gran impacto en el mercado de servicios de inferencia de IA, donde gigantes como OpenAI, Anthropic y Google dominan actualmente.

La presentación de esta alianza se realizó durante la primera conferencia de desarrolladores LlamaCon de Meta en Menlo Park. El objetivo es claro: posicionar a Meta como un competidor directo en el mercado de servicios de inferencia de IA, donde los desarrolladores compran tokens por miles millones para alimentar sus aplicaciones. La velocidad es crucial en este contexto, ya que permite la creación de aplicaciones que requieren respuestas rápidas y precisas.

Cerebras Systems ha logrado un hito significativo con su tecnología de chips de IA especializados. El sistema de Cerebras ofrece más de 2.600 tokens por segundo para Llama4 Scout, en comparación con aproximadamente 130 tokens por segundo para ChatGPT y alrededor de 25 tokens por segundo para DeepSeek, según benchmarks de Artificial Analysis. Esta velocidad permite la creación de aplicaciones que antes eran impracticables, como agentes en tiempo real, sistemas de voz conversacionales de baja latencia, generación de código interactivo y razonamiento multi-paso instantáneo.

La asociación con Cerebras marca la entrada formal de Meta en el negocio de vender computación de IA, transformando sus populares modelos de Llama de código abierto en un servicio comercial. A pesar de que los modelos de Llama han acumulado más de mil millones de descargas, hasta ahora Meta no había ofrecido una infraestructura en la nube de primera parte para que los desarrolladores construyan aplicaciones con ellos.

La API de Llama representa un cambio significativo en la estrategia de IA de Meta, pasando de ser principalmente un proveedor de modelos a convertirse en una empresa de infraestructura de IA completa. Al ofrecer un servicio de API, Meta crea una fuente de ingresos a partir de sus inversiones en IA, manteniendo su compromiso con modelos abiertos.

Para los desarrolladores interesados en acceder a la inferencia ultrarrápida de Llama4, pueden solicitar acceso temprano seleccionando a Cerebras entre las opciones de modelos dentro de la API de Llama. La disponibilidad de la API se encuentra actualmente en una vista previa limitada, con planes de una implementación más amplia en las próximas semanas y meses.

La elección de Meta de silicio especializado envía un mensaje claro: en la próxima fase de la IA, no solo es importante lo que saben tus modelos, sino cuánto tiempo tardan en pensar. En este futuro, la velocidad no es solo una característica, sino el objetivo principal. Esta alianza entre Meta y Cerebras está a punto de cambiar el juego en el mundo de la inteligencia artificial.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Gideon Glick brilla con su esencia en ‘Étoile’ con creatividad y pasión

Rwanda forja su futuro con determinación y superación de la adversidad