in

Las innovaciones en chips y aceleradores que impulsan la inteligencia artificial.

En el mundo de la tecnología y la inteligencia artificial, los centros de datos son fundamentales para el funcionamiento de las grandes empresas digitales como Netflix o Google. Con el creciente enfoque en cargas de trabajo avanzadas de IA, los servidores tradicionales centrados en la CPU de los data centers se están potenciando con la integración de nuevos chips especializados o «co-procesadores».

Estos co-procesadores buscan mejorar la capacidad de cómputo de los servidores, permitiéndoles manejar las demandas computacionales de tareas como el entrenamiento de IA, inferencia, aceleración de base de datos y funciones de red. En los últimos años, las GPUs, lideradas por Nvidia, han sido la elección preferida para los co-procesadores debido a su capacidad para procesar grandes volúmenes de datos a velocidades inigualables. Según un estudio del Futurum Group, el año pasado las GPUs representaron el 74% de los co-procesadores que impulsan casos de uso de IA dentro de los data centers.

Se espera que la dominancia de las GPUs siga creciendo, con proyecciones de que los ingresos de esta categoría aumenten un 30% anualmente hasta alcanzar los $102 mil millones en 2028. Sin embargo, a pesar de su eficiencia, el costo total de propiedad de las GPUs puede ser muy elevado. Por ejemplo, se espera que el «superchip» GB200 de Nvidia, que combina una CPU Grace con dos GPUs B200, tenga un costo de entre $60,000 y $70,000. Un servidor con 36 de estos superchips podría rondar los $2 millones.

Ante esta realidad, muchas empresas están buscando nuevas tecnologías que soporten cargas de trabajo de IA de baja a mediana intensidad, con un enfoque específico en el costo total de propiedad, la escalabilidad y la integración. En esta etapa de madurez de la mayoría de los modelos de IA, las necesidades se centran en la inferencia de IA y en mejorar el rendimiento para cargas de trabajo específicas como reconocimiento de imagen, sistemas de recomendación o identificación de objetos, todo ello de manera eficiente.

Es en este punto donde entra en juego el panorama emergente de procesadores y aceleradores de IA especializados, desarrollados por fabricantes de chips, startups y proveedores de la nube.

Los procesadores y aceleradores de IA son chips que se integran en el ecosistema de CPU de los servidores y se enfocan en funciones de IA específicas. Comúnmente se basan en tres arquitecturas clave: Circuitos Integrados Específicos de la Aplicación (ASICs), Matrices de Puertas Programables en Campo (FPGAs) y las más recientes Unidades de Procesamiento Neuronal (NPUs).

Los ASICs y FPGAs han estado presentes durante mucho tiempo, diferenciándose principalmente en su capacidad de programación. Los ASICs son construidos a medida para una tarea específica (que puede o no estar relacionada con la IA), mientras que los FPGAs pueden reconfigurarse en una etapa posterior para implementar lógica personalizada. Por su parte, las NPUs se diferencian de ambas al funcionar como hardware especializado que puede acelerar únicamente cargas de trabajo de IA/aprendizaje automático como la inferencia y el entrenamiento de redes neuronales.

Los aceleradores, especialmente ASICs y NPUs diseñadas para aplicaciones específicas, pueden resultar más eficientes que las GPUs en cuanto a costo y consumo de energía. En este sentido, el diseño de los aceleradores de IA se centra en Unidades de Procesamiento Tensorial (TPUs) o Núcleos de Procesamiento Tensorial, en lugar de Unidades Aritmético-Lógicas (ALUs) como en las GPUs. Esta diferencia se traduce en un rendimiento y eficiencia superiores para los aceleradores de IA en comparación con las GPUs.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

TD Bank desembolsa $28 millones por manipulación del mercado.

Sean ‘Diddy’ Combs solicita liberación en espera de juicio por tráfico sexual.