in

DGX Station de Nvidia desata IA de billón de parámetros sin nube.

En un momento en que la inteligencia artificial ha relegado gran parte de la innovación a grandes centros de datos, Nvidia ha desafiado esa lógica con el lanzamiento de la DGX Station, una supercomputadora de escritorio capaz de ejecutar modelos con hasta un billón de parámetros —escalas comparables a las de GPT-4— sin necesidad de conectarse a la nube. Presentada durante su conferencia GTC en San José, esta máquina compacta, que se ubica junto a un monitor estándar, promete llevar la potencia de cálculo que antes ocupaba instalaciones enteras al espacio de trabajo individual, un hito que para muchos evoca el impacto del primer Mac Pro entre los profesionales creativos, incluidos diseñadores de moda que hoy exploran las fronteras digitales.

El anuncio responde a una tensión creciente en el sector: aunque los modelos más avanzados exigen infraestructuras masivas, cada vez más desarrolladores y empresas buscan mantener sus datos, agentes y propiedad intelectual en entornos locales, evitando costes de transferencia, latencias y riesgos de seguridad. Con un precio que rondará las seis cifras, la DGX Station se posiciona como un puente entre la vanguardia de la IA y el control individual, ofreciendo 20 petaflops de rendimiento y 748 gigabytes de memoria unificada en un formato que se conecta a una toma de corriente convencional.

El corazón de este equipo es el chip GB300 Grace Blackwell Ultra, que integra una CPU Grace de 72 núcleos y una GPU Blackwell Ultra mediante la interconexión NVLink-C2C, proporcionando un ancho de banda coherente de 1,8 terabytes por segundo, siete veces superior al PCIe Gen 6. Esta arquitectura permite que CPU y GPU compartan memoria sin los cuellos de botella que suelen limitar el trabajo con IA en equipos de escritorio. Los 20 petaflops —20.000 billones de operaciones por segundo— son una potencia que hace menos de una década habría situado a esta máquina entre los principales supercomputadores globales; el sistema Summit, líder en 2018, ofrecía diez veces más capacidad pero ocupaba el espacio de dos canchas de baloncesto.

Sin embargo, la memoria unificada de 748 GB es quizás el factor decisivo. Los modelos de billones de parámetros deben cargarse por completo en memoria para funcionar, y sin suficiente capacidad, ningún procesamiento es viable. La DGX Station resuelve este obstáculo con una memoria coherente que elimina las penalizaciones de latencia al transferir datos entre pools de memoria separados.

Nvidia ha diseñado este sistema pensando en la llamada «IA agéntica»: agentes autónomos que razonan, planifican, escriben código y ejecutan tareas de forma continua, más allá de las respuestas a prompts puntuales. Para impulsar este ecosistema, la compañía presentó simultáneamente NemoClaw, una stack de código abierto que combina los modelos Nemotron con OpenShell, un entorno de ejecución seguro que aplica políticas de privacidad y seguridad. Jensen Huang, CEO de Nvidia, definió la plataforma resultante, OpenClaw, como «el sistema operativo para la IA personal», equiparándola a sistemas como Windows o macOS. La idea es que los agentes persistentes requieren recursos constantes; una máquina en el escritorio, operando 24/7 con datos y modelos locales dentro de un sandbox, ofrece ventajas arquitectónicas sobre instancias de nube que se inician y detienen bajo demanda. El equipo soporta configuraciones air-gapped para entornos donde la información no puede abandonar el edificio.

Un detalle clave es la continuidad arquitectónica: las aplicaciones desarrolladas en la DGX Station migrarán sin modificaciones a los sistemas GB300 NVL72 de centros de datos —racks con 72 GPUs para fábricas de IA a hiperescala—, eliminando el coste oculto de reescribir código para distintas configuraciones. Nvidia propone así un flujo integrado: prototipo en el escritorio, escalado posterior a la nube.

Paralelamente, se amplió la DGX Spark, versión más económica, que ahora permite clustering de hasta cuatro unidades para formar un «centro de datos de escritorio» con escalado casi lineal, una opción atractiva para equipos que trabajan con modelos de tamaño medio. Los primeros clientes reflejan industrias donde la IA madura rápidamente: Snowflake probará su framework Arctic, EPRI (Electric Power Research Institute) desarrollará pronósticos meteorológicos para redes eléctricas, Medivis integrará modelos de visión en cirugía, y Microsoft Research y Cornell la usarán en formación práctica. Los sistemas se distribuirán a través de ASUS, Dell, GIGABYTE, MSI y Supermicro, con HP sumándose más tarde; aunque no hay precios oficiales, la combinación de componentes GB300 sugiere una inversión elevada pero competitiva frente a los costes acumulados de uso masivo de GPU en la nube.

La compatibilidad con modelos abiertos —como GPT-oss-120B de OpenAI, Gemma 3 de Google, Qwen3, Mistral Large 3 y DeepSeek V3.2— refuerza su diseño agnóstico, estratégico en un ecosistema donde las alianzas cambian rápidamente. Este lanzamiento se enmarca en una ofensiva más amplia de Nvidia para cubrir todas las escalas de computación de IA, desde módulos espaciales como el Vera Rubin Space Module (25 veces más capaz que el H100 en órbita) hasta racks de centro de datos Vera Rubin NVL72, pasando por colaboraciones con Adobe, fabricantes de automóviles y Dynamo 1.0, un sistema operativo de inferencia adoptado por los principales proveedores de nube.

La DGX Station no busca reemplazar la nube —el negocio de centros de datos de Nvidia sigue creciendo exponencialmente—, sino complementarla con una opción local para cargas de trabajo sensibles. Entrenar un modelo frontera desde cero sigue requiriendo miles de GPUs en un almacén, pero afinar un modelo masivo con datos propios, ejecutar agentes internos que procesen información confidencial o prototipar antes de incurrir en gastos de nube, son escenarios donde el escritorio regain relevancia.

El verdadero genio de la propuesta está en su capacidad para expandir el mercado de Nvidia hacia la infraestructura personal mientras alimenta su ecosistema en la nube: todo lo creado localmente se escala a sus plataformas de data center. No es una guerra entre nube y escritorio, sino una simbiosis donde Nvidia controla ambos extremos.

Hace cuatro décadas, la revolución del PC prometió «una computadora en cada escritorio». Hoy, Nvidia actualiza esa visión con una supercomputadora en cada escritorio, coronada por agentes de IA que nunca descansan. Si este未来 es emocionante o desconcertante depende de la perspectiva, pero el cambio es innegable: la infraestructura para construir y poseer IA de vanguardia ha migrado de la sala de servidores al espacio de trabajo personal, y Nvidia, que ya domina el mercado de chips, ahora también vende el escritorio donde todo empezará.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Líderes moda piden a CEO Saks Global pagos a jóvenes diseñadores en bancarrota

Tasaki nombra a Collasse, ex Chanel Japón, CEO y a Odagiri para Japón