Nvidia acaba de encender el fusible de "AI 2.0" en CES: conozca a Vera Rubin, la plataforma de chips que podría redefinir el próximo auge

Escrito porGavin Maguire
martes, 6 de enero de 2026, 8:27 am ET3 min de lectura

Nvidia utilizó su muy esperado

para hacer algo que Jensen Huang se ha sentido cada vez más cómodo haciendo: restablecer la conversación sobre cómo se verá realmente la demanda de IA durante la próxima década y por qué tiene la intención de permanecer en el centro de la misma. Si bien el evento contó con muchos detalles técnicos, el mensaje general fue claro. La IA ya no se trata solo de entrenar grandes modelos de lenguaje, y Nvidia ya no es solo una empresa de chips. El futuro, como lo enmarcó Huang, se trata de que abarcan centros de datos, robótica, vehículos autónomos y lo que él denominó repetidamente como "IA física".

En el centro de la keynote estaba el lanzamiento formal de la plataforma Vera Rubin de Nvidia, la arquitectura informática de próxima generación de la compañía que finalmente reemplazará a Blackwell. Rubin ya está en plena producción, con una rampa más amplia esperada en la segunda mitad de 2026, y será implementada por prácticamente todos los principales proveedores de nube. Nvidia confirmó que los sistemas Rubin están programados para ser utilizados por socios como OpenAI, Anthropic, Amazon Web Services y HPE, así como por supercomputadoras de laboratorio nacionales como el próximo sistema Doudna de Lawrence Berkeley. Esto es importante porque refuerza un tema clave: La cadencia de productos de Nvidia no está disminuyendo, la demanda sigue comprometida y los hiperescaladores están planificando la infraestructura con años de anticipación .

Rubin no es un solo chip, sino una plataforma integrada construida en torno a seis componentes estrechamente coordinados. En el centro está la GPU Rubin, combinada con una nueva CPU Vera diseñada específicamente para cargas de trabajo de razonamiento agencial. Alrededor de ellos hay actualizaciones a NVLink, BlueField DPU, ConnectX SuperNIC, conmutadores Spectrum Ethernet y una nueva arquitectura de memoria a nivel de cápsula. El objetivo no es aumentar las ganancias de rendimiento a nivel de chip, sino la eficiencia a nivel de sistema en computación, redes, almacenamiento, energía y refrigeración. Nvidia está diseñando todo el centro de datos como una sola máquina, un tema que Huang enfatizó repetidamente durante el discurso de apertura.

Las mejoras en el rendimiento fueron sustanciales. Nvidia dijo que Rubin ofrece un rendimiento de entrenamiento aproximadamente 3,5 veces más rápido y una inferencia hasta 5 veces más rápida en comparación con Blackwell , mientras admite hasta ocho veces más cómputo de inferencia por vatio. Para los clientes, la economía puede ser aún más convincente. Nvidia afirma que Rubin puede reducir los costos de los tokens de inferencia hasta 10 veces y redujo la cantidad de GPU requeridas para entrenar modelos de combinación de expertos en aproximadamente cuatro veces en comparación con los sistemas de generación anterior. En un mundo donde las cargas de trabajo de IA involucran cada vez más el razonamiento de contexto largo, el escalado del tiempo de prueba y la inferencia continua, esas reducciones de costos son tan importantes como la velocidad bruta.

Eso el cambio hacia cargas de trabajo pesadas en el razonamiento fue uno de los temas centrales de la conferencia magistral .Huang dejó en claro que la demanda de IA ya no está impulsada únicamente por el entrenamiento de modelos masivos una vez, sino por la inferencia que se ejecuta continuamente. Los sistemas Agentic planifican, buscan, iteran y llaman herramientas en tiempo real, generando muchos más tokens por tarea y ejerciendo una presión sostenida sobre la memoria, las redes y la infraestructura de energía. La respuesta de Nvidia es moverse agresivamente más allá de la venta de GPU y hacia la entrega de plataformas full-stack que puedan manejar cargas de trabajo de larga duración e intensivas en computación de manera eficiente.

Otro pilar importante de la narrativa de crecimiento de Nvidia fue la IA física , en particular la robótica y los vehículos autónomos. Huang reiteró que la robótica es ahora la segunda categoría de crecimiento más importante de Nvidia después de la computación de IA .La compañía presentó Alpamayo, una nueva familia de modelos de razonamiento de código abierto diseñados para la conducción autónoma. Alpamayo 1, un modelo de cadena de pensamiento de 10 mil millones de parámetros, está diseñado para dividir escenarios de conducción complejos en pasos de decisión más pequeños y explicar su razonamiento, un enfoque que refleja cómo los humanos manejan situaciones inesperadas. Nvidia también presentó AlpaSim, una plataforma de simulación que permite el entrenamiento de circuito cerrado para escenarios de conducción raros que son difíciles de capturar en el mundo real.

Nvidia confirmó que el Mercedes-Benz CLA 2025 será el primer vehículo en enviarse con la pila de conducción autónoma completa de Nvidia, y Huang fue más allá y dijo que Nvidia planea probar un servicio de robotaxi con un socio a partir de 2027. Estas iniciativas subrayan la creencia de Nvidia de que la autonomía requerirá cantidades masivas de simulación, datos sintéticos e inferencia continua, lo que nuevamente alimentará directamente la demanda informática a largo plazo.

Desde una perspectiva de la industria, Huang abordó las preocupaciones que los inversores continúan planteando en torno a la sostenibilidad del gasto en IA. Argumentó que la IA no está siendo financiada por un exceso especulativo, sino por una reasignación estructural de capital. Nvidia estima que se gastarán entre 3 y 4 billones de dólares en infraestructura de IA durante los próximos cinco años, impulsados por la modernización de la computación heredada, los cambios en los flujos de trabajo de I + D y la expansión de la IA en sistemas del mundo real. Huang enmarcó esto como una reutilización de los aproximadamente $10 billones gastados en infraestructura informática durante la última década, en lugar de una burbuja de gasto temporal.

Geográficamente, Nvidia también reconoció la continua demanda de China, señalando un fuerte interés en el chip H200 , aunque los envíos siguen sujetos a las aprobaciones de licencias. Si bien persiste la incertidumbre regulatoria, el mensaje de Nvidia sugirió que la demanda no es la restricción, sino la oferta y la política.

La competencia fue reconocida pero minimizada. AMD está implementando sus propios sistemas Helios a escala de rack, y los hiperescaladores continúan invirtiendo en silicio personalizado. Aún así, la cadencia anual de productos de Nvidia, el profundo ecosistema de software y la capacidad de ofrecer sistemas integrados dificultan que los rivales cierren la brecha de manera significativa en el corto plazo. Los analistas se hicieron eco de ese sentimiento después del discurso de apertura, reiterando las calificaciones de compra y enfatizando el dominio de Nvidia en computación, redes y sistemas.

En última instancia, el discurso de apertura de CES de Huang se centró menos en sorpresas llamativas y más en reforzar la estrategia a largo plazo de Nvidia. La demanda de IA se está ampliando, no desacelerando. Las cargas de trabajo son cada vez más complejas, no más ligeras. Y Nvidia se está posicionando no solo como proveedor de chips, sino como el arquitecto de la infraestructura necesaria para sostener la próxima fase de IA. Para los inversores, el mensaje era simple: el techo de la demanda informática sigue aumentando y Nvidia tiene la intención de construir la escalera.

author avatar
Gavin Maguire

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios