Desglosando los objetivos de Jensen Huang en “The Race Is On”: La apuesta de Nvidia por la infraestructura tecnológica en la curva de desarrollo del sector de la inteligencia artificial entre Estados Unidos y China.

Generado por agente de IAEli GrantRevisado porAInvest News Editorial Team
domingo, 18 de enero de 2026, 6:11 am ET4 min de lectura

La declaración de Jensen Huang en la CES 2026, en la que dijo “La carrera está en marcha para la IA”, no es simplemente un llamado a la acción. Es una descripción precisa de la curva tecnológica en la que nos encontramos ahora. La aceleración que él describe…

Indica un cambio desde la fase inicial y costosa de desarrollo de la inteligencia artificial, hacia una nueva frontera donde se logra un rendimiento eficiente en términos de costos, así como un procesamiento más ágil por parte de los agentes inteligentes. No se trata simplemente de un progreso gradual; se trata de un descenso exponencial que, normalmente, impulsa el paso rápido hacia la adopción masiva de esta tecnología, abriendo así las puertas a su uso en entornos empresariales.

Sin embargo, esa carrera ya no es un camino en el que solo se puede avanzar en una dirección. Las declaraciones anteriores de Huang al Financial Times, donde sugirió que China “ganaría la carrera en materia de inteligencia artificial”, destacan una vulnerabilidad crucial. Huang hizo una comparación entre…

Con lo que él llamó “regulaciones occidentales excesivas”. Esto crea una dinámica clara: la política energética agresiva de China y el entorno regulatorio podrían reducir la brecha en los costos por token, obligando a Estados Unidos a “ganar tiempo” para mantener su liderazgo. La competencia ahora se convierte en una carrera entre dos paradigmas poderosos.

La respuesta de Nvidia es la plataforma Rubin. Se trata de un ataque directo contra el costo por token, ese indicador que define la próxima fase de la curva S. Al aprovechar esta oportunidad…

Rubin promete una reducción de 10 veces en el costo de los tokens de inferencia, y una reducción de 4 veces en el número de GPU necesarias para entrenar los modelos MoE. No se trata simplemente de un nuevo chip; se trata de una infraestructura diseñada para impulsar la adopción de la inteligencia artificial en las empresas, al hacer que la tecnología sea mucho más económica de utilizar. En esta carrera de alto riesgo, Nvidia apuesta por su capacidad de proporcionar la próxima generación de potencia computacional, lo que permitirá que Estados Unidos permanezca a la vanguardia en este campo.

Rubin como la capa de infraestructura: validación de la curva de demanda S-Curve

El lanzamiento de la plataforma Rubin no es simplemente una actualización del producto; se trata de una validación tecnológica de toda la infraestructura desarrollada por Nvidia. El núcleo de esta plataforma promete…

Y una reducción de 4 veces en el número de GPU necesarias para entrenar modelos MoE… Estos son ataques directos y cuantificables contra el cuello de botella en la adopción de esta tecnología. Se trata de una mejora exponencial que define la fase intermedia de una curva tecnológica en forma de S. Al reducir los costos fundamentales relacionados con el uso de la IA, Rubin pretende acelerar la adopción de esta tecnología por parte de las empresas, llevando al mercado entero hacia esa curva tecnológica.

Desde el punto de vista comercial, la demanda es abrumadora. La reciente revelación del CEO Jensen Huang sobre esto…

Ofrece una visibilidad de ingresos a lo largo de varios años, algo que pocas empresas pueden lograr. Este volumen de pedidos, que incluye las GPU actuales de Blackwell y los sistemas Rubin del próximo año, refleja la demanda constante por parte de las mayores empresas tecnológicas del mundo. Es una poderosa muestra de la capacidad de Nvidia para ofrecer la siguiente generación de potencia computacional, convirtiendo así sus promesas tecnológicas en realidades financieras concretas.

Las implementaciones iniciales a gran escala confirman aún más el papel de Rubin como infraestructura fundamental. Las “superfábricas de IA” de próxima generación desarrolladas por Microsoft, que utilizarán los sistemas Rubin NVL72, están diseñadas para operar con cientos de miles de chips Rubin. Esto no es una prueba preliminar; se trata de un compromiso para integrar Rubin en el tejido de las fábricas de IA más poderosas del mundo. De igual manera, CoreWeave, pionero en el ámbito del cloud computing, es uno de los primeros en ofrecer soluciones basadas en Rubin, operando con su plataforma Mission Control, lo que le proporciona flexibilidad y rendimiento. Estas alianzas demuestran que Rubin está siendo integrado en los sistemas operativos de la era de la IA, desde los centros de datos de las hyperscalers hasta las plataformas de cloud computing gestionadas.

En resumen, Rubin está obteniendo validación en dos frentes al mismo tiempo. Desde el punto de vista tecnológico, esta solución permite una reducción exponencial en los costos, lo cual es necesario para impulsar la adopción de esta tecnología en el mercado. En cuanto al aspecto comercial, la cartera de pedidos de 500 mil millones de dólares y las implementaciones a gran escala demuestran que el mercado está dispuesto a pagar por esta infraestructura. Para Nvidia, esto representa una oportunidad perfecta: un producto que cambia los parámetros del mercado, satisfaciendo así la demanda insaciable de las tecnologías de la próxima era.

El “abrigo competitivo”: la ventaja de ser un desarrollador full-stack frente a las amenazas internas del propio equipo de desarrollo.

La carrera por la infraestructura de IA ahora se convierte en una competencia para todo el ecosistema tecnológico. Aunque la plataforma Rubin de Nvidia promete dominar la curva de costos por token, existe una amenaza a largo plazo proveniente de su propia base de clientes. Grandes empresas tecnológicas como Meta, Amazon y OpenAI están trabajando arduamente en el diseño de chips internos. Este movimiento podría acabar erosionando la cuota de mercado de Nvidia y los márgenes de ganancia que actualmente posee.

Los números indican que esta tendencia se está acelerando. Los analistas proyectan que los chips personalizados desarrollados por empresas como Google, Amazon, Meta y OpenAI serán cada vez más importantes.

Estas empresas se mueven por un principio sencillo: los costos exorbitantes de los chips desarrollados por Nvidia significan que los proveedores de servicios en la nube obtienen ganancias más bajas al alquilar esos chips, en comparación con los costos que podrían incurrir al utilizar su propio hardware, que es más económico y mejor optimizado. Como señaló un analista, esta situación conduce a una disminución drástica de las márgenes de ganancia de Nvidia con el paso del tiempo.

Sin embargo, el “moat” de Nvidia no se limita únicamente al chip en sí. También incluye el sistema de servidores completo y la integración de software que va junto con él. Mientras que los clientes desarrollan aceleradores de propósito específico, Nvidia diseña sistemas de servidores masivos, en los que se integran sus GPU Blackwell, las CPU basadas en ARM y los componentes de red. Este nivel de integración de sistemas es mucho más complejo para que un cliente pueda replicarlo, en comparación con un chip independiente. Como señaló el CEO Jensen Huang, su empresa no se trata simplemente de una empresa fabricante de chips para inteligencia artificial; ofrece un sistema completo y optimizado.

Esta distinción es crucial. La amenaza es real, pero también está fragmentada. Estos chips personalizados se utilizan principalmente para ejecutar cargas de trabajo de IA internas o se ofrecen a través de la nube propia de la empresa. Compiten en términos de precio y optimización para tareas específicas. Pero carecen del ecosistema de software universal y de la compatibilidad amplia que ofrece el stack de Nvidia. Por ahora, la competencia se trata de ganar el espacio en la capa de infraestructura. Allí, el profundo trabajo de diseño conjunto de Nvidia entre hardware y software constituye un obstáculo importante para los competidores que no tienen su mismo modelo de negocio. La carrera está en marcha, pero las bases todavía están siendo construidas por la empresa que sabe cómo establecerlas adecuadamente.

Catalizadores, riesgos y la próxima curva de crecimiento

El camino que va desde el lanzamiento de Rubin hasta su efecto real en el crecimiento de Nvidia está determinado por algunos signos claros. El catalizador más inmediato es el informe de resultados del tercer trimestre de la empresa.

Comenzará la traducción de los ingresos registrados. Los analistas esperan que esto confirme la fuerte demanda que ha impulsado el aumento de los precios de las acciones. Se proyecta que los ingresos en el tercer trimestre alcancen los 54,9 mil millones de dólares. La verdadera prueba será en las previsiones para los próximos trimestres. Si Nvidia puede mantener su trayectoria de ingresos en el cuarto trimestre, alcanzando los 61,44 mil millones de dólares, eso validará la visión a largo plazo prometida por esos pedidos y permitirá que el mercado siga una curva de adopción constante.

El principal riesgo de esta tesis es el ritmo con el que los clientes adoptarán los chips desarrollados internamente. Aunque Rubin está diseñado para dominar la curva de costo por token, la amenaza a largo plazo es una lucha prolongada y fragmentada por la adquisición de la capa de infraestructura. Como señalan los analistas, se espera que chips personalizados desarrollados por empresas como Google, Amazon y Meta logren ganar la competencia.

Esta tendencia, impulsada por el deseo de evitar los altos costos de Nvidia, representa una amenaza real para las márgenes de beneficio de la empresa. La pregunta clave es si la capacidad de Nvidia para ofrecer sistemas de servidores integrados y optimizados podrá resistir esta presión en los próximos años.

En última instancia, el éxito de Rubin no se medirá por las especificaciones técnicas, sino por las métricas de adopción en la producción real. La plataforma promete…

Esto debe materializarse en implementaciones a gran escala en el mundo real. Socios como Microsoft y CoreWeave ya están construyendo las bases para esto. Pero el indicador clave será el ahorro de costos que estos clientes reportarán al utilizar sus modelos más grandes. Si Rubin cumple con su promesa exponencial, eso acelerará aún más la adopción de este modelo. Si la amenaza proveniente de chips internos crece más rápido de lo esperado, podría acortar el tiempo necesario para que se generen presiones sobre los márgenes de beneficio. En ese caso, Nvidia tendrá que defender su infraestructura en un entorno cada vez más competitivo. La carrera está en marcha, y el próximo paso del proceso comienza con los datos del tercer trimestre.

author avatar
Eli Grant

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios