¿Qué acción relacionada con la infraestructura de inteligencia artificial se encuentra en el punto más bajo de la curva S para el año 2026?
El cambio tecnológico más importante en el año 2026 es una reordenación fundamental de la carga computacional asociada a la inteligencia artificial. Se espera que el enfoque se centre decididamente en el uso de modelos entrenados para responder preguntas o completar tareas. Esta transición no es un ajuste menor; representa un cambio de paradigma que remodelará toda la infraestructura relacionada con la inteligencia artificial.
La magnitud de este cambio es enorme. Se proyecta que, para el año 2026, la capacidad de inferencia representará aproximadamente dos tercios de toda la computación realizada por las IA. En 2023, esa proporción era solo una tercera parte, y en 2025, se esperaba que fuera la mitad. Este crecimiento explosivo está generando un nuevo mercado dedicado a los chips especializados para fines de inferencia. Se estima que el mercado de los chips optimizados para la inferencia podría superar…50 mil millones en el año 2026La implicación es clara: necesitamos un tipo de silicio diferente para esta nueva fase.
Esto podría significar el uso de chips más económicos, optimizados para tareas de inferencia, en dispositivos periféricos como teléfonos inteligentes y ordenadores personales. La lógica es simple: las tareas de inferencia son mucho menos intensivas desde el punto de vista computacional que el proceso de entrenamiento de modelos. Por lo tanto, se podrían utilizar chips especializados y eficientes para manejar estas tareas de forma local. En teoría, esto podría reducir la carga sobre los enormes centros de datos, así como disminuir los costos generales de la infraestructura. Ya hay señales de que, para el año 2025, habrá cientos de millones de PC y teléfonos inteligentes equipados con aceleradores de IA integrados.

Sin embargo, la situación en realidad es mucho más compleja. Como muestra el análisis de Deloitte, se trata de una evolución en dos direcciones. Mientras que las inferencias constituyen la mayor parte del trabajo realizado, la mayoría de los cálculos se llevarán a cabo utilizando chips de IA de última generación y muy costosos. Estos chips, que requieren mucha energía y son de alto rendimiento, seguirán siendo los principales componentes en los grandes centros de datos y en las soluciones empresariales locales. Se proyecta que el mercado de estos chips avanzados valdrá más de 200 mil millones de dólares en el año 2026, mientras que los centros de datos asociados a estos chips tendrán un valor total de más de 400 mil millones de dólares.
En resumen, el cambio hacia la utilización de métodos de inferencia no significa el fin de la era de los centros de datos. Por el contrario, indica que se trata de una infraestructura más sofisticada. Probablemente necesitemos tanto los chips especializados y eficientes para tareas en la frontera, como también los chips potentes y costosos para las cargas de trabajo más exigentes. La demanda general de procesamiento de datos sigue aumentando rápidamente, impulsada por los modelos en constante evolución y el incremento en las consultas de tipo inferencial. Esto crea un mercado donde se demandan tanto nuevos chips eficientes como la continua expansión de las fábricas de procesamiento de datos existentes.
Evaluación de las ventajas estructurales
El panorama competitivo en el campo de la computación de inteligencia artificial está determinado por un cambio estructural significativo, y no simplemente por una carrera por el control de las cuotas de mercado. El principal factor que impulsa esta situación es la construcción de infraestructuras por parte de los hiperescalares. Se trata de una serie de inversiones de capital a largo plazo que están transformando la cadena de valor de los semiconductores. Según Goldman Sachs, se prevé que los gigantes tecnológicos especializados en inteligencia artificial inviertan en este área.Más de 500 mil millones de dólares en infraestructura este año.Esto no es una apuesta especulativa; se trata de una inversión a largo plazo, con el objetivo de garantizar la capacidad física necesaria para la próxima generación de modelos.
En este contexto, la posición de Nvidia es imponente, pero no monolítica. La empresa sigue siendo la líder indiscutible en el campo de las GPU de uso general. Ha desarrollado una estrategia completa que incluye tanto el hardware como su dominante ecosistema de software CUDA. Su porcentaje de participación en el mercado, que se estima en hasta el 75% para el año 2030, demuestra su gran ventaja técnica. Sin embargo, la enorme escala de sus operaciones crea oportunidades para que otros actores puedan obtener beneficios significativos.
Los datos muestran que otros jugadores están ganando una influencia significativa en este mercado. Micron Technology, un proveedor clave de chips de memoria y almacenamiento esenciales para las cargas de trabajo relacionadas con la inteligencia artificial, ha visto un aumento significativo en sus ingresos.El 57% corresponde a los $13.6 mil millones.Este crecimiento refleja la demanda estructural de los componentes esenciales que permiten el funcionamiento de cada servidor de inteligencia artificial. De manera similar, Broadcom utiliza un enfoque diferente en su estrategia de negocios. Aunque no diseña chips como Nvidia, su especialización en soluciones personalizadas ha contribuido a una demanda sólida. Al final del trimestre, Broadcom contaba con un saldo de pedidos de 73 mil millones de dólares. Su CEO espera que los ingresos relacionados con los chips de inteligencia artificial se dupliquen en el primer trimestre de 2026.
Esta dinámica competitiva revela un ecosistema que está en proceso de maduración. La fase inicial estuvo dominada por los líderes en el campo de las GPU de uso general. Ahora, el mercado se está dividiendo, y surgen ganadores en las áreas más fundamentales: la memoria especializada y las soluciones de red personalizadas. Para los inversores, lo importante es determinar qué empresas se encuentran en la parte más difícil de la curva S, para poder aprovechar las oportunidades que ofrece esta expansión de la infraestructura.
Ejecución y valoración financiera en la curva de crecimiento
El rendimiento financiero de los líderes en el sector de la infraestructura de IA confirma que se encuentran en la fase más difícil del proceso de adopción de esta tecnología. Se espera que los ingresos de Nvidia crezcan a un ritmo muy alto.Un 37% anual durante los próximos tres años.Esta trayectoria de crecimiento respeta el actual ratio precio/ganancias, que es de 47. Este número parece razonable si se tiene en cuenta el cambio estructural en los gastos. El amplio rango de expectativas de Wall Street, desde un objetivo alcista de 352 hasta un objetivo bajista de 140, destaca la incertidumbre respecto al pico final de este ciclo. Pero el consenso general es que se espera una aceleración en los resultados.
Los resultados de Micron ofrecen un ejemplo de cómo se puede lograr una ejecución sólida en una capa fundamental del sistema. La empresa informó que…Los ingresos ascendieron a 13.6 mil millones de dólares, lo que representa un aumento del 57% en comparación con el año anterior.El ingreso neto aumentó en un 175%, hasta llegar a los 5.24 mil millones de dólares. Este crecimiento explosivo en el sector de la memoria es una reflección directa de la cantidad enorme de datos que requieren las cargas de trabajo relacionadas con la inteligencia artificial. Esto demuestra que, incluso dentro del contexto general del auge informático, ciertos componentes de la infraestructura experimentan un crecimiento excepcional a medida que el sistema se expande.
La naturaleza plurianual de este ciclo es crucial. Se proyecta que los requisitos de gastos de capital de la industria superarán los límites establecidos.4 billones de dólares en los próximos cinco años.Esto no es un aumento a corto plazo, sino una expansión sostenida que impulsará la demanda de chips, memoria, redes y capacidad de los centros de datos durante años. Para los inversores, esto significa que el momento actual de crecimiento financiero es probablemente solo el comienzo de una fase de crecimiento más larga.
En resumen, la valoración de las empresas debe analizarse desde la perspectiva de la “curva S”. Los múltiplos elevados, como los de Nvidia, no se justifican únicamente basándose en los resultados actuales de las empresas, sino también en la certeza de que habrá una adopción exponencial de sus productos en el futuro. Los datos financieros muestran que las empresas no solo están capturando la demanda del mercado, sino que también están expandiendo sus operaciones a un ritmo acorde con el cambio paradigmático en el sector. La previsión de inversiones en infraestructura por valor de 4 billones de dólares garantiza que esta expansión tendrá éxito, lo que hace que la ejecución financiera actual sea un indicador clave para predecir el dominio futuro de estas empresas.
Catalizadores, riesgos y lo que hay que tener en cuenta en 2026
La tesis según la cual el volumen de infraestructura se encuentra en una curva en forma de “S” muy pronunciada depende de unos pocos indicadores a corto plazo. El ritmo de cambio en la carga de trabajo de inferencia será el factor más importante. Si la aceleración de la inferencia realmente ocurre como se prevé, esto podría presionar el mercado de los chips optimizados para la inferencia, algo que ha sido un factor clave en el dominio de Nvidia. Se espera que el mercado de los chips optimizados para la inferencia supere…50 mil millones en el año 2026Se crea así un nuevo campo de batalla. Una adopción rápida del nuevo modelo validaría el cambio en la forma de operar, y esto podría beneficiar a los jugadores especializados. Por otro lado, una adopción más lenta permitiría mantener el modelo actual, que se centra más en el entrenamiento.
Los gastos de capital de los hipercables son otro factor importante que contribuye al crecimiento de este sector. Se espera que los gigantes tecnológicos dedicados a la inteligencia artificial inviertan en esta área.Más de 500 mil millones de dólares en infraestructura este año.Es la base fundamental de toda la expansión de las infraestructuras. Cualquier desviación de ese camino indicaría una ralentización en la expansión de las infraestructuras. Es importante observar los anuncios trimestrales relacionados con el gasto en inversiones de Microsoft, Amazon, Alphabet y Meta. Un gasto constante, o incluso superior a ese nivel, confirma que la tesis de inversión a largo plazo sigue válida. Cualquier retraso en este proceso pondría en peligro la trayectoria de crecimiento de todos los proveedores de infraestructuras.
Por último, es necesario analizar el rendimiento financiero de los fabricantes que se centran en el uso de la inteligencia artificial como indicador clave para evaluar la eficacia del nuevo paradigma. El director ejecutivo de Broadcom espera que los ingresos derivados de los chips de inteligencia artificial aumenten en el futuro.Doble en el primer cuarto de 2026La empresa terminó el trimestre con un saldo de pedidos de 73 mil millones de dólares. Los resultados de Micron muestran que la capa fundamental de su negocio también está creciendo: los ingresos aumentaron en un 57%, hasta llegar a los 13,6 mil millones de dólares. Estas tasas de crecimiento indicarán si el mercado de chips especializados y eficientes está creciendo como se esperaba.
En resumen, el año 2026 será un año de validación. El cambio estructural es evidente, pero la velocidad y escala de adopción de esta tecnología se verán confirmadas por los indicadores trimestrales. Para los inversores, lo más importante no es solo los ingresos actuales, sino también qué empresa tiene un crecimiento que esté mejor alineado con la próxima fase de desarrollo de la tecnología de IA.



Comentarios
Aún no hay comentarios