Boletín de AInvest
Titulares diarios de acciones y criptomonedas, gratis en tu bandeja de entrada
La narrativa basada en la IA necesita una reconfiguración fundamental. El año 2026 no estará determinado por el próximo avance tecnológico, sino por la madurez de la infraestructura que lo sustenta. La pregunta clave para ese año es si la IA puede convertirse en algo realmente operativo, gestionable y sostenible desde un punto de vista económico. La mayoría de las organizaciones actuales se ven limitadas no por la inteligencia artificial en sí, sino por la infraestructura utilizada para implementarla: una utilización ineficiente de las GPU, costos cada vez más elevados en términos de procesamiento de datos, y la tendencia a tratar la IA como una característica más, en lugar de algo que funcione de manera automática. Esto marca un punto de inflexión clásico, similar al cambio de sistemas monolíticos a servicios microservicios, o de servidores locales a servicios en la nube. Los beneficios no se limitan solo a la reducción de costos, sino también a la posibilidad de desarrollar modelos operativos completamente nuevos.
La escala de este desarrollo de la infraestructura es impresionante. Se espera que la capacidad global de los centros de datos de tipo “hyperscala” se duplique en poco más de 12 trimestres, gracias a los gastos de capital que se proyectan superar los 600 mil millones de dólares en el año 2026. No se trata de un proceso lento; es una situación en la que se está construyendo las bases para el próximo paradigma tecnológico. Los gastos ya están cambiando en esa dirección. Como demuestran las pruebas, los cuellos de botella han pasado de las GPU a los componentes que sirven para alimentar y conectarlas. En 2025, la memoria y las tecnologías ópticas se han convertido en los principales beneficiarios de este proceso. Esta tendencia se acelerará a medida que la industria transita del estado de desarrollo teórico hacia una escala operativa real.
Esto establece una perspectiva clara para las inversiones durante este año. La fase de crecimiento exponencial ya comienza para las empresas que desarrollan las infraestructuras esenciales: procesamiento de datos, memoria, redes y capacidad de los centros de datos. Los ganadores serán aquellos que logren resolver los problemas relacionados con la eficiencia y los costos, que actualmente limitan la viabilidad económica de la IA. El cambio de paradigma está en marcha, y se están sentando las bases para el futuro.
La construcción de la infraestructura de IA es una carrera por establecer las bases fundamentales para el desarrollo tecnológico. En el centro de esta carrera se encuentran dos empresas cuyos productos son los componentes esenciales para el desarrollo de este campo: Nvidia y Broadcom. Su dominio no es algo pasajero, sino que refleja la necesidad del sector de componentes estandarizados y de alto rendimiento, en cantidades significativas.
La posición de Nvidia se basa en su arquitectura Blackwell. Esta arquitectura cuenta con una demanda abrumadora, pero la oferta sigue siendo limitada, debido a que los centros de datos se construyen en todo el mundo. No se trata simplemente de vender chips; se trata de controlar todo el proceso de producción. La estrategia de Nvidia abarca hardware, software e integración de sistemas, lo que crea un ecosistema poderoso que, a menudo, permite obtener los costos operativos más bajos para los clientes. Este control, combinado con su cuota de mercado dominante, le proporciona una ventaja significativa. Como señaló un analista, la trayectoria de crecimiento de la empresa todavía se encuentra en su fase exponencial inicial. Incluso un aumento del 20% o 30% en 2026 sería considerado excepcional a esta escala.
Broadcom funciona como un complemento indispensable para la potencia de procesamiento de Nvidia. Es el estándar del sector en cuanto a chips de conmutación y enrutamiento Ethernet. Además, Broadcom es líder en el mercado de aceleradores de inteligencia artificial personalizados, competiendo directamente con los productos propuestos por Nvidia. Este doble papel, tanto como proveedor clave como competidor, destaca su posición crucial en la estructura de la infraestructura tecnológica. Su fortaleza radica en proporcionar una conectividad de alto ancho de banda y baja latencia, lo que permite que los clústeres de inteligencia artificial funcionen de manera eficiente.
La demanda de estos componentes fundamentales está impulsando los beneficios del proceso de producción. TSMC, la mayor fabricante de chips al por mayor del mundo y proveedor clave para Nvidia, espera obtener beneficios récord en esta área.
Esto se debe a la fuerte demanda constante de infraestructura relacionada con la inteligencia artificial. Este aumento en las ganancias es una señal clara de que el ciclo de gastos de capital no solo está comenzando, sino que ya está acelerándose. La inversión en nuevas capacidades de fabricación, como la planificada por TSMC: 165 mil millones de dólares para construir instalaciones en Arizona, representa una apuesta por satisfacer esta demanda durante años más.Juntas, Nvidia y Broadcom representan los dos pilares fundamentales del ecosistema de procesamiento de datos relacionado con la inteligencia artificial. Nvidia proporciona el componente principal de procesamiento, mientras que Broadcom se encarga de garantizar que este componente pueda ser conectado y coordinado a gran escala. El éxito conjunto de estas empresas demuestra que la transformación en la infraestructura no depende de un solo avance, sino de la escalabilidad exponencial de todo el sistema. Para los inversores, esto significa apostar en empresas que no solo venden productos, sino que también construyen las infraestructuras necesarias para llevar a cabo el próximo paradigma tecnológico.
Mientras que la potencia de computación se convierte en el foco de atención, la construcción de la infraestructura de IA está enfrentando un problema crítico: la memoria. Los centros de datos que ejecutan modelos de IA necesitan una memoria rápida y de alta banda ancha, que esté cerca de la GPU. Es aquí donde Micron pretende posicionarse como un actor fundamental, no simplemente como un proveedor de servicios de memoria.
La empresa está ganando una cuota de mercado significativa en el tipo de memoria clave para la IA: la memoria de alto ancho de banda (HBM). Según análisis recientes…
Es una señal clara de que Micron está logrando capturar la demanda, a medida que la industria crece. Este cambio se produce porque sus principales competidores, Samsung y SK Hynix, veían cómo su cuota de mercado disminuía. No se trata de un gancho insignificante; se trata de un reubicación fundamental dentro de la industria, con Micron pasando de ser un simple proveedor de productos básicos a un actor estratégico en el mercado.
La demanda que impulsa este cambio está aumentando rápidamente. El director ejecutivo de Micron ha declarado que…
El mercado está respondiendo con una grave escasez de este componente esencial. Se espera que los precios de este producto aumenten en un 55% durante el primer trimestre. Esto es una señal clara de la escasez de suministro y de la presión económica que se ejercerá sobre aquellos que cuenten con capacidad para suministrarlo. La empresa cree que esta situación de escasez continuará hasta el año 2027.Para hacer frente a esta creciente demanda, Micron está realizando el mayor compromiso de capital de su historia. La empresa invierte 200 mil millones de dólares para aumentar su capacidad de producción en los Estados Unidos. Esto incluye la construcción de dos nuevas plantas de fabricación en Idaho y una gran instalación en Nueva York, donde las obras de construcción comenzaron la semana pasada. Este gran proyecto representa una inversión directa en la infraestructura relacionada con la inteligencia artificial. Se espera que el crecimiento exponencial en la demanda de memoria justifique el tiempo necesario para completar este proyecto, así como la intensidad de los recursos financieros requeridos.
Para los inversores, Micron representa una oportunidad para superar los límites físicos de las tecnologías de IA. Resolver el problema del cuello de botella en materia de memoria no constituye una simple actualización de características; es, en realidad, una condición previa para que la IA pueda escalar hacia su próximo estándar. Las ganancias en cuanto al porcentaje de mercado de la empresa, junto con su expansión sin precedentes en términos de capacidad, la colocan directamente en el camino hacia convertirse en una infraestructura crítica. La pregunta ahora no es si la memoria será un obstáculo, sino qué empresas tendrán la capacidad de soportar esa carga.
Alphabet se destaca en la carrera por desarrollar infraestructuras de inteligencia artificial, ya que construye todo el sistema desde cero. Mientras que otros se centran en vender componentes, Alphabet integra verticalmente los elementos clave del sistema: procesamiento de datos personalizado, modelos fundamentales y una plataforma en la nube. Esto crea un sistema poderoso y autoperforante, que está en una posición única para enfrentarse a las exigencias de escala operativa en el año 2026.
En el corazón de esta estructura se encuentra el modelo de lenguaje Gemini Large. Alphabet ha desarrollado uno de los mejores modelos de este tipo en el mundo.
No se trata de un proyecto secundario; es la capa central de inteligencia para las funciones de búsqueda en Google, Android y su conjunto de herramientas de productividad. Al integrar profundamente Gemini en sus servicios existentes, Alphabet logra un nivel de integración de productos que ningún desarrollador de modelos puros puede igualar. Además, esto crea una red de ingresos directa, ya que el uso de la IA permite mejorar su negocio de búsquedas, mientras se fomenta el crecimiento de sus plataformas de computación en la nube y publicidad.La eficiencia de este sistema integrado se debe al hardware personalizado desarrollado por Alphabet. Sus unidades de procesamiento de tensores han sido desarrolladas durante más de una década y están estrechamente vinculadas con su software. Esto le da a la empresa una importante ventaja en términos de costos para ejecutar sus propias cargas de trabajo de IA. Lo que es más importante, esta ventaja ya está siendo utilizada como fuente de ingresos. Clientes externos importantes como Anthropic están realizando pedidos grandes para ejecutar sus cargas de trabajo de IA en Google Cloud, utilizando las unidades TPU de Alphabet. Morgan Stanley estima que, por cada 500,000 chips implementados, Alphabet genera alrededor de 13 mil millones de dólares en ingresos anuales. Este número podría aumentar significativamente cuando el número de chips implementados por los clientes alcance los 5 millones para el año 2027.
Esta integración vertical crea una posición de mercado única. A medida que las funciones de búsqueda y los chatbots de IA se fusionan, Alphabet se encuentra en una posición privilegiada, ya que puede ofrecer experiencias de búsqueda tradicionales y servicios de chatbots de IA dentro de la misma solución. Además, cuenta con una distribución inigualable a través de Android y Chrome, lo que le permite tener una base de usuarios integrada para sus servicios de IA. Este conjunto de productos integrados, alimentados por sus propios chips y modelos, constituye una infraestructura fundamental que es más eficiente y escalable que una colección de componentes de terceros.
En resumen, Alphabet no es simplemente una empresa que utiliza la inteligencia artificial; es una empresa que construye infraestructuras. Su estrategia se asemeja a los primeros días del desarrollo de la computación en la nube: el control sobre la infraestructura le permite obtener ventajas económicas y fidelizar a los clientes. En 2026, a medida que la industria pasa de la fase de promoción del modelo a la fase de operaciones reales, la infraestructura verticalmente integrada de Alphabet le otorga una ventaja duradera. Alphabet está construyendo las bases para el futuro, y la empresa se encuentra en una posición única para manejar esa infraestructura.
La propuesta de infraestructura para el año 2026 ya es un experimento en funcionamiento. La construcción exponencial de la infraestructura está en curso, pero su éxito depende de algunos factores críticos que deben ser controlados. El camino hacia ganancias récord y crecimiento sostenido se verá determinado por la resolución de los obstáculos físicos y la durabilidad de los gastos.
En primer lugar, es necesario monitorear la resolución del problema de escasez de memoria. La falta de DRAM es un factor importante que podría generar problemas en el corto plazo; se espera que los precios aumenten en un 55% durante el primer trimestre. Esta situación económica dificultosa representa una oportunidad para empresas como Micron, quienes están invirtiendo 200 mil millones de dólares en la construcción de nuevas capacidades de producción. La cuestión clave es cuándo estará disponible este nuevo suministro. Como señaló el CEO Sanjay Mehrotra…
La tesis se basa en la expectativa de que la demanda crezca más rápidamente que este proceso de desarrollo a lo largo de varios años, lo que mantendrá los márgenes elevados. Cualquier señal de que el suministro logre alcanzar ese nivel demasiado rápidamente podría llevar a una reducción de los precios de los productos de lujo.En segundo lugar, es necesario analizar la estructura física del sistema de tuberías que utilizan los centros de datos. La industria planea duplicar su capacidad de almacenamiento en niveles hiperescala en poco más de 12 trimestres. Sin embargo, esta expansión enfrenta numerosos obstáculos en la práctica. Según análisis recientes…
Hasta junio de 2025, las principales limitaciones son la disponibilidad de energía y la oposición local. La tesis de inversión supone que estas dificultades pueden superarse, pero cualquier retraso generalizado ejercerá una presión directa sobre el ciclo de gastos de capital, que es lo que financia todo el proyecto.El riesgo más importante es el ralentismo en los gastos relacionados con la infraestructura de inteligencia artificial. El aumento actual en las acciones de las empresas que producen chips y memoria se basa en la expectativa de un gasto de capital sostenido a lo largo de varios años. Si empresas como Meta, Amazon o Google comienzan a reducir sus planes de inversión, ya sea debido a factores económicos, presiones regulatorias o simplemente porque la adopción de la tecnología de inteligencia artificial ha alcanzado un punto de estabilidad, toda esta estructura se derrumbará. Un ralentismo en los gastos llevaría a una reducción en los márgenes de beneficio, tanto en las empresas que fabrican chips como en las proveedoras de memoria. La cautela de los inversores, quienes están preocupados por la posibilidad de una “burbuja de inteligencia artificial”, resalta esta vulnerabilidad. Las pruebas muestran que la demanda sigue siendo alta, pero el mercado está atento a cualquier cambio en los gastos relacionados con la tecnología de inteligencia artificial.
Para los inversores, el marco de actuación es claro. Es necesario estar atentos a señales de que la situación en la cadena de suministro se ha resuelto, al progreso en la construcción física, y, lo más importante, a la solidez del compromiso de gastos. Las vías ya están preparadas, pero el tren debe seguir moviéndose.
Titulares diarios de acciones y criptomonedas, gratis en tu bandeja de entrada
Comentarios
Aún no hay comentarios