Corning está en posición de superar el próximo obstáculo en el desarrollo de la inteligencia artificial: resolver los limitaciones físicas de los centros de datos.

Generado por agente de IAEli GrantRevisado porAInvest News Editorial Team
sábado, 21 de marzo de 2026, 1:02 am ET6 min de lectura
AMZN--
AVGO--
GOOGL--
NVDA--

El dominio de Nvidia en la curva de desarrollo del sector de la inteligencia artificial es innegable. Sus GPU siguen siendo el motor fundamental para el entrenamiento de los modelos más complejos, lo que genera un aumento significativo en los ingresos y en la concentración del mercado. Sin embargo, el éxito de este paradigma está creando las condiciones para su siguiente fase de desarrollo. La construcción de infraestructuras se está acelerando, y la atención se está desplazando de la capacidad de entrenamiento hacia las demandas continuas y relacionadas con los costos, así como los límites físicos de los centros de datos. Este cambio abre una oportunidad de crecimiento a largo plazo para las empresas que logran superar los nuevos obstáculos.

El líder técnico está enfrentando desafíos. Aunque Nvidia está muy por delante de sus competidores, surge un campo cada vez más amplio de oponentes. Clientes como Google, Amazon y Meta están diseñando sus propios chips. Los TPUs de Google ahora se alquilan externamente, mientras que los Inferentia de Amazon se centran en la procesamiento de datos. Las startups dedicadas al desarrollo de chips también están aprovechando esta oportunidad, con el apoyo de inversiones de miles de millones de dólares. Nvidia misma está invirtiendo 20 mil millones de dólares para contratar talento de su principal competidor en el área de procesamiento de datos, Groq. No se trata simplemente de una competencia entre empresas; se trata de un ecosistema en rápido desarrollo, donde socios como Broadcom diseñan tecnologías de red para Nvidia, al mismo tiempo que compiten en el sector de los chips.

El paradigma está cambiando: ahora se pasa de la capacitación al procesamiento de datos. La capacitación es un proceso que requiere una gran cantidad de recursos informáticos, pero el procesamiento de datos es continuo y depende del costo. Esto genera una nueva necesidad de infraestructuras eficientes y densas. Como demuestran los datos, hay una oleada de startups que desarrollan chips especializados en el procesamiento de datos, los cuales son más económicos y eficientes que las GPU. Ahora, lo importante es la eficiencia operativa y el costo total de propiedad, no solo el rendimiento máximo.

Esto nos lleva a la siguiente frontera: la densidad física. El crecimiento exponencial de la inteligencia artificial impulsada por GPU está alcanzando un límite. La escalabilidad de las redes se logra mediante el aumento del número de cables y conectores, pero este proceso solo es posible hasta que se agote el espacio disponible. A medida que las redes de los centros de datos se expanden, el factor limitante ya no es la velocidad de banda ancha, sino la capacidad física de los racks y los caminos de comunicación. Aquí es donde comienza el próximo cambio paradigmático.Compañías como Corning están innovando con soluciones como la fibra de múltiples núcleos. Con esta tecnología, se puede almacenar cuatro veces más información en un espacio físico reducido. El objetivo es aumentar la capacidad de almacenamiento, al mismo tiempo que se reduce el número de cables y conectores necesarios. De esta manera, se ahorra espacio en los racks y se simplifica la implementación de los sistemas.

En resumen, la curva de crecimiento actual de Nvidia podría estar alcanzando su punto más crítico. El dominio de la empresa en el sector de las GPU se está cuestionando, y el motor de crecimiento de la empresa está madurando. El próximo punto de inflexión a lo largo de varios años será la solución de los cuellos de botella físicos relacionados con la densidad de redes y la eficiencia de los servidores. Este es el nivel de infraestructura en el que la adopción exponencial de la IA se dará.

Stock 1: Corning (GLW) – La empresa dedicada a la infraestructura óptica.

Corning se está posicionando como la base física de la infraestructura de IA. A medida que las redes de centros de datos alcanzan un límite en cuanto a la densidad de datos, la solución de fibra de múltiples núcleos ofrecida por la empresa proporciona una forma directa de aumentar la capacidad, sin necesidad de expandir el área física utilizada. Esto no es simplemente una mejora incremental; se trata de un cambio significativo.Cuatro caminos de datos independientes, unidos en una sola fibra óptica.Sin aumentar el diámetro exterior, Corning permite que la capacidad de transmisión sea hasta cuatro veces mayor que la de las fibras tradicionales de un solo núcleo, en el mismo espacio disponible. Para los proveedores de servicios de gran escala que necesitan construir clústeres GPU de gran tamaño, esto significa que se puede recuperar espacio valioso en los racks y reducir la congestión en los caminos de transmisión.

La ventaja de la empresa se ve reforzada por su papel en la definición de los estándares del sector. Corning es uno de los miembros fundadores de…Acuerdo de múltiples fuentes SDM4 MCF (MSA)Se trata de una colaboración con otros importantes proveedores para definir las especificaciones técnicas relacionadas con la fibra de cuatro o más núcleos. Este es un paso crucial. Un estándar abierto reduce los riesgos para los clientes y acelera la adopción de este tecnología. Esto le da a empresas como Corning una gran ventaja como pioneros en este ecosistema, que aún está en sus inicios, pero se está desarrollando rápidamente.

Más allá de las propias fibras, Corning está desarrollando soluciones integradas para simplificar el proceso de implementación de los sistemas. Este es un aspecto crucial en la eficiencia operativa. La empresa afirma que su enfoque puede reducir hasta un 75% el número de conectores necesarios, así como hasta un 70% la cantidad de cables utilizados en las instalaciones de centros de datos. Estas reducciones significan menos trabajo, menos peso y menos posibilidades de fallos en los sistemas. Lo más importante es que esto acorta drásticamente los plazos de implementación, lo que permite poner en funcionamiento nuevas capacidades de procesamiento de datos meses antes de lo habitual. En un entorno donde la velocidad es un activo estratégico, esta eficiencia operativa constituye una gran ventaja competitiva.

En resumen, Corning está resolviendo el próximo problema de congestión en la red de comunicaciones. Aunque la competencia en el área del procesamiento de datos por parte de la IA se centra en los chips, el trabajo de Corning garantiza que la red pueda mantenerse al día con las nuevas tecnologías. Su liderazgo tecnológico en materia de fibras multicore, junto con su compromiso por estandarizar y simplificar las soluciones tecnológicas, lo convierten en una plataforma fundamental para la construcción de la infraestructura de IA en la próxima fase.

Stock 2: Super Micro Computer (SMCI) – La infraestructura de servidores.

Super Micro Computer es el motor detrás de la infraestructura de IA. Mientras que otros diseñan los “cerebros” de las máquinas, Super Micro se encarga de construir los “corpos” en los que se alojan esos cerebros: los servidores que albergan todo ese sistema. La trayectoria de crecimiento de la empresa está ahora marcada por un aumento significativo en las expectativas de crecimiento. En febrero, Super Micro…Aumentó su previsión de ingresos anuales a al menos 40 mil millones de dólares.Para el año fiscal 2026, existe una clara señal de que la demanda por sus servidores optimizados para el uso de IA no solo es fuerte, sino que también está aumentando constantemente.

Esta oleada está directamente relacionada con el ciclo de gastos de capital masivo que realizan los hiperproveedores de servicios en la nube. Se proyecta que los cinco principales proveedores de servicios en la nube gastarán una cantidad asombrosa de dinero en este aspecto.720 mil millones en gastos de capital en el año 2026.Super Micro se beneficia de esta ola de implementaciones, no a través de los ciclos de diseño de chips, sino gracias al gran volumen de servidores que se necesitan. A medida que estas empresas expanden sus clústeres de GPU, necesitan sistemas de racks escalables y eficientes en términos de consumo energético. Super Micro está posicionada como una de las empresas más rápidas en este sector.

La ventaja tecnológica de esta empresa radica en su arquitectura modular. Este diseño le proporciona la flexibilidad y eficiencia que los proveedores de servicios de gran escala requieren para lograr una escalabilidad rápida y económica. También permite configuraciones personalizadas que optimizan el uso del espacio y de la energía, algo crucial a medida que las cargas de trabajo relacionadas con la IA se vuelven más complejas. Esta eficiencia operativa es un punto clave que diferencia a esta empresa en un mercado donde el tiempo de implementación y el costo total de propiedad son factores fundamentales.

En resumen, Super Micro es un beneficiario directo de la construcción de infraestructuras relacionadas con la inteligencia artificial. Su crecimiento depende del ciclo de inversión en infraestructura de los hiperescalares, y no hay signos de que esta tendencia disminuya. Al proporcionar una infraestructura de servidores de alta capacidad y eficiencia, Super Micro consolida su papel como un elemento fundamental en la próxima fase de adopción exponencial de la tecnología.

Riesgos y contrapuntos

La tesis relacionada con la infraestructura es convincente, pero enfrenta obstáculos en el mundo real. La construcción de la infraestructura a lo largo de varios años no está garantizada; depende de los gastos de capital continuos que realicen algunos clientes importantes. El riesgo principal es que los gastos de capital de las hyperscalers disminuyan. Aunque las previsiones actuales son…720 mil millones en gastos de capital para el año 2026.Se sugiere que existe un ciclo cerrado en el cual cualquier cambio en las condiciones económicas o una reevaluación de la rentabilidad de las inversiones podría acortar este período de tiempo. Para empresas como Super Micro y Corning, cuya crecimiento se basa en el volumen de ventas, una pausa en estos gastos sería un golpe directo para ellas.

El riesgo de ejecución también es un obstáculo importante. Escalar la producción y desplegar nuevas soluciones, como las fibras de múltiples núcleos desarrolladas por Corning o los servidores modulares de Super Micro, representa un desafío logístico complejo. Estas empresas deben aumentar su capacidad de producción, gestionar las cadenas de suministro de los componentes nuevos y formar al personal necesario para implementar sistemas integrados. Cualquier error en cualquiera de estos aspectos podría retrasar el reconocimiento de los ingresos y aumentar los costos, convirtiendo una curva de crecimiento prometedora en algo difícil de manejar.

También está presente la sombra de Nvidia. La empresa no se queda quieta. Su estrategia de integración vertical –es decir, diseñar no solo las GPU, sino también los sistemas de red que las conectan– crea un ecosistema poderoso. Esto puede ejercer presión sobre los márgenes de beneficio de los socios en el sector de infraestructura, quienes se ven obligados a competir por precios en los productos relacionados con la conectividad. Como señalan los datos disponibles…Por ejemplo, Broadcom, una empresa gigante en el sector de los semiconductores, diseña chips que compiten con los de Nvidia. Además, provee tecnología de red para conectar sus GPU.La capacidad de Nvidia para integrar y optimizar todo su conjunto de herramientas le proporciona una gran ventaja. Esto dificulta que los proveedores puramente especializados en infraestructuras puedan obtener el máximo valor de sus productos.

Por último, el panorama competitivo es bastante complejo. Aunque Nvidia sigue siendo la líder del mercado, el número de clientes que se convierten en competidores está aumentando. Los TPUs de Google ahora se alquilan a otros proveedores, y Inferentia de Amazon se dirige hacia el área de inferencia. Esto no es simplemente una rivalidad; es un cambio en la cadena de valor. Si un proveedor de servicios cloud logra desarrollar su propio sistema de inferencia eficiente, podría reducir su dependencia de los proveedores de servidores y redes de terceros, lo que afectaría negativamente a empresas como Super Micro y Arista.

En resumen, la inversión en infraestructura es una apuesta por la duración y escala de la implementación de la inteligencia artificial. Es una inversión sensata, dadas las proyecciones actuales de gastos de capital. Pero también conlleva los riesgos inherentes relacionados con la ejecución del proyecto, la concentración de clientes y la constante innovación de la plataforma dominante.

Consejo estratégico: Construir la curva S de la inteligencia artificial

La tesis de inversión es clara: el crecimiento exponencial de la IA está alcanzando un límite físico. La curva S inicial, impulsada por la potencia informática, está madurando. El próximo punto de inflexión a lo largo de varios años se encuentra en la capa de infraestructura, que se está convirtiendo en el nuevo obstáculo a medida que la IA crece. Este cambio crea una oportunidad importante para las empresas que pueden superar los problemas fundamentales relacionados con la densidad de red y la eficiencia de los servidores.

El paradigma está pasando de los ciclos de diseño a los volúmenes de despliegue de las redes. Como demuestra la evidencia, escalar las redes agregando más fibra y conectores funciona hasta que se agota el espacio disponible.A medida que los clústeres de entrenamiento se expanden, el factor limitante ya no es la velocidad a la que la luz puede viajar a través de las fibras. El factor que limita ahora es la cantidad de infraestructura que puede caber dentro de los racks, bandejas y conductos.Es aquí donde continúa la historia del crecimiento exponencial. Compañías como Corning, con su solución de fibra multifinal, cuatro núcleos, se encuentran en una posición ideal para lograr un crecimiento exponencial, ya que pueden aumentar la capacidad de transmisión sin ocupar más espacio físico. Su ventaja se incrementa a medida que las redes crecen, lo que simplifica el despliegue y permite liberar espacio en los racks.

La tesis a largo plazo favorece las estrategias basadas en el volumen de negocio y en la implementación de soluciones, en lugar de los modelos basados únicamente en el ciclo de diseño de productos. Super Micro Computer es un ejemplo de este cambio. Su crecimiento está directamente relacionado con el ciclo de inversión de las hyperscalers, y no con los ciclos de diseño de chips. Como señalan los datos disponibles…Super Micro se beneficia del volumen de implementaciones, en lugar de los ciclos de diseño de chips.Este modelo refleja el aumento en la demanda de sistemas de rack escalables y eficientes en términos energéticos, a medida que los clústeres de GPU se expanden. Lo importante es la eficiencia operativa y la rapidez con la que se llega al mercado; estos factores se vuelven cada vez más importantes, incluso más que el rendimiento óptico, a medida que el sistema madura.

En resumen, la curva de desarrollo de la infraestructura de IA está dividiéndose en dos segmentos. El primer segmento se refiere a quién puede desarrollar chips con mayor velocidad. El segundo segmento se refiere a quién puede construir redes y sistemas de servidores más densos y eficientes para dar soporte a ese proceso. Para los inversores, lo importante es apoyar a aquellas empresas que están desarrollando las soluciones físicas necesarias para permitir la próxima ola de adopción exponencial de la tecnología.

author avatar
Eli Grant

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios