Dos ganadores exponenciales en la curva de desarrollo de la infraestructura de IA: computación y orquestación.
La llegada de la IA generativa representó una verdadera revolución. Su paso a escala de producción constituye un cambio paradigmático, ya que rompe fundamentalmente las reglas de la infraestructura empresarial tradicional. A medida que los modelos pasan de ser experimentos aislados a operaciones en tiempo real, la incompatibilidad con los sistemas tradicionales se convierte en un obstáculo crucial. No se trata solo de necesitar más servidores; se trata también de un cambio en la curva de crecimiento exponencial, dividida en dos capas de gran valor: la capa de procesamiento físico y la capa de organización lógica.
El problema fundamental es económico. Aunque el costo de realizar una llamada de inferencia con IA ha disminuido considerablemente, su uso ha aumentado enormemente. Las empresas están descubriendo que…Las cargas de trabajo recurrentes relacionadas con la IA implican una procesión de inferencias casi constantes.Se trata de convertir herramientas de tipo “proof-of-concept” en centros de costos que puedan generar decenas de millones de dólares al mes. Este “despertar económico relacionado con las inferencias” obliga a una reevaluación de los enfoques utilizados. La solución no consiste en una simple migración de sistemas cloud a entornos on-premise, sino en una reestructuración completa de la infraestructura para satisfacer las necesidades únicas de la inteligencia artificial en cuanto a soberanía de datos, baja latencia y resiliencia.
Esta reestructuración está creando dos curvas de crecimiento exponencialmente diferentes. La primera es la capa física de procesamiento, que está impulsada por el deseo insaciable de disponer de memoria de alto ancho de banda y chips especializados. La segunda es la capa de orquestación lógica, la cual debe gestionar la autonomía de las inteligencias artificiales. Gartner predice que…La IA evolucionará de ser herramientas que ayudan a los seres humanos, a convertirse en plataformas que reemplazan el trabajo manual en procesos complejos.Para el año 2029, el 70% de las empresas utilizarán la IA en las operaciones de TI. Se trata de un gran avance en comparación con el actual estado, donde esta tecnología se utiliza en menos del 5% de las empresas. Este cambio requiere la utilización de nuevas plataformas que permitan conectar las decisiones tomadas por los agentes con la ejecución real de las tareas, manteniendo al mismo tiempo la capacidad de gobernar y auditar dichas decisiones.
La magnitud de esta inversión en infraestructura es histórica. Se proyecta que el total de gastos necesarios para construir centros de datos preparados para el uso de IA llegará a un nivel significativo.5.2 billones de dólares para el año 2030Las cargas de trabajo basadas en IA, por sí solas, consumirán aproximadamente el 70% de toda la capacidad de los nuevos centros de datos. Esto no es un mejoramiento gradual, sino una expansión fundamental de la capacidad computacional mundial. Se espera que el consumo de energía en los centros de datos aumente en un 165% entre 2023 y 2030. En resumen, estamos presenciando el inicio del mayor ciclo de inversión en infraestructura de la historia moderna. Esta inversión se divide entre los componentes físicos, como los chips, y el software que los controla.
Ganador 1: La capa de procesamiento – Micron (MU), como la solución ideal para superar los problemas relacionados con la memoria HBM.
El dominio de Nvidia en el campo de los chips de inteligencia artificial es indiscutible. Sus acciones bursátiles han aumentado casi un 1,000% en tres años, lo que constituye un punto de inflexión clásico en la curva de crecimiento de una empresa. Pero, a medida que la industria continúa desarrollándose, surge un nuevo obstáculo. La explosión de las cargas de trabajo relacionadas con la inteligencia artificial está creando un punto de congestión en la capa de movimiento de datos: los sistemas de memoria y almacenamiento. Es aquí donde Micron Technology puede lograr un crecimiento exponencial.
La demanda de memoria de alta banda ancha es un factor clave para el rendimiento y el costo de los chips. A medida que las infraestructuras de centros de datos se expanden, es necesario realizar inversiones masivas en soluciones de memoria de alta velocidad, DRAM y NAND. Micron está especializada en este área, lo que la convierte en un proveedor fundamental para la infraestructura de inteligencia artificial. Mientras que Nvidia diseña los motores de procesamiento, Micron proporciona la memoria de alta velocidad que alimenta esos motores. Esta no es una función secundaria; se trata de un componente fundamental en el sistema, donde las restricciones en el suministro pueden limitar directamente la capacidad del sistema en su totalidad.
Los beneficios financieros son claros. Las empresas de nivel superlativo están aumentando sus presupuestos para la infraestructura de IA. Se espera que se gasten casi medio billón de dólares en inversiones durante el año 2026. Este gasto no se refiere solo a las GPU, sino también a todo el ecosistema relacionado con la infraestructura de IA, incluyendo los componentes de memoria. Los analistas proyectan que los ingresos de Micron podrían aumentar entre tres y cuatro veces en los próximos dos años fiscales. Sin embargo, el precio de las acciones de Micron sigue siendo relativamente bajo, con un coeficiente P/E de 10.6. Esta diferencia en la valoración sugiere que el mercado aún no ha tenido en cuenta al máximo el papel que juega Micron en esta tendencia de crecimiento de la infraestructura tecnológica.
Micron está al borde de su propio “momento Nvidia”. Sus acciones representan una oportunidad muy interesante para invertir, ya que permiten aprovechar el crecimiento exponencial del sector de la computación, a un precio mucho menor que el que se paga por los diseñadores de chips. Para los inversores, esto significa poder aprovechar esta oportunidad antes de que ocurra una nueva gran transformación en el mercado.
Ganador n.º 2: La capa de orquestación – Microsoft (MSFT), como plataforma de IA agente.
La capa de procesamiento es el “motor” que realiza las operaciones computacionales. Pero la capa de coordinación es, en realidad, el “sistema nervioso” del sistema de inteligencia artificial. Como predice Gartner, la IA está evolucionando desde herramientas que ayudan a los seres humanos, hacia algo mucho más complejo.Plataformas que reemplazan el trabajo manual en procesos de trabajo complejos.Este cambio de los chatbots a agentes autónomos que ejecutan tareas dentro de la infraestructura de TI representa la próxima curva de adopción exponencial. Esto implica un cambio fundamental: las empresas ya no pueden gestionar la inteligencia artificial mediante soluciones puntuales. Necesitan plataformas integradas que conecten las decisiones de los agentes con la ejecución real de las tareas, manteniendo al mismo tiempo la gestión y la capacidad de auditoría.
Esto crea una nueva capa de infraestructura. A medida que la IA asume el papel de planificar y ejecutar las tareas, los líderes de IT necesitarán plataformas de orquestación que conecten a los agentes con las operaciones reales en los sistemas de infraestructura. La solución requiere un sistema de soporte que garanticie velocidad, escalabilidad y control. Sin esto, la autonomía conduce al caos. La plataforma debe imponer controles, procedimientos de aprobación y medidas de visibilidad para garantizar la seguridad y el cumplimiento de las normativas. Este es el vacío crítico que será llenado por la próxima generación de software empresarial.
Microsoft se posiciona como el proveedor dominante de plataformas para este nivel. Su fortaleza radica en su ecosistema integrado. La empresa ya posee el sistema operativo, la infraestructura en la nube (Azure) y un conjunto de herramientas de productividad y seguridad empresarial. Esto le otorga una ventaja única para desarrollar capas de orquestación que conecten las intenciones generadas por la IA con la ejecución real en entornos híbridos. La plataforma puede convertir los prompts de lenguaje natural en flujos de trabajo gestionados, que pueden operar en redes, nubes y sistemas de seguridad.
La oportunidad es enorme y está en sus inicios. Gartner pronostica que, para el año 2029, el 70% de las empresas utilizarán la IA como parte de sus operaciones de infraestructura informática. Este es un gran avance en comparación con los menos del 5% actuales. Esto representa un punto de inflexión clara en la evolución tecnológica. Los ganadores en este campo serán aquellos proveedores de plataformas que puedan ofrecer la gestión, la velocidad y la escalabilidad necesarias para lograr una autonomía segura. Para los inversores, la situación es simple: Microsoft está desarrollando el componente software esencial para el próximo paradigma de computación empresarial. Se puede obtener valor no solo de los chips, sino también de la coordinación de toda la inteligencia que se utiliza en el procesamiento de datos.
Catalizadores y riesgos: El camino hacia una adopción exponencial
El camino hacia la adopción exponencial de las infraestructuras de IA está claro, pero no carece de obstáculos. El factor clave es el cambio inminente hacia la AI basada en agentes, lo que automatizará los procesos complejos y obligará a las empresas a adoptar plataformas de orquestación integradas. La predicción de Gartner…Para el año 2029, el 70% de las empresas utilizará la inteligencia artificial basada en agentes como parte de las operaciones de su infraestructura de TI.Es el factor más importante en el corto plazo. No se trata de una evolución gradual; se trata de un punto de inflexión forzado. A medida que los agentes de IA asuman la planificación y ejecución de las tareas, los líderes de recursos humanos no tendrán otra opción que implementar plataformas de gobierno y coordinación que conecten las decisiones de los agentes con los sistemas del mundo real. Esto genera una gran cantidad de gastos que no pueden ser controlados por los departamentos involucrados. Esto confirma la validez de la teoría de las plataformas para empresas como Microsoft.
Al mismo tiempo, existe un riesgo importante: la mercantilización de las infraestructuras, convirtiéndolas en “servicios informáticos”. Este es el modelo en el que empresas como Amazon, Google y Microsoft poseen todo el conjunto de servicios, desde los chips hasta los servicios en la nube. Ofrecen así servicios informáticos como si fueran una forma de utilidad comercial. Ya hay evidencia de esto. Los REITs de centros de datos, que son los propietarios tradicionales de las infraestructuras de Internet, están viendo cómo sus precios de acción aumentan.Ha disminuido en un 11% a 16% durante el último año.Mientras que el mercado en general se recupera, los analistas señalan que el mercado cree que las chips producidos por Google, Broadcom, Nvidia y otras empresas “lograrán obtener los beneficios económicos derivados del uso de la IA, en lugar de beneficiarse solo de los desarrolladores de centros de datos”. Esto indica que las empresas de nivel hiperescalar están capturando las partes del mercado con mayores márgenes y mayor valor, dejando así la infraestructura física vulnerable a la presión de los márgenes y a la mercantilización. Para los proveedores independientes de capacidad de procesamiento o de centros de datos, esta es una amenaza real para sus inversiones.
La confirmación definitiva de la curva de demanda de infraestructura provendrá de métricas objetivas. Estén atentos a cualquier indicio que indique lo contrario.Las cargas de trabajo de IA representarán aproximadamente el 70% de esta expansión.En el nuevo centro de datos, se espera que la tasa de ocupación aumente. Más aún, se prevé que la tasa de ocupación llegue al 95% para finales de 2026. Cuando la tasa de ocupación supera constantemente el 95%, significa que la capacidad de procesamiento está siendo completamente absorbida por la demanda. En ese punto, la curva de crecimiento exponencial se vuelve inevitable, lo que obliga incluso a las empresas más cautelosas a invertir en infraestructuras. Hasta entonces, existe el riesgo de que el desarrollo de la infraestructura se ralentice, lo que validaría la teoría de “computación como servicio” y reduciría los retornos económicos para todos, excepto para aquellos que son los más integrados verticalmente.
En resumen, se trata de una competencia entre dos fuerzas. Por un lado, la curva de adopción de la IA autónoma está acelerándose, lo que crea una necesidad ineludible de plataformas de organización de datos. Por otro lado, el modelo de servicios de los hiperescalares amenaza con convertir al nivel de computación en algo común y sin valor. Los ganadores serán aquellos que puedan manejar esta tensión, aprovechando no solo el hardware o el espacio físico, sino también el software esencial que permite que la IA funcione de manera autónoma.



Comentarios
Aún no hay comentarios