Boletín de AInvest
Titulares diarios de acciones y criptomonedas, gratis en tu bandeja de entrada
El auge de la IA está alcanzando un punto de inflexión crítico. El crecimiento explosivo de los últimos años, impulsado por las enormes demandas computacionales necesarias para entrenar modelos sofisticados, está dando paso a una nueva fase. Las cargas de trabajo están cambiando. En 2026, el enfoque se centrará en la inferencia, es decir, en el uso de un modelo entrenado para responder preguntas, generar texto o analizar datos en tiempo real. Esto no es un ralentismo; es un cambio de paradigma que redefinirá toda la infraestructura relacionada con la inteligencia artificial.
Los números cuentan la historia de este proceso de transición. Se prevé que las inferencias representarán una parte importante en este proceso.
En 2023, esta proporción era de un tercio; en 2025, habrá la mitad. Este aumento en la demanda de chips optimizados para procesamiento de inferencia está creando un mercado enorme. Se espera que el mercado de los chips optimizados para este tipo de procesamiento crezca hasta superar los 50 mil millones de dólares en 2026. El ritmo de crecimiento es rápido y constante. Directores ejecutivos como Lisa Su de AMD afirman que…Para obtener poder de computación. La demanda ya no es algo específico para un grupo limitado de personas; está se integrado en todos los dispositivos empresariales y de consumo.Este cambio crea una oportunidad de doble vía para la infraestructura. Aunque las tareas de inferencia ocuparán la mayor parte de la carga computacional, el análisis de Deloitte señala que la mayor parte de los cálculos se llevará a cabo con chips de IA de última generación, que son costosos y consumidores de energía, y que valen más de 200 mil millones de dólares. Estos chips seguirán siendo esenciales en los grandes centros de datos y en las soluciones empresariales. Sin embargo, la naturaleza de la carga de trabajo cambia. Las tareas de inferencia requieren menos recursos computacionales que el entrenamiento de los modelos de aprendizaje, lo que abre la posibilidad de utilizar chips especializados y optimizados en términos de costos, que podrían implementarse en dispositivos periféricos. En resumen, el crecimiento exponencial de la demanda se está acelerando, y se proyecta que las necesidades computacionales aumentarán cuatro o cinco veces al año hasta el año 2030. La infraestructura necesaria para esta próxima fase, tanto los sistemas centrales de alta gama como los chips distribuidos en los dispositivos periféricos, ya está siendo construida.
El paso hacia el uso de inferencia está creando una nueva capa de infraestructura, y AMD se posiciona como un actor clave en este campo. La directora ejecutiva, Lisa Su, ha declarado que la demanda de computación inteligente es cada vez mayor.
Impulsado por la difusión de la inteligencia artificial en todas las industrias. Esto no es simplemente un crecimiento gradual; se trata de una demanda fundamental para la próxima fase de la curva S. La estrategia de AMD es obtener una importante participación en el mercado de chips optimizados para procesamiento de información, cuyo crecimiento se proyecta en el futuro.La empresa está construyendo las infraestructuras necesarias para este tipo de procesamiento distribuido, y no se limita únicamente al centro de datos central.Desde el punto de vista financiero, AMD está avanzando con un ritmo cada vez más rápido. Sin embargo, sus acciones han quedado rezagadas en comparación con el aumento general del mercado tecnológico, ya que cotizan a un precio inferior al normal. Esto representa una oportunidad para los inversores que apuestan por la expansión de la infraestructura tecnológica de la empresa. La compañía está ampliando su capacidad de producción y combinando sus chips de alta gama en sistemas eficientes. Según Su, una plataforma utiliza setenta y dos de estos chips para lograr el rendimiento necesario para el uso de la inteligencia artificial en empresas. Este enfoque en la integración a nivel de sistema, y no solo en los chips individuales, es crucial para aprovechar la ventaja en cuanto al costo total de propiedad en las cargas de trabajo de inferencia.

En resumen, AMD está desarrollando la capa física necesaria para el paradigma de inferencia. Al dirigirse al mercado masivo y en constante crecimiento de los chips de inferencia, y al demostrar una sólida capacidad financiera, la empresa está construyendo la infraestructura fundamental que permitirá llevar a cabo la visión de “AI en todas partes”. Su valor actual puede no reflejar completamente la curva de adopción exponencial que está contribuyendo a crear.
El dominio de Nvidia en el área de computación para la inteligencia artificial es su fortaleza más duradera. Sus chips son los componentes fundamentales para el desarrollo y ejecución de los modelos de inteligencia artificial más avanzados del mundo. Esta posición de liderazgo ahora podría verse impulsada aún más por la posibilidad de que China vuelva a convertirse en su mayor mercado. El catalizador es claro: el director ejecutivo, Jensen Huang, afirmó el martes que la empresa está observando…
Con la aprobación del gobierno de los Estados Unidos para la exportación.Las implicaciones financieras son enormes. Huang ha estimado anteriormente que el mercado chino podría valer 50 mil millones de dólares al año. Lo importante es que ninguna de estas ventas se incluye en las proyecciones de Nvidia actuales. Esto significa que la expectativa de ingresos de Nvidia para los próximos dos años, de 500 mil millones de dólares, no tiene en cuenta este posible beneficio económico. Si las licencias se firman y se obtienen los permisos de importación en China, Nvidia podría experimentar miles de millones en ingresos adicionales en 2026 y en años posteriores.
La situación es una clásica curva de inflexión en forma de “S”. Nvidia ya ha activado su cadena de suministro, y los modelos H200 siguen fluyendo por la línea de producción. La demanda es alta, y la empresa está lista para enviar productos al mercado. Aunque el modelo H200 es una generación más atrás en comparación con los modelos más recientes, sus prestaciones y la ausencia de reducción intencionada en las capacidades del procesador lo convierten en un herramienta crucial para las empresas chinas que desarrollan sistemas de inteligencia artificial. En resumen, la reapertura de China no representa una simple expansión del mercado; es un catalizador importante que podría contribuir a un crecimiento significativo durante toda una década, acelerando así el ritmo de adopción de tecnologías informáticas por parte de Nvidia.
El impacto financiero de la implementación de la inteligencia artificial ya se está haciendo sentir, pero el mercado está clasificando a los que realmente aprovechan esta tecnología de aquellos que simplemente gastan dinero en ella. La estimación de consenso para el gasto de capital de los proveedores de servicios de IA en el año 2026 ha aumentado.
Se trata de un compromiso masivo que destaca la magnitud de los esfuerzos en materia de infraestructura. Sin embargo, los inversores han abandonado las empresas dedicadas a la infraestructura de IA, donde el crecimiento de los ingresos operativos se ve presionado y los gastos en inversiones no rentables se financian con deuda. Esta rotación selectiva muestra que el mercado ya va más allá de una mera exposición a los gastos relacionados con la IA. Las acciones de las empresas del sector de infraestructura han registrado un rendimiento del 44% desde principios del año, pero ese aumento no está al ritmo del crecimiento de los ingresos de las empresas, lo que genera una desconexión entre la valoración real de las acciones y su rendimiento real.Se espera que la próxima fase del mercado de la IA involucre a las acciones de las plataformas de inteligencia artificial y a aquellos que se benefician de su uso en términos de productividad, no solo a los desarrolladores de componentes físicos relacionados con la IA. Goldman Sachs Research señala que la atención comienza a centrarse en las empresas que tienen el potencial de generar ingresos gracias a la utilización de la IA. Esto significa que el impacto financiero será más amplio, pero los factores clave a corto plazo siguen estar relacionados con la ejecución de proyectos de infraestructura y la expansión del mercado para las empresas líderes en este campo. Para AMD y Nvidia, el factor clave es la posibilidad de reabrir el mercado chino para la comercialización de chips avanzados para la IA. El director ejecutivo de Nvidia, Jensen Huang, afirmó el martes que la empresa está observando…
La administración estadounidense ha dado su aprobación para la exportación de este producto. Esto podría aumentar las proyecciones de ingresos en miles de millones de dólares. Huang ya había estimado anteriormente que el mercado podría valer 50 mil millones de dólares al año, y ninguno de esos ingresos se incluye actualmente en las previsiones de Nvidia.En resumen, la tesis de la adopción exponencial ahora está siendo probada en relación con la realidad financiera. El proceso de implementación es real y masivo, pero el mercado exige pruebas de que los gastos en capital se traducen en un crecimiento sostenible de las ganancias. Para AMD y Nvidia, el camino a seguir implica dos aspectos: demostrar que su infraestructura es esencial para el cambio en el paradigma de las tecnologías informáticas, y capturar la próxima ola de demanda, como el potencial mercado chino. El impacto financiero será significativo, pero el cambio en el enfoque de los inversores significa que solo aquellas empresas que demuestren una clara relación entre sus gastos y sus ingresos futuros serán recompensadas.
Titulares diarios de acciones y criptomonedas, gratis en tu bandeja de entrada
Comentarios
Aún no hay comentarios