Los chips de inferencia de AVGO y los dispositivos de fabricación de TSM son más económicos que los chips de Edge AI. Estos productos ganan cada vez más importancia a medida que los plazos de producción para el año 2026 se acercan.
El paradigma de la IA está cambiando. La primera fase consistió en construir el “cerebro” en centros de datos centralizados. Ahora, el trabajo se traslada hacia aquellos lugares donde se toman las decisiones. Este cambio de la capacidad de entrenamiento a la capacidad de inferencia crea una nueva capa de infraestructura, y esto ocurre en el perímetro del sistema.
La magnitud de este cambio es enorme. Deloitte proyecta que la carga de trabajo relacionada con el análisis de datos representará una proporción significativa del total de trabajo en esta área.En 2026, aproximadamente dos tercios de toda la computación se llevará a cabo de esa manera.En 2023, esta proporción era de un tercio. No se trata simplemente de un ajuste menor; se trata de una reasignación fundamental de la demanda en términos de procesamiento computacional. El factor físico que determina esto es claro: las decisiones deben tomarse en tiempo real. En aplicaciones como los vehículos autónomos, un retraso de 200 milisegundos entre el momento en que se detecta un peligro y el momento en que se aplican los frenos puede resultar en un fallo catastrófico. Las leyes de la física exigen que el procesamiento ocurra cerca del sensor, y no en un centro de datos alejado.
Esto crea una arquitectura dividida en dos partes. La parte más compleja del proceso de entrenamiento se mantendrá en la nube, pero el trabajo continuo y de gran volumen relacionado con la inferencia se llevará a cabo en los puntos finales. El mercado global de chips de IA para dispositivos periféricos está destinado a superar…80 mil millones para el año 2036Esto se debe a la presencia de miles de millones de dispositivos, desde fábricas inteligentes hasta teléfonos inteligentes. No se trata de reemplazar los centros de datos tradicionales; se trata de agregar una capa de inteligencia distribuida y paralela. En lugar de tener un único centro de datos de escala gigavatios, podríamos ver una serie de centros de datos más pequeños y agrupados, con chips integrados directamente en los dispositivos.
Para los inversores, esta bifurcación abre una opción más económica y de alto crecimiento, fuera de la curva dominante de las GPU. Los chips especializados en procesamiento de datos, diseñados para ser eficientes y con baja latencia, constituyen el camino hacia este nuevo mercado. Estos chips representan un cambio estructural en la forma en que se genera valor: pasando de los centros de datos, que requieren muchos recursos y consumen mucha energía, a los miles de dispositivos periféricos que tomarán decisiones relacionadas con la IA en tiempo real.
Opción de inversión n.º 1: Broadcom (AVGO) – The Inference-Optimized SoC Builder
Broadcom está desarrollando el silicio especializado que permitirá que las capas de inferencia funcionen de manera eficiente. Mientras que el mundo observa cómo funciona los centros de datos de Nvidia, Broadcom trabaja en la creación de chips que permitirán tomar decisiones basadas en IA en tiempo real, desde la fábrica hasta los vehículos autónomos. Su estrategia es clásica en el ámbito de las tecnologías avanzadas: aprovechar la escala de producción existente para ofrecer chips optimizados para la inferencia, lo que permite un enfoque más económico y eficiente hacia los puntos finales del proceso de desarrollo.
La empresa es un proveedor clave para las arquitecturas de próxima generación.Fechas de inicio de la producción en el año 2026Se trata de los últimos chips optimizados para la inferencia. No se trata de una promesa lejana; es algo que se logrará en poco tiempo, de acuerdo con las limitaciones físicas del entorno de aplicación. En el ámbito de la conducción autónoma y la automatización industrial, donde un retraso de 200 milisegundos puede ser catastrófico, estos chips son la base fundamental para este tipo de aplicaciones. Broadcom colabora directamente con las plataformas de almacenamiento en la nube para diseñar circuitos integrados especializados. Este modelo le permite obtener beneficios en la capa de procesamiento especializada, sin tener que enfrentarse a los altos costos de capital que implicaría un lanzamiento de un producto por parte de una empresa puramente dedicada a la fabricación de chips.
Esta posición de mercado le otorga a Broadcom una gran ventaja en términos de modelo de negocio. Aprovecha las fábricas de fabricación más avanzadas del mundo, como TSMC, para producir sus chips. Esto significa márgenes más altos y costos de capital más bajos, en comparación con las empresas que deben construir y operar sus propias plantas de fabricación. En el cuarto trimestre, los ingresos relacionados con los semiconductores de AI fueron de 6.500 millones de dólares, lo que representa un aumento del 74% en comparación con el año anterior. Este crecimiento se debe a que la empresa ya cuenta con una base de ingresos suficiente para mantener sus inversiones.

En términos de valoración, Broadcom ofrece un contraste interesante en comparación con el mercado de Nvidia. Mientras que Nvidia recibe un precio elevado debido a su dominio en el área de entrenamiento de algoritmos, Broadcom permite acceder a la curva de crecimiento de la tecnología de inferencia de manera más estable y con un multiplicador más bajo. Broadcom funciona como una infraestructura que genera ingresos, y no como una empresa con un potencial de crecimiento especulativo. Para los inversores que buscan diversificar sus inversiones, Broadcom representa una oportunidad para invertir en la realidad física de la inteligencia artificial de borde: se necesitan billones de chips eficientes y de baja latencia para que este paradigma funcione.
Elección de acción: Taiwan Semiconductor (TSM) – El facilitador de la fabricación de componentes electrónicos.
Mientras que Broadcom diseña los chips especializados para procesamiento de datos, la empresa Taiwan Semiconductor Manufacturing Company (TSMC) se encarga de proporcionar el espacio físico necesario para la fabricación de estos chips. En el ámbito del desarrollo de tecnologías de IA, TSMC constituye la infraestructura fundamental de toda la cadena de suministro. La empresa fabrica chips para casi todas las principales empresas informáticas, incluyendo aquellas que se centran en el procesamiento de datos, como Broadcom y AMD. Este no es un papel secundario; se trata del núcleo de la infraestructura física de la industria.
La tecnología de procesamiento avanzada de la empresa es innegable para el desarrollo de dispositivos de punta. Los requisitos del mercado son chips con altas capacidades de TFLOPS para algoritmos complejos, además de una alta eficiencia energética en dispositivos alimentados por baterías. Los nudos de procesamiento de vanguardia de TSMC ofrecen el rendimiento y la densidad necesarios para satisfacer estas necesidades contradictorias. Para mil millones de dispositivos de punta, la capacidad de almacenar más información en menos área de silicio es lo que hace que este cambio de paradigma sea posible. El papel de TSMC es permitir ese tipo de escalabilidad.
Este modelo de fabricación permite obtener beneficios más significativos y a un costo menor, gracias al uso de la curva de inferencia S. A diferencia de los diseñadores de chips, TSMC puede obtener beneficios de todo el mercado de inteligencia artificial, sin tener que asumir los riesgos relacionados con el diseño o los enormes costos de capital necesarios para construir sus propias fábricas. TSMC aprovecha su escala de producción para atender las necesidades de muchos clientes, distribuyendo así el riesgo y aumentando su exposición. Esto es, en realidad, una forma de obtener beneficios a partir del volumen de transacciones, y no solo a partir de la margen obtenida por cada producto individual.
La valoración destaca su función como una entidad de utilidad. TSMC se vende…23.4 veces los ingresos futurosCasi tan barato como el índice S&P 500. Este multiplicador refleja la capacidad de la empresa para generar ingresos a través de sus operaciones tradicionales, además de la percepción del mercado de que se trata de una empresa estable, y no de una empresa con potencial de crecimiento especulativo. En un sector donde las empresas de diseño reciben múltiplos elevados, TSMC ofrece un punto de entrada más escalable y menos volátil hacia la era de la inteligencia artificial. Para los inversores, esto representa una oportunidad para invertir en la realidad física de esta industria: la necesidad de miles de millones de chips especializados, todos fabricados en los moldes más avanzados del mundo.
Catalizadores, escenarios y lo que hay que vigilar
La tesis de la IA de borde se basa en una realidad física: la necesidad de tomar decisiones en tiempo real. El camino para validar esta apuesta está marcado por ciertos hitos específicos y señales del mercado. Los inversores deben estar atentos a dos factores que pueden influir en el proceso de adopción de este tipo de tecnología. En primer lugar, hay que observar…Fechas de inicio de la producción en el año 2026Se trata de chips para la conducción autónoma y las soluciones de IA de próxima generación. Estas no son solo promesas lejanas; son cronologías concretas que indican cuándo comenzarán a utilizarse SoCs especializados, como los de Broadcom, en miles de millones de dispositivos que conformarán la “orilla” del mundo tecnológico. Un retraso en este proceso podría dificultar la adopción de estos chips. En segundo lugar, es importante seguir las noticias de los principales proveedores de servicios en la nube sobre los servicios de inferencia en la “orilla”. Estas integraciones con el ecosistema tecnológico indicarán el ritmo de demanda por parte de los nodos avanzados de TSMC, ya que cada nuevo servicio requiere chips especializados para funcionar correctamente.
Los escenarios a largo plazo estarán determinados por la propia bifurcación en el mercado. La proyección del mercado es clara: el mercado mundial de chips de inteligencia artificial está destinado a…Superar los 80 mil millones para el año 2036.El escenario que valida esta tesis es uno en el que las cargas de trabajo de inferencia, impulsadas por aplicaciones de importancia crítica como los vehículos autónomos y la automatización industrial, se desplazan decididamente hacia los dispositivos periféricos. Esto aumentaría el valor de la infraestructura de silicio y de las empresas dedicadas a la fabricación de chips especializados que hemos mencionado. El otro escenario implica un cambio más lento y gradual. Si el entrenamiento y la inferencia permanecen más vinculados al cloud, las oportunidades relacionadas con la IA en los dispositivos periféricos se retrasarán, lo que presionará la trayectoria de crecimiento de estas empresas.
Los principales riesgos podrían perturbar esta curva en forma de “S”. El estancamiento tecnológico en cuanto a la eficiencia energética representa una amenaza fundamental; sin avances continuos, el modelo de inteligencia artificial de tipo “edge” no podrá ser escalado a miles de millones de dispositivos que utilizan baterías. Los conflictos geopolíticos también representan un riesgo directo para la cadena de suministro de semiconductores a nivel mundial, lo que podría interrumpir el flujo de chips avanzados desde TSMC hasta los clientes. Finalmente, la vulnerabilidad más crítica radica en el retraso en la transición de la fase de entrenamiento a la fase de inferencia. Si los proveedores de servicios en la nube continúan centralizando más trabajo, toda la teoría de la inteligencia artificial de tipo “edge” perderá su base sólida. En resumen, la curva en forma de “S” de la inteligencia artificial de tipo “edge” es real, pero su pendiente depende de las restricciones físicas y económicas relacionadas con la toma de decisiones en tiempo real. Observemos las fechas de lanzamiento en 2026 y los anuncios de los proveedores de servicios en la nube: eso nos ayudará a saber si se están preparando los medios necesarios para el desarrollo de esta tecnología.

Comentarios
Aún no hay comentarios