El acceso exclusivo de NVIDIA a los recursos de CoPoS de TSMC: El secreto que permitirá el éxito en la era de inferencia de 2028.

Generado por agente de IAEli GrantRevisado porShunan Liu
lunes, 23 de marzo de 2026, 12:41 am ET5 min de lectura
NVDA--
TSM--

Los límites físicos de la fabricación actual son ahora un obstáculo estratégico. Los chips de IA que utiliza NVIDIA dependen del empaquetamiento CoWoS de TSMC, que utiliza disquetes de silicio convencionales. A medida que las demandas de procesamiento en AI aumentan, estos disquetes alcanzan su tamaño máximo, y su forma genera una gran cantidad de residuos materiales. Este es el primer obstáculo que debemos superar.

El segundo y más importante aspecto es la capacidad real de las unidades de procesamiento. El director ejecutivo de NVIDIA ha emitido una advertencia muy clara al respecto:La demanda de NVIDIA, por sí sola, podría obligar a la fundición a duplicar su capacidad total en el próximo decenio.Esto no es simplemente una predicción; se trata de un indicio público que destaca la extrema presión que se ejerce sobre los nodos avanzados y los procesos de empaque de TSMC. La industria ahora se encuentra en una “fase de escasez de silicio”. La información computacional disponible es muy limitada, y los proveedores de servicios cloud están restringidos por un único factor: el suministro de silicio.

Esto crea una vulnerabilidad fundamental. El éxito de NVIDIA se basa en un entorno de producción “NVIDIA-primer”, con la colaboración de TSMC. Pero depender completamente de una única fábrica es un riesgo estratégico. La gran escala de la empresa podría obligar a TSMC a duplicar toda su capacidad para poder seguir el ritmo de producción de NVIDIA. Como respuesta, la industria está cambiando a un nuevo paradigma.El nuevo enfoque de TSMC, CoPoS, utiliza sustratos rectangulares de gran tamaño.Esto mejora enormemente la eficiencia y permite que los futuros chips sean más grandes. Se informa que NVIDIA está obteniendo acceso exclusivo a esta tecnología CoPoS para su arquitectura Feynman de 2028.

Este acceso exclusivo representa, en realidad, un cuello de botella. Pero el propio cuello de botella podría obligar a una redisección del sistema. La extrema presión sobre la capacidad de TSMC podría hacer que NVIDIA tenga que diversificar su base de fábricas o, más directamente, rediseñar su arquitectura para utilizar soluciones de empaquetamiento alternativas, como las utilizadas por Intel, que dependan menos de las líneas de producción de TSMC. La situación es clara: este cuello de botella constituye una infraestructura crítica que puede no solo retrasar la adopción de nuevas tecnologías, sino que también podría transformar radicalmente la arquitectura de los sistemas para reducir los riesgos.

La posición de Feynman en la “Curva S”: Una arquitectura para la era de la inferencia

El principal desafío para la IA es pasar de entrenar modelos masivos a operarlos de manera eficiente. A medida que los modelos cada vez son más grandes, el punto débil de la industria ya no reside en el proceso de entrenamiento, sino en el costo y la velocidad de las inferencias. La arquitectura Feynman de NVIDIA es una respuesta directa a este problema. No se trata de una actualización gradual, sino de un rediseño completo de la arquitectura para adaptarse a esta nueva realidad. Esto representa un paso importante de NVIDIA hacia la parte más avanzada de la curva S, en términos de eficiencia en las inferencias.

La base tecnológica utilizada es el proceso A16 de TSMC. Se trata del nodo más avanzado en la producción en masa. No se trata simplemente de utilizar transistores más pequeños; se trata de un gran avance en términos de densidad y eficiencia energética. Este cambio representa un verdadero salto generacional en este campo.Transistores de nanocables GAA (Gate-All-Around)Los FinFETs ofrecen un importante aumento en el rendimiento y la eficiencia energética. En combinación con la tecnología de alimentación posterior (SPR), que permite liberar espacio para el enrutamiento de señales en la parte frontal del chip, Feynman está diseñado para lograr la máxima densidad lógica y la mínima pérdida de energía. Este avance en la fabricación es esencial para la próxima fase del desarrollo de sistemas de inteligencia artificial.

La arquitectura en sí representa una optimización radical para las cargas de trabajo de inferencia. Se trata de un diseño en el que las unidades de procesamiento del lenguaje (LPUs) se disponen en tres dimensiones, sobre la GPU. Este diseño está inspirado en empresas como Groq. La integración vertical, a través de vías transicilianas, permite establecer una conexión directa y de alto ancho de banda entre las unidades de procesamiento. El objetivo es eliminar la latencia y el consumo de energía que implica el movimiento de datos a través de la superficie del chip. Estos aspectos son cruciales para las tareas de inferencia en tiempo real, donde la baja latencia es un requisito indispensable.

Este enfoque está claramente definido en la hoja de ruta. La plataforma Vera Rubin, que ya está en producción, ofrece…El doble de rendimiento en la inferencia, en comparación con el modelo de Blackwell.Se afirma que el costo por token será 10 veces menor. Feynman es el siguiente paso en esta dirección; se basa en la misma filosofía de priorizar la inferencia, pero con las capacidades del nodo A16 como herramienta para llevarlo a cabo. La línea de tiempo muestra un transición deliberada: Rubin estará listo en 2026, mientras que la producción en masa de Feynman se programará para el año 2028. Las entregas a los clientes ocurrirán entre 2029 y 2030. Esto posiciona a Feynman para captar el mercado cuando la demanda de inferencia aumente, aprovechando la fabricación más avanzada para lograr una eficiencia que definirá la próxima era.

En resumen, Feynman es la solución de NVIDIA para el nuevo problema central que enfrenta la industria. Al combinar un avance en tecnología de procesamiento con una transformación arquitectónica hacia el uso de métodos de inferencia, el objetivo es lograr que los modelos de IA puedan crecer exponencialmente. Se trata, en definitiva, de una infraestructura necesaria para lograr ese cambio paradigmático.

Implicaciones financieras y estratégicas: Valuación y control de la cadena de suministro

La reciente caída en el precio de las acciones de NVIDIA, que ha sido de aproximadamente un 14%, después de haber alcanzado un nivel récord…68.1 mil millones de dólares en ingresos, por trimestre.Refleja un momento clásico en el mercado. Los inversores están evaluando la sostenibilidad de la infraestructura de inteligencia artificial que se está construyendo. Se pregunta si el crecimiento exponencial en la demanda de procesamiento informático puede ser satisfecho por una oferta física adecuada. Este es el conflicto central que la estrategia de la empresa debe resolver.

La estructura financiera sigue siendo sólida, pero la valoración de las acciones ha cambiado. Las acciones se negocian con un P/E futuro de 46.4; esto representa un precio elevado, lo cual indica una ejecución impecable por parte del proyecto. El descenso reciente del 14% ha reducido el valor de mercado a aproximadamente 4.2 billones de dólares. Pero la trayectoria de crecimiento sigue basándose en la próxima curva S: la capacidad de inferencia. La plataforma Vera Rubin, que ya está en producción, promete un rendimiento en términos de inferencia 5 veces mayor que el de Blackwell, y además reduce los costos por token en un 10 veces. Esta es la infraestructura necesaria para el nuevo paradigma, donde el punto débil ya no es el entrenamiento de modelos, sino los costos y la velocidad de ejecución de los modelos. La creciente demanda de workflows de agentes, como se puede ver en los 6 mil millones de dólares en ingresos adicionales que obtuvo Anthropic en un solo mes, confirma esta evolución. La capacidad de NVIDIA para capturar este crecimiento exponencial en el área de procesamiento de datos de inferencia es el principal factor que impulsa su valoración.

Sin embargo, el “moat estratégico” se está construyendo en la fábrica. El acceso exclusivo a la tecnología CoPoS de TSMC para la arquitectura Feynman representa una integración vertical que genera una ventaja en la cadena de suministro. Al tener acceso anticipado a esta tecnología…Sustratos rectangulares de gran tamaño.Con el proceso A16, NVIDIA se posiciona para lograr rendimientos más altos y costos de fabricación más bajos. Los competidores, que están limitados por la capacidad de los chips CoWoS o obligados a utilizar paquetes alternativos, quedan atrás. No se trata solo de una ventaja técnica; también se trata de una ventaja financiera. Los costos más bajos por chip mejoran directamente las ganancias, mientras que los rendimientos superiores aumentan la oferta de productos, lo que ayuda a aliviar la situación de escasez de silicona en la industria.

En resumen, NVIDIA está apostando su futuro en el control del próximo paradigma de fabricación. El retracción de los precios de las acciones es una corrección positiva, lo que obliga a concentrarse en la ejecución de sus estrategias. El resultado financiero depende del éxito de NVIDIA en los años 2028-2030. Si logra cumplir con sus promesas y aprovechar al máximo su ventaja competitiva, así se consolidará como la infraestructura indispensable para la próxima era de la IA. La valoración de la empresa no se basará en los ingresos actuales, sino en el control que tenga sobre la curva de crecimiento exponencial de la computación de inferencia.

Catalizadores y riesgos: El camino hacia el año 2028

El camino hacia el lanzamiento de la arquitectura de Feynman en el año 2028 está marcado por algunos hitos críticos y riesgos significativos. El catalizador principal es la presentación oficial y posterior lanzamiento de esta arquitectura. NVIDIA ya ha mostrado públicamente su diseño en la conferencia GTC 2026, confirmando que se construirá utilizando los procesadores de TSMC.Proceso A16, 1.6 nmEl siguiente paso importante es la producción en masa de este nodo avanzado por parte de TSMC. Está previsto que esto comience en la segunda mitad del año 2026. Si TSMC logra cumplir con las exigencias de NVIDIA, y si Feynman obtiene acceso exclusivo a los procesos de empaquetamiento CoPoS, entonces TSMC podrá alcanzar rendimientos superiores y costos más bajos. Esto validará la estrategia de integración vertical.

Más allá del chip, el catalizador es la adopción masiva de la computación para procesar inferencias. La plataforma Vera Rubin, que ya está en producción, está proporcionando…El 5 veces más rendimiento en la inferencia que el de Blackwell.Y también se reduce en un 10 veces el costo por token. Esta es la infraestructura necesaria para el nuevo paradigma. El aumento en la demanda de flujos de trabajo basados en agentes, como se puede ver con los 6 mil millones de dólares en ingresos que obtuvo Anthropic en un solo mes, demuestra que el mercado está listo para dispositivos más eficientes. El éxito de Feynman se medirá por su capacidad para capturar este crecimiento exponencial en el área de computación de inferencia, lo cual representa la próxima gran oportunidad para la industria.

El riesgo principal es que la capacidad de TSMC se convierta en un verdadero cuello de botella, lo que obligará a NVIDIA a diversificar sus operaciones o enfrentarse a restricciones en el suministro. El director ejecutivo de la empresa ha advertido que…La demanda de NVIDIA, por sí sola, podría obligar a la fundición a duplicar su capacidad total en el próximo decenio.Esta situación extremadamente tensa genera una vulnerabilidad. Incluso si TSMC tiene acceso exclusivo al CoPoS, si su capacidad general no puede aumentar lo suficientemente rápido, NVIDIA podría quedar sin suficiente suministro para satisfacer la demanda del mercado. Esto no solo retrasaría los ingresos, sino que también podría permitir que los competidores obtengan mayor cuota de mercado.

Los factores regulatorios y geopolíticos añaden otro nivel de incertidumbre. Informes recientes indican que NVIDIA…Se detuvo la producción de chips destinados al mercado chino.La reasignación de la capacidad de TSMC hacia su hardware de próxima generación, Vera Rubin, demuestra cómo las presiones externas pueden afectar directamente la cadena de suministro de productos con alto demanda. Esto resalta la fragilidad de una estrategia que depende en gran medida de una sola fábrica en una región geopolíticamente sensible. Cualquier cambio regulatorio en el futuro podría obligar nuevamente a una reasignación de la capacidad, lo que causaría volatilidad en los horarios de producción de Feynman.

En resumen, la tesis de Feynman depende de una ejecución impecable en la fábrica. El lanzamiento en el año 2028 es un evento clave para la validación del proyecto. Pero todo depende de la capacidad de TSMC para manejar las limitaciones relacionadas con su curva de capacidad. Los riesgos y las restricciones geopolíticas no son algo hipotético; son realidades actuales en el desarrollo de la infraestructura de IA. La capacidad de gestionar estas situaciones será decisiva para determinar si NVIDIA podrá aprovechar la próxima ola de crecimiento, o si terminará atrapado en un cuello de botella.

author avatar
Eli Grant

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios