El Power Move de Nvidia de $20 mil millones en la víspera de Nochebuena: por qué el acuerdo de Groq es sobre dominar el próximo AI Act

Escrito porGavin Maguire
viernes, 26 de diciembre de 2025, 10:03 am ET4 min de lectura
NVDA--

Nochebuena de NVIDIAtrato de groqes el tipo de titular que puede pasar desapercibido cuando el mercado está funcionando con cuadrillas de chupitos de huevo y esqueletos. Pero es un movimiento estratégico significativo, no porqueNvidiaNVDA--De repente, "necesita" ayuda de IA, pero porque está tratando de bloquear la siguiente fase de inteligencia artificial: la inferencia a gran escala, especialmente para trabajos de carga de tiempo real.

¿Cuál es el trato¿Exactamente?

Pese a los primeros reportajes en los que se decía queprestando esto como una adquisición directa de 20 mil millones de dólares, la estructura es más compleja.Groq dice que firmó un acuerdo de licencia no exclusivo con Nvidia para la tecnología de inferencia de Groq, y que el fundador/CEO de Groq, Jonathan Ross, el director Sunny Madra y otros miembros principales del equipose unirá a Nvidia para ayudar a avanzar y escalar la tecnología con licencia.Groq también dijo que continuará operando como una empresa independiente bajo el nuevo director ejecutivo Simon Edwards y que GroqCloud continuará operando sin interrupciones.Groq)

Múltipleinformes de tercerosMenciona "alrededor de $20 mil millones" como el precio que se asocia con la adquisición de activos de Groq por parte de Nvidia/del acuerdo, pero vale la pena ser preciso: los documentos de cara al público no desvelan los términos financieros y el director financiero de Nvidia se negó a comentar en los informes que refieren los medios que cubren la historia. En otras palabras, "los $20 mil millones" circulan ampliamente y son detectivamente importantes, pero no se confirman con certeza de una forma clara de estilo de archivo.

¿Quién es Groq y qué hacen?

Groq es una empresa de chips de IAfundada en 2016 por ingenieros asociados con la línea TPU de Google, ha posicionado su actividad en torno a la inferencia de alto rendimiento— el lado de «servicio» de la IA donde los modelos generan tokens a partir de instrucciones del usuario. A diferencia del enfoque centrado en la GPU de Nvidia (un caballo de batalla de computación paralela de propósito general), Groq ha enfatizado una arquitectura especialmente diseñada orientada a bajas latencias y alto rendimiento para la inferencia, y la ha asociado a una oferta en la nube (GroqCloud) para hacer el hardware accesible sin que los clientes tengan que comprar y almacenar los sistemas ellos mismos.

En inglés simple:Groq es uno de los «retores de inferencia» más conocidos; en él también se incluye una arquitectura de hiperescalado con silicio interno (esfuerzos de estilo TPU de Google, Amazon Trainium/Inferentia, Microsoft Maia/Cobalt) y nuevas compañías especializadas.Nvidia domina la economía de la capacitación y la creación de conciencia, pero la inferencia es un campo de batalla más amplio con arquitecturas más viables y más incentivos para que los clientes se diversifiquen.

¿Por qué haría eso Nvidia?

Se destacan tres razones.

Primero, la inferencia es hacia dónde se dirige la curva del crecimiento. El entrenamiento construye el modelo; la inferencia es donde se usa el modelo. A medida que proliferan los productos de IA, la demanda de inferencia se escala con los usuarios, las consultas y las cargas de trabajo en tiempo real.Nvidia ya puede ejecutar la inferencia de una excelente manera en las GPU, pero el mercado exige cada vez más una mayor eficiencia: menor latencia, mejor costo por token, mejores características de energía y una implementación optimizada en gran escala.

Por un lado, es un movimiento defensivo contra la desintermediación de la plataforma.La mayor amenaza estratégica para Nvidia no es "un chip más rápido" aislado: son los clientes que migran cargas de trabajo significativas a pilas alternativas en las que el ecosistema CUDA de Nvidia es menos centralAnalistas lo señalaron directamente: Stacy Rasgon de Bernstein calificó el movimiento de estratégico porque los trabajos de inferencia son más diversificados y pueden abrir la puerta a la competencia, lo cual hace que sea razonable que Nvidia invierta agresivamente para consolidar su posición como escalas de inferencia.

Por último, se trata de un movimiento ofensivo que se ajusta a la estrategia de "fábrica de IA" de Nvidia. El CEO de Nvidia, Jensen Huang, dijo que Nvidia planea integrar los procesadores de baja latencia de Groq en la arquitectura de fábrica de IA de Nvidia para atender una gama más amplia de cargas de trabajo de inferencia y en tiempo real. Esto es congruente con el impulso de Nvidia para vender sistemas y plataformas, no solo chips, en donde las GPUs, las redes, el software y la orquestación se combinan en una solución integrada verticalmente.

¿Es este el mayor acuerdo de Nvidia?

Si la cifra de aproximadamente 20.000 millones de dólares es precisa, entonces sí, con un margen amplio. Históricamente, la mayor adquisición de Nvidia fue la de Mellanox, anunciada en 2019 con un valor empresarial de 6.900 millones de dólares ( aprox.Sala de prensa de NVIDIA)

Dicho esto, la adquisición de Groq no es una compra clásica de «compramos toda la empresa». La propia descripción de Groq enfatiza la concesión de licencias y la transferencia de talento, mientras que Groq permanece independiente. Entonces, la forma más limpia de enmarcarlo es: parece ser la transacción estratégica más grande de la historia de Nvidia por valor implícito, incluso si está estructurada como licencia + adquisición en lugar de una adquisición completa. (groq)

Lo que dicen los analistas

Las primeras lecturas de los analistas son ampliamente positivas y, lo que es más importante, consistentes entre compañías:

Cantor reitera a Nvidia como una de sus mejores opciones con un precio objetivo de $300y plantea el movimiento como ofensivo y defensivo. En la ofensiva, Cantor sugiere que Nvidia ya había estado trabajando con Groq para la aceleración de inferencia y decidió que las capacidades de Groq eran mejores dentro de la carpa. En defensa, Cantor señala la inferencia de baja latencia y eficiencia energética de Groq como aditivo al enfoque de sistema completo de Nvidia, especialmente a medida que la próxima etapa de la construcción de IA cambia hacia cargas de trabajo en tiempo real como la robótica y la autonomía.

Rosenblatt reitera comprar con un precio objetivo de $245y argumenta que la tecnología de inferencia de licencias es estratégicamente importante para abordar las preocupaciones acerca de los aceleradores de la competencia (incluyendo las ofertas de estilo TPU) que ganan participación a medida que crece la inferencia. RBLT también destaca un ángulo en potencia a largo plazo: expandir las herramientas de desarrollo de CUDA para expandir la adopción del enfoque de estilo LPU de Groq en los mercados finales.

Bank of America reitera compra de la mejor opción con un precio objetivo de $275y se enfoca en el "por qué ahora": Nvidia reconoce el cambio hacia la inferencia y la posibilidad de que los chips especializados puedan importar más, incluso si las GPUs continúan siendo dominantes para el entrenamiento. BofA también señala una compensación: la integración de un paradigma de hardware diferente agrega complejidad a la hoja de ruta y los precios, pero ve el equilibrio y la incumbencia de Nvidia como ventajas para convertir esa complejidad en una elección más amplia del cliente y una plataforma más sólida.

¿Esto cambia el panorama de los semiconductores?

No de la noche a la mañana, pero es significativo de dos maneras.

Primero, reforzará el control que Nvidia tiene sobre la narrativa de la inferencia. Aun cuando las GPU sigan siendo las predeterminadas, Nvidia señala que pretende ofrecer opciones de "la herramienta más apropiada para el trabajo" dentro de su ecosistema en vez de ceder nichos especializados de inferencia a terceros. Esto hace más difícil para las nuevas empresas independientes de inferencia competir en la distribución e integración de la plataforma.

Dos, se incrementa la presión sobre las estrategias hyper-scalables de silicio. Si la tecnología y el talento de Groq ahora se están moviendo en dirección a Nvidia, y potencialmente se están volviendo más interoperables con la pila de software de Nvidia con el tiempo, entonces los clientes que buscan diversificarse lejos de Nvidia pueden encontrar menos alternativas independientes obvias con madurez comparable. En este sentido, se trata menos de que Nvidia se "ponga al día" y más de que Nvidia evite que el mercado de inferencia se fragmente de una manera que debilite su plataforma.

El fin: el entrenamiento hizo que Nvidia fuera la reina. La inferencia es donde los adversarios esperaban construir una república. Nvidia acabó de comprar mucho más control fronterizo.

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios