Nvidia apuesta por la integración vertical y espera controlar el nivel de orquestación de la inteligencia artificial. Mientras tanto, Microsoft continúa promoviendo su plataforma abierta.

Generado por agente de IAEli GrantRevisado porAInvest News Editorial Team
domingo, 22 de marzo de 2026, 1:13 pm ET5 min de lectura
AMD--
MSFT--
NVDA--


El paradigma de la IA está pasando de los modelos lingüísticos estáticos a agentes autónomos y dinámicos. Esto no es simplemente una actualización gradual; se trata de una redefinición fundamental de lo que hace el software. Estos agentes no solo generan texto, sino que también razonan, planifican y ejecutan flujos de trabajo complejos, interactuando con herramientas y datos. Este cambio de los modelos de lenguaje generativos a sistemas basados en agentes requiere una completa reformulación de la infraestructura subyacente.

El núcleo de este cambio radica en un cambio drástico en las necesidades de procesamiento informático. Mientras que los LLM eran puramente motores de procesamiento basados en GPU, la IA agente implica una relación inversa entre los recursos utilizados. Las tareas complejas relacionadas con la toma de decisiones secuenciales, la gestión de memoria y la organización de herramientas recaen en la CPU. Los expertos del sector señalan que…Las empresas están descubriendo que los agentes de IA autónomos requieren arquitecturas informáticas completamente diferentes.Esto significa que el nuevo paradigma funciona con un uso del 60-70% de la capacidad de la CPU y del 30-40% de la capacidad de la GPU. La GPU sigue siendo responsable de realizar las tareas de inferencia complejas, pero la CPU se encarga de gestionar el flujo de trabajo y coordinar las acciones. Por eso, tanto Nvidia como AMD ven una creciente demanda por parte de los consumidores para CPUs tradicionales, a medida que el mercado cambia.

El cambio arquitectónico crea una nueva capa de complejidad: la coordinación de procesos. Crear un agente no consiste simplemente en elegir un modelo; se trata de diseñar un sistema que pueda descomponer las tareas, gestionar el estado del sistema, invocar herramientas externas y garantizar la confiabilidad del mismo. Es aquí donde el mercado se divide en dos direcciones posibles. Por un lado están los servicios gestionados y controlados.Agente CoreY también de Microsoft.AI FoundryOfrecen plataformas de nivel empresarial que eliminan la complejidad del proceso de desarrollo. Proporcionan seguridad integrada, cumplimiento normativo y capacidad de integración con otros herramientas. Esto permite una implementación más rápida y segura. Por otro lado, existen marcos compositables, que ofrecen mayor flexibilidad, pero requieren conocimientos técnicos avanzados para su gestión.

La apuesta estratégica de Nvidia es clara: la empresa está redoblando sus esfuerzos en su arquitectura integrada, aprovechando su arquitectura de CPU Grace y su posición dominante en el mercado de GPUs. Su decisión de presentar una nueva familia de CPUs diseñadas específicamente para el uso en inteligencia artificial indica que Nvidia intenta controlar este nuevo paradigma computacional desde el nivel de la placa base hasta el software. El objetivo es proporcionar una plataforma unificada y de alto rendimiento, que genere valor tanto en el nivel de orquestación de las CPU como en el nivel de inferencia de las GPU. En esta carrera por construir las bases para la economía basada en agentes, Nvidia apuesta por su integración vertical, ya que esto le permite tener el mejor control sobre el nivel de infraestructura necesario para desarrollar este sector.

Juegos estratégicos: La apuesta vertical de Nvidia contra el enfoque de plataforma de Microsoft


La carrera por adquirir la infraestructura de inteligencia artificial está ahora convertida en una batalla entre dos filosofías diferentes. Nvidia está implementando un enfoque de integración vertical, mientras que Microsoft está construyendo una plataforma horizontal. Sus estrategias reflejan diferentes perspectivas sobre dónde se podrá obtener valor en el nuevo paradigma computacional.

El enfoque de Nvidia es controlar todo el proceso. Su nueva…Vera CPUEs el elemento central del sistema, diseñado específicamente para trabajos que requieren procesamiento intensivo. La empresa afirma que este dispositivo ofrece resultados con dos veces más eficiencia y un 50% de velocidad superior a la de las CPU tradicionales. No se trata simplemente de una afirmación sobre el rendimiento del dispositivo; se trata de una apuesta por que el nivel de orquestación de las CPU sea el nuevo punto débil del sistema. Al integrar estrechamente Vera con su…Ecosistema de procesamiento de datos de Grace, incluyendo CPU y GPU.Nvidia tiene como objetivo crear una plataforma de alto rendimiento, en la que el silicio y el software estén integrados de manera natural. La empresa ya está indicando que este es el nuevo estándar. Socios de fabricación como Dell, HPE y Lenovo están adoptando esta tecnología. Este tipo de control vertical ofrece una clara ventaja en términos de rendimiento, pero también conlleva el riesgo de obligar a los clientes a utilizar un ecosistema propietario.

La estrategia de Microsoft es lo contrario: construir una plataforma abierta que elimine los aspectos relacionados con el hardware subyacente.Azure FoundrySe trata de una fábrica de IA unificada e interoperable. Su principal ventaja es su amplitud: ofrece acceso a más de 11,000 modelos fundamentales y de razonamiento. Esto permite a los desarrolladores experimentar y crear agentes sin estar limitados por el hardware de un solo proveedor. Foundry se centra en la orquestación del software, la gestión y la seguridad, permitiendo así a las empresas gestionar aplicaciones de IA a gran escala. Esta plataforma reduce los obstáculos para el ingreso al mercado y promueve la interoperabilidad. Pero también significa que Microsoft actúa como un nivel superior al procesador de datos, lo que podría significar que pierde parte de sus ventajas de rendimiento en favor de los líderes en hardware.

Los primeros signos indican que se trata de una evolución conjunta entre las dos empresas. La plataforma Vera de Nvidia está ganando popularidad entre los principales proveedores de servicios en la nube y fabricantes de dispositivos, lo que le permite establecer un estándar de hardware. Al mismo tiempo, la plataforma Foundry de Microsoft está diseñada para funcionar con diversos modelos de dispositivos, lo cual probablemente incluye también las GPU de Nvidia. La verdadera competencia será en cuanto al ritmo de adopción de estas plataformas por parte de los usuarios. La plataforma de Nvidia ofrece un rendimiento superior para tareas agentivas, mientras que la plataforma de Microsoft ofrece flexibilidad y control sobre el sistema. El ganador será aquel cuyo ecosistema logre atraer a la mayor cantidad de desarrolladores y clientes empresariales a medida que la economía de agentes crezca. Por ahora, ambas plataformas están construyendo caminos importantes, pero lo hacen en direcciones diferentes.

Métricas de adopción y el “muro de escalabilidad”

Los números nos cuentan una historia clara sobre un mercado que se encuentra en las primeras etapas de su curva en forma de “S”. Mientras que…El 88% de las organizaciones informa que utiliza la inteligencia artificial de forma regular.El verdadero obstáculo para la adopción de la tecnología de escalamiento radica aquí. Casi el 66% de las empresas aún no ha comenzado a implementar sistemas de IA a nivel corporativo. En cuanto a los sistemas agentes en particular, la situación es aún más grave: solo el 23% de las empresas informa haber comenzado a escalar sus sistemas de IA basados en agentes. El uso de esta tecnología sigue siendo limitado; solo el 8% de las empresas de TI y el 7% de las empresas de gestión del conocimiento han comenzado a utilizarla. Este no es un problema relacionado con la calidad del modelo o con las primeras pruebas realizadas. Se trata, en realidad, de un problema de escalabilidad.

El núcleo de esta “pared de escalabilidad” radica en la complejidad, no en las capacidades. Las empresas intentan automatizar los procesos de trabajo antiguos, es decir, aquellos que fueron diseñados para que los realicen las personas. Pero esto no implica que se necesite reinventar la forma en que el trabajo debe realizarse. Este enfoque enfrenta un problema fundamental. Como señala un análisis:Las empresas se están moviendo rápidamente hacia la inteligencia artificial de tipo “agente”, pero muchas de ellas están encontrando obstáculos en su camino.Se utilizan agentes para interactuar con los procesos existentes, en lugar de rediseñar las operaciones desde cero. El resultado es un sistema que tiene dificultades para gestionar el estado de los procesos, coordinar las acciones y manejar los fallos reales. Esto impide que el sistema alcance su autonomía necesaria para proporcionar valor transformador.

Esto genera una clara necesidad de nuevas infraestructuras. El verdadero valor surge de la redisección de las operaciones, y no simplemente de agregar más agentes a los procesos existentes. Se requiere construir arquitecturas compatibles con los agentes, implementar marcos de orquestación robustos y desarrollar nuevos enfoques de gestión para una fuerza laboral híbrida, que combine elementos humanos y digitales. Las empresas que logren resolver estos problemas en cuanto a la orquestación y el control de los sistemas, es decir, aquellas que proporcionen herramientas para gestionar sistemas autónomos a gran escala, serán las que lograrán capturar la próxima ola de adopción, a medida que el mercado pasa de la fase piloto a la fase de producción real. El mercado no explotado es enorme, pero el camino para superar este obstáculo es estrecho y técnico.

Catalizadores, riesgos y lo que hay que tener en cuenta

El camino que conduce desde el lanzamiento de Vera en Nvidia hasta la implementación de una infraestructura transformada está determinado por algunos factores clave y riesgos. El paso inmediato es la validación del sistema. Las primeras implementaciones procedentes de importantes partners como…Meta y RedpandaSerán críticos los resultados obtenidos de estas implementaciones en el mundo real. Los datos de referencia podrían confirmar las afirmaciones de Nvidia sobre una eficiencia dos veces mayor y un rendimiento 50% más rápido. Pero también podrían revelar la diferencia entre las promesas de Nvidia y la realidad de las cargas de trabajo en la práctica. Si se logra esto, la adopción del procesador se acelerará; de lo contrario, todo el proceso de transición hacia el uso de procesadores de tipo “agentic” podría verse detenido.

El catalizador más importante es el ritmo de la redisección arquitectónica de las empresas. Como se mencionó anteriormente…Las empresas están encontrando obstáculos en su camino.Se trata de intentar automatizar los viejos procesos de trabajo. El verdadero impulso para la adopción de Vera es cuando las organizaciones pasan de la experimentación a una reingeniería completa de sus operaciones, con el fin de desarrollar agentes más eficientes. Este cambio abre la posibilidad de utilizar la nueva capa de orquestación de CPU que Nvidia está desarrollando. Es interesante observar los casos de estudio de aquellos que ya han adoptado Vera en sectores como la ingeniería de software. En estos casos, la IA promete ahorros de costos del 56%. Así podemos ver si realmente se están creando arquitecturas nuevas compatibles con los agentes.

El riesgo principal es que la adopción de la IA por parte de los agentes sea más lenta de lo esperado. Los datos muestran una clara barrera de escalabilidad: mientras que…El 88% de las organizaciones informa sobre el uso regular de la inteligencia artificial.Solo el 23% de los agentes está escalando sistemas de tipo “agentic”. Si el mercado permanece en la fase piloto, la enorme inversión en capital que Goldman Sachs predice –más de medio billón de dólares en inversiones en infraestructura cloud para el año 2026– se verá retrasada. Esto acelerará el proceso de desarrollo de las infraestructuras de Nvidia y Microsoft, convirtiendo una construcción de infraestructura que lleva años en una competencia prolongada.

La competencia es otro punto importante a considerar. AMD ya está en una posición destacada con sus procesadores de servidores EPYC. Los proveedores de procesadores nacidos para el entorno cloud también seguramente responderán a esta situación. La carrera no se trata solo de la performance del hardware, sino también del control sobre el ecosistema tecnológico. La estrategia de Nvidia de fijar relaciones con fabricantes como Dell y HPE es un movimiento defensivo, pero podría tener efectos negativos si retrasa la adopción de la IA agente. Lo importante será si los beneficios de Vera son suficientes para superar la inercia de las arquitecturas existentes y la preferencia por plataformas abiertas.

En resumen, los próximos 12 meses serán cruciales para distinguir entre los aspectos relacionados con la promoción y los aspectos relacionados con la infraestructura. Los factores que impulsarán este proceso son claros: la validación por parte de los primeros clientes de Vera, los rediseños empresariales que permiten el uso de nuevos tipos de cargas de trabajo, y el aumento en los gastos de capital. Los riesgos son reales: cuellos de botella en la adopción, respuestas competitivas por parte de los competidores, y el problema constante de escalabilidad. El ganador será aquel cuyas tecnologías y plataformas logren manejar mejor esta transición de modelos estáticos a agentes dinámicos.

author avatar
Eli Grant

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios