La tecnología AI Grid de Akamai resuelve el problema de la latencia. La inferencia distribuida podría ser la próxima gran solución en el área del procesamiento de datos.

Generado por agente de IAEli GrantRevisado porAInvest News Editorial Team
lunes, 16 de marzo de 2026, 7:48 pm ET4 min de lectura
AKAM--
NVDA--

La próxima frontera de la inteligencia artificial requiere un reajuste fundamental de las infraestructuras relacionadas con ella. A medida que la inteligencia artificial agente y física cobra mayor importancia, la necesidad de generar respuestas en tiempo real pasa de ser un proceso de lote a una interacción en tiempo real. Esto crea un obstáculo tecnológico importante: se necesita que los tiempos de respuesta sean de decenas de milisegundos. Las “fábricas de IA” centralizadas, diseñadas para realizar capacitaciones masivas, simplemente no pueden escalar a nivel mundial para satisfacer esta demanda. La latencia en el transporte de datos hacia centros de datos alejados es un obstáculo para una interacción sin problemas.

Se trata de un cambio de paradigma. El modelo antiguo consideraba que la inferencia era una tarea secundaria para los clústeres centralizados. La nueva realidad, impulsada por aplicaciones como los sistemas autónomos y la personalización en tiempo real, exige que el procesamiento se realice en las áreas periféricas. La infraestructura debe ser distribuida, con capacidad de procesamiento ubicada en los puntos de contacto. La estrategia de Akamai representa una solución basada en principios fundamentales para superar este problema de escalabilidad. Utiliza sus 4,400+ ubicaciones periféricas, una red global diseñada para el envío de contenidos, y las aplica en la inferencia de inteligencia artificial.

La “Infference Cloud” de la compañía, presentada hoy, es la primera implementación operativa del sistema AI Grid desarrollado por Nvidia. Utiliza una coordinación inteligente para distribuir las cargas de trabajo de IA a través de esta arquitectura distribuida. El objetivo es lograr un equilibrio entre latencia, costos y rendimiento, algo que ningún centro de datos aislado puede lograr. En resumen, Akamai está creando la infraestructura necesaria para un nuevo paradigma en el que el procesamiento de datos se realiza siguiendo las necesidades del usuario, y no al revés.

Principios fundamentales: La economía computacional de la inferencia distribuida

El modelo distribuido no es simplemente un ajuste técnico; se trata de un cambio fundamental en la economía computacional. AI Grid de Akamai tiene como objetivo lograr una adopción exponencial de la inteligencia artificial con baja latencia, resolviendo el problema de la tokenización a gran escala. La innovación principal radica en la coordinación inteligente de las cargas de trabajo: un intermediario en tiempo real que direcciona las cargas de trabajo a través de más de 4,400 ubicaciones periféricas y miles de clústeres GPU. No se trata únicamente de la potencia bruta, sino de optimizar el equilibrio entre latencia, costos y rendimiento para cada solicitud. El objetivo es ofrecer la misma capacidad de respuesta que el procesamiento local, pero con la escala de una red global.

Este modelo ya está demostrando su atractivo para las empresas. Una importante empresa tecnológica de los Estados Unidos firmó un contrato de cuatro años con este modelo.Acuerdo de servicios por 200 millones de dólaresSe está invertido en un clúster de miles de GPUs NVIDIA Blackwell, integradas con la plataforma distribuida de Akamai. Esto no es un proyecto piloto; se trata de una inversión fundamental, destinada a validar la capacidad de la plataforma para ofrecer un rendimiento predecible y fiable en tareas de inteligencia artificial de importancia crítica. Esto indica que el modelo de computación distribuida puede manejar las tareas más complejas, no solo las funciones más sencillas.

Las razones económicas son claras. Para aplicaciones que requieren una baja latencia, como el video en vivo, la selección de anuncios en tiempo real y el comercio sincronizado, el costo de los envíos de datos hacia un centro de datos centralizado es simplemente demasiado alto. La estrategia de Akamai, que consiste en colocar las herramientas de procesamiento de datos más cerca de los usuarios, resuelve este problema. Como señaló Tom Leighton, como los mayores proveedores de servicios cloud también utilizan Akamai para estas tareas críticas y que requieren altos niveles de rendimiento. Esto crea un efecto positivo: cada vez más cargas de trabajo basadas en IA requieren menos latencia, lo que a su vez fomenta la adopción de infraestructuras distribuidas. Esto, a su vez, reduce el costo por token para las futuras cargas de trabajo.

La seguridad sigue siendo el pilar fundamental del negocio. Su importancia continúa creciendo.10%Sin embargo, los nuevos motores de crecimiento están acelerándose aún más rápidamente. Los productos relacionados con la seguridad en el ámbito de la IA, como las medidas de seguridad relacionadas con las API y las soluciones de segmentación de datos, están creciendo un 35% en términos anuales. Esto es resultado directo del aumento de las superficies de ataque, a medida que las empresas adoptan la tecnología de IA. Esta sinergia es crucial. La misma arquitectura distribuida que sirve para el procesamiento de datos también fortalece el ciclo de vida de la tecnología de IA, creando una plataforma unificada donde la seguridad y el procesamiento de datos están integrados desde el nivel más básico. Los servicios de infraestructura en la nube de la empresa, que incluyen esta capa de procesamiento de datos, son el segmento con el mayor crecimiento. En este trimestre, sus ingresos ascendieron a 94 millones de dólares, lo que representa un aumento del 45% en comparación con el mismo período del año anterior. No se trata simplemente de apoyo para la tecnología de IA; se trata del núcleo del próximo crecimiento.

Impacto financiero y el camino hacia una adopción exponencial

La contribución financiera a corto plazo de Akamai’s AI Grid aún está en sus inicios, pero parece que habrá una rápida adopción de esta tecnología. El segmento de negocios del que más crece la empresa, los servicios de infraestructura en la nube, terminó el último trimestre con…94 millonesY está en camino de registrar un crecimiento del 45% al 50% este año. Esto incluye el nuevo nivel de procesamiento, que constituye el corazón de la Inferencia en la Nube. La validación inicial fue positiva.200 millones de dólares, acuerdo de servicio de cuatro años.Vendido por una importante empresa tecnológica, se trata de un clúster dedicado que utiliza múltiples mil GPU. Es un punto de apoyo importante, pero el verdadero catalizador es la rapidez con la que la plataforma puede escalar más allá de este único contrato tan importante.

El camino hacia una adopción exponencial de esta plataforma depende de dos indicadores clave. El primero es la expansión de la propia plataforma. La inversión inicial de 200 millones de dólares representa un punto de referencia para trabajos que requieren un alto nivel de procesamiento de datos. Pero el verdadero poder de esta arquitectura distribuida radica en su capacidad para atender las necesidades de las aplicaciones que requieren baja latencia. Estamos esperando la integración de la inteligencia artificial en los servicios de seguridad y cloud de Akamai. Ya se puede observar una sinergia entre estos elementos: los productos relacionados con la seguridad basados en la inteligencia artificial están creciendo un 35% año tras año. A medida que las capacidades de seguridad relacionadas con la inteligencia artificial de la empresa se vuelvan más eficaces, se espera que haya una mejor coordinación entre el procesamiento de datos y la seguridad, lo que permitirá crear una plataforma más completa y útil para las empresas.

El segundo factor es la tasa de adopción del paradigma de IA subyacente. La plataforma está diseñada para trabajos que requieren respuesta en tiempo real y local, tanto en el ámbito de la inteligencia artificial agente como en el física. El principal catalizador para esta adopción es el cambio en las necesidades del mercado hacia este tipo de aplicaciones. El director ejecutivo de Akamai señaló que incluso los mayores proveedores de servicios de computación utilizan su plataforma para tareas críticas y que requieren baja latencia, como videos en vivo y comercio sincronizado. Esto crea un efecto positivo: a medida que más empresas adopten la inteligencia artificial agente, aumentará la demanda de procesamiento de datos con baja latencia. Esto, a su vez, impulsará aún más la adopción de la plataforma distribuida de Akamai.

Desde el punto de vista financiero, la empresa espera aumentar los precios en algunas áreas este año, debido, en parte, al aumento de los costos relacionados con la memoria. Esto indica que la empresa tiene el poder de fijar precios competitivos para su infraestructura diferenciada. Pero, al mismo tiempo, esto también genera presión sobre los costos de inversión. En resumen, el impacto financiero se medirá no por un aumento inmediato en los ingresos, sino por la velocidad con la que la plataforma captura nuevas cargas de trabajo. El éxito se demostrará a través de la expansión de la base de clientes, además de la integración de las capacidades de IA en todo el conjunto de productos de la empresa. El objetivo es pasar de un único contrato importante a una curva de adopción más amplia y distribuida, convirtiendo así la Inference Cloud en la infraestructura predeterminada para la próxima generación de soluciones de inteligencia artificial.

Catalizadores, riesgos y la capa de infraestructura

La tecnología de AI Grid de Akamai ya está en funcionamiento, pero su camino hacia una adopción exponencial requiere de un proceso que dure varios años. El catalizador inmediato para su implementación es la validación técnica y la alineación con el ecosistema correspondiente. La plataforma ha debutado…NVIDIA GTC 2026El hecho de que esta plataforma haya recibido atención especial en el discurso de apertura del CEO Jensen Huang es una señal muy importante. Esta estrecha colaboración con Nvidia, el líder en tecnología de procesamiento de datos del sector, representa un apoyo crucial para la plataforma. Además, esto asegura que la plataforma se construya sobre la infraestructura más avanzada posible.200 millones de dólares, acuerdo de servicios de cuatro años.Tener como cliente principal a una importante empresa tecnológica es la prueba de que el modelo puede manejar las cargas de trabajo más complejas a gran escala. El factor clave para el futuro es la expansión de esta plataforma más allá de ese único contrato, con el objetivo de abarcar todas las aplicaciones que requieren un alto nivel de precisión en términos de latencia.

La principal incertidumbre radica en la intensidad de capital que requiere este modelo distribuido de computación. Implementar y gestionar miles de GPU de alta calidad en más de 4,400 ubicaciones es una tarea operativa y financiera muy compleja. Esto debe equilibrarse con el potencial de ingresos a largo plazo que ofrece esta infraestructura global. Las expectativas de la empresa son…Aumentar los precios en algunas áreas este año.En parte, esto se debe a los mayores costos de memoria. Estos costos implican un mayor poder de fijación de precios para un producto diferenciado, además de la presión constante que ejercen los costos de insumos. La prueba definitiva es si la capacidad de la plataforma para ofrecer una mejor relación entre el precio de cada token y su tiempo de respuesta puede justificar este gasto de capital, y así impulsar una adopción generalizada y distribuida del producto.

Lo que hay que tener en cuenta es la integración de las capacidades de IA en toda la gama de productos de Akamai. El enfoque inicial se centra en la inferencia, pero la verdadera potencia de este sistema se hará evidente cuando la IA esté profundamente integrada en áreas como la seguridad, la distribución de contenido y otros servicios. La sinergia ya es visible: los productos relacionados con la seguridad basados en IA están creciendo un 35% anualmente. El éxito se demostrará a través de la expansión de la base de clientes, además de una mejor coordinación entre la inferencia distribuida y otras necesidades empresariales. El objetivo es pasar de un único contrato grande a una adopción más amplia y distribuida de esta tecnología, convirtiendo así el Inference Cloud en la infraestructura predeterminada para la próxima generación de soluciones basadas en IA.

author avatar
Eli Grant

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios