El costo de la inferencia en OpenAI ya supera los costos de entrenamiento de GPT-4. Una pérdida estructural está impulsando la competencia en términos de eficiencia de capital.
El paradigma de la IA ahora se encuentra en una fase de adopción rápida. Sin embargo, los costos relacionados con la infraestructura están cambiando, lo que genera una nueva competencia por la eficiencia en el uso del capital. En un inicio, el foco estaba en entrenar modelos masivos. Pero la realidad financiera muestra que el gasto en procesamiento de datos, es decir, en ejecutar las inferencias para cada consulta de los usuarios, es algo que está creciendo exponencialmente. Esto no es solo un cambio menor; se trata de un cambio fundamental en el mecanismo económico de la industria.
La magnitud de este nuevo ciclo de gastos es impresionante. En toda la industria, se espera que las empresas dedicadas a la inteligencia artificial inviertan en este área.690 mil millones en gastos de capital, solo en el año 2026.Esto no se trata simplemente de construir el próximo modelo; se trata de dar poder a las interacciones diarias de cientos de millones de usuarios. Los números revelan un punto de inflexión crítico. Para OpenAI, la situación es evidente: su capacidad de procesamiento mensual supera con creces lo que se necesitó para entrenar GPT-4.24 díasEso significa que el costo de simplemente servir su producto está superando con creces el costo de crear su modelo principal, a una velocidad impresionante.
Este cambio está generando una gran demanda en el mercado. A medida que la inferencia se convierte en la tarea principal, la demanda de hardware especializado aumenta significativamente. Se espera que el mercado de chips optimizados para la inferencia crezca considerablemente.Más de 50 mil millones de dólares en 2026.Esto no es un producto de nicho; se trata de la capa de infraestructura fundamental para la adopción de la inteligencia artificial en la próxima fase. Cada laboratorio importante está buscando alternativas a los proveedores tradicionales, firmando acuerdos por valor de miles de millones de dólares con empresas como AMD, Cerebras, Broadcom y AWS. Esto genera una carrera por aumentar la capacidad de procesamiento de datos. En resumen, el crecimiento exponencial en las consultas de los usuarios, combinado con modelos de razonamiento más complejos, ha generado un nuevo paradigma en el que el costo de proporcionar servicios de inteligencia artificial supera ampliamente el costo de su entrenamiento. La carrera por mejorar la eficiencia financiera acaba de comenzar.

El paradojo de la rentabilidad: El crecimiento de los ingresos frente a las pérdidas estructurales
Los números cuentan una historia de crecimiento exponencial que choca con una pérdida estructural grave. Por un lado, los ingresos están aumentando rápidamente. Los ingresos anuales de OpenAI han…Superó los 20 mil millones de dólares.Es un gran avance, comparado con los 6 mil millones de dólares al año de hace poco tiempo. La trayectoria de Anthropic es aún más impresionante, ya que sus ingresos anuales son muy altos.Pasó de 9 mil millones a 19 mil millones en solo meses.No se trata simplemente de crecimiento; se trata de una aceleración en forma de curva en S, que ha dejado atrás a los escépticos. Sin embargo, este aumento en las ganancias totales ocurre junto con pérdidas considerables en las ganancias netas. Esto crea un paradojo que define la situación actual en la carrera por mejorar la eficiencia de los capitales invertidos en inteligencia artificial.
Las proyecciones financieras de OpenAI presentan los datos de manera clara y precisa. La empresa…Se proyecta que perderá 14 mil millones de dólares en el año 2026.Se trata de una reducción casi tres veces mayor en comparación con las estimaciones del año anterior. En total, se espera que las pérdidas alcancen los 44 mil millones de dólares para finales de 2028. La rentabilidad no se logrará hasta el año 2029, como mínimo. Esto no es un revés temporal, sino una característica estructural de su modelo de negocio. El problema principal radica en la baja tasa de monetización: solo el 5.5% de los 900 millones de usuarios semanales de ChatGPT pagan por sus servicios. El 94.5% restante tiene acceso al servicio de forma gratuita. Sin embargo, OpenAI debe asumir todos los costos relacionados con el procesamiento de cada consulta realizada por esa gran cantidad de usuarios. En esencia, la empresa está subsidiando la adopción masiva de este servicio con su propio capital. Este modelo no puede funcionar de manera rentable en el largo plazo.
Esto constituye una diferencia crucial con competidores como Anthropic, que proyecta un flujo de efectivo positivo hasta el año 2027. La diferencia es estratégica: Anthropic es una empresa dedicada a la fabricación de productos para el consumidor, mientras que OpenAI es una empresa que desarrolla productos para uso empresarial. Esto afecta todo, desde los precios hasta las economías de escala. El enfoque empresarial de Anthropic ha permitido aumentar el número de clientes de alto valor; el número de clientes que gastan más de 1 millón de dólares al año pasó de 12 a más de 500 en dos años. Por otro lado, la proporción de gastos en inteligencia artificial por parte de OpenAI ha disminuido del 50% al 27% en el último año.
En resumen, las proyecciones de ingresos exorbitantes se financian con un gasto de capital sin precedentes, y no mediante métodos eficientes de monetización. Para OpenAI, el camino hacia la rentabilidad es largo y se mide en años, no en trimestres. La empresa está luchando por construir la infraestructura necesaria para el próximo paradigma tecnológico. Pero el costo de atender a la base de usuarios gratuitos que ha desarrollado es una pérdida estructural continua. Esto no es un fracaso de la tecnología; simplemente es una característica de la curva actual de adopción, donde los costos de infraestructura superan con creces los ingresos generados por una pequeña parte de los usuarios. La competencia por la eficiencia del capital ahora consiste en ganar esta batalla matemática.
La capa de infraestructura: Eficiencia de capital y apuestas estratégicas
La competencia por la eficiencia en el uso del capital se ha convertido en una batalla por el control de la infraestructura necesaria para el funcionamiento de las tecnologías de IA. A medida que los costos relacionados con el uso de AI aumentan enormemente, las empresas realizan inversiones masivas y estratégicas para asegurar su suministro de recursos informáticos y proteger sus márgenes de ganancia. La estrategia es clara: invertir grandes cantidades de dinero en la construcción de infraestructuras propias, mientras se busca contrarrestar este riesgo mediante alianzas con servicios en la nube.
El último compromiso de OpenAI presenta esto como un plan a largo plazo para mejorar la eficiencia de los recursos financieros de la empresa. Después de las proyecciones más ambiciosas realizadas anteriormente, la empresa ahora tiene como objetivo…Un total de 600 mil millones en gastos informáticos para el año 2030.No se trata de una ambición vaga, sino de una asignación de capital definida, relacionada directamente con las proyecciones de ingresos de la empresa. La compañía prevé un volumen de ingresos de 280 mil millones de dólares para el año 2030. El objetivo es lograr una distribución equilibrada entre los ingresos provenientes de los consumidores y los empresariales. Este movimiento indica un cambio desde una expansión descontrolada hacia una estrategia más disciplinada, basada en los ingresos reales. La escala es impresionante: OpenAI ha finalizado una ronda de financiación que podría superar los 100 mil millones de dólares, incluyendo una posible inversión de 30 mil millones de dólares por parte de Nvidia. El objetivo es asegurarse de contar con los recursos computacionales necesarios para atender a sus 900 millones de usuarios semanales. Pero el equilibrio entre los gastos y los ingresos futuros sigue siendo un desafío importante.
Anthropic está aplicando una estrategia híbrida que tiene como objetivo reducir la dependencia y proteger los beneficios de la empresa. La empresa está invirtiendo en esto.30 mil millones en créditos de Microsoft Azure.Se trata de parte de un compromiso más amplio relacionado con el uso de la nube, por un valor de 80 mil millones de dólares hasta el año 2029. Sin embargo, la empresa también está construyendo su propio grupo de centros de datos, utilizando chips Trainium2 de Amazon. Además, cuenta con una importante inversión en Google Cloud. Este enfoque dual sirve para evitar la dependencia de un solo proveedor de servicios de nube y así poder enfrentar posibles aumentos de precios. El CEO, Dario Amodei, ha advertido explícitamente que el gasto excesivo sin una garantía de ingresos podría ser “desastroso”. Por lo tanto, esta es una apuesta calculada, con el objetivo de obtener ventajas económicas en el futuro.
La presión que genera la participación en estas alianzas en el sector de la nube es una vulnerabilidad importante. Anthropic no solo alquila servidores, sino que también comparte las ganancias obtenidas de las ventas en AWS. Se proyecta que la empresa compartirá hasta el 50% de sus ganancias brutas en 2027. Este porcentaje podría llegar a los 6.400 millones de dólares ese año, lo cual representa un obstáculo directo para la rentabilidad de la empresa. Es un recordatorio de que la nube es una herramienta poderosa para el crecimiento, pero implica también un costo estructural que afecta negativamente los resultados financieros de la empresa. Para Anthropic, su estrategia consiste en utilizar este gasto en la nube como una forma de transición, mientras que se avanza en las inversiones en sus propios centros de datos. El objetivo es reducir esa dependencia y mantener más del valor que se crea.
En resumen, construir la infraestructura necesaria para el próximo paradigma requiere un capital sin precedentes. El plan de OpenAI, por valor de 600 mil millones de dólares, y el modelo híbrido de Anthropic muestran dos caminos hacia el mismo objetivo: asegurar recursos computacionales a un costo que permita llevar a cabo negocios rentables. La empresa que logre construir sus propias infraestructuras de manera más rápida y eficiente será la ganadora. Al mismo tiempo, deberá manejar las costosas alianzas comerciales que son la realidad del mercado actual.
Catalizadores, escenarios y lo que hay que vigilar
La teoría del crecimiento exponencial en comparación con la sostenibilidad financiera ahora enfrenta una serie de pruebas críticas. Los próximos meses revelarán si las enormes inversiones de capital que se están realizando hoy podrán convertirse en una infraestructura rentable, o si en realidad se está construyendo un “monumento costoso” para una curva de adopción que se ha estancado.
El catalizador inmediato es la publicación de los datos reales sobre los ingresos del año 2026. Para OpenAI, el objetivo es alcanzar ese nivel de información.20 mil millones en ingresos anuales.La eliminación de este objetivo es esencial para validar las proyecciones de ingresos de 280 mil millones de dólares para el año 2030. Para Anthropic, los objetivos son aún más ambiciosos; ya en marzo de 2026, los ingresos anuales habían alcanzado la cifra de 19 mil millones de dólares. El mercado observará atentamente estas cifras en busca de signos de aceleración o desaceleración en los ingresos. Cualquier fallo podría cuestionar las hipótesis de ingresos que sustentan sus planes de capital valorados en miles de millones de dólares.
Más allá de esa línea superior, la eficiencia de capital de la industria se verá reflejada en la tasa de adopción de chips optimizados para inferencias y en el ritmo de construcción de centros de datos. Se proyecta que el mercado para estos chips especializados llegará a un nivel importante.Más de 50 mil millones de dólares en 2026.Una adopción rápida y generalizada de este tecnología indicaría un cambio hacia métodos de servicio más eficientes. Esto podría reducir los 690 mil millones de dólares en gastos de capital que se esperan para toda la industria este año. Por el contrario, una adopción lenta confirmaría que la industria sigue dependiendo de chips de alta tecnología y costos elevados, lo que haría que el camino hacia la rentabilidad sea aún más difícil.
Sin embargo, el riesgo principal es el ralentizamiento del crecimiento de la adopción de esta tecnología. El modelo actual consiste en una carrera contra el tiempo: las empresas construyen infraestructuras masivas y no rentables hoy en día, con la expectativa de que el número de usuarios aumente exponencialmente mañana. Si la curva de adopción se estabiliza, las pérdidas estructurales se volverán insostenibles. El plan de OpenAI de invertir 600 mil millones de dólares hasta el año 2030 se basa en una distribución equilibrada entre los ingresos provenientes de los consumidores y los de las empresas. Si el crecimiento de los gastos en el sector empresarial se ralentiza, o si la tasa de monetización entre los consumidores sigue siendo inferior al 6%, la empresa quedará con una cantidad enorme de capacidad informática sin utilizarla adecuadamente, y no tendrá forma de cubrir las pérdidas proyectadas de 14 mil millones de dólares para el año 2026. Lo mismo ocurre con Anthropic: su compromiso de invertir 80 mil millones de dólares en el sector cloud hasta el año 2029, así como sus ganancias proyectadas de 6.4 mil millones de dólares en 2027, dependen de un uso continuo y rentable de esa capacidad informática.
En resumen, el próximo paradigma se basa en una base de inversiones masivas y con un enfoque orientado hacia el futuro. Lo que realmente importa no son solo los resultados trimestrales, sino también las métricas en tiempo real relacionadas con la adopción y la eficiencia. Para lograr una transición exitosa hacia una curva S, es necesario no solo construir las infraestructuras necesarias, sino también asegurarse de que los “trenes” estén listos para partir. Cualquier señal de que la demanda está disminuyendo revelará la fragilidad de la competencia actual en materia de eficiencia de capital.



Comentarios
Aún no hay comentarios