La apuesta de 150 millones de dólares de Inferact: Construir la infraestructura necesaria para el próximo paradigma de inteligencia artificial.
La industria de la IA está entrando en una nueva fase. La limitación crítica ya no es el entrenamiento de modelos poderosos. Durante años, el principal obstáculo fue la capacidad de entrenar modelos eficientes. Ahora, como señala una empresa de capital riesgo líder, estamos acercándonos rápidamente a una segunda fase, donde el punto débil radica en la capacidad de ejecutar modelos para responder preguntas o resolver problemas. Esto representa un cambio fundamental en la forma en que se utiliza la inteligencia artificial. Los modelos ahora son suficientemente buenos para una amplia gama de aplicaciones, desde la programación hasta la investigación avanzada. Esto significa que los desarrolladores pueden crear software más complejos sin necesidad de esperar a que se lance un nuevo modelo. Como resultado, la demanda de servicios relacionados con la inferencia aumentará enormemente, probablemente de manera superlineal, a medida que los agentes de IA funcionen durante más tiempo y generen más datos.
Esta transición crea una enorme oportunidad en el ámbito de la infraestructura. El principal desafío radica en hacer que estos modelos funcionen de manera eficiente y a un costo razonable a escala. Aquí es donde entran en juego proyectos de código abierto como vLLM. Este software, al que han contribuido miles de personas, ya es una herramienta crucial para la implementación de aplicaciones de IA. Sus creadores anunciaron que este software ha sido adoptado por plataformas importantes como el servicio en la nube de Amazon y su aplicación de compras. Su popularidad es impresionante: actualmente, este proyecto utiliza más de 400,000 GPU’s. Esta escala demuestra la importancia de la capa de inferencia; se trata de la base fundamental sobre la cual depende toda la economía de las aplicaciones de IA.

Las oportunidades de mercado son enormes, pero están marcadas por una gran diferencia en cuanto a costo y rendimiento. Los modelos cerrados y propietarios dominan el uso generalizado de estas tecnologías; representan aproximadamente el 80% de las cargas de trabajo relacionadas con la inferencia. Sin embargo, estos modelos cuestan al usuario seis veces más que las alternativas abiertas, mientras que su rendimiento es solo del 90%. Esto genera una gran ineficiencia. Un análisis reciente sugiere que una reasignación óptima de la demanda podría ahorrarle a la economía mundial de la IA unos 25 mil millones de dólares al año. En otras palabras, la industria está pagando un precio elevado por un beneficio marginal. Este es precisamente el problema que startups como Inferact intentan resolver. Ellos apostan a que el futuro de la IA no consiste en crear nuevos modelos, sino en utilizar los modelos que ya existen de manera barata, confiable y a la escala necesaria para las aplicaciones de la próxima generación. La capa de infraestructura para la inferencia ahora es el punto clave para el desarrollo de la IA.
Tecnología y posición en el mercado: la ventaja de rendimiento del vLLM
El núcleo de la estrategia de Inferact radica en una innovación técnica específica, que ataca directamente el “bottleneck” relacionado con el proceso de inferencia. La gran revolución del proyecto vLLM radica precisamente en esta innovación.Gestión de la memoria PagedAttentionEste enfoque reconsidera fundamentalmente la forma en que los datos del modelo se almacenan y se acceden a ellos en la memoria de la GPU. Al utilizar un mecanismo de paginación similar al que los sistemas operativos utilizan para gestionar la RAM, PagedAttention elimina la fragmentación de memoria que es un problema en los métodos tradicionales. El resultado es un aumento significativo en ambos aspectos.Rendimiento mejorado y menor latencia.En comparación con competidores como Hugging Face’s TGI y NVIDIA’s TensorRT-LLM, esto no es algo teórico. Se trata de una ventaja en cuanto al rendimiento, que se traduce directamente en costos y velocidad de ejecución.
La fortaleza del proyecto se verifica a través de un proceso de evaluación riguroso y dirigido por la comunidad. vLLM mantiene un panel de control que realiza pruebas de rendimiento cada vez que se propone un cambio en el código, lo que garantiza una validación continua de sus afirmaciones. Lo más importante es que realiza pruebas nocturnas contra alternativas, proporcionando comparaciones transparentes y precisas. Este enfoque abierto y basado en datos genera una gran credibilidad. No se trata simplemente de una herramienta; es un estándar en formación. Sus creadores señalan que este estándar ya ha sido adoptado por importantes plataformas como…El servicio en la nube de Amazon y su aplicación de compras.
Esta validación técnica y comunitaria ya se ha comercializado. La startup Inferact, formada por los creadores originales del proyecto, se centra en extender y apoyar el proyecto de código abierto. Su estrategia consiste en ofrecer servicios de nivel empresarial, soporte técnico y posiblemente extensiones propietarias, además del núcleo gratuito del proyecto. Este modelo fue validado casi de inmediato, gracias a una ronda de financiamiento masiva de 150 millones de dólares, lo que elevó el valor de la empresa a 800 millones de dólares. La ronda de financiamiento estuvo liderada por…Andreessen Horowitz y Lightspeed Venture PartnersCon la participación de otras empresas de primer nivel. Este financiamiento confirma la opinión del mercado de que el nivel de infraestructura necesario para el proceso de inferencia es el siguiente punto clave en el camino hacia el éxito. Además, las ventajas en cuanto al rendimiento del vLLM permiten a Inferact ocupar una posición destacada en este campo.
Implicaciones financieras y estratégicas: Financiación de la curva de adopción
La ronda de inversión de 150 millones de dólares, con una valoración de 800 millones de dólares, no se trata simplemente de una inyección de capital. Se trata, en realidad, de una apuesta estratégica para acelerar la adopción de esta infraestructura de inferencia. Este capital proporciona la oportunidad necesaria para pasar de ser un proyecto de código abierto a convertirse en una plataforma comercial dominante. Los fondos utilizados servirán directamente para respaldar las prioridades de la empresa: seguir mejorando el motor vLLM, desarrollar funcionalidades propias para empresas, y expandir el alcance de su servicio para ganar cuota de mercado, a medida que el mercado de inferencia crece exponencialmente.
El uso estratégico de estos recursos es evidente. El modelo de Inferact refleja el modelo de código abierto que se utiliza en las herramientas de software básicas. La empresa continuará apoyando el proyecto vLLM, que está dirigido por la comunidad. De este modo, se asegura que los beneficios obtenidos sean algo que sea de dominio público. Además de este “núcleo gratuito”, Inferact también ofrecerá servicios propietarios, soporte de nivel empresarial y posiblemente extensiones especializadas. Este enfoque permite a Inferact obtener beneficios económicos de la infraestructura que sustenta toda la economía de aplicaciones de IA. Así, se puede capturar valor a medida que aumenta la demanda por la ejecución de modelos de IA.
Esta financiación valida la estrategia de “open-core” en un momento crítico. La industria de la inteligencia artificial está pasando de una situación de limitaciones en el proceso de entrenamiento a una situación de limitaciones en el proceso de inferencia. La demanda de soluciones eficientes y asequibles para este proceso va a crecer de manera exponencial. El capital que recibe Inferact le permite desarrollar herramientas y servicios que serán esenciales para los desarrolladores y las empresas que utilizan agentes de IA y aplicaciones complejas. Los 150 millones de dólares proporcionan los recursos necesarios no solo para mantenerse al ritmo de esta crecimiento, sino también para darle forma.
Catalizadores, riesgos y lo que hay que observar
El camino que va de un proyecto de código abierto prometedor hacia una infraestructura fundamental está lleno de obstáculos y riesgos. Para Inferact, los acontecimientos clave y las incertidumbres determinarán si su apuesta de 150 millones de dólares en el área de inferencia será rentable.
El catalizador más importante es la adopción por parte de los usuarios. La ventaja competitiva de la empresa solo tiene valor si se implementa en las aplicaciones reales. Una señal importante de la penetración en el mercado es el uso de vLLM en aplicaciones de alto perfil. Los creadores del proyecto han indicado que esta tecnología está siendo adoptada por muchos usuarios.El servicio en la nube de Amazon y su aplicación de compras.Se trata de una validación muy importante. Si otros importantes proveedores de servicios en la nube y softwares empresariales adoptan vLLM a gran escala, esto acelerará el paso hacia métodos de inferencia eficientes. Esto validaría el modelo comercial de Inferact y su tesis central: que ejecutar modelos de manera barata es el siguiente paso importante en el desarrollo tecnológico.
Sin embargo, el mayor riesgo radica en las respuestas competitivas de los proveedores. El mercado actual está dominado por modelos cerrados y propietarios; estos modelos representan aproximadamente el 80% de las cargas de trabajo de inferencia. Estos proveedores, como OpenAI y Anthropic, cuentan con recursos significativos y podrían responder mejorando sus propios motores de inferencia o ofreciendo precios más competitivos. Otros desarrolladores de motores de inferencia, como aquellos que están detrás de…TensorRT-LLM y Hugging Face TGITambién están compitiendo por este espacio. El riesgo es que estos competidores puedan erosionar el rendimiento o la ventaja de coste de vLLM, ya sea a través de innovaciones técnicas o al aprovechar sus relaciones con los clientes existentes y sus ecosistemas cerrados.
En última instancia, el catalizador más importante será el crecimiento exponencial de las aplicaciones de IA en sí. A medida que la industria supere el problema de capacitación de los modelos y pase a una fase en la que los modelos sean “suficientemente buenos” para manejar una amplia gama de tareas complejas, la demanda de procesamiento de datos aumentará enormemente. Este crecimiento probablemente sea exponencial, ya que los agentes de IA funcionarán durante más tiempo y generarán más datos. Este aumento en la demanda obligará a un cambio significativo hacia métodos de procesamiento eficientes. El éxito de la empresa dependerá de poder ser la infraestructura adecuada para escalar con este ritmo de adopción. El próximo año pondrá a prueba si su ventaja técnica y estrategia comercial son suficientes para aprovechar esta nueva fase de crecimiento basada en el procesamiento de datos por parte de la economía de la IA.



Comentarios
Aún no hay comentarios