Boletín de AInvest
Titulares diarios de acciones y criptomonedas, gratis en tu bandeja de entrada
El crecimiento exponencial de la inteligencia artificial está tomando un retén fundamental: energía. La infraestructura necesaria para conducir inteligencia artificial está consumiendo energía a una tasa que amenaza arrasar las redes terrestres. No es una preocupación lejana. De acuerdo con pronósticos recientes,
Con demanda…A nivel mundial, la situación es aún más grave. Se espera que el consumo de energía en los centros de datos duplique para el año 2030. Esto se debe a los servidores optimizados para la inteligencia artificial, quienes representarán el 44% del total de la energía consumida en los centros de datos para ese año. En comparación, este año esa proporción era del 21%.Esto crea un punto de inflexión de curva S clásica. El actual paradigma de construcción de centros de datos se enfoca en la tierra, lo que está dando con fricciones físicas y políticas. Las mejoras de red son lentas, las permisiones son controversias y la dependencia de combustibles fósiles para la generación de energía en lugar es insostenible. La solución puede estar fuera de la atmósfera. La tesis es sencilla: el espacio ofrece una capa de infraestructura natural para el cálculo. Satélites en órbita pueden aprovechar
en un vacío que proporciona enfriamiento ilimitado sin requerir sistemas de aire acondicionado masivos y de alto consumo de energía. Este no es ficción científica. Empresas como Planet ya están probando la manzana del árbol, asociándose con Google en el Proyecto Suncatcher para poner en órbita chips de computadoras con IA optimizada antes del año 2027. El objetivo es demostrar que un grupo de satélites puede formar una red de centros de datos de alta eficiencia y de alto rendimiento.La solución orbital representa un cambio de paradigma en el ámbito de las infraestructuras tecnológicas. Traslada la carga computacional desde una red terrestre limitada, hacia recursos espaciales abundantes. Para los inversores, la cuestión ya no es si la IA consumirá mucha energía, sino dónde se obtendrá esa energía. Las empresas que construyen las bases para este nuevo paradigma, aquellas que tienen experiencia en la puesta en marcha de satélites y que cuentan con alianzas para expandir el uso de la computación en el espacio, se posicionan en el inicio de una nueva curva exponencial.
El proceso de pasar del concepto a la construcción ya está en marcha. Las primeras empresas están desarrollando el hardware básico y estableciendo las relaciones necesarias para crear la infraestructura necesaria para el funcionamiento del sistema. Esta es la fase de construcción de la infraestructura; en esta etapa, se prueban las ventajas teóricas con satélites reales.
La medida más concreta es
La meta de esta asociación es lanzar dos satélites con IA a principios de 2027, cada uno con unidades de procesamiento tensor (TPU) de Google. El CEO de Planet aplica este modelo como una "victoria competitiva", aprovechando la experiencia de la compañía en el lanzamiento de más de 600 satélites. El objetivo es un test de investigación y desarrollo de componentes críticos como la desgaste térmico y enlaces inter-satelitales de banda ancha. Este es un enfoque de cluster basado en principios, con Google visualizando redes escalonadas de cientos de satélites. Por ahora, es un concepto de prueba con dos satélites, pero demuestra los primeros principios del diseño de centros de datos orbitales: el uso del vacío del espacio para el enfriamiento y la generación de energía solar continua.Un enfoque diferente de hardware está surgiendo de la startup Starcloud. La compañía planea lanzar un satélite en noviembre que llevará
Esto marca la primera vez que una GPU de clase de centro de datos de última generación se utiliza en órbita. Se trata de una misión directa para llevar el hardware de IA más potente a la órbita terrestre. El CEO de Starcloud proyecta que ello se traducirá en 10 veces menos emisiones de CO2 durante la vida del centro de datos, en comparación con las operaciones de tierra. La visión de esta startup es ambiciosa, pues prevé que en diez años casi todos los nuevos centros de datos estarán construidos en el espacio. Su enfoque se basa en la potencia de cálculo necesaria para la IA, dando el pase a la órbita como una extensión natural de la curva de crecimiento exponencial de las GPU.Algo más allá de la computación sin procesador, la arquitectura para operaciones seguras y soberanas también se está definiendo. Axiom Space está desarrollando
Como nodos físicos en esta nueva red. Estos están diseñados para trabajar con nubes terrestres o operar de forma independiente para misiones de alta seguridad. El modelo ODC enfatiza el procesamiento en órbita para proporcionar información de bajo latencia, un beneficio clave para aplicaciones como la detección en tiempo real de incendios forestales. Al aislar físicamente la infraestructura y usar una arquitectura de confianza cero, estos centros prometen un nuevo nivel de resiliencia contra interrupciones terrestres y amenazas cibernéticas.El camino hacia la escala es clara pero apenas arrancada. Planet y Google están probando el sistema de clústeres. Starcloud está aumentando la velocidad con GPU. Axiom está diseñando los nodos seguros. Juntos, están poniendo los rails físicos para un cambio de paradigma. La próxima fase será ver si estos componentes individuales pueden integrarse en una red coherente y escalable - un verdadero centro de datos orbital.

La tesis de inversión de computación orbital se basa en una valiosa propuesta de valor en primeros principios: la escalabilidad infinita gracias a la energía solar ilimitada. Teóricamente, una constelación de satélites puede crecer sin limitaciones de tierra, red eléctrica o refrigeración, que limitan los centros de datos terrestres. Como lo define Google, el sol es la fuente de energía definitiva, y en órbita, los paneles solares pueden
Esto no es simplemente eficiencia incremental; es un cambio potencial de paradigma en la curva S de la infraestructura de computación. La promesa central es desacoplar el crecimiento exponencial de IA de los recursos limitados de la Tierra.Pero este potencial exponencial enfrenta costos tangibles y riesgos tecnológicos. El primer obstáculo es la implementación. Lanzar miles de satélites, como lo vaga el CEO de Planet para un conjunto escalado, es un empeño capitalista. Aunque Planet tiene experiencia con
Para unirlas a un sistema inteligente requiere un nuevo nivel de cadencia de lanzamiento y ordenamiento orbital. Luego vienen los desafíos de ingeniería. Los chips comerciales, como los TPUs de Google o los GPUs H100 de NVIDIA, no están radiomarcados para el espacio. Como se destaca en el ensayo técnico de Google, un desafío clave es el efecto de la radiación en la computación. De igual modo, quitar la inmensa cantidad de calor generado por los chips de IA en el vacío del espacio, donde no hay aire para la conveción, requiere de soluciones de refrigeración nuevas y robustas. El CEO de Planet destacó que el ensayo de 2027 demostrará específicamente enlaces interplanetarios de alta latencia y desgaste del calor por los TPUs. No es que el éxito aquí esté asegurado.El cronograma crítico para este inversión está definido por una carrera contra las limitaciones del grid terrestre. La evidencia muestra que la demanda de energía del centro de datos se prevee que
Si los cálculos orbitales no demuestran su caso económico y escalabilidad dentro de esta década, la red terrestre alcanzará un punto de fricción insuperable, política, física o financiera, antes de que la alternativa espacial se madure. Por lo tanto, la demostración de 2027 Suncatcher es una piedra angular que determinará el éxito o el fracaso. Debe demostrar que la solución de sistema de clústeres funciona, que los retos de la potencia y la refrigeración pueden resolverse, y que el costo por unidad de cálculo empiece a competir con las opciones basadas en la Tierra.En resumen, se trata de una apuesta de alto riesgo en relación con la singularidad tecnológica en el ámbito de las infraestructuras. El aspecto positivo es que esto podría generar un nuevo nivel de crecimiento exponencial para la inteligencia artificial, sobre una base de energía solar abundante. Por otro lado, el proceso de desarrollo es complejo y costoso; además, es posible que no se logre nada antes de que los obstáculos terrestres se conviertan en un verdadero impedimento. Para los inversores, el camino está claro: deben observar el resultado del test en 2027 para verificar si el concepto funciona realmente. Luego, deben seguir de cerca la trayectoria de escalamiento y los costos relacionados con este proyecto. El éxito dependerá de poder demostrar que el proyecto tiene sentido económico antes de que los problemas relacionados con la red eléctrica se vuelvan insuperables.
La teoría de la computación orbital pasará de la fase conceptual a la fase de prueba en los próximos años. Para los inversores, el camino que se seguirá está determinado por algunos hitos críticos que servirán para validar las promesas que ofrece esta tecnología, o bien, para identificar sus limitaciones fundamentales.
El primer punto técnico importante llega en
El lanzamiento y el funcionamiento exitosos de los dos satélites Planet/Google Suncatcher serán una prueba crucial. No se trata simplemente de llevar un chip al espacio; se trata de demostrar que el sistema funciona correctamente. La misión debe demostrar que los TPUs pueden operar de manera confiable en el duro entorno espacial, que las conexiones de alto ancho de banda entre los dos satélites pueden mantenerse, y, lo más importante, que el calor puede ser eliminado eficazmente en el vacío. Como señaló el CEO de Planet, esta es una prueba de componentes críticos como la gestión térmica y la capacidad de formación de grupos de satélites. El éxito en esta prueba será una validación fundamental para la visión de Google sobre redes escalables. Si fracasa, probablemente se detenga todo el proceso de cambio paradigmático.Paralelamente, se debe monitorear el rendimiento y eficiencia del hardware en órbita de la primera generación. Starcloud planea lanzar su
El mes de noviembre es un punto de referencia importante. La startup afirma que puede reducir la emisión de dióxido de carbono en 10 veces, además de disminuir los costos de energía en 10 veces. La prueba real será determinar si la potencia computacional del H100 puede mantenerse en órbita, sin la necesidad de sistemas de refrigeración que son tan energéticamente intensivos en los centros de datos terrestres. El seguimiento de su consumo de energía y sus prestaciones en comparación con los estándares terrestres revelará las verdaderas ventajas económicas y físicas del modelo basado en el espacio. Se trata de la primera comparación directa del perfil operativo de una GPU de clase de centro de datos en la Tierra versus en órbita.Finalmente, la necesidad urgente de la deficiente energía terrestre debe ser cuidadosamente observada. La predicción es desalentadora:
Esta creciente demanda es el principal catalizador del desarrollo de la computación en órbita. Los inversores deben estar atentos a las proyecciones de los costos de las compañías de servicios públicos y a los plazos de actualización de las redes eléctricas. Si los costos de la energía terrestre aumentan o se detiene la autorización para la creación de nuevas capacidades de red, la presión sobre las empresas para encontrar alternativas como la computación en órbita aumentará. Por el contrario, si las compañías de servicios públicos logran manejar la carga de manera efectiva mediante nuevas tarifas o generación de energía en sus propios sitios, la urgencia de utilizar la computación en órbita podría disminuir. La prueba Suncatcher en 2027 debe tener éxito antes de que este obstáculo se convierta en algo insuperable.Titulares diarios de acciones y criptomonedas, gratis en tu bandeja de entrada
Comentarios
Aún no hay comentarios