Miles de satélites del tamaño de una nevera orbitando la Tierra, cada uno equipado con racks de GPU y paneles solares del tamaño de una pista de tenis, procesando en tiempo real consultas de chatbots e inteligencia artificial desde el espacio. No es ciencia ficción: es el plan de Orbital Inc., una startup de Los Ángeles respaldada por Andreessen Horowitz.
La premisa es tan sencilla como radical: la red eléctrica terrestre ya no puede absorber la demanda creciente de los centros de datos, y la única salida viable podría estar mirando hacia arriba.
Cuando la red eléctrica ya no da más de sí
El auge de los grandes modelos de lenguaje ha desencadenado una carrera global por construir más centros de datos, con un coste energético que las redes eléctricas terrestres empiezan a no poder asumir. Los operadores de infraestructura buscan alternativas: energía nuclear, plantas remotas, acuerdos con utilities. Algunos, directamente, miran hacia arriba.
Orbital Inc. trabajó en silencio durante meses antes de salir del anonimato a mediados de abril con una propuesta que pocos esperaban: construir centros de datos en órbita. Con sede en Los Ángeles y respaldada por Andreessen Horowitz, la startup quiere aprovechar la energía solar disponible en el espacio —sin nubes, sin ciclos día-noche tan pronunciados, sin limitaciones de red— para alimentar cómputo de inteligencia artificial.
«Sencillamente no hay suficiente capacidad aquí, y el único camino es hacia arriba», afirma Euwyn Poon, fundador y CEO de la compañía. «Hay energía solar abundante que no se está aprovechando.»
Una constelación de neveras con GPU
La visión de Orbital no pasa por un único gran satélite. Se trata de una malla de hasta 10.000 unidades del tamaño de una nevera en órbita baja terrestre, cada una con un rack de servidores GPU, paneles solares de aproximadamente 100 kW —equivalentes en superficie a una pista de tenis— y paneles radiadores de dimensiones similares para disipar el calor.
El concepto recuerda a la propuesta AI Sat Mini de SpaceX: una nube distribuida en órbita que procesa solicitudes en paralelo. Cada consulta parte de un centro de datos terrestre, sube a una estación base, viaja al satélite mediante enlaces ópticos láser, se procesa a bordo y regresa al usuario en decenas de milisegundos. El objetivo comercial a largo plazo es ofrecer acceso mediante API directa y acuerdos empresariales con grandes laboratorios de IA para redirigir parte de su demanda de inferencia hacia la red orbital.
Por qué la inferencia y no el entrenamiento
La decisión de centrarse en inferencia —generar respuestas a partir de modelos ya entrenados— no es arbitraria. Entrenar modelos de IA exige clústeres de GPU masivos y fuertemente acoplados, con requisitos de sincronización que hacen prácticamente inviable distribuir la carga entre nodos independientes separados por miles de kilómetros. La inferencia, en cambio, es menos intensiva por solicitud y puede repartirse entre sistemas más pequeños sin esa coordinación tan estrecha.
Limitar cada satélite a unos 100 kW simplifica el diseño de ingeniería y reduce el peso, factor crítico para contener los costes de lanzamiento. «Es muy sencillo», dice Poon sobre el concepto que subyace al diseño. «Los ingenieros lo apreciarán.» Los clientes objetivo son precisamente quienes más inferencia ejecutan: OpenAI, Anthropic y laboratorios de escala similar.
Los obstáculos que la física no perdona
Llevar centros de datos al espacio no elimina los problemas; los sustituye por otros más difíciles. La radiación en órbita baja puede provocar errores de bit en las GPU y degradar el hardware de forma progresiva. Sin atmósfera que conduzca el calor, la única vía de refrigeración es irradiar energía térmica al vacío mediante grandes paneles radiadores, lo que añade peso y complejidad considerable.
El mantenimiento plantea otro frente complicado. Un satélite averiado en órbita no se repara con una visita técnica, y desplegar miles de unidades multiplica tanto la probabilidad de fallos como la dificultad de respuesta. El profesor Amit Verma, de la Universidad Texas A&M Kingsville, señala que la viabilidad operativa depende del tipo de carga de trabajo: aplicaciones como chatbots o recomendaciones algorítmicas pueden tolerar la latencia añadida del trayecto orbital; otras, como el trading bursátil en tiempo real, no. «Los centros de datos espaciales con uso intensivo de IA necesitan superar problemas de energía, despliegue y fiabilidad para ser relevantes», advierte Verma.
Una hoja de ruta ambiciosa con muchas incógnitas
Orbital maneja fechas concretas: diseño finalizado en 2026, lanzamiento de un prototipo en un Falcon 9 de SpaceX en 2027 y apertura de una planta de fabricación en Los Ángeles en 2028. Para entonces, la empresa espera haber validado operaciones de GPU en órbita y ejecutado cargas de trabajo de inferencia comercial. En paralelo, el equipo explora el endurecimiento de GPU frente a la radiación y sistemas de refrigeración líquida con amoniaco para transferir calor a radiadores externos.
No todos comparten ese optimismo sobre los plazos. Andrew Côté, físico de ingeniería, estima que los centros de datos espaciales operativos tardarán entre 10 y 20 años en ser una realidad. Poon no esquiva la incertidumbre: «Parte de la misión es descubrir las incógnitas», reconoce.
El lanzamiento de 2027 será el primer examen real. Si el prototipo demuestra que una GPU puede sobrevivir, refrigerarse y procesar consultas en órbita de forma fiable, Orbital habrá dado el paso más difícil. Si no, la startup tendrá que replantear una propuesta que, por ahora, sigue siendo tan audaz como necesitada de pruebas.
