Los titanes tecnológicos aceleran la carrera por centros de datos espaciales ante la explosión de la IA
Gigantes tecnológicos como Google, SpaceX, Amazon y OpenAI exploran la posibilidad de construir centros de datos en órbita.
En un momento en que la inteligencia artificial dispara el consumo eléctrico global y desafía la infraestructura terrestre, los grandes líderes tecnológicos han comenzado a defender abiertamente la idea de trasladar parte de la computación al espacio, un debate que cobró fuerza el 29 de noviembre de 2025 tras nuevas declaraciones de Google, Musk, Bezos y Altman. La conversación, impulsada por proyectos ya en marcha como Suncatcher y los primeros satélites con GPUs en órbita, plantea qué vendrá después en un sector que necesita nuevas fuentes de energía y una arquitectura de computación radicalmente diferente.
Una idea que parecía ciencia ficción y ahora tiene fecha en el calendario
Lo que durante años sonó a especulación futurista se ha convertido en una conversación sorprendentemente concreta entre los líderes de Silicon Valley. Sundar Pichai, CEO de Google, admitió en el podcast interno de la compañía que los centros de datos espaciales “suenan a locura”, pero añadió que cuando se proyecta la magnitud del cómputo necesario para sostener la IA, “empieza a tener sentido y es cuestión de tiempo”. Estas declaraciones llegan semanas después de que Google anunciara Proyecto Suncatcher, cuyo objetivo es lanzar dos satélites prototipo equipados con TPUs para 2027 en colaboración con Planet Labs.
La visión de Google no surge sola: se inscribe en un coro inesperadamente coordinado de ejecutivos que en los últimos meses han repetido el mismo mensaje. Elon Musk, en el Foro de Inversión Estados Unidos–Arabia Saudita, aseguró que Starship podría colocar en órbita entre 300 y 500 gigavatios anuales de satélites de IA alimentados por energía solar, afirmando que “la forma más económica de computar IA será en el espacio”. Jeff Bezos, fundador de Amazon, predijo que en diez o veinte años veremos “centros de datos gigantes de gigavatios orbitando la Tierra”, capturando energía solar las 24 horas del día, mientras Marc Benioff, CEO de Salesforce, escribió que “el lugar más económico para un centro de datos es el espacio”, en referencia a la ausencia de baterías, la iluminación perpetua y la mínima necesidad de refrigeración.
Incluso Sam Altman, CEO de OpenAI, llevó la idea al extremo conceptual durante una entrevista en julio, imaginando la posibilidad de construir “una gran esfera de Dyson en el sistema solar” para alimentar la computación. Sus palabras, aunque exageradas, señalan un consenso: la Tierra podría no ser suficiente para sostener el crecimiento exponencial de los modelos generativos, que requieren cada vez más energía, refrigeración y espacio físico.
El movimiento ya ha comenzado. La startup Starcloud, financiada por Nvidia e In-Q-Tel, lanzó el 2 de noviembre el primer satélite con una GPU H100 en órbita, bautizado como Starcloud-1. Aunque aún es un experimento, constituye la primera demostración práctica de computación de alto nivel fuera del planeta.
La confluencia de visiones no es casual: las proyecciones energéticas indican un cuello de botella inminente. La IA consumió alrededor de 415 TWh en 2024 y podría llegar a 945 TWh en 2030. Para ponerlo en perspectiva, esa cifra superaría el consumo eléctrico combinado de países como Francia y Alemania juntos. Los centros de datos se multiplican más rápido que las líneas eléctricas para alimentarlos, y cortes como la falla de refrigeración que paralizó un nodo de Chicago durante 11 horas en noviembre ilustran una fragilidad creciente. De ahí que el espacio se haya convertido en una alternativa seductora, libre de nubes, noches y tormentas.
La promesa del espacio choca con desafíos gigantescos
La visión de centros de datos orbitando la Tierra es tentadora: energía solar constante, ausencia de clima adverso, posibilidad de escalar sin límites geográficos y un entorno donde el calor se disipa de manera muy diferente. Sin embargo, el sueño está lejos de materializarse. Los desafíos técnicos son tan enormes como la ambición que los impulsa.
El primero es el coste. Aunque SpaceX ha reducido drásticamente el precio del lanzamiento, los 1.500 dólares por kilogramo actuales del Falcon Heavy aún hacen inviable un centro de datos orbital competitivo con uno terrestre. Los cálculos internos de Google estiman que el umbral necesario ronda los 200 dólares por kilogramo para 2035, una reducción radical que solo sería posible mediante reutilización masiva y mejoras disruptivas en lanzadores como Starship.
El segundo desafío es la radiación. Los componentes electrónicos sufren daños por partículas de alta energía que no existen en la superficie, lo que obliga a añadir blindajes que aumentan peso y coste. La disipación de calor en vacío es otro problema crítico: en el espacio no hay aire ni convección, y los satélites deben expulsar calor únicamente mediante radiación, un proceso mucho menos eficiente. Un centro de datos orbital requeriría radiadores del tamaño de canchas deportivas solo para mantener las GPUs dentro de su rango operativo.
A ello se suma la imposibilidad de mantenimiento físico. Mientras un centro de datos en Texas o Dublín puede ser actualizado, reparado o ampliado en cuestión de horas, uno en órbita baja requeriría misiones tripuladas o robóticas extremadamente costosas. La vida útil del hardware también es un dilema: si hoy una GPU queda obsoleta en dos años, ¿cómo justificar la inversión en lanzamientos y blindajes para componentes con caducidades tan breves?
Finalmente, existen enormes cuestiones regulatorias y ambientales. Centros de datos orbitando en grandes constelaciones podrían exacerbar la basura espacial, interferir con observaciones astronómicas y complicar la gobernanza internacional en un sector que ya está al límite en términos de tráfico orbital.
Comentarios cerrados