La explosión de la Inteligencia Artificial generativa, con modelos como Gemini y ChatGPT, ha traído consigo un problema ambiental de escala global: el consumo energético de los centros de datos se ha disparado. Estas infraestructuras, esenciales para el entrenamiento de los LLM (Grandes Modelos de Lenguaje), ya consumen tanta electricidad como países medianos, una cifra que, según estimaciones de la Agencia Internacional de la Energía, podría duplicarse antes de 2030. Ante este insostenible crecimiento, los gigantes tecnológicos buscan soluciones radicales.
Lee también: Avi Loeb acusa a la NASA de retener evidencia crucial sobre el objeto interestelar 3I/ATLAS
Google, consciente de que los data centers terrestres se están convirtiendo en auténticos “sumideros de recursos”, ha desvelado su plan más audaz: el Project Suncatcher. Este proyecto, que parece sacado directamente de la ciencia ficción, propone enviar sus chips de inteligencia artificial (los TPUs o Tensor Processing Units) al espacio. El objetivo es aprovechar la energía solar inagotable de la órbita baja de la Tierra para alimentar los complejos cálculos de la IA, eliminando la dependencia de las redes eléctricas terrestres y los sistemas de refrigeración basados en agua.

La propuesta de ingeniería: Chips en órbita heliosíncrona
El corazón de Project Suncatcher radica en la utilización de la órbita heliosíncrona, un tipo de órbita que garantiza una exposición solar casi constante. Google planea construir constelaciones de pequeños satélites —decenas o incluso cientos de ellos— que orbiten a unos 650 kilómetros de altura. Cada uno de estos satélites llevará a bordo chips TPU Trillium, el hardware diseñado por Google para potenciar su inteligencia artificial.
La teoría es que estos satélites, impulsados por paneles solares con luz ininterrumpida, podrían ser hasta ocho veces más eficientes energéticamente que los equivalentes terrestres. Para poner a prueba la viabilidad de la tecnología, Google ya ha anunciado una misión conjunta con la compañía Planet para lanzar dos satélites prototipo antes de 2027. La prueba busca confirmar si los chips y los sistemas de comunicación pueden soportar las condiciones extremas del entorno espacial.

Comunicación láser: El desafío de la distancia cero
Para que una constelación de satélites actúe como un único data center distribuido, la comunicación entre ellos debe ser instantánea y masiva. Google propone conectar los chips TPU Trillium de cada satélite mediante enlaces ópticos láser, creando “cables virtuales” de luz que transportarán datos a velocidades de hasta decenas de terabits por segundo, un requisito indispensable para procesar tareas de IA de manera eficiente.
El desafío técnico es inmenso: la señal óptica se debilita rápidamente a medida que aumenta la distancia. Para contrarrestar este efecto, los satélites tendrían que volar en una formación compacta, separados por apenas unos cientos de metros. Esto requiere maniobras orbitales de extrema precisión para mantener la estabilidad, pero los ingenieros de Google aseguran que pequeños ajustes de órbita serían suficientes para conservar la formación estable y garantizar el flujo de datos ininterrumpido.

Rentabilidad económica y resistencia de los TPUs
A pesar de los desafíos técnicos y el alto costo de lanzamiento, Google afirma que la física y la economía no son barreras insuperables. Su análisis preliminar indica que si el costo de colocar carga útil en el espacio desciende a unos 200 dólares por kilogramo hacia mediados de la década de 2030, un centro de datos orbital podría ser económicamente comparable a uno terrestre, sobre todo por la drástica reducción del costo energético anual.
Otro punto a favor es la resistencia del hardware. Google ha sometido sus chips TPU Trillium a pruebas de radiación con un haz de protones, demostrando que pueden soportar sin fallos una dosis tres veces superior a la que recibirían durante una misión de cinco años en órbita baja. La compañía concluye que sus chips son “sorprendentemente resistentes para aplicaciones espaciales,” superando las expectativas iniciales.

La nueva carrera espacial por los centros de datos
Google no está solo en este ambicioso plan. El anuncio de Project Suncatcher confirma que el espacio se ha convertido en el nuevo campo de batalla para el alojamiento de la infraestructura de la IA. Gigantes del sector ya han manifestado intenciones similares:
Elon Musk aseguró recientemente que SpaceX planea escalar su red Starlink para crear sus propios data centers en órbita, aprovechando los enlaces láser de sus satélites V3. Por su parte, Jeff Bezos, fundador de Amazon y Blue Origin, predijo que veremos “clústeres gigantes de entrenamiento de IA” en el espacio en los próximos 10 a 20 años. Además, compañías como Starcloud, respaldada por NVIDIA, ya están experimentando con el envío de GPUs H100 al espacio para probar la tecnología de clústeres orbitales. Para muchos expertos, como el ex-CEO de Google Eric Schmidt, sacar los data centers de la Tierra podría ser “una necesidad, no una opción”.

