Le géant Google, par sa cellule Moonshot, présente un projet de rupture : installer des centres de données d’intelligence artificielle… dans l’espace. Le nom ? Project Suncatcher. Une idée ambitieuse, teintée d’utopie technologique, mais aux implications tangibles pour l’énergie, l’infrastructure numérique et… l’éthique.
Pourquoi Google veut-il envoyer l’intelligence artificielle dans l’espace ? L’annonce aurait presque pu passer pour une blague futuriste si elle ne venait pas de Google lui-même. Depuis des années, la firme californienne alimente l’imaginaire techno avec des projets parfois délirants – des montgolfières servant de relais internet, des lentilles de contact connectées, des voitures autonomes un peu trop en avance sur leur temps… Mais Project Suncatcher joue dans une autre catégorie. Cette fois, il ne s’agit plus de connecter les humains, mais de délocaliser l’infrastructure qui alimente l’intelligence artificielle vers un endroit où aucune contrainte terrestre ne s’applique vraiment : l’orbite spatiale.
Sur le papier, il y a tout pour attirer les ingénieurs de Mountain View : une source d’énergie infinie, un ensoleillement constant, aucun foncier à acheter, aucune nappe phréatique à pomper, et surtout la capacité de multiplier la puissance de calcul sans faire exploser les réseaux électriques. Dans un monde qui peine à faire cohabiter besoins numériques croissants et sobriété énergétique, l’espace devient soudain le nouvel eldorado. Et Google a décidé d’être le premier à y planter son drapeau. D’ailleurs, la firme explique que le soleil est « la source ultime » : « Dans la bonne orbite, un panneau solaire peut-être jusqu’à huit fois plus productif que sur Terre. »
Un concept technique
Project Suncatcher repose sur un projet un peu fou : créer une constellation de mini-data centers orbitaux équipés de processeurs spécialisés pour l’IA, tous connectés entre eux par des liaisons optiques ultrarapides et alimentés exclusivement par l’énergie solaire. Google imagine une architecture en essaim, plus proche d’un réseau vivant que d’un centre de données classique, capable de monter en puissance au fil des lancements.
Concrètement, ces modules seraient placés en orbite terrestre basse, dans une trajectoire dite « sun-synchronous », soit une orbite quasi perpétuellement éclairée. Cela permettait de maximiser la production d’électricité : pas de cycle jour-nuit, pas d’atmosphère, pas d’aléas météo, juste un flux d’énergie constant pour nourrir les serveurs.
Dans ce concept, Google mise sur la modularité : chaque satellite devient un « bloc » d’un data center spatial extensible. On en ajoute, on en remplace, on en met hors service, sans jamais interrompre l’ensemble. Une logique qui rappelle les architectures cloud modernes – mais dans l’espace.

Rendez-vous en 2027… si le budget suit
Le calendrier évoqué par Project Suncatcher comporte autant d’ambition que d’incertitudes. Le document de recherche de Google prévoit d’abord une mission d’apprentissage avec deux petits satellites prototypes – en partenariat avec Planet Labs – dès 2027, afin de valider en orbite le comportement des processeurs TPU, les liens optiques à haut débit et la formation serrée de la constellation. Mais, derrière cette vision, la question économique se pose : combien va-t-on débourser pour faire de cette rêverie orbitale une réalité ?
Google avance dans ses calculs que, si les coûts de lancement tombent à moins de 200 dollars par kilogramme d’ici le milieu des années 2030, alors le coût d’exploitation d’un centre de données dans l’espace pourrait devenir « comparable » à celui d’un centre terrestre, en coût d’énergie par kilowatt-heure et par an
Pour donner un ordre de grandeur : à 200 dollars/kg, lancer 25 tonnes en orbite reviendrait à environ 5 millions de dollars pour une fusée – mais ce chiffre ne tient pas compte des satellites eux-mêmes, de leur maintenance, des radiateurs, des panneaux solaires, des liaisons optiques, des opérations on-orbit et des remplacements, etc. En clair, le budget final pourrait grimper à plusieurs centaines de millions, sinon de milliards, de dollars avant d’atteindre l’échelle d’un centre de données « terrestre équivalent ». Or, il faut aussi amortir l’investissement sur toute la durée de vie des équipements et les cycles de remplacement…
Des obstacles énormes à lever avant tout
Construire un data center dans l’espace, c’est d’abord affronter un défi thermique colossal. Sur Terre, on refroidit avec l’air ou l’eau ; en orbite, rien de tout cela n’existe. Toute la chaleur des puces doit être évacuée par des radiateurs capables de fonctionner uniquement par rayonnement, sans alourdir excessivement le satellite. Les puces TPU de Google ont bien été testées face aux radiations, mais tenir plusieurs années en orbite, exposées aux particules solaires, reste un pari. Et la question de la maintenance reste entière : comment réparer ou remplacer un module défaillant sans opérations robotisées coûteuses ou retours sur Terre ?
L’autre obstacle majeur concerne les communications. Pour que la constellation fonctionne comme un centre de données cohérent, les satellites doivent échanger des flux immenses via des liaisons laser ultrastables, malgré la vitesse orbitale et les microperturbations constantes. À cela s’ajoute un enjeu plus politique : l’encombrement de l’orbite basse. Ajouter des dizaines de satellites Suncatcher augmente le risque de collisions et de débris, dans un espace déjà saturé, par les milliers de satellites d’Elon Musk notamment. Google devra donc composer avec les contraintes physiques, les régulations internationales et les acteurs déjà présents – un défi aussi délicat que l’ingénierie elle-même.
Alors, réaliste ou pas ?
Techniquement, une partie du projet l’est déjà : les liaisons optiques existent, les processeurs résistent mieux aux radiations qu’il y a dix ans, et les constellations en orbite basse sont devenues monnaie courante. Mais assembler ces briques pour créer un véritable centre de données orbital, « scalable », stable et rentable relève encore de la science expérimentale. Le défi thermique, la maintenance à distance, l’alignement laser à très haute vitesse et la saturation de l’orbite sont autant d’obstacles redoutables. Sans parler de la rentabilité, très hypothétique, d’un tel projet.
Il y aura sans doute un démonstrateur, probablement une poignée de satellites capables d’exécuter des tâches ciblées. Mais imaginer un data center complet en orbite dans les années 2030 reste très optimiste. Suncatcher ressemble davantage à un pari stratégique : prouver que Google explore toutes les solutions pour répondre à l’explosion énergétique de l’IA, tout en prenant des positions sur l’informatique spatiale de demain. Un avant-goût du futur, peut-être ; une révolution immédiate, certainement pas.