
Encapsulés dans des cylindres high-tech, immergés à plusieurs mètres de profondeur, les data centers sous-marins promettaient de réduire leur empreinte carbone. Une idée séduisante sur le papier. Mais que cache vraiment cette plongée dans les abysses du numérique ?
Tout semble y être : la science-fiction, l’innovation, et ce frisson d’avenir qui fait briller les yeux des ingénieurs. En immergeant des centres de données dans l’océan, certains géants du numérique rêvent d’un monde où nos besoins en stockage cloud se noieraient dans les eaux froides et profondes, tout en se débarrassant (presque) élégamment – et discrètement – de leurs émissions de chaleur. Plus de béton, plus de climatisation énergivore, plus d’urbanisation galopante pour accueillir ces colosses numériques : place à l’infrastructure invisible, silencieuse, presque poétique.
Microsoft a été l’un des premiers à tenter l’expérience avec son projet Natick. En 2015, un premier prototype est immergé le long des côtes californiennes, au large de San Luis Obispo. Trois ans plus tard, un module plus abouti est descendu à 35 mètres de profondeur en face des îles Orcades, en Écosse. Le dispositif – un cylindre de 12 mètres bourré de 864 serveurs – y restera deux ans, connecté à Internet et alimenté par des énergies renouvelables locales. Lorsqu’il est repêché en 2020, le bilan est flatteur : taux d’échec huit fois inférieur à celui des data centers terrestres, maintenance quasi nulle, et une efficacité énergétique jugée « très prometteuse » par les équipes de Microsoft. Alors, plongée réussie ?
Un rêve de refroidissement gratuit et d’énergie verte
À première vue, les avantages sont limpides. L’eau froide de l’océan joue un rôle de climatiseur naturel. Elle dissipe la chaleur générée par les serveurs, sans nécessiter les lourds systèmes de refroidissement mécanique typiques des centres terrestres. En plus, ces data centers marins peuvent être alimentés par des énergies locales renouvelables : éolien offshore, énergie marémotrice, voire photovoltaïque dans les zones équatoriales. Le combo semble parfait avec moins de consommation énergétique, moins d’émissions de CO₂ et moins d’encombrement des sols.
Mais ces atouts ne racontent qu’une partie de l’histoire. Car derrière la prouesse technique se cachent des défis considérables. Déjà, le coût : immerger un centre de données en milieu marin, avec des matériaux résistant à la corrosion, une connectivité fiable et une isolation parfaite, revient très cher. Ensuite, la maintenance : si un disque dur plante ou si un câble se débranche, impossible d’envoyer un technicien faire un tour en apnée. Il faut attendre de repêcher tout le cylindre – et espérer que les algues n’aient pas pris possession du matériel en attendant.
Des promesses écologiques à double tranchant
Plus gênant encore : la promesse écologique elle-même est contestable. Les chiffres publiés par Microsoft sur Natick sont encourageants, mais le projet reste expérimental, non reproductible à grande échelle sans des ressources colossales. De nombreuses voix s’élèvent pour rappeler que l’empreinte carbone d’un tel système ne se limite pas au refroidissement. Il faut compter la fabrication, le transport, le déploiement maritime, l’éventuelle récupération et le recyclage du matériel. À l’échelle industrielle, ces opérations pourraient largement annuler les bénéfices du refroidissement passif.

L’autre angle mort, c’est l’impact environnemental sur les écosystèmes marins. Un data center immergé reste une masse technologique dans un monde vivant. Si les premières études de Microsoft affirment que la faune marine s’est plutôt bien adaptée à la présence du cylindre – certaines espèces ayant même colonisé sa coque –, rien ne garantit que cette cohabitation soit sans effets négatifs à long terme. Un projet de data center immergé dans la baie de San Francisco a reçu un avis défavorable de la Bay Conservation and Development Commission et de la Water Quality Control Board. Outre l’absence de permis pour lancer le projet en question, les autorités ont souligné le fort risque de troubles écologiques, comme des proliférations d’algues toxiques ou des hausses locales de température menaçant les espèces marines.
La start-up NetworkOcean, qui voulait lancer le projet dans la baie, assure que les effets thermiques seraient minimes avec une hausse de 0,0022 °C sur l’ensemble de la surface concernée, indique Wired. Un chiffre dont doute fortement le professeur en ingénierie électrique et informatique de l’Université de Californie, qui explique que le projet de data center de NetworkOcean (500 kW) équivaut à placer sous la mer quelque 300 radiateurs d’appoint. Cela pourrait déstabiliser les écosystèmes fragiles de la baie, peu profonde et écologiquement dense. Pollution sonore, émission de chaleur localisée, perturbation des courants ou des fonds : l’océan n’est pas un terrain vague où enterrer nos excès numériques.
Une solution de niche plutôt qu’une révolution
Pour certains spécialistes, ces centres sous-marins relèvent plus de la vitrine technologique que de la réponse durable. D’autant que d’autres solutions plus sobres existent déjà : réutilisation de la chaleur fatale des serveurs pour chauffer des logements, implantation de centres dans des régions naturellement froides, optimisation des algorithmes pour limiter les ressources utilisées. Des pistes peut-être moins spectaculaires, mais plus immédiatement applicables, sans recours à la plongée industrielle.

À ce jour, Microsoft n’a pas annoncé de suite concrète à Natick. Le prototype a rempli sa mission, à savoir montrer que c’était faisable – mais de là à y voir l’avenir du cloud, il y a un pas de géant. D’autres acteurs comme Subsea Cloud ou Highlander poursuivent leurs propres projets, mais aucun ne semble prêt à basculer le modèle mondial dans les profondeurs. Trop risqué, trop coûteux, trop incertain. Peut-être que le numérique, pour être durable, devra apprendre à rester les pieds sur terre.