La donnée est le nouvel or noir, comme le suggère The Economist dans un article paru en début de mois[1]. Pour s’en convaincre, il suffit d’observer qu’entre 2013 et 2015, nous avions généré 90 % des données jamais créées. Et cette production atteindra à la fin de la décennie près de 10 Zo (lire « zettaoctet », soit mille milliards de milliards d’octets).

Data Center

Le monde de l’Energie n’y est évidemment pas étranger, avec les objets connectés qui se généralisent dans nos habitats, des réseaux de plus en plus communicants ou encore l’essor des renouvelables, qui nécessitent suivi et analyse prédictive, notamment sous leur forme fatale, c’est-à-dire intermittente. Et les acteurs du secteur en ont pleinement conscience, du DNV GL, que son PDG, Remi Eriksen, voit comme un dépositaire de données (« data custodian »[2]) à RWE, pour qui le Big data constitue l’un des quatre domaines de recherche de son centre d’innovation[3], en passant par Enedis qui se reconnaît « une responsabilité de gestionnaire de données »[4] dans le cadre de la loi pour une République numérique[5].

 

Les data centers : des « ogres énergivores »

Ce phénomène de digitalisation massive ne signifie toutefois pas que l’on s’affranchit de la matière, contrairement à ce que pourrait laisser penser son substitut occasionnel : « dématérialisation ». La donnée, y compris si elle s’élève dans le cloud, a besoin d’un support bien physique de stockage et de traitement : le serveur.

Ces éléments de hardware sont le plus souvent entreposés dans des centres nommés data centers. On compterait près de 9 millions de ces fermes numériques, qui occuperaient 170 millions de mètres carrés, l’équivalent de la superficie du Liechtenstein[6]. Outre un enjeu d’occupation des sols que ce chiffre laisse deviner, les centres de données se révèlent être de véritables « ogres énergivores » : il faut compter environ 2 kW d’alimentation continue par mètre carré occupé. Ainsi, certains des centres exploités par Google ou Facebook ont une consommation électrique comparable à celle d’une grande ville française comme Bordeaux. En France, d’ailleurs, 9 % de la production d’électricité sert à alimenter les quelques 130 data centers du territoire, quand ce chiffre se porte à 1,5 % à l’échelle du globe[7].

Et c’est alors que la donnée numérique se retrouve au cœur d’un paradoxe. Composant indispensable de la Transition Energétique, elle concourt par exemple à l’augmentation des renouvelables dans le mix énergétique et à la flexibilisation de la consommation énergétique. A côté de cela, les lieux où on l’héberge émettent aujourd’hui autant de gaz à effet de serre que le transport aérien[8].

Minimiser l’impact environnemental du stockage des données

Une solution est bien sûr de verdir le sourcing électrique, à travers des contrats d’achats ou bien de l’autoconsommation. C’est ainsi que, fin 2016, les GAFAM[9] avaient investi dans plus de 3 000 MW de capacité renouvelable aux Etats-Unis[10] et qu’Apple s’enorgueillit d’alimenter 100 % de ses centres à partir du solaire, de l’éolien ou de la géothermie.

Maintenant, nous pouvons nous demander à quoi sert cette énergie. Les data centers traditionnels ont un PUE (Power Usage Effectiveness) supérieur à 2[11] : cela signifie que pour 2 kilowatts injectés, un seul est dépensé pour le serveur. A quoi le second a-t-il servi ? A refroidir ce serveur, qui dissipe une part de l’énergie fournie sous forme de chaleur. Ici se situe une piste d’efficacité énergétique : valoriser ces calories dont les lois élémentaires de l’électrique prédisent la génération inévitable.

Une voie empruntée par de nombreux gestionnaires de data centers pour recycler cette énergie thermique est de la réinjecter dans des réseaux de chaleur. Il est ainsi possible de chauffer les équipements voisins, qu’il s’agisse de logements, de bureaux ou bien même de piscines et de serres[12]. La ville de Stockholm s’érige en parangon de la récupération de cette chaleur latente puisque, aujourd’hui, plus de 30 data centers sont directement connectés au réseau de chaleur urbain. Toutefois, cette option nécessite une proximité entre le data center et son débouché pour être justifiée économiquement.

Une start-up française pourrait pourtant bien avoir trouvé un moyen de se libérer de cette contrainte. Nous vous en dirons plus dans notre prochain billet : Qarnot – Gestionnaire d’un réseau hybride CPU/chaleur OU Quand la donnée nous réchauffe gratuitement.

Auteurs :
Lionel Braun, Consultant
Naïc Marcangeli, Consultant
Patrice Mallet, Directeur Associé