Comme toutes nos données, nos emails sont sauvegardés dans des centres spécialisés consacrés au stockage et aux calculs de données de masse : les data centers. Ces centres existent partout dans le Monde et servent à héberger les données cloud des milliards d’utilisateurs particuliers, ainsi que celles des entreprises. Ces serveurs et processeurs, au-delà de demander une alimentation constante en électricité, produisent beaucoup de chaleur, ce qui demande un flux constant de refroidissement et de climatisation qui génère une demande de puissance importante.

Tout d’abord, un data center, qu’est-ce que c’est exactement ?

Un data center, ou « centre de données » en français, est un lieu (et un service) regroupant des équipements constituants du SI (Système d’Information) d'une ou plusieurs entreprise(s) (ordinateurs centraux, serveurs, baies de stockage, équipements réseaux et de télécommunications, etc.). Il peut être interne et/ou externe à l’entreprise, exploité ou non avec le soutien de prestataires. Il fournit des services informatiques en environnement contrôlé (climatisation) et sécurisé (système anti-incendie, contre le vol et l'intrusion, etc.), avec une alimentation d'urgence et redondante.

Les premiers data centers modernes, avec un environnement contrôlé et hébergeant de très nombreux serveurs (parfois plus de 250 000), remontent à 2008, pour les besoins de stockage et de calcul croissants des géants du net tels que Google, Amazon et Facebook. Ils se sont depuis démocratisés et multipliés, les entreprises « classiques » commençant à exploiter une quantité de données grandissante et ayant des besoins sur la même pente.

Aujourd’hui il existe plus de 8 millions de data centers dans le monde, hébergeant une estimation d’une dizaine de zetabits de données. Un zetabit représente mille milliards de gigabits. Télécharger un zetabit avec une connexion Internet classique prendrait plus de 30 millions d’années.

Le site https://www.datacentermap.com/ recense la majorité des data centers sur une carte du monde.[VL1] [MV2] 

La demande importante en énergie de ces centres vient de plusieurs facteurs : l’alimentation des serveurs et processeurs, la climatisation, le contrôle de la poussière, un système d’alarme et anti-incendie, un système de sécurité et de surveillance, etc.

La composante la plus énergivore est la climatisation. Celle-ci est nécessaire à cause d’un phénomène nommé chaleur de récupération. La chaleur de récupération est celle générée par un procédé qui n’en constitue pas la finalité première. Dans notre cas, la chaleur vient des très nombreux composants électroniques utilisés dans les circuits constituants les serveurs et processeurs, et dont le fonctionnement naturel génère de la chaleur par effet Joule.  
Plus les opérations réalisées par ces composants sont complexes et fréquentes, plus la chaleur générée est importante.
La chaleur provenant de l’air extérieur (le soleil), est un facteur assez faible comparé à la chaleur intérieure, et est principalement contrôlée grâce à de l’isolation passive dans la construction du bâtiment.

Bien que chaque composant individuel ne chauffe que très peu, les data centers sont optimisés en termes d’occupation d’espace, et comportent donc le maximum de machines par unité de surface.

Cycle de vie d’un centre de données – source : Wikipedia

Ce graphique montre l’évolution du cycle de vie d’un centre de données, et indique que les deux facteurs limitants pour la pérennité d’un data center sont d’abord la surface disponible, puis la puissance électrique disponible. Le plus grand data center du monde, situé au Nevada (US), représente une surface de plus de 700 000 m².

De telles surfaces et de tels volumes d’air demandent nécessairement une quantité énorme d’énergie pour conserver les 20 °C nécessaires au bon fonctionnement des serveurs.

En 2018, plus de 200 térawatt-heures ont été nécessaires au fonctionnement des data centers, soit 1% de la production mondiale d’électricité, équivalent à la production de la moitié des réacteurs nucléaires en France.

Ce diagramme circulaire présente la répartition de la consommation de cette énergie : 43% concerne le refroidissement et les équipements de sécurité.

Cependant, les estimations mondiales de consommation d’électricité des data centers sont des estimations basées sur de l’extrapolation des données disponibles et documentées.

Ainsi, de très nombreuses études ont été réalisées pour estimer la consommation totale des data centers dans le monde, ainsi que réaliser des projections sur les années à venir pour mettre en place des bonnes pratiques qui doivent permettre de réduire la consommation projetée.

Cependant, les estimations faites dans les dernières années ont été très souvent plus que pessimistes concernant l’évolution de la consommation mondiale des data centers. En effet, en se basant sur l’évolution du trafic Internet et le volume de donnée stocké et traité mondialement, certaines estimations évaluaient la consommation en 2019 à plus de 350 térawatt-heures, contre les environs 200 qui ont été consommés en réalité. La raison de ces estimations très pessimistes est que la consommation d’énergie n’est pas simplement corrélée au trafic Internet ou à la quantité de données traitées dans les serveurs. Les équipements de refroidissement installés dans les data centers les plus imposants étaient intégrés dans un système surdimensionné par rapport aux besoins de climatisation. L’évolution du trafic web n’a ainsi pas autant d’impact que prévu sur la consommation électrique.

Cette tendance était difficile à prévoir, ce qui a mené une surestimation systématique de la consommation mondiale actuelle et prévisionnelle des data centers.

Ces estimations trop simplistes ont poussé de nombreux experts et activités à décrier le fonctionnement des data centers, et à pousser des nouvelles méthodes de refroidissement moins consommatrices d’énergie. Ces efforts n’ont pas été vains, car l’efficacité des systèmes de climatisation et l’isolation thermique, ainsi que les techniques de refroidissement passive ont été grandement améliorées ces dernières années, ce qui permet de maintenir la consommation mondiale à un niveau stable. 

La consommation électrique des centres informatiques n’a quasiment pas progressé entre 2010 et 2018 : de l’ordre de 6 % selon J.G. Koomey et d’autres scientifiques qui publient une récente étude dans Science.

Ce graphique présente les évolutions relatives entre 2010 et 2018. On peut y lire que la capacité de stockage de données mondiale a été multipliée par 26 entre 2010 et 2018. Le trafic Internet global a lui été multiplié par 11, et la charge de calcul des data centers est 6,5 fois supérieure.


Source : ScienceMag.org

D’un autre côté, l’efficacité énergétique moyenne des data centers est 0,75 fois celle de 2010 (donc une réduction moyenne de la consommation relative de 25%), et la consommation d’énergie par calcul est moins d’un quart celle qu’elle était en 2010.

Cependant, la consommation réelle reste très importante, et des solutions pour l’améliorer sont constamment en développement. Une technique qui est de plus en plus employée est le water cooling (ou liquid cooling), soit le refroidissement par fluide (qui peut être de l’eau ou pas). Cette solution n’est pas une nouveauté dans le domaine de l’informatique, et est déjà utilisée jusque dans les ordinateurs personnels des particuliers. Le water cooling est particulièrement efficace car la capacité calorifique thermique de l’eau, soit la quantité d’énergie nécessaire pour augmenter la température de l’eau d’un degré, est très élevée. Ainsi, l’eau absorbe une plus grande quantité d’énergie thermique émise par les systèmes informatiques.

Un système de water cooling est également plus économe en surface et volume de bâtiment, qui est une contrainte majeure des entreprises souhaitant implanter un centre quelque part. De plus, l’air ayant servi à refroidir le centre, maintenant chaud, est le plus souvent rejeté à l’extérieur. Certains data centers dans les pays du Nord de l’Europe utilisent cet air chaud pour chauffer des installations proches, mais ce n’est pas le cas dans la plupart des autres pays. L’eau chaude, utilisée pour refroidir les systèmes, est en revanche plus facile à transporter et à utiliser, et de la même manière que l’eau est difficile à chauffer, elle est difficile à refroidir, et reste chaude longtemps. Des habitations privées pourraient ainsi être alimentées en eau chaude grâce au système de refroidissement des data centers, qui nécessitent un volume d’eau important, et fonctionnent 24h/24, ne limitant pas ainsi l’accès des particuliers à l’eau chaude.

Le water cooling appliqué à des structures à très grande échelle n’est pourtant pas encore très bien développé, car la solution devrait être implantée dès la construction, et impliquerait des systèmes de transport dans les sols, murs et plafonds, ainsi qu’une maintenance plus complexe en cas de rupture du système de transport du liquide.

D’autres solutions sont aussi envisagées, comme les data centers sous-marins : Microsoft a testé pendant 2 ans un centre submergé au large de l’Ecosse. Cette solution a plusieurs avantages, notamment utiliser l’eau froide de l’océan autour du centre pour refroidir les systèmes, avec aucun risque de réchauffer l’eau alentour. L’alimentation en énergie est relativement simple, se basant sur des lignes de transport sous-marine et des éoliennes offshore. De plus, même si cela semble contre-intuitif, ce type de centre est plus fiable qu’un centre classique, car la conception implique une robustesse extrême, les interventions sur place étant quasi impossibles, mais le manque de présence humaine amène en moyenne moins d’incidents, souvent provoqués par l’inattention ou l’erreur humaine.

Toutes ces solutions se basent sur du refroidissement naturel, ou sur la réutilisation de l’énergie récupérée. Cependant elles ne sont pas encore bien développées (ou trop peu), car plus coûteuses ou plus difficiles à mettre en place. La démocratisation de ces méthodes de refroidissement ou de recyclage de la chaleur sont les meilleurs espoirs de l’industrie pour limiter la majeure consommation électrique globale des data centers.

Tous nos espoirs ne sont donc pas vains, et limiter le stockage dans le cloud des données personnelles inutiles est certainement une bonne pratique à avoir : si la tendance de trafic et de stockage de données ralentit et atteint en 2025 seulement 35 fois la valeur de 2010, au lieu de 50 selon la tendance actuelle, l’évolution des techniques de refroidissement pourrait même nous permettre de réduire la consommation totale des data centers par rapport à aujourd’hui, ce qui ne peut être que bénéfique pour l’environnement. Nous pouvons également essayer de soutenir des start-ups comme Qarnot, une entreprise française fabriquant des radiateurs-ordinateurs, qui chauffent les pièces grâce à la chaleur rejetée par les processeurs intégrés dans le radiateur. Les radiateurs sont activés sur demande, et peuvent adapter leur rythme de calcul pour ajuster la température souhaitée. Cette solution permet d’augmenter la capacité de calcul demandée par une entreprise, sans augmenter leurs frais de refroidissement ou leur besoin d’espace, et permet aux particuliers de se chauffer. Une solution qui va dans le bon sens.

Supprimer vos emails ne sauvera malheureusement pas la planète, mais cela nous aidera certainement à essayer. D’autres actions possibles à entreprendre sont de limiter le streaming et les téléchargements, ou de privilégier le train plutôt que l’avion. Cependant, le plus important est de participer à rendre les entreprises les plus polluantes responsables de leurs émissions : seulement 20 entreprises sont responsables de plus de 30% des émissions de carbone dans l’atmosphère. (source : The Guardian)


Auteurs :

Valentin Magnat, Consultant

Would you like more information?

Si vous souhaitez en savoir plus à ce sujet, nos experts sont à votre disposition.

Rechercher
Toggle location