Tech & internetEconomie

L'informatique en réseau se cherche une vert(e)u

Catherine Bernard, mis à jour le 13.03.2015 à 16 h 01

L'explosion d'internet et du cloud computing s'accompagne de celle du nombre de data centers, dont on tente aujourd'hui de limiter la consommation énergétique, voire de reconvertir la chaleur.

Au Swiss Federal Institute of Technology. REUTERS/Denis Balibouse.

Au Swiss Federal Institute of Technology. REUTERS/Denis Balibouse.

L'explosion des data-centers constitue-elle la prochaine menace écologique pour la planète? Ces centres de données, auxquel LCP consacre un documentaire ce vendredi 13 mars, Internet, la pollution cachée, consomment énormément d'électricité, tant pour approvisionner les serveurs que pour les refroidir en permanence, et éviter ainsi leur surchauffe. Les chiffres commencent à donner le vertige. «Les data-centers du monde —qui sont environ 44 millions– représentent une consommation électrique annuelle d'environ 300.000 Twh, soit environ les deux tiers de la consommation électrique de la France, et la moitié de ses émissions de GES [gaz à effet de serre]», explique ainsi Frédéric Bordage, de GreenIt.fr.

Mais si la gourmandise des data-centers est de notoriété publique, ils ne constituent pourtant qu'environ 30% de la facture électrique de l'informatique en réseau: 30% proviennent, justement, de l'alimentation des réseaux, et 40% des terminaux utilisateurs. Ils ne sont donc pas, et de loin, les seuls à incriminer.

En outre, d'énormes progrès ont été réalisés pour les rendre moins gourmands. Certains se targuent ainsi d'utiliser des «énergies vertes», tels Facebook ou Google, qui ont construit –ou projettent de construire– des fermes éoliennes pour approvisionner leurs centres de données. Le projet de Google de construire un data center flottant refroidi grâce à l'énergie marémotrice a également fait beaucoup parler.

Mais il ne s'agit pas simplement de consommer de l'électricité plus verte: il s'agit surtout d'en consommer moins. En quinze ans, la consommation électrique des data centers a été divisée par deux. Chacun a aujourd'hui l'oeil vissé sur son PUE (power usage effectiveness), qui mesure le rapport entre l'énergie consommée par un centre informatique et celle consommée par ses équipements. Plus le PUE est proche de 1 et meilleure est la performance. En quelques années, ce PUE est passé d'environ 2,5 à environ 1,5.

La virtualisation, qui permet d'utiliser au mieux les capacités de serveurs physiques, a joué un grand rôle. La conception d'équipements plus tolérants en termes de température également. «Aujourd'hui, on estime qu'un data center peut supporter une température ambiante allant jusqu'à 28°», estime ainsi Philippe Séara, responsable de l'équipe commerciale de Céleste, fournisseur d'accès haut débit pour les entreprises.

La conception des data centers a également changé: plus question désormais de refroidir inutilement tous les locaux lorsque certaines allées peuvent être plus chaudes que d'autres. Et pourquoi ne pas utiliser la réfrigération naturelle, ou free cooling, plutôt que de systématiquement avoir recours à la climatisation électrique? A Champs-sur-Marne (Seine-et-Marne), Celeste a ainsi construit un data-center vertical: il laisse entrer l'air extérieur, ensuite aspiré et propulsé dans une colonne d'air vertical qui monte refroidir les serveurs en passant au travers du sol, construit en caillebotis. Ce data center affiche un PUE de 1,3. Prochaine étape: Celeste envisage de construire des data-center «troglodytes», qui profiteraient de la fraîcheur de la terre.

Course à l'échalote

Ces efforts ont cependant leurs limites. D'une part, parce que les logiciels, eux, auraient plutôt tendance à profiter des capacités toujours croissantes des équipements qui les hébergent et des réseaux qui les font transiter pour devenir... de plus en plus lourds. Les développeurs, autrement dit, seraient moins regardants sur la frugalité des codes qu'ils écrivent et les manoeuvres qu'ils commandent –mise en veille du logiciel sur l'ordinateur lorsqu'il n'est plus utilisé, par exemple–, rendant toujours actuelle la fameuse loi de Wirth: «Le logiciel ralentit plus vite que le matériel n'accélère». Ce que Frédéric Bordage traduit crûment d'un «les informaticiens codent désormais comme des cochons».

Certains, cependant, commencent à remonter leurs manches: ainsi, Facebook a développé un langage informatique, le HHVM, pour «nettoyer» et rendre plus efficace le PHP, utilisé pour produire des pages web. Avec des résultats impressionnants: cela lui a notamment permis de réduire sensiblement son parc de serveurs. Une start-up française, Nxtweb, commence à adapter ce langage aux besoins des entreprises, avec des résultats tout aussi concluants: «Outre des économies de serveurs, le backoffice tourne 30 fois plus vite chez nos clients», revendiquent les deux fondateurs, Gwenaël Chailleu et Thomas Samain, qui cherchent également à développer un nouveau langage, le Cawen, qui serait encore plus efficace.

Mais l'autre limite à tous ces efforts réside dans l'explosion des usages à laquelle nous assistons. Dès que les bandes passantes, la puissance des smartphones, l'efficacité du cloud ou encore le nombre d'objets connectés progressent, le trafic explose. Même unitairement très réduite, la consommation énergétique de tout le système IT continue donc, inexorablement, de grimper.

Petites chaudières numériques

L'IT peut être certainement beaucoup plus éco-responsable, mais constituera une part toujours croissante des bilans énergétiques. Alors, pourquoi ne pas, tout simplement, acter cet état de fait? Et utiliser la chaleur dégagée par les serveurs pour, par exemple, chauffer bureaux ou logements? Chez Celeste, la chaleur produite par les serveurs est récupérée dans une colonne d'air, située de l'autre côté de la colonne d'air froid, et utilisée pour chauffer les bureaux. Mais l'on peut également envisager d'implanter un data-center près d'un bureau, d'un logement collectif ou même d'un écoquartier, et ainsi récupérer la chaleur produite. Exactement comme l'on cherche de plus à plus à relier les usines et centres d'incinération, producteurs de chaleur fatale, à des quartiers de bureaux ou de logements, consommateurs de chaleur. Les idées ne manquent pas, ici ou là.

La petite société française Stimergy compte même en faire un un modèle d'affaires. Son projet: développer des petites chaudières numériques, constituées d'une vingtaine de serveurs, et logées, tout simplement, dans les caves d'immeuble, les chaufferies d'hôtels ou de bâtiments publics. La chaleur fatale dégagée est récupérée pour produire une partie de l'eau chaude des habitants. Une première chaudière numérique a ainsi été installée à l'université de Lyon 3.

Stimergy se rémunère en louant la capacité de ses serveurs à des entreprises utilisatrices, qui disposent ainsi d'un cloud assez original. Mais s'il est situé dans un endroit a priori peu banal –et peu avenant–, ce «centre de données» est, bien entendu, fortement sécurisé. Les habitants n'ont de toutes façons, guère intérêt à venir le bricoler: ils en seraient quittes pour une bonne douche froide!

Catherine Bernard
Catherine Bernard (148 articles)
Journaliste
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte