Connect with us

Technologie

Efficacité énergétique des centres de données : Est-ce que le moment est maintenant d’éteindre les grands centres de données?

Published

on


Les centres de données représentent une part croissante de la consommation et des émissions mondiales d’énergie. Un PC utilisateur moyen consomme 1,3 kWh d’électricité toutes les trois heures, sans même aller en ligne; la transmission d’un million de demandes statiques de pages Web par seconde a été estimée à 11 610 kilowatts par heure (kWh) – soit suffisamment pour alimenter 13 ménages américains pendant un mois.

Selon Peter Hewkin, fondateur de la société britannique smart edge data centres (SEDC), de nombreux pays aux heures de pointe sont déjà confrontés à une capacité limitée, avec la prochaine vague de croissance numérique avide de données en cours. Mais il estime également qu’au moins 85% des données stockées par les sociétés à ressources limitées britanniques, et donc 85% des données conservées aujourd’hui dans des centres de données ou des salles de serveurs classiques, pourraient être éteintes lorsqu’elles ne sont pas nécessaires – et conservées dans un stockage « chaud ».

« Les comptes de l’année en cours devraient être accessibles tout le temps, mais pas les six années restantes », souligne-t-il. « Si un centre de données consomme actuellement 1 MW toutes les heures, seulement 150 kW par heure peuvent être nécessaires pour prendre en charge les données critiques. »

La consommation de 1 MW d’énergie 24 heures sur 24 à 80 £ le MWh pourrait s’atteindre à environ 700 000 £ par an. Avec un stockage chaleureux rendant les données accessibles les jours ouvrables seulement (à l’exclusion des jours fériés) ou 252 jours par an, les économies atteignent déjà 30 %.

Si l’accès aux données peut être limité à deux heures nommées du lundi au vendredi, cela fonctionne à seulement 506 heures par an – moins de six pour cent de la norme mondiale actuelle de 8760 heures. « Environ 15 % des données doivent être disponibles 24 heures sur 24, sept jours sur sept, mais nous n’arrivons encore qu’à un chiffre de 1 820 heures », explique M. Hewkin, ajoutant qu’une meilleure tarification pourrait être négociée avec les fournisseurs pour rester en dehors des heures de pointe « rouges », par exemple après 16 h et avant 20 h. « Cela représente près de 80 % d’économie sur la consommation totale et le CO.2 émissions.

Pour le prix de la bande verte et orange, il croit qu’un prix d’environ £ 60 /MWh pourrait être réaliste, avec même £ 20 / MWh potentiellement réalisable si seulement deux heures par jour à prix de bande verte sont nécessaires.

« En utilisant 150kW 24×7 à £ 80 /MWh notre facture annuelle d’électricité sera d’environ £ 105,120. Les 850 kW restants ne sont utilisés que pendant 506 heures par an à £60/MWh, soit 25 806 £. Le total annuel est de £130,926 contre £700,800 actuellement. Cela représente une économie de 81 % », dit-il.

Consommation d’électricité

John Booth, directeur général du cabinet de conseil Carbon3IT, estime que les centres de données, y compris les installations de colocation, représentent au moins 12 % de la consommation d’électricité au Royaume-Uni, soit 41,11 TWh par an.

Cisco a déjà prévu que le trafic IP cloud mondial dépasserait 14,1 zettaoctets (ZB) d’ici la fin de 2020; Seagate d’IDC parrainé Rapport data age 2025 prévoit une croissance globale des données de 30% par an pour atteindre 175 ZB – avec des données stockées de 7,5 ZB, contre 1,1 ZB en 2019. À elle seule, la croissance des hyperscaler devrait se poursuivre à un TCAC de 2 % par année jusqu’en 2025, selon ResearchAnd Markets.

Efficacité des centres de données : un travail en cours

Les innovations en matière de durabilité de toutes sortes continuent d’accroître l’efficacité des centres de données, mais il est clair qu’il y a encore place à d’autres approches.

Français chercheurs Issam Raïs, Anne-Cécile Orgerie et Martin Quinson, écrivant dans une revue à comité de lecture La concurrence et la pratique et l’expérience en calcul, quantifié l’impact probable de diverses techniques d’arrêt dans le centre de données.

Les opérateurs ont souvent hésité à réduire leur nombre de serveurs allumés en raison de préoccupations au sujet de la réactivité et des défaillances matérielles, et des erreurs de jugement sur le gain d’énergie, suggèrent-ils.

L’équipe a simulé diverses infrastructures de production et configurations de machines dans le cadre de différentes politiques d’arrêt et prévisions de charge de travail. Il s’agit notamment des modes réels d’éteignement et d’hibernation du serveur, des techniques de suspension du disque et de suspension de la RAM, du traitement hétérogène et des coûts de démarrage en temps et en énergie ainsi que de la durée de vie du serveur, ainsi que de l’examen des algorithmes éconergènes (dans les travaux connexes).

« Les techniques d’arrêt peuvent économiser au moins 84 % de l’énergie autrement perdue à cause des nœuds inactifs. Cela reste vrai pour le matériel potentiel proportionnel à l’énergie et même les politiques d’arrêt agressives n’ont pas d’impact sur les durées de vie du matériel », écrivent-ils.

Hewkin de la SEDC note que certaines prévisions estiment encore que la consommation d’énergie des centres de données pourrait dévorer 20 % de la production britannique au cours des prochaines années si les tendances actuelles se poursuivent. Pourtant, la plupart des données générées ne sont utilisées que quelques fois, parfois une seule fois, puis stockées à jamais « juste au cas où », comme les comptes bancaires ou les comptes de trading d’une entreprise. Les banques ont déjà stal’installation de données plus anciennes sur les consommateurs vers un stockage inaccessible « froid ».

Centres de données chauds

De plus, il prévoit que les centres de données « chauds » pourraient coûter deux fois moins cher à construire que les centres de données traditionnels, avec moins d’équipement d’usine et pas de générateurs de secours. Les centres de données existants pourraient être réutilisés, conclut Hewkin, pour les nouveaux cas d’utilisation axés sur les données, de l’automatisation à l’IA.

Les nouvelles technologies et stratégies relatives au matériel, aux médias, aux logiciels et à l’architecture peuvent continuer à réduire le trafic de données et les besoins de stockage.

Les solutions logicielles, y compris l’archivage actif, qui contrôlent l’accès aux données – comme un défi majeur à un grand commutateur au niveau du serveur a été la façon de fournir efficacement des ressources dynamiquement.

Les charges de travail à la demande sont très variables, sans taxonomie bien établie qui les définit lorsqu’elles traversent le cloud. L’inter-migration et l’intra-migration des ressources virtuelles peuvent être un problème alors même que l’IaaS, le PaaS et la conteneurisation continuent de progresser aux côtés de méthodes de prédiction telles que la régression ou les techniques de séries de temps.

Tony Lock, analyste distingué chez Freeform Dynamics, convient que des solutions logicielles appropriées commencent à émerger. Les approches sélectionneront probablement et combineront le mélange de types de médias disponibles et de plus en plus rentables – du disque à l’état solide (SSD) à la bande, au disque et « peut-être même à la mémoire non volatile à l’avenir ».

Toutefois, si les centres de données commencent à éteindre les données des clients, ils devraient être sûrs que ces clients ne voudront pas les utiliser ou même les examiner, dit-il. Un grand interrupteur « sonne merveilleusement simple en théorie – le problème est que dans la pratique, c’est un cauchemar absolu ».

L’ensemble du domaine de l’accessibilité des données est plein d’embûches qui sont susceptibles de causer des frictions massives entre les clients, les fournisseurs informatiques, les équipes informatiques de l’entreprise et les sociétés de centres de données.

« Il est vraiment difficile de classer ces données. Oui, vous pouvez passer par là et peut-être essayer de regarder quand c’était la dernière fois qu’il a été consulté », dit Lock. « Disons que c’était il ya quelque temps, alors peut-être vous pouvez le déplacer vers une plus fraîche, moins cher forme de stockage, ou éventuellement passer à quelque chose qui ne consomme pas d’électricité du tout jusqu’à ce que vous voulez restaurer. »

Investissement dans la découverte de données nécessaire

Un investissement dans la découverte et l’analyse de données, qui prend évidemment aussi du temps, des efforts et des ressources, est nécessaire – et sera probablement en cours. Ce n’est qu’après analyse que les données doivent être déplacées hors ligne vers une alternative de stockage froide, voire chaude, en fonction des besoins et des exigences spécifiques de l’entreprise.

« Vous devez être absolument certain que l’utilisateur de ces données ne va pas aller à la recherche très rapidement, dit Lock.

« À moins que vous ne puissiez commencer à utiliser une forme sophistiquée de logiciel de quasi-archivage, non seulement en sachant quelles données ils ont, mais aussi en comprenant à quel point c’est précieux pour l’entreprise, et quelle est la politique impliquée dans le déplacement ailleurs, il est compliqué d’y parvenir. »

Mais Lock souligne les développements émergents dans les logiciels autonomes de gestion de données pour plusieurs plates-formes de stockage et le cloud par de nombreux titulaires « très importants » et « extrêmement bien financés » nouveaux entrants, ainsi que l’organisation neutre pour les fournisseurs de l’Active Archive Alliance (AAA).

L’AAA favorise la migration automatisée basée sur les politiques qui libère le stockage primaire à mesure que les données vieillissent – bien qu’elle se concentre sur des données activement archivées qui restent récupérables et consultables, ce qui va quelque peu à l’égard de la question de l’évolution des attentes des gens en matière de disponibilité des données.

Elle estime qu’au moins 60 % des 7,5 ZB prévus stockés d’ici 2025 n’ont pas besoin d’être sur des niveaux de performance plus élevés et coûteux et peuvent être archivés après 90 à 120 jours de faible activité – immuables et rarement écrasés.

« Toutes ces données ne doivent pas être archivées. Mais une grande partie devrait l’être, grâce à de solides politiques de rétention et à la capacité retrouvée de tirer profit des données archivées », indique un rapport de l’AAA.

Prise en compte de l’utilisateur

Verrouillez les notes que les utilisateurs finaux se plaignent généralement lorsque la disponibilité immédiate des données est supprimée. C’est parfaitement compréhensible en termes de sciences comportementales – ce sont leurs données, alors ils veulent avoir accès et contrôler, quand et quand ils le veulent.

Les entreprises et les utilisateurs – la politique et les politiques – doivent d’abord se réconcilier avec l’idée que les données ne sont pas « toujours en cours ». Les fournisseurs doivent examiner comment les clients et les utilisateurs internes de l’entreprise réagiront : les politiques ont-elles été expliquées aux utilisateurs ? Ou l’entreprise quittera-t-elle l’IT pour assumer la responsabilité de tout manque de transparence ?

« Vous devez avoir la bonne technologie en place, mais vous devez avoir les bonnes personnes et les politiques pour l’entreprise d’être prêt à faire something à ce sujet », dit Lock. « Et nous parlons de propriété des données depuis longtemps. Les entreprises veulent pouvoir voir leurs données. Ils ne veulent pas vraiment faire quoi que ce soit à ce sujet, cependant – sauf si c’est vraiment facile, ou de préférence invisible, pour eux.

Hewkin de la SEDC abonde dans le même sens : « L’industrie n’a pas encore s’adapter aux données qui ne sont pas disponibles 24 heures sur 24, 7 jours sur 7. On suppose que tout ce que nous devons savoir sera toujours disponible en appuyant sur un bouton ou un clic de souris.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance