Aller au contenu

Green cloud computing

Un article de Wikipédia, l'encyclopédie libre.

Green cloud computing

Le Green cloud computing, abrégé en Green cloud, est un terme désignant le fait de réduire l'empreinte environnementale du Cloud computing. Celle-ci prend en compte la consommation énergétique, mais aussi les déchets matériels, les types de matériaux utilisés et l'économie de toutes autres ressources (électricité, eau, etc.). Il existe différentes méthodes de calculs afin d'évaluer l'empreinte environnementale.

Les techniques utilisées par les centres de données (data centers en anglais) pour réduire l'empreinte environnementale sont à la fois matérielles (notamment processeurs moins gourmands en énergie, bâtiments plus performants, évacuation de la chaleur) mais aussi logicielles (notamment algorithme de réduction de consommation, utilisation de la virtualisation).

Le Green cloud est actuellement un outil marketing, à la fois pour les entreprises l'utilisant mais aussi pour les centres de données voulant se démarquer de la concurrence.

Graphique émissions de CO2 centres de données

L’utilisation du cloud computing se généralise. Les centres de données ont des besoins en énergie croissants pour leur alimentation et leur refroidissement. En 2012, pour 1 $ dépensé en matériel il y avait 1 $ dépensé pour l'alimenter et le refroidir[1]. C'est pourquoi la réduction de la consommation a un impact économique fort. De plus, il y a aussi un impact écologique car l'empreinte environnementale n'est pas négligeable. En effet, en 2008, les centres de données émettaient 116 millions de tonnes de dioxyde de carbone, c'est plus que les émissions totales du Nigéria[2].

Avec cette prise de conscience, il y a une demande de plus en plus importante pour des produits et des services propres. Le green cloud computing est donc apparu avec des initiatives pour réduire la consommation énergétique des centres de données et leurs émissions de CO2. De tels efforts sont devenus des outils marketing importants[3].

Le défi du Green cloud computing est donc de minimiser l'usage des ressources tout en continuant à satisfaire des exigences de qualité de services et de robustesse[4].

Définition

[modifier | modifier le code]

Le green cloud computing est le fait d'optimiser des ressources informatiques pour en minimiser l'empreinte environnementale. Cela inclut le contrôle des matériaux, de l’énergie, de l'eau, et autres ressources rares, mais aussi la limitation des déchets électroniques depuis la fabrication jusqu'au recyclage des composants[5].

Évaluation de l'empreinte environnementale

[modifier | modifier le code]

Il existe différentes méthodes pour évaluer l'empreinte environnementale du cloud computing chacune associée à une métrique, nous présentons ici les plus utilisées.

Consommation électrique

[modifier | modifier le code]

Le PUE (Power Usage Effectiveness) est une métrique largement utilisée pour calculer la consommation électrique ; il s'agit du rapport entre la consommation énergétique totale de l'infrastructure et la consommation des équipements informatique (processeurs, mémoires, stockage) :

[6].

Cette méthode largement utilisée ne doit cependant pas servir à comparer deux data center car la façon de prendre ces mesures n'est pas standardisée et peut varier selon ce qui est pris en compte, en particulier pour les bâtiments qui ne sont pas dédiés aux centres de données (ressource énergétiques partagées). Elle sert uniquement à prendre deux mesures dans le temps pour estimer l'impact d'une modification[7].

Émissions de CO2

[modifier | modifier le code]

Bien que le PUE soit une mesure assez précise, elle ne prend pas en compte la manière dont l’énergie est créée, et donc son empreinte carbone, le CUE par contre (Carbon Usage Effectiveness) calcule la quantité de CO2 émis par kilowatt-heure utilisé. Cette valeur dépend de la technologie utilisée pour produire l’électricité. Si cette énergie n'est pas produite par le centre de données, il faut prendre en compte l'ensemble des technologies utilisées par les pays pour fournir son électricité. Cette valeur varie selon l'heure de la journée ainsi que la periode de l'année, ces variations sont aussi à prendre en compte dans le calcul[8].

.

Coefficient d’énergie renouvelables

[modifier | modifier le code]

Pour déterminer l'impact environnemental d'un centre de données, on utilise le coefficient d'énergie renouvelables :

C'est cette métrique qui est utilisée depuis 2012 pour estimer l'impact environnemental des grilles de calcul[9].

Autres indicateurs mathématiques

[modifier | modifier le code]

D'autres indicateurs existent pour calculer l’efficacité énergétique d'un centre de données[9] :

Data Center infrastructure Effecticiency
.
Thermal Design Power
Le TDP est la quantité maximale qu'un composant peut utiliser en réalité.
Performance par watt
Quantifie la capacité de calcul maximale d'un processeur par watt utilisé. Ce marqueur doit être le plus élevé possible.
Compute Power Effeciency
En plus de la performance par Watt, le CPE prend en compte la consommation hors temps de calcul ainsi que le pourcentage d'utilisation de ces composants : .
Energy Reuse Factor
Calcul la quantité d’énergie réutilisée dans les centres de données :
Water Usage Effectiveness
Mesure la quantité d'eau consommée par un centre de données :

Importance de la consommation du réseau

[modifier | modifier le code]

Cependant, la plupart de ces indicateurs ne prennent pas en compte la consommation énergétique des réseaux car ils sont rarement à la charge du centre de données. Or cette étude[10] a démontré que la consommation du réseau était aussi significative que celle du calcul et que la rentabilité du cloud en termes d’énergie baissait de façon importante quand les connexions réseaux augmentent (nombreux accès à de petits fichiers).

Techniques pour minimiser l'empreinte environnementale

[modifier | modifier le code]

Il a été montré que le cloud computing avait une empreinte environnementale importante. Il existe cependant de nombreuses techniques permettant de la réduire, ces techniques concernent l'aspect logiciel ainsi que l'aspect matériel.

Virtualisation

[modifier | modifier le code]

Les machines virtuelles sont essentielles dans l'architecture des centres de données, notamment grâce à leur capacité d'isolation, de consolidation et de migration. En plus de cela, elles permettent aux centres de données de fournir aux utilisateurs des solutions sécurisées, flexibles et efficaces. Cependant, certaines opérations sur ces machines virtuelles peuvent être coûteuses en énergie, c'est le cas des migrations. Les migrations consistent à transférer des machines virtuelles d'une machine physique à une autre. Si elles sont coûteuses en énergie, elles permettent d'éteindre les serveurs peu utilisés d'où une baisse de la consommation d'énergie et de consolider la charge de travail[11].

R. Karthikeyan et al. suggèrent un algorithme qui permet ces migrations en minimisant leur nombre ainsi que le nombre de nœuds utilisés. Celui-ci se déroule en trois étapes[12] :

  • Étape 1 : Trier les nœuds en se basant sur la charge des machines virtuelles en ordre décroissant ;
  • Étape 2 : Les machines virtuelles du dernier nœud sont sélectionnées comme candidates pour une migration et elles sont aussi triées dans un ordre décroissant de poids ;
  • Étape 3 : Essayer de les allouer une par une sur le premier nœud et si cela est un échec sur le second nœud, etc.

Équilibrage

[modifier | modifier le code]

La plupart des méthodes d'économie d'énergie dans les centres de données sont basées sur la consolidation. Voici une méthode d'équilibrage basée sur l'exemple des colonies de fourmis. La Ant colony Optimisation (ACO) est une méta-heuristique apparue la première fois pour résoudre le problème du voyageur de commerce. Il est basé sur le comportement de recherche de nourriture des fourmis ; elles trouvent leur chemin grâce aux phéromones, une substance chimique qu'elles déposent sur leur chemin et qui s'évapore au bout d'un certain temps[13].

À supposer que toutes les machines physiques aient la même capacité. De plus, l'algorithme nécessite une connaissance des charges de travail et des ressources associées. Dans cet algorithme, chaque fourmi reçoit tous les éléments (machines virtuelles), vont sur une machine physique et commencent à assigner les éléments aux machines physiques. Il se réalise par l'utilisation d'une décision probabiliste qui décrit le désir pour une fourmi de choisir tel ou tel chemin en fonction de la concentration de phéromones. La nature stochastique de l'algorithme permet aux fourmis d'explorer un grand nombre de solutions potentielles et de choisir les meilleurs placements qu'un algorithme glouton. Avec cet algorithme, on économise près de 1,1 % d'énergie supplémentaire[13].

Refroidissement

[modifier | modifier le code]
Refroidissement par air

Le refroidissement des centres de données peut représenter plus de 45 % de leur consommation énergétique[14]. Le refroidissement à air est actuellement le plus répandu[14], cependant cette technique est très peu efficace car le refroidissement par air conditionné a tendance à trop refroidir la pièce et pas assez les composants. De plus l'air projeté de bas en haut dans une armoire refroidira efficacement le bas et moins efficacement le haut[15]. Il existe une autre méthode, le Watercooling (« refroidissement à eau » en français). Ainsi les composants sont directement refroidis par des liquides ce qui évite le gaspillage de refroidir la pièce. Celle ci permet de réduire la consommation énergétique consacrée au refroidissement de 53 % à 44 % par rapport au refroidissement à air[15],[16].

Cependant, le refroidissement à eau pose un autre problème, en effet une fois l'eau chauffée par le centre de données, celle-ci ne peut être reversée dans la nature, elle doit d'abord être refroidie, cela ne fait que déplacer le problème. Une solution est de trouver une utilité à cette source de chaleur. Par exemple, IBM a produit un super-calculateur dont l'eau du refroidissement est réutilisée pour chauffer le bâtiment. Cette solution permet d'avoir une capacité de calcul de 6 Teraflops pour une consommation électrique équivalente à 450 Megaflops. Ce système permet de réduire de 40 % la consommation électrique du refroidissement par rapport à un refroidissement à eau, l’empreinte environnementale du bâtiment est réduite de 80 %[17].

Le problème du refroidissement peut être envisagé dès la construction des bâtiments qui abritent les serveurs. En effet, à l'origine les data centers ont été construits comme des bâtiments résidentiels classiques. Ils ne sont pas fait pour dissiper la chaleur mais pour la conserver à l'intérieur[18]. Il faudrait qu'en hiver les murs laissent entrer le froid extérieur, et qu'en été ils ne laissent pas entrer la chaleur. Une étude partant de cette idée a été réalisée par France Télécom. Ils ont analysé les différents matériaux utilisés dans la construction des bâtiments. Ils ont mis en place un matériau à changement de phase (thermique) qui change d'état au-dessus de 28 degrés. Il est donc capable de s'adapter à la température extérieure. L'expérience a prouvé que cette technique pouvait faire diminuer la température de 10 degrés au sein du centre de données[19].

Consommation des composants

[modifier | modifier le code]

Au niveau des processeurs, plusieurs techniques existent pour réduire leur consommation en énergie[20] :

  • Adapter les techniques de réductions de consommation des processeurs mobiles aux processeurs des serveurs ;
  • Utiliser le clock gating qui permet d’éteindre l’horloge d'un bloc logique quand il n'est pas actif. En effet la consommation d'un centre de données qui ne travaille pas reste égale à 60 % de sa consommation maximale[21] ;
  • Utiliser le Dynamic voltage scaling qui permet d'augmenter ou réduire le voltage d'un composant selon les circonstances.

Pour le stockage des données, l'utilisation de SSD permet de réduire le besoin en refroidissement ainsi que le déchets électroniques grâce à l'absence de pièces mécaniques réduisant les pannes[22].

Aspect marketing

[modifier | modifier le code]

Avec les impacts du réchauffement climatique, les entreprises sont de plus en plus forcées de réduire leur empreinte environnementale pour améliorer leur image. L'outil informatique est souvent en première ligne lors de ces changements.

Les SLA (Service level agreement) sont des contrats qui définissent la qualité de service requise par un client pour un service. Les Green SLA sont un moyen pour un client d'exiger que le service demandé respecte un certain niveau de qualités environnementales. Ces Green SLA permettent à un fournisseur de cloud de ne pas fournir uniquement des services basés sur des énergies vertes, mais seulement en fonction des demandes des clients. Ainsi les surcoûts sont supportés uniquement par les clients soucieux de réduire l'impact environnementale de leurs services[23].

Notes et références

[modifier | modifier le code]
  1. Lamb 2011, p. 1
  2. Mankoff 2008, p. 103
  3. Haque 2013, p. 1
  4. Werner 2011, p. 1
  5. Harmon 2009, p. 1707-1708
  6. Jain 2011, p. 979-980
  7. Jaureguialzo 2011, p. 2
  8. Jaureguialzo 2011, p. 3
  9. a et b Jain 2011, p. 980
  10. Feng-Seng Chu 2011, p. 1
  11. Karthikeyan, R. 2012
  12. Karthikeyan, R. 2012, p. 205
  13. a et b Feller 2012
  14. a et b Marcinichen 2011, p. 36
  15. a et b Ouchi 2012, p. 790
  16. Iyengar, M. 2012
  17. (en) « Zero-emission datacenter », sur IBM Research (consulté le ).
  18. Masson 2010, p. 2
  19. Masson 2010, p. 2-5
  20. Jain 2011, p. 981
  21. Liu 2009, p. 32
  22. Jain, A. 2011, p. 981
  23. Haque 2013, p. 2

Bibliographie

[modifier | modifier le code]
  • (en) Jaureguialzo et Chloride Emerson, « The Green Grid metric for evaluating the energy efficiency in DC (Data Center). Measurement method using the power demand », Telecommunications Energy Conference (INTELEC), 2011 IEEE 33rd International, Amsterdam,‎ 9-13 octobre 2011 (ISBN 978-1-4577-1248-7, DOI 10.1109/INTLEC.2011.6099718).
  • (en) Feng-Seng Chu, Kwang-Cheng Chen et Chen-Mou Cheng, « Toward green cloud computing », ICUIMC '11,‎ (ISBN 978-1-4503-0571-6, DOI 10.1145/1968613.1968651).
  • (en) Jayant Baliga, Robert W. A. Ayre, Kerry Hinton et Rodney S. Tucker, « Green Cloud Computing: Balancing Energy in Processing, Storage, and Transport », Proceedings of the IEEE,‎ (ISSN 0018-9219, DOI 10.1109/JPROC.2010.2060451).
  • (en) Eugen Feller, Louis Rilling et Christine Morin, « Energy-Aware Ant Colony Based Workload Placement in Clouds », Proceeding GRID '11 Proceedings of the 2011 IEEE/ACM 12th International Conference on Grid Computing,‎ (ISBN 978-0-7695-4572-1, DOI 10.1109/Grid.2011.13).
  • (en) John Lamb, « Green IT and use of private cloud computing in South Africa », Emerging Technologies for a Smarter World (CEWIT), 2011 8th International Conference & Expo on,‎ 2-3 nov. 2011 (ISBN 978-1-4577-1590-7, DOI 10.1109/CEWIT.2011.6135875).
  • (en) S. Le Masson et D. Nörtershäuser, « New thermal architecture for future green data centres », Telecommunications Energy Conference (INTELEC), 32nd International,‎ 6-10 june 2010 (ISBN 978-1-4244-3384-1, DOI 10.1109/INTLEC.2010.5525715).
  • (en) Tridib Mukherjee, Koustuv Dasgupta, Sujit Gujar, Gueyoung Jung et Haengju Lee, « An economic model for green cloud », Proceedings of the 10th International Workshop on Middleware for Grids, Clouds and e-Science,‎ (ISBN 978-1-4503-1608-8, DOI 10.1145/2405136.2405141).
  • (en) R.Karthikeyan et P.Chitra, « Novel heuristics energy efficiency approach for cloud data center », Advanced Communication Control and Computing Technologies (ICACCCT), 2012 IEEE International Conference on,‎ 23-25 aug. 2012 (ISBN 978-1-4673-2045-0, DOI 10.1109/ICACCCT.2012.6320771).
  • (en) Haque, M.E., Kien Le, Goiri, I., Bianchini, R. et Nguyen, T.D., « Providing green SLAs in High Performance Computing clouds », Green Computing Conference (IGCC), 2013 International,‎ 27-29 june 2013 (DOI 10.1109/IGCC.2013.6604503).
  • (en) Yamini, B. et Selvi, D.V., « Cloud virtualization: A potential way to reduce global warming », Recent Advances in Space Technology Services and Climate Change (RSTSCC), 2010,‎ 13-15 nov. 2010 (ISBN 978-1-4244-9184-1, DOI 10.1109/RSTSCC.2010.5712798).
  • (en) Iyengar, M. , David, M. , Parida, P. , Kamath, V. , Kochuparambil, B. , Graybill, D. , Schultz, M. , Gaynes, M. , Simons, R. , Schmidt, R. , Chainer, T., « Extreme energy efficiency using water cooled servers inside a chiller-less data center », Thermal and Thermomechanical Phenomena in Electronic Systems (ITherm), 2012 13th IEEE Intersociety Conference on,‎ may 30 2012-june 1 2012 (ISBN 978-1-4244-9531-3, DOI 10.1109/ITHERM.2012.6231424).
  • (en) Ouchi, M. ; Abe, Y. ; Fukagaya, M. ; Ohta, H. ; Shinmoto, Y. ; Sato, M. ; Iimura, K., « Thermal management systems for data centers with liquid cooling technique of CPU », Thermal and Thermomechanical Phenomena in Electronic Systems (ITherm), 2012 13th IEEE Intersociety Conference on,‎ may 30 2012-june 1 2012 (ISBN 978-1-4244-9531-3, DOI 10.1109/ITHERM.2012.6231507).
  • (en) Jain, A. ; Mishra, M. ; Peddoju, S.K. ; Jain, N., « Energy efficient computing- Green cloud computing », Energy Efficient Technologies for Sustainability (ICEETS), 2013 International Conference on,‎ 10-12 april 2013 (ISBN 978-1-4673-6149-1, DOI 10.1109/ICEETS.2013.6533519).
  • (en) Jackson Braz Marcinichen, Jonathan Albert Olivier, John Richard Thome, « On-chip two-phase cooling of datacenters: Cooling system and energy recovery evaluation », Applied Thermal Engineering,‎ (DOI 10.1016/j.applthermaleng.2011.12.008).
  • (en) Mankoff J, Kravets R, Blevis E, « Some Computer Science Issues in Creating a Sustainable World », Computer (Volume:41 , Issue: 8),‎ (DOI 10.1109/MC.2008.307).
  • (en) Werner J, Geronimo G, Westphall C, Koch F, Freitas R, « Simulator improvements to validate the Green Cloud Computing approach », Network Operations and Management Symposium (LANOMS), 2011 7th Latin American,‎ 10-11 oct. 2011 (DOI 10.1109/LANOMS.2011.6102263).
  • (en) Harmon, R.R., « Sustainable IT services: Assessing the impact of green computing practices », Network Operations and Management Symposium (LANOMS), 2011 7th Latin American,‎ 2-6 aug. 2009 (DOI 10.1109/PICMET.2009.5261969).
  • (en) Liang Liu, Hao Wang, Xue Liu, Xing Jin, Wen Bo He, Qing Bo Wang, Ying Chen, « GreenCloud: a new architecture for green data center », ICAC-INDST '09 Proceedings of the 6th international conference industry session on Autonomic computing and communications industry session,‎ (ISBN 978-1-60558-612-0, DOI 10.1145/1555312.1555319).