2014 | E-CloVis

Energy-aware resource allocation for Cloud Virtual Services

Début : automne 2014
Axe : ComEx, tâche 2
Sujet :: minimisation de consommation d’énergie électrique par des services virtuels basés sur le principe Cloud Computing.
Directeurs : Joana Tomasik, E3S – Supélec, Johanne Cohen, LRI, Université Paris Sud
Institution : E3S – Supélec
Doctorant : Alexandre DAMBREVILLE Ré-inscription en 4ième année – ATER Psud
Productions scientifiques :
Alexandre Dambreville, Joanna Tomasik, Johanne Cohen: Meta-algorithm to Choose a Good On-Line Prediction. International Symposium on Stabilization, Safety, and Security of Distributed Systems (SSS) 2016: 126-130
Alexandre Dambreville, Joanna Tomasik, Johanne Cohen and Fabien Dufoulon: Load prediction for energy-aware scheduling for Clouds computing platforms. IEEE International Conference on Distributed Computing Systems (ICDCS 2017) (la conférence aura lieu les 5-8 juin 2017)

Ressources :

Image

Contexte :
Les modèles informatiques et les outils utilisés pour partager les ressources ont évolué. Ce principe est appelé le Cloud Computing ; il permet de combiner les ressources de différents organismes. Une ressource peut être dynamiquement acquise comme un service et les clients ne sont facturés que pour le temps qu’ils utilisent le service. Les fournisseurs du Cloud offrent leurs services sur la base de trois modèles: l’infrastructure en tant que service (IaaS), plate-forme en tant que service (PaaS), et le logiciel en tant que service (SaaS). En outre, les fournisseurs de services et les clients doivent négocier un accord (SLA) qui leur permet de s’entendre de façon contractuelle sur la qualité de service (QoS).

La réalisation d’un service virtuel consiste à orchestrer des services de stockage, de calculs et de connectivité. Cette concertation se fait sur le plan de la disponibilité de ressources (le volume d’espace de stockage demandé, la puissance de calculs demandée, la disponibilité de la bande passante) et sur le plan temporel (l’ordre d’exécution des tâches, le délai de transmission de données, la réalisation d’un service avant une date butoir). En résumé, le Cloud Computing permet de mutualiser des ressources du réseau.

Cependant, des problèmes liés à la mauvaise performance du réseau et à la surcharge induite par le système d’exploitation virtualisé soulèvent de nouveaux défis pour l’exécution des applications sur ce type de plates-formes informatiques. Les problèmes ci-dessus peuvent être atténués si les ressources informatiques sont physiquement proches les uns des autres, ce qui conduit à la création des centres de calculs, composés de milliers de serveurs. Néanmoins, cette solution augmente considérablement les coûts liés à l’énergie. En 2012, il a été estimé que les centres de données à travers le monde consomment en électricité environ 30 GW (équivalent à la production de 30 centrales nucléaires). Les fournisseurs tentent de réduire en priorité la consommation d’énergie électrique plutôt que des serveurs.

L’énergie est consommée dans les centres de stockage et de calculs, mais également dans des routeurs du réseau réalisant le service de connectivité et elle peut être considérée comme partie du coût du service. Le type d’une application détermine la proportion de coûts énergétiques dans les différents éléments d’infrastructure du Cloud car, à partir d’une certaine fréquence de transmissions des données, le pourcentage de la consommation énergétique due aux routeurs dépasse considérablement celui dû au stockage et aux calculs.

Néanmoins, le réseau de télécommunications doit respecter la QoS exprimée dans les contrats SLA des utilisateurs. Pour cette raison la consommation énergétique de l’infrastructure réseau est secondaire par rapport à la QoS requise par les transmissions. Ce projet nous se focalise sur l’utilisation des centres de calculs du point de vue de la consommation énergétique, et par conséquent, sur des demandes massives de calculs qui influencent la dépense énergétique principalement dans les sites de calculs.


Objectif scientifique :
Le développement des infrastructures du Cloud Computing est suffisamment avancé pour permettre de les analyser dans le but d’une meilleure utilisation de leurs ressources, y compris des ressources de réseaux. Cette approche émergente, consiste à minimiser le coût de services de connectivité, de calculs et de stockage en maximisant l’utilisation des centres de calculs/stockage tout en respectant la qualité de service (QoS) précisée dans des contrats d’utilisateurs.

Alexandre Dambreville s’intéresse à la distribution des demandes de calculs dans un réseau fournissant des services virtuels de calculs avec comme but principal la minimisation de la consommation énergétique au niveau global en respectant les SLAs (Service Level Agreements) des utilisateurs concernant la connectivité et la puissance de calcul. Nous souhaitons proposer des solutions permettant la planification de l’exécution des demandes en termes du choix des centres de calculs et des dates de lancement. Nous voulons assurer la quantité de calculs demandée avec minimisation de son coût énergétique en minimisant la quantité des ressources des réseaux de télécommunications.

L’objectif est d’étudier la consommation de tous les centres et les serveurs de données connectés à un réseau donné. Nous allons proposer des algorithmes de placement des demandes qui est conditionné par la disponibilité des ressources du réseau et la localisation des services ; les besoins des utilisateurs (respect des SLAs) et la consommation d’énergie (totale ou locale) des serveurs.


Perspectives :
Le travail de thèse viendra enrichir des travaux récents sur la distribution de la charge en considérant à la fois l’optimalisation de ressources énergétiques et de la bande passante au niveau global. Une demande de calculs est donc représentée comme (source de demande, volume de calculs, volume de données à transmettre). Il faut établir une connexion entre les émetteurs des demandes et les centres de calculs. Il s’agira ici de proposer un placement des demandes et un arbre multicast assurant la connectivité des centres de calculs avec l’utilisation optimale de ressources du réseau. L’utilisation parcimonieuse des ressources du réseau se traduit dans ce contexte par la minimisation du nombre des liens constituant cette arborescence. Dans un deuxième temps, la demande sera décrite comme triplet (source de demande, volume de calculs, date butoir) . La notion de la qualité de service des utilisateurs de systèmes virtuels exprimée dans leurs SLAs (la date de terminaison de la demande) sera incorporée. Le contexte de demandes préemptives autorisant la migration, confère un degré de liberté de plus, permettant de décider, par exemple, s’il est plus avantageux d’effectuer une tâche dans deux centres de calculs rapides ou dans cinq centres plus lents, mais consommant peu d’énergie. À partir de la connaissance des dates butoirs de demandes, une méthode d’ordonnancement de demandes qui sera proposée qui, tout en respectant leurs exigences en termes de temps de calcul, permettra de minimiser la quantité d’énergie consommée au niveau global. Les centres de calculs avec des vitesses d’exécution fixes seront d’abord considérés, puis les centres de calculs avec des vitesses d’exécution variable. Cette étape devrait aboutir à une planification de distribution de demandes en temps et en espace (centres de calculs).

Dans un troisième temps, une demande composée de cinq éléments (source de demande, volume de calculs, volume de données à transmettre, date de début, date butoir) sera envisagée. Les étapes précédentes permettront de proposer « un agenda » de répartition spatio-temporelle de demandes, comme celui prévu à la fin de la deuxième étape, enrichi par le traitement beaucoup plus fin de la minimisation de la bande passante utilisée dans le réseau de télécommunications.

Les étapes précédentes font l’hypothèse qu’il n’existe pas d’incertitude (panne de réseaux, mauvaise évaluation des demandes). La quatrième étape de la thèse consistera à introduire le traitement d’incertitude au moment de l’élaboration d’ordonnancement.

Ces quatre étapes permettront de concevoir des algorithmes d’optimisation à trois critères liés à des ressources énergétiques, de réseau et de calculs, avec la consommation énergétique comme critère principal de l’optimisation.