SlideShare une entreprise Scribd logo
1  sur  141
Télécharger pour lire hors ligne
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE LA FORMATION ET DE L’ENSEIGNEMENT PROFESSIONNELS
INSTITUT NATIONAL SPECIALISE DE FORMATION PROFESSIONNELLE
DE BOU-ISMAIL WILAYA DE TIPAZA
Mémoire de Fin de Formation en Vue de l’Obtention du Diplôme
de Brevet de Technicien Supérieur
Spécialité : Informatique/Option : Administration
Cloud computing et virtualisation
Code de la Spécialité : INT1704
THEME :
L’Organisme d’Accueil : SG. NAFTAL
Elaboré par : Encadré par :
- HADJI Younes Fethi M. DJEBBARI Abdelmadjid
- LAROUCI Mostafa
- BOUKROUMA Abd El Moumen Co-Encadreur :
M. MANSSORI Djamel
PROMOTION : Février 2020
REMERCIEMENTS
Nous remercions tout d’abord « ALLAH » de nous avoir donné le courage
d’entamer et de finir ce mémoire dans les bonnes conditions.
Nous remercions vivement notre encadreur, Le professeur Mr. Djebbari
Abd El Madjid, d’avoir encadré ce travail avec beaucoup de compétences.
Nous remercions notre promoteur Mr. Mansouri Djamel Merci pour votre
indéfectible disponibilité, votre rigueur scientifique et la confiance que vous nous
avez accordée au cours de l’élaboration de ce mémoire ; Merci pour l’acuité de
vos critiques et pour vos conseils éclairés.
Nous remercions également les membres du jury d’avoir accepté d’évaluer
ce travail.
Nos remerciements vont également à tous les enseignants qui ont à notre
formation.
Nos profondes gratitudes s’orientent vers Mr. Abd El Karim ; grâce à lui
nous étions des stagiaires à la D.G NAFTAL.
Ainsi que tout le personnel du département DCSI de NAFTAL.
DEDICACE
Je dédie ce modeste travail à :
A la mémoire de mon Père
Aucune dédicace ne saurait exprimer l’amour, l’estime, le dévouement et le respect que
j’ai toujours eu pour vous.
A ma très chère mère
Aucune dédicace ne saurait être assez éloquente pour exprimer ce que tu mérites pour
tous les sacrifices que tu n’as cessé de me donner depuis ma naissance, durant mon enfance et
même à l’âge adulte. Tu as fait plus qu’une mère puisse faire pour que ses enfants suivent le
bon chemin dans leur vie et leurs études. Je te dédie ce travail en témoignage de mon profond
amour. Puisse Dieu, le tout puissant, te préserver et t’accorder santé, longue vie et bonheur.
A mes chères sœurs
Je vous souhaite un avenir plein de joie, de bonheur, de réussite et de sérénité. Je vous
exprime à travers ce travail mes sentiments de fraternité et d’amour.
Hadji Younes Fethi
DEDICACE
Je dédie ce modeste travail à :
Mes chers parents
Rien au monde ne vaut les efforts fournis jour et nuit pour mon éducation et mon bien
être. Ce travail est le fruit de tes sacrifices que tu as consentis pour mon éducation et ma
formation.
A mon très cher frère Samir
Mon cher frère, les mots ne suffisent guère pour exprimer l’attachement, l’amour et
l’affection que je porte pour vous. Mon ange gardien et mon fidèle compagnon dans les
moments les plus délicats de cette vie mystérieuse. Je vous dédie ce travail avec tous mes vœux
de bonheur, de santé et de réussit.
A Mes chères frères et sœurs
En témoignage de l’attachement, de l’amour et de l’affection que je porte pour vous. Je
vous dédie ce travail avec tous mes vœux de bonheur, de santé et de réussite.
A tous les membres de ma famille
Petits et grands Veuillez trouver dans ce modeste travail l’expression de mon affection.
A Mes chères
Mohamed, Arbi, Ben Omar et Oussama ; Que dieu vous assistes.
Larouci Moustafa
DEDICACE
Je dédie ce modeste travail à :
Mes chers parents
Pour tous leurs sacrifices, leur amour, leur tendresse, leur soutien et leurs prières tout au
long de mes études. Que ce travail soit l’accomplissement de vos vœux tant allégués, et le fuit
de votre soutien infaillible.
A Mes chères sœurs
Je vous dédie ce travail avec tous mes vœux de bonheur, de santé et de réussite.
A Mes enseignants
Un profond respect et un remerciement particulier pour vous.
A mes Amis
A tous ceux qui me sont chers
Boukrouma Abd El Moumen
Table des matières :
Remerciements
Dédicaces
Introduction générale
Problématique
Objectifs du projet
Chapitre 1 : présentation de l’entreprise (lieu du stage)…………………………………...1
Section I : Fiche signalétique de NAFTAL District Carburants.……………………….1
A. Historique de NAFTAL ………………………………………………………..1
B. Principales tâches et responsabilités de NAFTAL ……………………...…….1
C. Organisation de NAFTAL ……………………………………………………...2
1. Service Informations de Gestion (ING) : sa mission consiste à……………2
2. Département AMG (administration et moyen généraux) : Les missions du
département AMG sont…………………………………………………….2
3. Département finances et comptabilité : Le département finance et
comptabilité a pour mission de…………………………………………….2
4. Département Transport & Technique : Il a pour mission………………....3
Section II : Les Moyens et de l’entreprise NAFTAL…………..……………………….4
A. Les moyens de l’entreprise NAFTAL…………………………………..………4
B. Produits commercialisés par l’entreprise…………………………………….…5
1. Carburants………………………………………………………………....5
2. Gaz de pétrole liquéfié ……………………………………………….……6
Chapitre 2 : Technologie de Virtualisation et de Cloud : Etat de L'art………………...…..9
I. Introduction………………………………………………………………….…...9
II. Technologie de Virtualisation....…………………………………………....…...9
1. Définition...………………………………………………………………….9
2. Historique de la virtualisation………...……………………………………..9
2.1. Premiers pas…………………………………………………..…….9
2.2. Machines virtuelles…………………………………...……………..9
2.3. Amélioration des technologies………………………….………….10
2.4. Intérêt du grand public……………………………………..……….10
3. Les types de virtualisations.………………………………………………..10
3.1. La virtualisation complète.………………………………………....10
3.2. La paravirtualisation ……………………………………………13
3.3. Virtualisation matérielle …………………………………………..15
4. Techniques de virtualisation …..…………………………………………...17
4.1. L’Isolation et Le Cloisonnement …………………….…………....17
III. Technologie de Cloud Computing ……………………………………………..17
1. Technologie de Datacenter ………………………………………………...17
2. Historique du Cloud Computing….……………………..........................18
3. Bénéfices du cloud Computing ……………………………………………18
3.1. Pour le fournisseur ………………………………………….……..18
3.2. Pour l'entreprise ...…………………………………………………18
IV. Les différents services…………………………………………………………19
V. Types et Modèles de déploiement de cloud……………………………………19
VI. Les solutions de cloud…………………………………………………………20
1. Eucalyptus……………………………………………………….…………20
2. OpenNebula………………………………………………………………..20
3. OpenStack…………………………………………………………….……20
Chapitre 3 : Etude Comparative et Choix de la solution………………………….………23
I. Introduction…………………………………………………….……………...23
II. Solutions de Virtualisation …………………….……………………………...23
1. VMware (vSphere, ESXi...) ...………….……………………………….....24
1.1. VMware vSphere ………………………………………………..…24
1.2. Composants et fonctionnalités…………………………………..….25
2. Citrix (Xenserver...) ……………………………………………………..…30
2.1. Composants et fonctions…………………………………………....32
2.1.1 . Composants principaux…………………………………….....32
2.1.2 . Composants supplémentaires…………………………………35
III. Solutions de cloud…………………………………………………………...36
1. Solution Eucalyptus ……………………………………………………......36
2. Solutions OpenNebula……………………………………………………...37
3. Solutions Openstack………………………………………………………..38
Chapitre 4 : Technologies de stockage et Haute Disponibilité…………………………….43
I. Introduction…………………………………………………………...………43
1. Technologies de stockage (NAS SAN...)…………………………….……44
1) Fonctionnement………………………………………………….…47
2) Quel type de réseau utilise un réseau SAN?......................................47
3) Quels types de commutateurs sont appropriés SAN?........................48
4) Peut-on bâtir un réseau SAN sur réseau existant?.............................48
5) Qu'est-ce qu'un serveur SAN?...........................................................48
6) Topologie…………………………………………………………..49
7) Applications………………………………………………………..49
8) Défauts et qualités…………………………………………….....49
A. Défauts………………………………………………….....49
B. Qualités………………………………………………….....49
2. Systèmes de stockage (CEPH NFS...) ………………………………….....51
A. Architecture de CEPH ………………………………………………..52
B. Les services CEPH……………………………………………………53
C. Gestion de stockage CEPH……………………………….…………...53
C.1. Les pools……………………………………………….…….....53
C.2. Réplication de données………………………………………....54
a. Clonage……………………………….....................................54
b. Utilisation de code à effacement (erasurecoding)…………….54
D. Implantation de stockage distribué à travers Proxmox VE……....…..55
D.1.Implémentation du système de stockage tolérance aux pannes
développées pour la virtualisation: le Ceph…………………………………….…..55
a. Configuration du réseau dédié à Ceph…………………….….55
D.2.Installation des paquets CEPH ………………………………...56
D.3.Création de la configuration initiale Ceph……………………..56
D.4.Mise en place des services Ceph……………………………….56
a.Création des moniteurs Ceph………………………………....56
b.Création des OSD Ceph ……………………………………...57
D.5. Création de pool Ceph…………………………………………57
3. Concepts et techniques de la haute disponibilité …………………………59
3.1. Mesure du taux de disponibilité……………………………...……59
3.2. Techniques améliorant Ha disponibilité……………………….....60
3.3. Dépendance vis-à-vis des autres applications…………………….61
3.4. Répartition de charge et sensibilité……………………………….62
3.5. Redondance différentielle………………………………………...62
3.6. Redondance avec système de vote………………………………..62
3.7. Shadow opérations………………………………………………..63
4. Les processus qui permettent d'améliorer la haute disponibilité……...….63
4.1. Les processus qui réduisent le nombre de pannes………………….63
4.2. Les processus réduisant la durée des pannes………………………..63
5. Cluster haute disponibilités ……………………………………………...63
Chapitre 5 : Branche Fonctionnelle : Analyse et Spécification des Besoins……………66
I. Introduction…………………………………………………………………66
II. Scénario 1 : Serveur web virtualisé au sein d'Openstack …………………..66
1. Scénario 1a : Système de stockage NFS …………………………………………66
1.1 Les entités physiques………………………………………………..67
1.2 L’utilité des services Openstack…………………………………….68
1.3 Echange de messages………………………………………………..69
1.4 Les services OpenStack…………………………………………………70
1.4.1 Administration de l’infrastructure Openstack ……………...70
1.4.2 Gestion de la virtualisation …………………………………71
1.4.3 Gestion de l’authentification (Keystone)……………………72
1.4.4 Les Bases de Données……………………………………….74
1.5 Profil d’une VM……………………………………………………..75
1.6 Processus de démarrage d’une VM ………………………………...77
1.7 Réseau des VMs……………………………………………………..79
1.8 Stockage par fichier des VMs………………………………………..81
1.9 Conclusion du Scénario 1a ………………………………………….82
2. Scénario lb : Gestion du stockage par bloc ………………………………..82
2.1. Schéma du scénario lb ……………………………………………....82
2.2. Composition de Cinder……………………………………………....83
2.3. Fonctionnement de Cinder…………………………………………...83
2.4. Problèmes rencontrés…………………………………………………84
2.5. Conclusion du Scénario 1b…………………………………………...85
III. Scénario 2 : Haute Disponibilité du Cloud Controller ……………………..85
1. Qu'est-ce que la HA ………………………………………………………..85
1.1 La HA Active/Active………………………………………………....86
1.2 La HA Active/Passive………………………………………………..86
1.3 L’IP flottante ou virtuelle…………………………………………….87
1.4 Services Stateless ou Statefull………………………………………..87
2. Scénario 2 : La HA au sein des AP] OpenStack……………………………88
2.1. Schéma du scénario 2a……………………………………………….88
2.2. But du Scénario…………………………………………………........89
2.3. Éléments physiques…………………………………………………..89
2.4. HA Active/Active avec HAProxy……………………………………89
2.5. HA Load Balancer avec KeepAlived………………………………...90
2.6. Bilan Scénario 2a…………………………………………………….90
3. HA SQL (Active/Active Statefull) ………………………………………...92
3.1. Schéma du Cluster SQL……………………………………………...92
3.2. Théorème du CAP……………………………………………………93
3.3. Gestion du Cluster SQL……………………………………………....94
IV. Scénario 3 : Collecte et entreposage des Logs………………………………95
1. Cahier des Charges………………………………………………………….95
2. Contraintes………………………………………………………………….95
3. Variantes de stockage de Logs………………………………………………96
3.1. Variante 1 : Stockage des Logs sous forme de fichiers……………….96
3.2. Variante 2 : Logstash-­‐> ElasticSearch……………………………....98
3.3. Variante3 : Logstash-­‐> Redis -­‐> Logstash -­‐>ElasticSearch……..102
3.4. Variante 4 : Abolition du serveur de Logs physique………………….103
3.5. Comparaison des quatre variantes et choix…………………………...103
3.6. Choix de la variante…………………………………………………..105
4. Supervision des ressources physiques……………………………………....105
5. Problèmes rencontrés………………………………………………………..106
6. Bilan du scénario 3…………………………………………………………..106
Chapitre 6 : Supervision des ressources avec Shinken……………………………………...108
I. Introduction……………………………………………………………………..108
1. But du scénario……………………………………………………………….108
2. Schéma de principe…………………………………………………………..108
3. Supervision des services d'APl OpenStack…………………………………...108
3.1. Problème au niveau des tests via l'IP Virtuelle ………………………..110
4. Supervision des ressources physiques………………………………………...110
5. Mise en place de tests interdépendants………………………………………..111
5.1 Finalité du test…………………………………………………………..111
5.2 Plugin de démarrage d’une VM intégré à Shinken……………………..112
6. Bilan du scénario………………………………………………………………113
Conclusion générale……………………………………………………………………………114
Bibliographie……………………………………………………………………………………115
Liste des abréviations …………………………………………………………………………116
Liste des figures :
Numéro Désignation page
Figure 2.1 Virtualisation complète 11
Figure 2.2 Couches d’abstraction pour la gestion de la mémoire 12
Figure 2.3 Paravirtualisation 14
Figure 2.4 Hyperviseur 16
Figure2.5 Les services de cloud 19
Figure 3.1
Relations entre les couches de composants de VMware
vSphere
24
Figure 3.2 VMware ESXI 25
Figure 3.3 VMware vSphere Client 26
Figure 3.4 VMware vSphere Web Client 27
Figure 3.5 VMware VCenter Server 27
Figure 3.6 vSphere vMotion 28
Figure 3.7 vSphere Storage vMotion 29
Figure 3.8 vSphere High Availability (HA) 29
Figure 3.9 vSphere Fault Tolerance 30
Figure 3.10 Xen server architecture 31
Figure 3.11 les composants principaux d’un déploiement typique 32
Figure 3.12 Citrix Studio 34
Figure 3.13 Architecture d’Eucalyptus 37
Figure 3.14 Les déférents couches d’OpenNebula 38
Figure 3.15 Les déférents taches d’Openstack 39
Figure 3.16 Les différents services d’openstack 41
Figure 4.1 L’architecture de réseau NAS 44
Figure 4.2 Protocole de stockage NAS 46
Figure 4.3 L’architecture de réseau SAN 47
Figure 4.4 Topologie de réseau SAN 49
Figure 4.5 L’architecture de réseau DAS 50
Figure 4.6 Topologie de réseau DAS 51
Figure 4.7 Architecture Cèph 52
Figure 4.8 Organisation des données dans Ceph 54
Figure 4.9 Illustration des deux modes de réplication des données 55
Figure 4.10 Création d'une carte réseau en mode agrégation 56
Figure 4.11 OSD installé 57
Figure 4.12 L'état de cluster Ceph 58
Figure 5.1 But des services OpenStack 68
Figure5.2 Différents types de messages 70
Figure5.3 Interface GUI Horizon 71
Figure5.4 Authentification Keystone 73
Figure5.5 Disques virtuels d'une VM 76
Figure5.6 Démarrage d'une VMs 77
Figure5.7 Configuration de la future VM 78
Figure5.8 Gestion de l'IP flottante 80
Figure5.9 Security-Group sous Horizon 81
Figure 5.10 Graphiques générés par Kibana 101
Figure 5.11 Chargement des JSON distants 102
Figure5.12 Aperçu du Cluster 106
Figure 6.1 Infrastructure opérationnelle 109
Figure 6.2 Fonctionnement de la HA malgré un des deux Horizon Down 109
Liste des Schémas :
Numéro Désignation page
Schéma 5.1 schéma Scénario 1a 67
Schéma 5.2 schéma Scénario 1b 82
Schéma 5.3 Attribution d'un volume par bloc 83
Schéma 5.4 Principe de HA 85
Schéma 5.5 HA Active/Passive 86
Schéma 5.6 Gestion IP virtuelle 87
Schéma 5.7 HA au sein de l'API OpenStack 88
Schéma 5.8 HA au niveau SQL 92
Schéma 5.9 Théorème du CAP 93
Schéma 5.10 Récolte des Logs en un point central 96
Schéma 5.11 Producteurs de logs -> Consommateurs 98
Schéma 5.12 Cluster ElasticSearch 100
Schéma 5.13 Récupération des Logs avec Kibana 101
Schéma 5.14 Mémoire tampon de Logs 102
Schéma 5.15 Cluster ELS variante 2 103
Schéma 6.1 Monitoring des API et serveurs physiques 108
Schéma 6.2 Diagrammes de tests Shinken 112
I
INTRODUCTION GENERALE:
Surfer dans les nuages a toujours été le rêve des hommes. Ce domaine était longtemps
réservé aux poètes, et leur offrait la possibilité de s’évader des problèmes quotidiens qui les
assaillaient. Mais depuis le jour où les avions et autres objets volants, conquirent le grand espace
ciel, une grande majorité de gens pouvait sillonner plusieurs types de nuages. Ce rêve est
également devenu réalité, dans le domaine de l’informatique.
Actuellement, on parle beaucoup de Cloud Computing, et ce n’est pas par hasard. En
effet, le matériel et les systèmes informatiques associés évoluent pour satisfaire les besoins de
calcul qui s’accroîent chaque jour. Pour cela, les chercheurs et les technologues travaillent dur
et péniblement afin de simplifier la gestion des infrastructures informatiques, la continuité
d’activité et la réduction du coût qui représente une stratégie des entreprises d’aujourd’hui pour
se focaliser sur leur métier spécifique marqué par une concurrence aiguë. Les solutions
présentes sur le marché actuellement sont souvent complexes et très coûteuses. En parallèle, les
évolutions quotidiennes au niveau des infrastructures réseaux et les systèmes d’information ont
conduit à l’arrivée de nouveaux périphériques et technologies, ce qui rend la tâche de
déploiement et de gestion encore plus difficile à assurer. De toutes ces contraintes est né le
besoin de « la virtualisation » qui est survenu comme une solution révolutionnaire à un grand
nombre de défis auxquels l’entreprise devait faire face. Assurément, remplacer un parc de
serveurs physiques par une architecture virtualisée constitue une véritable révolution dans la
conception des systèmes d’information. L’objectif de cette technique est d’augmenter la
flexibilité et d’améliorer l’utilisation des ressources matérielles à moindre coût, tout en assurant
la performance et la disponibilité des services. Cette notion a évoluée encore plus, et a fait
apparaître un nouveau terme : le Cloud Computing. Dans les dernières années, cette
terminologie, qui se base sur la virtualisation, a envahi le monde de la commercialisation, et
s’est présentée comme une solution inédite arrivant jusqu’aux clients distants. Toutefois, cette
tendance divulgue des défaillances, qui ont été souvent ignorées lors de ces déploiements en
raison du coût, ou la complexité de mise en place. Les entreprises ont besoin de mettre en place
plusieurs outils et services pour pouvoir exécuter leurs travaux, afin de bien assurer la gestion
des projets, leurs qualités et la productivité des équipes ainsi que l’évolution sûre du produit
pour une meilleure compétitivité sur le marché. C’est sous cette optique, que nous allons réaliser
au niveau de ce PFE, une plateforme de virtualisation qui permet de migrer de l’architecture
physique existante vers un environnement virtuel et déployer une solution haute disponibilité
de stockage.
II
Problématique :
Parmi les problèmes et les limites que nous avons étudiées taus allons citer :
• Le non interoperabi lite entre les diffèrent types d'hyperviseurs (ESXi, KVM)
• Facturation selon la performance des ressources répondre aux besoins des clients par
fournit des machines et des serveurs virtuels de performances précises selon leurs
besoins.
• Cout élevé.
A. Les hypothèses :
Les principales motivations pouvant influences l'adoption d’une solution alternative aux
posses de travail physiques traditionnels sont les suivantes :
• Minimiser les coûts.
• Gestion des postes de travail plus facile.
• Accès distant. Facile
• Flexibilité assurée.
B. Le plan de travail :
• Technologie de Virtualisation et de Cloud : Etat de L'art.
• Etude Comparative et Choix de la solution.
• Technologies de stockage et Haute Disponibilité.
• Branche Fonctionnelle : Analyse et Spécification des Besoins.
• Supervision des ressources avec Shinken.
• Branche Technique : Spécifications Techniques.
• -Perspectives futures.
C. Les méthodes de recherche adoptées :
Le projet a été mené en suivant 6 étapes :
• Etude préalable.
• Recueil des besoins.
• Etude et conception du projet.
• Phase de réalisation.
• Mise en œuvre.
• Evaluation.
III
D. Les raisons du choix du thème :
Nous avons choisi ce thème car il nous permettre de :
• Pouvoir faire les bons choix de configuration.
• Savoir déployer manuellement un cloud Vsphére / OpenStack pour fournir du IaaS.
• -Connaitre les bonnes pratiques de déploiement d’OpenStack et de Vsphére.
• Être capable de déterminer l’origine d’une erreur dans OpenStack et un Vsphére.
• -Savoir réagir face à un bug.
IV
Objectif du thème :
- Avoir une solution fiable et efficace pour anticiperles difficultés quepourrait
rencontrer un internaute et qui permettra de mettre en place des actions et des
paramètres techniques, pour qu’une infrastructure informatique soit toujours en
mesure de répondre à la requête d’un utilisateur
- Manipuler et orchestrer des ressources dans un cloud Vsphére / OpenStack.
- Définir, déployer et maintenir une infrastructure dans le cloud.
- Connaitre le fonctionnement du projet Vsphére / OpenStack et ses
possibilités Comprendre le fonctionnement de chacun des composants
d’OpenStack /Vsphére.
Les contraintes affrontées durant la réalisation du travail :
Ce PFE a été effectué dans une période insuffisante. Au début du PFE, le
sujet n'était pas encore clairement défini. En plus la difficulté de collecte des
données et des informations avec le manque de références et matériel.
Nous avons également eu de la difficulté à communiquer les uns avec les
autres en raison de la séparation à cause de virus Corona.
CHAPITRE 1
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
1
• Présentation de l’organisme d’accueil :
Section I : Fiche signalétique de NAFTAL District Carburants.
A.Historique de NAFTAL :
Issue de SONATRACH (Société National pour la recherche, Transport, production,
transformation, la commercialisation des hydrocarbures), l’entreprise nationale de raffinage et de
distribution de produits pétroliers (ERDP) a été crée par le décret N°80-101 datant du 06 Avril 1980.
Entrée en activité le 01er Janvier 1982, elle fut chargée de l’industrie de raffinage et de la
distribution de produits pétroliers. Le 04 Mars 1985, les districts suivants carburants, lubrifiants,
pneumatiques et bitumes ont été regroupés sous le nom UND (Unité NAFTAL de Distribution).
Durant l’année 1987, l’activité de raffinage est séparée de la distribution, conformément au Décret
N°87-189 du 25 Aout 1987.Modifiant ainsi le décret N°80-101 du 06 Avril 1980, donnant naissance
a une nouvelle entreprise nationale dénommée : « Entreprise nationale de commercialisation et de
distribution de produits pétroliers » Sous le sigle de « NAFTAL ». Dès l’année 1998, elle change de
statut et devient une société par action SPA et filiale SONATRACH a 100 %, elle interviendra par la
suite dans les domaines suivants :
• Dans l’enfûtage GPL.
• Dans la formulation des bitumes.
• Dans la distribution, stockage et commercialisation des carburants, GPL, lubrifiants,
bitumes, pneumatiques, GPL/produits spéciaux.
• Dans le transport des produits pétroliers. Le 01er Janvier 2000, l’activité GPL enfutage
est séparée de l’activité CLP.
Par décision N°S 554 du 29 mars 2000, il a été procédé à l’organisation générale de la
division CLP et l’identification des zones de distribution « CLP » (Carburants Lubrifiants et
Pneumatiques). Par décision N° 555 du 29 Mars 2000, il a été procédé à la création des zones de
distribution CLP. Par décision N°S 606 du 10 Février 2001, il a été procédé à l’organisation et la
classification des centres Bitumes de la division Bitume. Par décision N°S 705 du 17 juin 2002, il a
été procédé à la re-nomination des zones de distribution CLP et GPL en District. Par décision
N°S766 du 22 Décembre 2003, il a été procédé à la dissolution de la branche CLPB. Par la décision
N°S 770 du 03 Janvier 2004, il a été procédé à la dissolution des districts CLP et création des
districts commercialisation. A partir du 01er décembre 2006 l’activité carburant est séparée de
l’activité commercialisation (L’activité carburant se charge du stockage et déstockage des carburants
et l’activité commercialisation s’occupe essentiellement des achats, ventes, bilan annuel,
projets…etc.).
B.Principales tâches et responsabilités de NAFTAL :
• Identifier et recenser les infrastructures, équipements et autres moyens matériels
camions, canalisation) relevant de l’activité carburants du district, les structures
d’organisation (services, maintenance, installations fixes, surveillance et entretien
canalisations, reconnaissance produits…) et les moyens humains œuvrant pour
l’activité carburants.
• Suivre les plans établis par la branche carburant pour l’approvisionnement et le
ravitaillement en carburants des dépôts et communiqué régulièrement les états
d’exécution aux structures concernées.
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
2
• Exécuter les programmes de la distribution établis par les districts commercialisation
pour la livraison de la clientèle.
• Gérer les stocks en carburants au niveau des dépôts et communiques régulièrement des
points de situation aux structures concernées de la branche.
• Suivre l’exploitation et la maintenance des infrastructures de stockage et autres
moyens (camions, canalisations) carburants des branches rattachées au district.
• NAFTAL est responsable, en liaison avec les responsables concernés des centres
carburants et canalisations, de la sûreté interne des installations et des moyens.
• Gérer en liaison avec les structures de la branche, les relations avec les directions des
raffineries NAFTEC, capotage et transport SNTR et tiers et les transmettre aux
structures de la branche pour règlement.
• Approuver les bordereaux inter unités (BIU) émis par les districts commercialisation
vers le district carburant.
C.Organisation de NAFTAL :
Comme toute entreprise NAFTAL possède sa propre organisation nous illustrons les
principaux services :
1. Service Informations de Gestion (ING) : sa mission consiste à :
• Collecter, vérifier et analyser les informations de gestion de district.
• Elaborer les tableaux de bord et rapports de l’activité du District.
• Assurer l’installation et l’exploitation et la sauvegarde des logiciels de gestion et
données afférentes.
• Prêter assistance aux structures en matière d’exploitation des applications
informatiques opérationnelles.
2. Département AMG (administration et moyen généraux) : Les
missions du département AMG sont :
• Assurer la gestion des moyens généraux du district
• Assurer la gestion des ressources humaines
• Assurer la gestion de l’administration
• Assurer la gestion des œuvres sociales et culturelles
3. Département finances et comptabilité : Le département finance et
comptabilité a pour mission de :
• Coordonner et suivre toutes les activités de comptabilité de trésorier, budget et
patrimoine.
• Consolider, analyser les états comptables et veiller à la sincérité des comptes du
District.
• Veiller à la concordance des écritures comptables avec les flux physiques et financiers.
Service trésorerie : il est composé de deux sections, la Section recettes et la section dépense.
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
3
Sa mission est de :
• Suivre et contrôler les flux, recettes et dépenses de trésorerie.
• Traiter les dossiers de paiement d’investigation, fournisseurs et autres dépenses.
• Etablir les situations de rapprochement des comptes (recettes et dépenses)
• Contrôler et effectuer les comptabilisations des comptes et grands livres de trésorerie.
• Etablir des rapports d’activités.
Service comptabilité générale : il est composé de deux sections, la Section SVCD et la
Section comptabilité.
Sa mission est de :
• Procéder aux écritures comptables conformément aux préconisations du plan
comptable national.
• Elaborer les documents comptables (Bilans, balances et livres).
• Contrôler les arrêtés de comptes et préparer les inventaires et bilans.
• Elaborer les analyses et synthèses comptables.
• Procéder aux opérations des clôtures et réouvertures des comptes.
Service budgets et coûts : Ses diverses missions sont :
• Elaborer les budgets prévisionnels d’investissement et de fonctionnement du District.
• Consolider l’ensemble des charges nécessaires à la détermination du coût
• Contrôler et traiter les situations financières du District
• Procéder aux ajustements des budgets et crédits
• Assurer le suivi régulier de la comptabilité analytique
4. Département Transport & Technique : Il a pour mission :
• Elaborer les plans de maintenance préventive et curative des équipements, dépôts, et
canalisation et en suivre l’exécution.
• Elabore les plans annuels et pluriannuels de transport, en prenant en charge les besoins
de distribution et ravitaillement des produits commercialisés.
• Suivi de la réalisation des travaux.
• Elaborer les plans et budgets d’investissement (rénovation, extension, remise à niveau,
remplacement) des installations fixes, canalisation, réseau de stations-services et
autres.
• Etablir un rapport d’activité périodique.
Ce département comporte les services suivants :
Service exploitation et maintenance : Sa mission est de :
• Vérifier l’application des prescriptions du règlement d’exploitation, de sécurité des
équipements et installation fixes.
• Etablir les performances de maintenance.
• Assurer la maintenance des installations au niveau des dépôts carburants
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
4
Service études et réalisation : Sa mission est :
• D’établir la partie technique des cahiers de charges.
• De contrôler et diriger les différents travaux.
• De suivre les travaux programmés ayants traits aux projets. Le District dispose de deux
(02) dépôts carburants à Bejaïa, un (01) à TAHER /W. JIJEL, un (01) à Bordj Bou
Arreridj et un (01) à M’SILA.
Section II : Les Moyens et de l’entreprise NAFTAL :
A.Les moyens de l’entreprise NAFTAL :
Avec un personnel de 31500 agents. Affectif au 31/12/2009, NAFTAL est le premier et le
seul distributeur de produit pétroliers en Algérie.
Elle contribue de 51 % de l’énergie finale en fournissant plus de 10 millions de tonnes de
produits pétroliers par an sous forme de :
• Carburant.
• Gaz de pétrole liquéfié.
• Bitumes.
• Lubrifiants
Pour cela NAFTAL dispose de :
• 67 centres et dépôts de distribution et stockage carburant. Lubrifiants et pneumatique.
• 55 dépôts d’avitaillement d’aéronefs, centres et point de ventes à la mer.
• 45 centres d’emballage GOL d’une capacité d’enfutage de 1.2 million de tonnes/an.
• 59 dépôts relais de stockage GPL. ¬ 05 centres vrac GPL.
• 16 unités de formulation de bitumes de 360.000 tonnes/an.
• 3500 véhicules de distribution et 1800 engins de manutention et de maintenance.
• 380 km de pipe-lines multi produits carburants et GPL.
Et son réseau de distribution s’étend sur :
• 1732 stations de service dont 328 en gestion directe par NAFTAL.
• 124 points de vente d’essence sans plomb.
• 268 points de vente GPL/CARBURANT.
• 14550 points de vente GPL.
La couverture des besoins du marché national en produit pétroliers implique des transports
massifs de carburants et GPL depuis les sources de production vers les zones de consommation qui
sont les districts.
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
5
Pour assurer cet équilibre entre l’offre et la demande, NAFTAL met à contribution plusieurs
modes de transport :
• Cabotage pipe : pour l’approvisionnement des entreprises à partir des raffineries.
• Rail/chemin de fer : pour le ravitaillement des dépôts de l’intérieure du pays à partir
des entrepôts.
• Route : pour la livraison des clients et le ravitaillement des dépôts non desservis par le
rail.
• Pour accomplir sa mission de distribution des pétroliers, NAFTAL dispose d’un parc
dépassant les 3 mille véhicules de distribution constitue de :
• Tracteur routier.
• Semi-remorques plateaux.
• Semi-remorques citernes.
• Camion citernes.
• Camion plateaux.
• Camion porte palettes.
Ça lui permet d’assurer 70 à 75 % des livraisons clients, le reste étant assuré par les
transporteurs tiers ou par les clients eux-mêmes.
Par ailleurs, NAFTAL dispose de (7) barges pour le soutage des navires et affrète en
permanence auprès des entreprises publiques de transport :
• 160 citernes carburantes (SNTR).
• 960 wagons-citernes (SNTF).
• 04 caboteurs (SNTM/HYPROC).
B.Produits commercialisés par l’entreprise :
1. Carburants :
 Terre :
NAFTAL commercialise quatre (4) types de carburants « terre » pour la motrice
essence et diesel :
• Essence super.
• Essence normale.
• Essence sans plomb.
• Gas-oil.
Ces produits stockés et distribués par NAFTAL sont tous issus des raffineries de
NAFTEC et répondent entièrement aux normes de qualité algérienne.
 Aviation :
Jet a1-for Jos issus 18 kérosène utilisé par les avions.
 Marine : FUEL BUNKERC
• Norme iso 9217 FUEL 80(BTS), utilisée par les navires.
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
6
2. Gaz de pétrole liquéfié
 Nature et composition :
Les GPL désignent : gaz de pétrole liquéfié. Ce sont les mélanges de butane 4) et de
propane (3). Les GPL peuvent être obtenus à partir de traitement des hydrocarbures tels que :
• Le traitement du gaz naturel ou gaz associés.
• Le raffinage du gaz naturel.
• La liquéfaction du gaz naturel.
Dans la gamme des produits GPL, NAFTAL commercialise trois (3) produits essentiels :
• Le butane commercial.
• Le propane commercial ;
• Le GPL carburant « SIRGHAZ ».
Suite à une phase d’étude d’expérimentation entamée en 1977.la décision d’introduire
le GPL carburant « SIRGHAZ » est intervenue en 1983 avec l’adoption de bicarburation et de
la mise en place de la réglementation liée aux conditions d’utilisation du GPL/C.
 Lubrifiants :
A travers son réseau de distribution étendu sur le territoire national, NAFTAL
commercialise une gamme complète de lubrifiants qui couvrent tous les besoins du secteur
automobile et industriel. Répondant à des normes d’emballages variés, depuis la boite de ½
litre au fut de 180 kg
Les gammes commercialisées par NAFTAL sont :
• Les huiles motrices à essence.
• Les huiles motrices à diesel.
• Les huiles motrices industrielles.
• Les graisses.
 Pneumatiques :
Grace à des infrastructures de stockage et son réseau de distribution, NAFTAL
commercialise des pneumatiques des grandes marques dans les catégories de véhicules les
plus diverses :
• Tourisme.
• Camionnette.
• Poids lourds.
• Industriel.
• Manutention.
• Agraire.
• Génie civil.
• Cycle.
CHAPITRE 1 : Présentation de l’entreprise (lieu du stage)
7
Portant le label de constructeurs renommés, les pneumatiques proposés par NAFTAL
sont fournis après contrôle de qualités les plus strictes pour garantir la sécurité des utilisateurs
et répondent amplement aux exigences requises.
 Bitume :
NAFTAL commercialise à partir de ses centres quatre (4) formes de bitumes :
• Les bitumes purs 80/100 et 40/50 utilisés dans les domaines de la construction et des
chaussées.
• Les bitumes oxydés 85/25 utilisés pour l’étanchéité multicouches, pour l’isolement
thermique et phonique et pour la protection des ouvrages d’art.
• Ils sont commercialisés en vrac et sous deux (2) formes de conditionnement, en sacs de
20 kg et en futs de 200 kg.
• Les bitumes fluidifiés ou CUT-BACKS ; ils sont obtenus en fluidifiant les bitumes
purs avec le kérosène.
• Les émulsions de bitumes sont des dispersions de bitumes pures dans une solution
aqueuse.
CHAPITRE 2
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
8
I. Introduction :
Alors que les données informatiques augmentent de façon exponentielle, et que les
entreprises font de plus en plus appel aux processus informatiques pour gagner en productivité et en
compétitivité, la possible réduction des coûts de gestion des infrastructures informatiques est une des
principales priorités des entreprises.
Ces dernières années, plusieurs moyens sont apparus pour aborder cette réduction des coûts,
parmi lesquels, la virtualisation, et le Cloud Computing.
La virtualisation et le Cloud Computing sont deux concepts différents, mais pourtant
complémentaires. Nous allons dans ce chapitre nous attacher à vous présenter et vous définir ces
deux notions, ainsi que leurs types et les usages possibles pour les entreprises.
II. Technologie de Virtualisation :
1. Définition :
La virtualisation est l’abstraction du matériel physique afin de générer des ressources
virtuelles dans le but de faire fonctionner plusieurs machines virtuelles au sein d’une même machine
physique. Ainsi, la virtualisation fait intervenir trois principaux composants :
• Un système d'exploitation principal installé sur la machine physique, appelé système
hôte, car il joue le rôle d'hôte à d'autres systèmes d’exploitation ;
• Un hyperviseur un outil de virtualisation installé sur le système hôte qui fournit
l'environnement dans lequel différentes machines virtuelles s’exécutent ;
• Un système d'exploitation installé dans une machine virtuelle, appelé système invité,
qui fonctionne indépendamment des autres systèmes invités dans d'autres machines
virtuelles
2. Historique de la virtualisation :
Les premiers ordinateurs, qui occupaient plusieurs pièces d’un bâtiment, n’étaient pas faits
pour exécuter plusieurs programmes à la fois. On concevait un programme (qui était à l’époque une
simple succession de calculs), on le mettait dans la file d’attente des programmes, et quand le
système d’exploitation avait fini de traiter un programme, on lui donnait le suivant dans la liste.
2.1. Premiers pas
Très vite, dès la fin des années cinquante, l’idée de pouvoir exécuter plusieurs programmes en
parallèle voit le jour. On parle de temps partagé (time sharing), de multiprogrammation, etc. L’idée
était de pouvoir faire cohabiter plusieurs programmes au même moment, ayant tous accès au même
matériel, sans qu’ils ne se gênent mutuellement. La virtualisation est très proche de concept.
2.2. Machines virtuelles
Au milieu des années soixante, IBM effectue des recherches sur les systèmes virtualisés avec
le projet M44/44X. L’architecture du système se basait sur des systèmes d’exploitation virtualisés
(nommés 44X) s’exécutant au-dessus du matériel (une machine M44). Les systèmes invités étaient
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
9
gérés par une simple multiprogrammation. En 1967 est lancé, toujours par IBM, le système CP-40, le
premier système offrant une virtualisation complète. Le CP-40 sera suivi par plusieurs évolutions,
amenant chacune de nouvelles fonctionnalités pour les utilisateurs. On peut notamment citer Le
système VM/370, qui a connu un très fort succès dans les entreprises, et est parfois encore en usage
dans certaines entreprises aujourd’hui.
2.3. Amélioration des technologies
Après le succès des machines virtuelles introduites par IBM, les technologies ont assez peu
évolué. Le système hôte a vite été réduit à l’état de simple arbitre entre les systèmes invités, amenant
la notion d’hyperviseur.
Toutefois, toutes ces technologies de virtualisation étaient réservées au monde professionnel,
destinées à être utilisées sur des mainframes coûtant plusieurs millions de dollars.
Parallèlement à cela, le monde de la recherche (souvent financé par ces mêmes entreprises) a
continué à étudier différentes possibilités pour améliorer les performances et à essayer de nouvelles
technologies. La plupart de ces travaux de recherche sont toutefois restés assez confidentiels et n’ont
que rarement été transposés sur un produit.1
2.4. Intérêt du grand public
L’orientation « grand public » des technologies de virtualisation est beaucoup plus récente.
Dans les années quatre-vingt-dix, l’intérêt pour les émulateurs de consoles de jeu ainsi que
l’explosion du marché de l’informatique personnelle (les ordinateurs de type PC) ont fait prendre
conscience aux entreprises qu’il y avait un marché pour la virtualisation sur PC. Des sociétés ont
alors commencé à créer des produits de virtualisation basés sur des machines virtuelles pour les
petites entreprises c’est à dire celles ne pouvant s’offrir des serveurs à plusieurs millions de dollars et
pour les particuliers.
À partir de ce moment-là, les technologies ont vraiment progressé, avec l’arrivée de
nouveaux acteurs toujours prêts à innover pour se démarquer des concurrents.
3. Les types de virtualisations :
3.1. La virtualisation complète :
La virtualisation complète (full virtualization), dénommée ainsi par opposition à la para-
virtualisation, consiste à émuler l’intégralité d’une machine physique pour le système invité. Le
système invité « croit » s’exécuter sur une véritable machine physique. Le logiciel chargé d’émuler
cette machine s’appelle une machine virtuelle, son rôle est de transformer les instructions du système
invité en instructions pour le système hôte. En effet, la machine virtuelle est un programme comme
un autre du point de vue du système hôte, au même titre qu’un navigateur Internet ou un traitement
de texte. Or, un système d’exploitation doit normalement manipuler le matériel à un niveau très bas.
Les programmes utilisateurs n’ont pas d’accès direct au matériel, mais uniquement aux couches
d’abstraction. La machine virtuelle émule donc de manière logique (c’est à dire avec du code) tout le
matériel habituel de l’architecture de l’ordinateur cible. Le rectangle en fond vert est le système
d’exploitation, seule partie à avoir un accès direct au matériel, ici représenté avec un fond bleu. Le
rectangle en fond blanc est une application utilisateur, qui ne peut utiliser que la couche d’abstraction
du système d’exploitation pour accéder indirectement au matériel.
1
Alain-B. TCHANA .Système d'Administration Autonome Adaptable: application au Cloud ,novembre 2011
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
10
En pratique, le disque dur de la machine virtuelle est la plupart du temps géré comme un
(volumineux) fichier pour le système hôte, alors que la mémoire vive dont le système invité dispose
est réservée par le programme de la machine virtuelle. Le reste de l’architecture de l’ordinateur peut
Varier grandement selon les implémentations, mais on retrouve généralement au moins une carte
réseau bas de gamme, un clavier 105 touches « standard » et une carte graphique bas de gamme.2
Figure 2.1 : Virtualisation complète
L’utilisation de périphériques bas de gamme s’explique par le fait qu’il y a toujours un
nombre minimal d’opérations supportées par toute catégorie de matériel sur un ordinateur : la vitesse
de transfert la plus lente pour un disque dur, la résolution d’affichage la plus faible pour une carte
graphique, etc. Or comme le comportement de ces périphériques est entièrement implémenté de
manière logicielle par la machine virtuelle, émuler un périphérique avec le minimum de
fonctionnalités permet de limiter la quantité de code à développer pour en couvrir le comportement.
C’est la raison pour laquelle les cartes graphiques et les cartes réseaux sont la plupart du temps aux
standards en vigueur dans les années quatre-vingt.
Ce n’est toutefois pas la seule raison de l’émulation de périphériques bas de gamme. En effet,
la plupart des évolutions ultérieures du matériel visent à améliorer les performances des
périphériques, par exemple en augmentant le débit du disque dur ou la résolution supportée par la
carte graphique. Cependant, les optimisations de performances sont dans ce cas sans objet, car elles
ne se répercutent de toute manière pas sur un matériel physique en mesure de les supporter. La
2
Bhaskar Prasad Rimal, Eunmi Choi, and Ian Lumb. A taxonomy and survey of cloud computing systems. In
Proceedings of the 2009 Fifth International Joint Conference on INC, IMS and IDC, NCM '09, pages 44_51,
Washington, DC, USA, 2009. IEEE Computer Society.
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
11
rapidité du disque dur virtuel est par exemple limitée par la vitesse d’accès au fichier le représentant
sur le système hôte.
Le système s’exécutant dans la machine virtuelle est un système d’exploitation à part entière,
tel qu’on pourrait en installer sur une machine physique : Microsoft Windows, GNU/Linux, Mac OS
X, etc. Cette particularité est la caractéristique principale de la virtualisation complète : les systèmes
invités n’ont pas à être modifiés pour être utilisés dans une machine virtuelle utilisant une
technologie de virtualisation. Dans la pratique, c’est le cas pour les systèmes d’exploitation et les
machines virtuelles les plus répandus.
Le système invité peut à son tour exécuter n’importe quel programme prévu pour ce système,
dans la mesure où il ne nécessite pas de matériel non fourni par la machine virtuelle (i.e. pas de carte
graphique dernière génération ou de périphérique peu courant). Cette possibilité est due au fait que
le système d’exploitation sert (entre autres) de couche d’abstraction entre le matériel et les
applications, donc à partir du moment où le système fonctionne correctement, les applications
s’exécutant par-dessus fonctionneront aussi.
La traduction au vol des instructions du système invité est néanmoins une opération complexe
et coûteuse en temps. En effet, la machine virtuelle ne peut pas, dans la plupart des cas, exécuter
directement les instructions du système invité sur le système hôte. Les instructions de manipulation
de la RAM, par exemple, doivent être interprétées par la machine virtuelle pour aboutir au résultat
attendu, car c’est le processeur de la machine virtuelle qui est censé s’occuper de la gestion physique
de la mémoire, et non le processeur de la machine hôte.
La machine virtuelle doit donc implémenter en logiciel une gestion complète de la mémoire
de l’invité, en utilisant les couches d’abstraction de l’hôte pour accéder à la RAM. Cet empilement
de couches réduit significativement les performances, surtout en cas de forte pression sur la mémoire
(i.e. quand la mémoire est utilisée de manière in00tensive : lecture, écriture, déplacement de données,
etc.). La figure 2.2 détaille les couches d’abstraction entrant en jeu pour la gestion de la mémoire.
Dans cette figure, le cadre en bleu foncé représente la couche matérielle ; le cadre vert est le
système d’exploitation, qui a un accès privilégié au matériel. Le cadre en fond blanc est une
application utilisateur, qui doit utiliser les couches d’abstraction du système d’exploitation
représentées en vert foncé pour accéder au matériel. Le cadre bleu ciel représente le matériel émulé
par la machine virtuelle, qui doit se comporte comme le matériel réel d’un ordinateur pour le système
invité.
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
12
Figure 2.2 : Couches d’abstraction pour la gestion de la mémoire
Cet empilage de couches est sensiblement identique pour tous les périphériques émulés par la
machine virtuelle. On retrouve, du plus bas niveau au plus haut niveau :
o Le matériel;
o Le pilote du matériel pour le système hôte;
o La couche d’abstraction du système hôte;
o Le matériel émulé par la machine virtuelle;
o Le pilote du matériel pour le système invité;
o La couche d’abstraction du système invité. Les performances de la machine virtuelle
sont donc limitées par les performances de la couche d’abstraction du système hôte et
par la qualité de l’émulation du matériel implémenté.
La séparation nette entre la machine virtuelle et le système hôte est un avantage certain pour
la sécurité et la stabilité de la machine. En effet, comme la machine virtuelle est un simple
programme, on peut très facilement limiter la quantité de mémoire qu’elle peut allouer, le temps
processeur consommé, sa priorité par rapport aux autres programmes, etc. Toutes les possibilités
d’administration et de configuration des applications offertes par le système hôte s’appliquent à la
machine virtuelle. Cela permet par exemple d’attribuer une faible priorité à une machine virtuelle
mais de lui permettre de réserver plus de mémoire, alors qu’une autre machine virtuelle aura plus de
temps processeur à disposition, mais moins de RAM. Bien évidemment, comme les machines
virtuelles sont de simples programmes utilisateurs, on peut en exécuter plusieurs à la fois sur le
même système hôte, tant que les ressources sont disponibles. Ainsi, une machine multiprocesseur et
disposant de suffisamment de mémoire vive et d’espace de stockage peut aisément accueillir
plusieurs machines virtuelles, le système hôte répartissant au mieux la charge entre les différents
processeurs.
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
13
Cependant du fait de l’empilement de couches d’abstraction et de l’impossibilité pour la
machine virtuelle d’accéder directement au matériel, les performances du système invité sont assez
éloignées de celles d’un système « natif ». Selon les implémentations, diverses solutions sont
utilisées pour accélérer les machines virtuelles, par exemple en passant la plupart des instructions
destinées au processeur virtuel directement au processeur physique3
. Cela accélère la vitesse de
calcul du système invité. Il reste cependant le problème des Entrées/Sorties (E/S), c’est à dire les
accès au disque, à la RAM, à la carte graphique, à la carte réseau, etc. D’une manière générale, on
appelle Entrées/Sorties (I/O ou Input/Output) tout ce qui consiste à transférer des informations ou des
données entre un périphérique et le système d’exploitation. Les E/S sont beaucoup plus dures à
optimiser, car chaque système d’exploitation a une façon propre de gérer cela. Il faut donc cohabiter
étroitement à la fois avec le système hôte pour l’accès réel au matériel et avec le système invité pour
que ses accès au matériel soient le plus rapide possible. Cela amène une plus grande complexité de
code, et une séparation en couches moins marquée que dans le modèle vu sur la figure 2.1. Cette «
rupture » dans le modèle en couches est exploitée par une autre technologie de virtualisation : le para
virtualisation.
3.2 La paravirtualisation :
La para virtualisation (para virtualization ou encore para-virtualization) est très proche du
concept de la virtualisation complète, dans le sens où c’est toujours un système d’exploitation complet
qui s’exécute sur le matériel émulé par une machine virtuelle, cette dernière s’exécutant au-dessus
d’un système hôte. Toutefois, dans une solution de para virtualisation, le système invité est modifié
pour être exécuté par la machine virtuelle. Les modifications effectuées visent à rendre le système
émulé « au courant » du fait qu’il s’exécute dans une machine virtuelle. De ce fait, il pourra collaborer
plus étroitement avec le système hôte, en utilisant une interface spécifique, au lieu d’accéder au
matériel virtuel via les couches d’abstraction. Au final, l’architecture obtenue est plus performante que
l’empilement de couches d’abstraction de la figure 2.2.
Le terme para-virtualisation a été mentionné pour la première fois dans [WSG02], où les
auteurs définissent la para virtualisation comme la modification sélective de certaines parties de
l’architecture virtuelle pour améliorer les performances, la réactivité sous forte charge et la simplicité
de conception.
L’idée du para virtualisation est toutefois plus ancienne que cela. Les premiers gros systèmes
utilisant une architecture de virtualisation avaient déjà une technologie similaire, dès les années
soixante-dix, même si elle n’avait pas de nom.
En pratique, un système paravirtualisé possède quelques pilotes de périphériques et sous-
systèmes modifiés, qui lui permettent de communiquer directement avec la machine virtuelle, sans
avoir passé par une couche d’abstraction pour parler au matériel virtuel. Les pilotes para virtualisés
échangent directement des données avec la machine virtuelle, sans avoir à passer par une émulation du
comportement du matériel. Les parties du système hôte généralement modifiées pour tirer profit de la
para virtualisation sont la gestion de la mémoire et la gestion des E/S. En effet, ce sont véritablement
les deux goulets d’étranglement d’un système virtualisé, du fait du nombre de couches d’abstraction à
traverser. Il est donc logique que les optimisations se portent là-dessus.
La figure 2.3 montre la structure d’une machine virtuelle et d’un système hôte supportant le
para virtualisation. Les pilotes non modifiés interagissent toujours avec le matériel émulé par la
machine virtuelle (rectangle bleu ciel), alors que les pilotes modifiés communiquent directement les
fonctions de la machine virtuelle (rectangle jaune)4
. La simplification qui en résulte communique
3
EuroCloud France. L'évolution maitrisée vers l’IaaS/PaaS. novembre 2011
4
Ignacio M. LlorenteBorja Sotomayor, Ruben S. Montero and Ian Foster
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
14
presque directement avec le système hôte, en contournant les couches d’abstraction virtuelles (i.e. le
matériel émulé). Le reste de l’architecture est inchangé, la machine virtuelle est toujours une
application utilisateur (rectangle blanc) et le système d’exploitation (rectangle vert) est toujours le
seul à avoir un accès privilégié au matériel (rectangle bleu).
Figure 2.3 : Paravirtualisation
Les détails sur comment sont réalisées ces optimisations varient selon les implémentations,
mais il s’agit en général pour le système invité d’utiliser des appels systèmes ou des instructions
spécifiques pour renseigner la machine virtuelle sur les actions à entreprendre. Cette dernière réalise
alors ces actions, et communique le résultat au système invité. Le type d’actions à effectuer varie
également selon les implémentations, mais on retrouve en général tout ce qui est déplacement de
données entre l’hôte et l’invité (accès disque, transfert réseau, etc.) et gestion de la mémoire.
La paravirtualisation apporte un gain de performances avéré, du fait du contournement des
couches d’abstraction. En effet, comme le système invité collabore activement avec la machine
virtuelle, il ne se comporte plus comme un système d’exploitation à part entière s’exécutant
directement sur du matériel. Au contraire, il adapte son comportement pour que les accès au matériel
souvent difficiles à interpréter de manière efficace par la machine virtuelle soient transformés en des
appels directs à cette dernière. De plus, étant donné que seules les couches de bas niveau du système
invité ont été modifiées, toutes les applications qui pouvaient fonctionner dans une architecture de
virtualisation complète peuvent aussi être utilisées dans une architecture paravirtualisée.
Toutefois, cette augmentation des performances est restreinte à certains systèmes. En effet,
comme le système invité doit être modifié pour être paravirtualisé, il faut bien évidemment que l’on ait
la possibilité de réaliser cette opération de portage. Or, cela nécessite à la fois l’accès au code source
du système d’exploitation et la permission du détenteur des droits de le modifier. Si cela ne pose aucun
problème pour un système libre (notamment GNU/Linux et les systèmes BSD), il n’en va pas de
même pour les systèmes propriétaires, tels que Microsoft Windows et Mac OS. L’usage de la
paravirtualisation est donc généralement limité aux systèmes libres, sauf à utiliser une solution de
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
15
virtualisation propriétaire compatible avec un seul système d’exploitation invité, comme les produits
que Microsoft propose pour ses systèmes d’exploitation.
Tout comme la virtualisation complète, la paravirtualisation garde une séparation nette entre
le système invité et le système hôte (cf. figures 2.1 et 2.3). De ce fait, seul le système hôte a un accès
direct et exclusif au matériel. Le système invité doit donc toujours passer par la machine virtuelle pour
accéder au matériel, qui passe à son tour par la couche d’abstraction. On peut donc améliorer
davantage le processus en laissant au système invité un accès direct mais contrôlé au matériel. C’est le
but des systèmes à hyperviseur
3.3 Virtualisation matérielle :
L’utilisation d’un hyperviseur (hypervisor) est en quelque sorte l’évolution logique de la
paravirtualisation, si l’on recherche encore une amélioration des performances. Dans les technologies
précédentes, le système hôte était le seul à avoir un accès direct au matériel; avec un hyperviseur, le
système hôte partage cet accès avec les systèmes invités. Au démarrage de l’ordinateur, c’est
normalement le système d’exploitation qui prend la main et contrôle le matériel. Dans le cas de
l’utilisation d’un hyperviseur, c’est un système minimaliste — l’hyperviseur — qui prend le contrôle
du matériel. Ensuite, il fait appel à un système d’exploitation complet, qui sera donc exécuté par-
dessus l’hyperviseur. Ainsi, le système d’exploitation doit passer par l’hyperviseur pour tout accès au
matériel. On peut donc très facilement instancier un deuxième système d’exploitation, qui passera lui
aussi par l’hyperviseur pour l’accès au matériel. Comme les systèmes d’exploitation doivent
obligatoirement passer par ce dernier pour tout accès au matériel, l’hyperviseur peut s’assurer qu’ils
n’accèdent qu’aux ressources autorisées, sans perturber le fonctionnement des autres systèmes.
Figure 2.4 : Hyperviseur
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
16
La figure 2.4 détaille le principe de fonctionnement de l’hyperviseur. À la différence des
technologies exposées précédemment, il n’y a cette fois pas d’accès direct au matériel (rectangle bleu)
pour le système d’exploitation, uniquement une couche d’abstraction minimale fournie par
l’hyperviseur (rectangle vert). L’hyperviseur est le seul à avoir un accès privilégié au matériel. Dans
cette représentation, les systèmes cohabitent au même niveau de privilège, uniquement régulés par
l’hyperviseur. Toutefois, selon les implémentations, il y a souvent un système privilégié, qui est en
général le premier système démarré par l’hyperviseur. Ce système est alors autorisé à modifier les
paramètres de l’hyperviseur ou à instancier de nouveaux systèmes invités. À l’opposé, sur d’autres
implémentations, la différence entre hôte et invité est inexistante, tous les systèmes ont les mêmes
privilèges et l’hyperviseur est alors contrôlé d’une autre manière.
Si les deux technologies vues précédemment (virtualisation complète et paravirtualisation)
utilisaient une machine virtuelle pour émuler le matériel, il n’en va pas de même avec un hyperviseur.
Chaque système d’exploitation a un accès presque direct au matériel, par l’intermédiaire de
l’hyperviseur. Il n’y a donc plus de couche d’abstraction logicielle, le matériel accessible est celui de
la machine physique, avec toutes les fonctionnalités qu’il peut offrir. Le gain de performances est
parfois significatif, notamment dans le cas des E/S, où le système peut utiliser toutes les extensions des
périphériques pour accélérer les transferts.
Ressources, alors que dans un système d’exploitation, on s’assurera qu’un programme
utilisateur ne dérange pas les autres programmes du système.
Au final, le contrôle des priorités est plus précis, et permet de garantir qu’un système invité
isolé n’influera jamais sur l’accès aux ressources d’un autre système. Avec une architecture à base de
virtualisation complète, si le système hôte est monopolisé par un processus utilisateur (par exemple un
programme consommant énormément de mémoire), les systèmes invités peuvent se voir fortement
ralentis dans leur activité.
Tous les systèmes destinés à s’exécuter au-dessus d’un hyperviseur doivent être portés,
comme les systèmes invités pour la paravirtualisation. Cette opération vise à adapter les couches bas
niveau du système d’exploitation pour qu’elles communiquent avec l’hyperviseur plutôt qu’avec le
matériel. Les inconvénients sont donc les mêmes que pour la paravirtualisation : il est nécessaire
d’avoir accès au code source de tous les systèmes ainsi que l’autorisation du détenteur des droits. En
outre, le portage est beaucoup plus lourd à réaliser pour fonctionner sur un hyperviseur. En effet, pour
la paravirtualisation, seuls quelques pilotes et sous-systèmes avaient besoin d’être réécrits pour tirer
parti de l’accélération. Au contraire, un hyperviseur nécessite la modification de toutes les couches
d’accès au matériel; la complexité du code s’en trouve grandement augmentée, augmentant par là
même la difficulté de maintenir le code. Le portage sur un hyperviseur revient quasiment à porter le
système d’exploitation sur une nouvelle architecture matérielle.
Les techniques vues jusqu’à présent étaient de complexité croissante, c’est à dire que chaque
technologie était un peu plus complexe à mettre en œuvre et à que la précédente. Avec les
technologies ayant trait au cloisonnement, c’est différent. En effet, le cloisonnement était au départ
utilisé pour sécuriser et isoler des applications, sans rapport avec le fait d’isoler des systèmes
d’exploitation, c’est seulement récemment que l’idée d’utiliser ces techniques pour la virtualisation a
vu le jour.
4. Techniques de virtualisation :
4.1. L’Isolation et Le Cloisonnement :
Une autre pratique répandue dans le domaine de la virtualisation est le cloisonnement.
Derrière ce nom se cachent plusieurs technologies visant à séparer fortement les processus
s’exécutant sur un même système d’exploitation. Le cloisonnement vise à isoler chaque processus
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
17
dans un conteneur dont il est théoriquement impossible de sortir. Un processus isolé de la sorte ne
saura pas quels autres processus s’exécutent sur le même système, et n’aura qu’une vision limitée de
son environnement. Le but principal de cette technologie est d’améliorer la sécurité du système
d’exploitation et des applications.
Isolé. Par exemple, si le système hôte est Solaris, alors tous les processus s’exécutant à
l’intérieur d’une zone auront accès à la même version de ce Solaris.
Les technologies de cloisonnement sont aussi utilisées dans d’autres domaines que les systèmes
d’exploitation. Par exemple, le langage Java (de Sun Microsystems) propose une machine virtuelle
(qui n’a rien à voir avec les machines virtuelles étudiées ici) qui est un interpréteur pour le langage
Java. Cet interpréteur exécute tous les programmes Java dans un conteneur isolé, dont ils ne peuvent
pas sortir. Le terme utilisé pour décrire cette technologie est sandbox (bac à sable). Le sandboxing est
aussi une technologie de cloisonnement, mais au niveau d’un processus, sans que le système
intervienne.
Même si l’engouement pour la virtualisation est assez récent, les technologies de
virtualisation et l’idée même de la virtualisation sont presque aussi anciennes que l’informatique. La
section suivante fera un bref historique de la virtualisation.
III. Technologie de Cloud Computing :
1. Technologie de Datacenter :
Le datacenter ou centre de données informatique est le site physique où sont regroupées les
différentes infrastructures, comme les baies de serveurs et de stockage. Ces sites de production
informatique, équipés de systèmes d’alimentation et de refroidissement, hébergent les applications
et données des entreprises, ou des particuliers dans le cadre de la mise à disposition de services
applicatifs comme la messagerie ou le stockage de données dans le Cloud.
Les géants du Cloud, les hébergeurs et les opérateurs disposent tous de multiples datacenters,
plus ou moins grands. L’efficacité énergétique de ces datacenters est notamment mesurée grâce à un
indicateur, le PUE. Pour des raisons de consommation d’énergie et environnementales, les opérateurs
de datacenters s’efforcent d’atteindre un PUE le plus bas possible.
Une des tendances du moment dans le datacenter porte sur les technologies de convergence et
d'hyper-convergence. Et le mouvement de convergence entre les couches réseau, stockage et calcul
ne s'arrête plus à l'échelle du rack. Il touche le centre de données, et permet l'automatisation et
l'orchestration des ressources informatiques, via l'utilisation par la DSI d'outils software defined
2. Historique du Cloud Computing :
Le Cloud computing est un concept assez récent. Sa première énonciation date de 1960
(John McCarthy), mais sa réelle mise en application a commencé au début des années 2000.
Salesforce.com fut le premier hébergeur de Cloud en 1999, suivi en 2002 par Amazon.
Le Cloud Computing met en œuvre l'idée de l’informatique utilitaire du type service public,
proposée par John McCarthy en 1961 qui suggère que la technologie informatique partagée pourrait
construire un bel avenir dans lequel la puissance de calcul et même les applications spécifiques
pourraient être vendues comme un service public.
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
18
L’apparition du Cloud Computing vient d'une évolution de certaines technologies telles que
la virtualisation du matériel informatique, les services web, ou l'architecture orientée services SOA
(Service Oriented Architecture).
La virtualisation a été la première pierre de l'ère du Cloud Computing. En effet, cette notion
permet d'optimiser les ressources matérielles en les partageants entre plusieurs environnements dans
le but
De pouvoir exécuter plusieurs systèmes « virtuels » sur une seule ressource physique et
fournir une couche supplémentaire d’abstraction du matériel.
Le Cloud computing est donc la juxtaposition de ces technologies pour passer à la vitesse
supérieure sur l’exploitation de données à travers Internet.
3. Bénéfices du cloud Computing :
3.1. Pour le fournisseur :
• Aucun investissement préalable.
• Service d'une grande disponibilité.
• Facturation à la consommation.
• Version toujours à jour et identique pour tous les utilisateurs (cas du SaaS).
• Architecture sur mesure adaptable selon les besoins.
3.2. Pour l'entreprise :
• La sécurité des données
• La réduction des coûts
• Une parfaite adaptation aux besoins métiers des entreprises
• Une prise en charge optimale de l’infrastructure informatique
• Une technologie flexible et évolutive
IV. Les différents services :
Nous parlons généralement de 3 services que nous utilisons différemment selon nos besoins.
Certains appellent ces services les couches de cloud et nous les représentons souvent sous forme
d’une pyramide comme la montre
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
19
Figure2.5 : Les services de cloud
• IaaS: Infrastructure as a service: c’est la couche inférieure qui représente les ressources
matérielles (puissance de calcul, espace de stockages, serveur …). Les clients, à ce niveau
n’ont pas de contrôle sur ces ressources mais plutôt sur les systèmes d’exploitation et les
applications qu’ils peuvent installer sur le matériel alloué.
• PaaS: Plateforme as a Service, c’est la couche intermédiaire où le fournisseur contrôle le
système d’exploitation et les outils d’infrastructure et par suite les clients n’ont le contrôle
que sur les applications déployées.
• Saas: Software as a service, c’est la couche supérieure qui correspond à la mise à disposition
des applications comme étant des services accessibles via internet. Les clients n’ont plus
besoin donc à installer les applications sur ses postes.
V. Types et Modèles de déploiement de cloud :
Nous distinguons quatre modèles de déploiement qui n’ont pas une grande influence sur les
systèmes déployés 5
• Cloud public: C’est le cloud dans le sens traditionnel où les services sont offerts au grand
public et peuvent être payants ou même gratuit. Les ressources dynamiquement provisionnées
peuvent être accessibles par internet ou bien par un fournisseur.
• Cloud privé: Ce cloud est destiné entièrement à un organisme et peut être déployé sous deux
formes déférentes:
 Cloud privé interne: Hébergé et géré par l’entreprise
 Cloud privé externe: Hébergé et géré par un tiers et accessible via des réseaux de
type VPN
5
JunjiePeng, Xuejun Zhang, Zhou Lei, Bofeng Zhang, Wu Zhang, and Qing Li. Comparison of several Cloud computing
plateforms. In Proceedings of the 2009 Second International Symposium on Information Science and Engineering, ISISE
'09, pages 23_27, Washington, DC, USA, 2009. IEEE Computer Society.
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
20
• Cloud hybride: C’est la combinaison du cloud public et cloud privé par une entreprise.
• Cloud communautaire: Un ensemble d’organisations qui ont un intérêt commun partagent
l’infrastructure du cloud. Il est plus couteux que le cloud public mais offre d’autres
VI. Les solutions de cloud :
1. Eucalyptus :
Eucalyptus est un outil open source issu d’un projet de recherche de l’université de
Californie. Il est développé en C, Java, Python et est disponible sous deux licences. Une licence GPL
gratuite supportant les hyperviseurs Xen et KVM et une licence commerciale offrant des
fonctionnalités avancées telles que le support de VMware. Il permet de construire aussi bien les
solutions privées du cloud computing que les solutions publiques. Son grand avantage est qu’il est
intégré dans les distributions Ubuntu et Debian. Eucalyptus offre des interfaces compatibles avec les
services EC2 d’Amazon. Ce qui lui confère la possibilité d’être employé pour les solutions hybrides
de cloud computing. L’architecture d’Eucalyptus est constituée de quatre composants principaux
(Nurmi et al, 2008 ; Alrwais, 2011).
• Le contrôleur de nœud (Node controller NC) : contrôle l’exécution, et l’arrêt des machines
virtuelles présentes sur le nœud où il est exécuté.
• Le contrôleur de cluster (cluster controller CC) : collecte les informations sur les différents
nœuds d’un cluster et planifie l’exécution des machines virtuelles sur chaque nœud.
Le contrôleur de stockage (Warlus) : c’est le composant qui gère l’accès au service de
stockage. Il est souvent intégré au contrôleur du cloud (CLC).
• Le contrôleur de cloud (CLC): C’est le point d’entrée (Front end) des utilisateurs et
administrateurs du système. Il collecte des informations sur les nœuds et planifie leur
exécution au travers des contrôleurs de clusters (CCs). Il expose les services du cloud à
travers une application Web mais également à travers des interfaces compatibles EC2.
2. OpenNebula
OpenNebula, purement open source permet de déployer des Cloud privés, hybrides et publics.
Ecrite en C++, Ruby et Shell, elle supporte les plateformes de virtualisation Xen, KVM et VMware
ainsi que le service “on-demand” d’Amazon EC2. Le projet est publié sous licence Apache 2.0.
Parmi ses fonctionnalités : gestion centralisée des machines virtuelles et des ressources physiques,
répartition des charges, extension des capacités par ajout de serveurs physiques.
Beaucoup de ces solutions sont avant tout des solutions d’infrastructure permettant une gestion
simplifiée d’architectures matérielles complexes.
CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art
21
3. OpenStack
Il est né de la fusion de deux projets portés l’un par la Nasa et l’autre issu de l’offre de
l’hébergeur américain Rackspace Cloud Server. L’ensemble de la plateforme est disponible sous
licence Apache 2.0.
OpenStack est un logiciel libre qui permet la construction de Cloud privé et public. Il est
aussi une communauté et un projet en plus d'un logiciel qui a pour but d'aider les organisations à
mettre en œuvre un système de serveur et de stockage virtuel.
Il s'installe sur un système d'exploitation libre comme Ubuntu ou Debian et se configure
entièrement en ligne de commande. C'est un système robuste et qui a fait ses preuves auprès des
professionnels du domaine.
En comparaison avec les autres produits, OpenStack semble avoir la plus grande et la plus
active communauté. Les membres de la communauté sont toujours prêts à aider les autres à trouver
des solutions aux problèmes qui se posent.
La technologie est populaire parmi une vaste communauté de spécialistes et est soutenue par
des sociétés telles que Cisco, Dell, NASA, Intel, AMD, Citrix, Rackspace, et RightScale.
 Les caractéristiques principales d’OpenStack sont les suivantes :
• Capacité à gérer les ressources du serveur de produits virtualisés.
• Capacité à gérer des réseaux locaux.
• Gestion de l'image de la machine virtuelle.
• Groupes de sécurité.
• Contrôle d'accès basé sur les rôles.
• VNC proxy via un navigateur Web.
CHAPITRE 3
CHAPITRE 3 : Etude comparative et choix de la solution
22
I. Introduction :
Avant toute chose, rappelons ce qu'est la virtualisation : la virtualisation est une
couche d'abstraction informatique qui permet de faire fonctionner plusieurs serveurs,
systèmes ou applications sur un même serveur physique (tout dépend du type de
virtualisation choisie) La virtualisation a donc permis par ce processus d'ouvrir de
nombreuses portes, et constitue la pierre angulaire du Cloud1
.
En effet, elle représente donc une formidable ouverture à différents niveaux :
utilisateurs, entreprises, services IT... Les avantages sont nombreux : en termes
économiques (moins coûteux), de centralisation, de sécurité et de partage de données, en
termes de performances (virtualisation applicative/de bureau) etc...
Il est également important de comprendre la notion d'hyperviseur et d'hyperviseur de
type 1 et 2. Tout d'abord, un hyperviseur est cette fameuse couche d'abstraction qui rend
possible la virtualisation : il permet à plusieurs systèmes d'exploitation (OS) de fonctionner
simultanément sur une même machine physique. L'hyperviseur de type 1 (natif) s'exécute
directement sur la plateforme matérielle alors qu'un hyperviseur de type 2 (hosté) s'exécute
à l'intérieur d'un même système d'exploitation.
Un hyperviseur héberge des machines virtuelles (VM), qui sont le "résultat" de la
virtualisation et ce à partir de quoi on travaille. Il existe différents types de virtualisation
(attention ce n'est pas la même chose que le type d'hyperviseur) donc différentes "natures"
de VM, qui nécessitent chacune une solution spécifique (n'importe quelle solution ne peut
virtualiser n'importe quoi):
- La virtualisation de bureau,
- La virtualisation d’applicative,
- La virtualisation de de réseau,
- La virtualisation de de stockage,
Etc...
II. Solutions de Virtualisation :
Le marché des solutions de virtualisation est un marché extrêmement concurrentiel.
Parmi les principaux acteurs composant ce marché, nous détaillerons les offres des trois
principaux éditeurs, à savoir VMware, Citrix et Microsoft.
VMware est le plus vieux et le plus gros éditeur sur le marché de la virtualisation, filiale du
groupe EMC et fondée en 1998, cette compagnie propose une gamme de produits et services
complète associée à la virtualisation2
.
1
Le cloud computing une nouvelle filière fortement structurante,septembre2012
2
Marvin Rambhadjan and Arthur Schutijser. SURFnet cloud computing solutions.
CHAPITRE 3 : Etude comparative et choix de la solution
23
Pour mettre en place notre plateforme de virtualisation, nous avons choisi la solution
VMware qui est le leader du marché dans le domaine.
1. VMware (vSphere, ESXi...) :
1.1. VMware vSphere :
VMware vSphere gère de grandes collections d'infrastructure (par exemple des processeurs,
le stockage et la gestion de réseau) sous la forme d'un environnement d'exploitation transparent et
dynamique, ainsi que la complexité d'un centre de données.
La pile logicielle VMware vSphere est constituée des couches de virtualisation, de gestion et
d'interfaces.
Figure 3.1 : Relations entre les couches de composants de VMware vSphere
• Couche de virtualisation : La couche de virtualisation de VMware vSphere inclut des
services d'infrastructure et d'application. L'infrastructure fournit, entre autres, les services
de traitement et de stockage et les services réseau extraient, agrègent et allouent les
CHAPITRE 3 : Etude comparative et choix de la solution
24
ressources matérielles ou d'infrastructure. Les services d'infrastructure comprennent les
types suivants :
• Services de traitement : Inclut les fonctions VMware qui permettent de ne pas tenir
compte des ressources serveur hétérogènes sous-jacentes. Les services de traitement
agrègent ces ressources sur un grand nombre de serveurs discrets les affectent aux
applications.
• Services de stockage : Il s'agit de l'ensemble de technologies qui permettent d'utiliser et de
gérer efficacement le stockage dans les environnements virtuels.
• Services de réseau : Il s'agit de l'ensemble de technologies qui simplifient et améliorent la
gestion de réseau dans les environnements virtuels.
• Couche de gestion : VMware vCenter Server est le point central de la configuration, du
provisionnement et de la gestion des environnements informatiques virtualisés.
• Couche d'interfaces : Les utilisateurs peuvent accéder au centre de données VMware
vSphere via des clients à interface graphique, tels que vSphere Client ou vSphere Web
Client. En outre, ils peuvent accéder au centre de données via des machines clientes qui
utilisent des interfaces de ligne de commande et des kits SDK pour la gestion automatique.
1.2 Composants et fonctionnalités :
VMware vSphere Une présentation des composants et fonctions de VMware vSphere
explique les composants et leurs interactions.
VMware vSphere inclut les composants et fonctions suivants :
• VMware ESXi : Une couche de virtualisation fonctionne sur des serveurs physiques qui
analysent le processeur, la mémoire, le stockage et les ressources dans les machines
virtuelles multiples
Figure 3.2 : VMware ESXI
CHAPITRE 3 : Etude comparative et choix de la solution
25
• VMware vSphere Client : Une interface permettant aux utilisateurs de se connecter à
distance vCenter Server ou ESXi depuis n'importe quel PC Windows
Figure 3.3 : VMware vSphere Client
• VMware vSphere Web Client : Une interface Web permet aux utilisateurs de se connecter
à distance à vCenter Server depuis divers navigateurs Web et systèmes d'exploitation.
CHAPITRE 3 : Etude comparative et choix de la solution
26
Figure 3.4 : VMware vSphere Web Client
• VMware vCenter Server : Le point central pour configurer, approvisionner et gérer des
environnements informatiques virtualisés. Il fournit les services essentiels du centre de
données : contrôle d'accès, surveillance des performances et
• Gestion des alarmes.
CHAPITRE 3 : Etude comparative et choix de la solution
27
Figure 3.5 : VMware VCenter Server
• VSphere vMotion : Permet de migrer des machines virtuelles sous tension depuis un
serveur physique vers un autre sans interruption avec une disponibilité de service continue
et une intégrité de transaction complète
.
Figure 3.6 : vSphere vMotion
• VSphere Storage vMotion : Permet de migrer des fichiers de machine virtuelle d'une
banque de données vers une autre sans interruption de service. Vous placez la machine
virtuelle et tous ses disques dans un seul emplacement ou sélectionnez des emplacements
distincts pour le fichier de configuration de la machine virtuelle et chaque disque virtuel.
La machine virtuelle reste sur le même hôte pendant Storage vMotion. La migration avec
Storage vMotion permet de transférer les disques virtuels ou le fichier de configuration
d'une machine virtuelle vers une nouvelle banque de données alors que la machine
CHAPITRE 3 : Etude comparative et choix de la solution
28
virtuelle s'exécute. La migration avec Storage vMotion permet de transférer le stockage
d'une machine virtuelle sans interrompre la disponibilité de la machine virtuelle3
.
Figure 3.7 : vSphere Storage vMotion
• VSphere High Availability (HA) : Fonction qui offre une haute disponibilité pour les
machines virtuelles. En cas de panne d'un serveur, les machines virtuelles affectées sont
redémarrées sur d'autres serveurs disponibles ayant une capacité disponible.
3
Peter Sempolinski and Douglas Thain. A comparison and critique of eucalyptus, opennebula and nimbus. In
Proceedings of the 2010 IEEE Second International Conference on Cloud Computing Technology and Science
, CLOUDCOM '10, pages 417_426, Washington, DC, USA, 2010. IEEE Computer Society.
CHAPITRE 3 : Etude comparative et choix de la solution
29
Figure 3.8 : vSphere High Availability (HA)
• VSphere Fault Tolerance : Assure la disponibilité permanente en protégeant une machine
virtuelle avec une copie. Lorsque cette fonction est activée pour une machine virtuelle, une
seconde copie de la machine d'origine (ou principale) est créée. Toutes les actions
effectuées sur la machine virtuelle primaire sont également effectuées sur la seconde
machine virtuelle. Si la machine virtuelle principale devient indisponible, la seconde
machine devient active immédiatement.
CHAPITRE 3 : Etude comparative et choix de la solution
30
Figure 3.9 : vSphere Fault Tolerance
2. Citrix (Xenserver...) :
• Citrix XenServer est une solution de virtualisation qui permet de déployer rapidement et
simplement des machines virtuelles Windows et Linux hautes performances.
• Xenservers’appuie sur l’hyperviseur open source Xen qui installe une fine couche logicielle
sur le matériel de la machine nue, ce qui lui rend plus rapide et plus sûre par rapport aux
autres hyperviseurs. Il s’appuie en outre sur les toutes dernières solutions Intel VT et AMD-V
de virtualisation assistée par matériel.
• XenServer permet en outre de gérer ces machines et les ressources réseau et de stockage qui
leur sont associées à partir d’une console de gestion unique et très simple d’emploi.
• La technologie XenServer s’appuie sur les toutes dernières solutions Intel VT et AMD-V de
virtualisation assistée par matériel. L’hyperviseur Xen est exceptionnellement léger (moins
de 50 000 lignes de code), ce qui se traduit pour l’hôte par une charge extrêmement faible et
des performances quasi natives.
• Citrix XenServer est performant et sécuritaire. Sa technologie et ouverte aux capacités de
gestion étendues de XenCenter qui constitue une plateforme de virtualisation idéale,
parfaitement adaptée à la consolidation des serveurs, au développement et au test de logiciels
et aux projets de continuité de service.
CHAPITRE 3 : Etude comparative et choix de la solution
31
Figure 3.10 : Xen server architecture
2.1 Composants et fonctions :
2.1.1 . Composants principaux :
Cette illustration affiche les composants principaux d’un déploiement typique, qui est appelé un site.
Figure 3.11 : les composants principaux d’un déploiement typique
CHAPITRE 3 : Etude comparative et choix de la solution
32
• Delivery Controller :
Delivery Controller est le composant de gestion centralisée d’un site. Chaque site possède un
ou plusieurs Delivery Controller. Il est installé sur au moins un serveur dans le centre de données.
Pour la fiabilité et la disponibilité du site, installez des Controller sur plusieurs serveurs4
. Si votre
déploiement comprend un hyperviseur ou un service de cloud, les services Controller communiquent
avec lui pour distribuer des applications et des bureaux, s’authentifier et gérer l’accès des utilisateurs,
négocier des connexions entre les utilisateurs et leurs applications et bureaux, optimiser l’utilisation
des connexions et équilibrer la charge de ces connexions.
Le service broker du Controller contrôle quels utilisateurs sont connectés et depuis quel
endroit, quelles ressources de session les utilisateurs possèdent-ils et si les utilisateurs doivent se
reconnecter aux applications existantes. Le service broker exécute des applets de commande
PowerShell et communique avec l’agent broker situé sur les VDA via le port TCP 80. Il n’est pas
possible d’utiliser le port TCP 4435
.
Monitor Service collecte les données historiques et les places dans la base de données de
contrôle. Ce service utilise le port TCP 80 ou 443.
Les données provenant des services Controller sont stockées dans la base de données du site.
Le Controller gère l’état des bureaux, les démarre ou les arrête à la demande et en fonction de
la configuration de l’administration. Dans certaines éditions, le Controller permet d’installer Profile
Management pour gérer les paramètres de personnalisation des utilisateurs dans des environnements
Windows physiques ou virtualisés.
• Base de données :
Au moins une base de données Microsoft SQL Server est requise pour chaque site pour
stocker toutes les informations de configuration et de session. Cette base de données stocke les
données collectées et gérés par les services qui constituent le Controller. Installez la base de données
dans votre centre de données et assurez-vous qu’elle possède une connexion permanente au
Controller.
Le site utilise également une base de données de journalisation de la configuration et une base
de données de contrôle. Par défaut, ces bases de données sont installées dans le même emplacement
que la base de données du site, mais vous pouvez modifier ce paramètre.
• Virtual Delivery Agent (VDA) :
Le VDA est installé sur chaque machine physique ou virtuelle de votre site que vous mettez à
disposition des utilisateurs. Ces machines fournissent des applications ou des postes de travail. Le
VDA permet aux machines de s’enregistrer auprès du Controller, qui permet à la machine et aux
ressources qu’elle héberge d’être mise à la disposition des utilisateurs. Les VDA établissent et gèrent
la connexion entre la machine et l’appareil de l’utilisateur6
. Les VDA vérifient également qu’une
4
ThiagoDamascenoCordeiro, Douglas BritoDamalio, NadilmaCintra
5
Vivansas.p.r.l.Cloud Computing Enjeux, Perspectives et Impacts métiers ,septempre 2009
6
WygwanLe Cloud Computing : Réelle révolution ou simple évolution ? Webographie
CHAPITRE 3 : Etude comparative et choix de la solution
33
licence Citrix est disponible pour l’utilisateur ou la session et appliquent les stratégies configurées
pour la session.
Le VDA communique des informations de session au service Broker dans le Controller via
l’agent Broker dans le VDA. L’agent broker héberge de multiples plug-ins et collecte des données en
temps réel. Il communique avec le Controller sur le port TCP 80.
Le mot « VDA » est souvent utilisé pour faire référence à l’agent ainsi qu’à la machine sur laquelle il
est installé.
Les VDA sont disponibles pour les systèmes d’exploitation Windows mono-session et multi-
session.
Les VDA pour les systèmes d’exploitation multi-session Windows autorisent plusieurs
utilisateurs à se connecter au serveur à un moment donné. Les VDA pour les systèmes d’exploitation
mono-session Windows ne permettent qu’à un seul utilisateur de se connecter au bureau à la fois. Les
VDA Linux sont également disponibles.
• Citrix StoreFront :
StoreFront authentifie les utilisateurs et gère les magasins de bureaux et d’applications auxquels
les utilisateurs accèdent. Il peut héberger votre magasin d’applications d’entreprise qui fournit aux
utilisateurs un accès en libre-service aux bureaux et aux applications que vous mettez à leur
disposition. Il assure également le suivi des abonnements aux applications des utilisateurs, des noms
de raccourcis et d’autres données. Cela permet de garantir que les utilisateurs ont une expérience
cohérente sur plusieurs appareils.
• Application Citrix Workspace :
Installée sur les machines utilisateur et autres points de terminaison, tels que les bureaux virtuels,
l’application Citrix Workspace offre aux utilisateurs un accès en libre-service, rapide et sécurisé aux
documents, applications et bureaux. L’application Citrix Workspace offre également un accès à la
demande aux applications Windows, Web et Saas (Software as a Service). Pour les périphériques qui
ne peuvent pas installer le logiciel de l’application Citrix Workspace spécifique au périphérique,
l’application Citrix Workspace pour HTML5 offre une connexion via un navigateur Web compatible
HTML5.
• Citrix Studio :
Studio est la console de gestion où vous configurez et gérez votre déploiement Citrix Virtual
Apps and Desktops. Studio élimine le besoin de consoles de gestion distinctes pour gérer la mise à
disposition des applications et des postes de travail. Studio offre des assistants pour vous guider dans
le processus de configuration de votre environnement, créer des charges de travail pour héberger les
applications et bureaux, et attribuer des applications et des bureaux aux utilisateurs. Vous pouvez
également utiliser Studio pour allouer et suivre les licences Citrix pour votre site.
Studio obtient les informations qu’il affiche à partir du Broker Service dans le Controller,
communiquant via le port TCP 80.
Voici un aperçu de Studio :
CHAPITRE 3 : Etude comparative et choix de la solution
34
Figure 3.12 : Citrix Studio
• Citrix Director :
Director est un outil Web qui permet aux équipes d’assistance informatique de surveiller un
environnement, de résoudre les problèmes avant qu’ils ne deviennent critiques et de réaliser des
tâches d’assistance pour les utilisateurs finaux. Vous pouvez utiliser un déploiement de Director pour
vous connecter à et contrôler plusieurs sites Citrix Virtual Apps ou Citrix Virtual Desktops.
Director affiche les éléments suivants :
 Données de session en temps réel à partir du Broker Service dans le Controller, qui
comprennent des données que le service Broker obtient depuis l’agent broker dans le VDA.
 Données de site historiques provenant du service Monitoring dans le Controller.
Director utilise les données de performances et heuristiques ICA capturées par l’appareil Citrix
Gateway pour créer des analyses à partir des données, puis les présenter aux administrateurs.
Vous pouvez également afficher et interagir avec les sessions d’un utilisateur via Director, à
l’aide de l’Assistance à distance Windows.
• Serveur de licences Citrix :
Le serveur de licences gère les licences de vos produits Citrix. Il communique avec le
Controller pour gérer les licences pour chaque session utilisateur et avec Studio pour allouer les
fichiers de licences. Un site doit avoir au moins un serveur de licences pour stocker et gérer vos
fichiers de licences.
• Hyperviseur ou service de cloud :
L’hyperviseur ou le service de cloud héberge les machines virtuelles de votre site. Il peut
s’agir des machines virtuelles que vous utilisez pour héberger les applications et les bureaux, ainsi
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari
Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari

Contenu connexe

Tendances

Rapport de projet de fin d"études
Rapport de projet de fin d"étudesRapport de projet de fin d"études
Rapport de projet de fin d"étudesMohamed Boubaya
 
Rapport pfe Conceptionet Developpement d'une Application web et Mobile
Rapport pfe Conceptionet Developpement d'une Application web et  Mobile Rapport pfe Conceptionet Developpement d'une Application web et  Mobile
Rapport pfe Conceptionet Developpement d'une Application web et Mobile Raoua Bennasr
 
rapport PFE ingénieur génie logiciel INSAT
rapport PFE ingénieur génie logiciel INSATrapport PFE ingénieur génie logiciel INSAT
rapport PFE ingénieur génie logiciel INSATSiwar GUEMRI
 
Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)
Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)
Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)zakia saadaoui
 
Rapport PFE réalisation d’un Framework Kinect
Rapport PFE réalisation d’un Framework KinectRapport PFE réalisation d’un Framework Kinect
Rapport PFE réalisation d’un Framework KinectAmine MEGDICHE
 
Rapport du Projet de Fin d'année Génie informatique ENSA AGADIR
Rapport du Projet de Fin d'année Génie informatique ENSA AGADIRRapport du Projet de Fin d'année Génie informatique ENSA AGADIR
Rapport du Projet de Fin d'année Génie informatique ENSA AGADIRAHMEDAKHACHKHOUCH
 
Rapport interface terminal
Rapport interface terminalRapport interface terminal
Rapport interface terminalBelwafi Bilel
 
Conception et Réalisation Application Web Laravel PFE BTS
Conception et Réalisation Application Web Laravel PFE BTSConception et Réalisation Application Web Laravel PFE BTS
Conception et Réalisation Application Web Laravel PFE BTSFaissoilMkavavo
 
Rapport pfe talan_2018_donia_hammami
Rapport pfe talan_2018_donia_hammamiRapport pfe talan_2018_donia_hammami
Rapport pfe talan_2018_donia_hammamiDonia Hammami
 
Mise en place d'une infrastructure basée sur OpenStack
Mise en place d'une infrastructure basée sur OpenStack Mise en place d'une infrastructure basée sur OpenStack
Mise en place d'une infrastructure basée sur OpenStack Ahmed Slim
 
Mise en place d'une solution du supérvision réseau
Mise en place d'une solution du supérvision réseauMise en place d'une solution du supérvision réseau
Mise en place d'une solution du supérvision réseauRabeb Boumaiza
 
mémoire de projet de fin d'études
mémoire de projet de fin d'études mémoire de projet de fin d'études
mémoire de projet de fin d'études MortadhaBouallagui
 
Conception et développement d'une application Android pour TUNISAIR
Conception et développement d'une application Android pour TUNISAIRConception et développement d'une application Android pour TUNISAIR
Conception et développement d'une application Android pour TUNISAIRSkander Driss
 
éTude et mise_en_place_d'une_solution_voip_sécurisée
éTude et mise_en_place_d'une_solution_voip_sécuriséeéTude et mise_en_place_d'une_solution_voip_sécurisée
éTude et mise_en_place_d'une_solution_voip_sécuriséeSaad Jouhari
 
Projet sur le Cloud Computing
Projet sur le Cloud ComputingProjet sur le Cloud Computing
Projet sur le Cloud ComputingTsubichi
 
Installation et Configuration de Pfsense
Installation et Configuration de PfsenseInstallation et Configuration de Pfsense
Installation et Configuration de PfsenseIsmail Rachdaoui
 
Rapport de projet_de_fin_d__tudes__pfe__safwen (8)
Rapport de projet_de_fin_d__tudes__pfe__safwen (8)Rapport de projet_de_fin_d__tudes__pfe__safwen (8)
Rapport de projet_de_fin_d__tudes__pfe__safwen (8)safwenbenfredj
 
Projet de fin étude ( LFIG : Conception et Développement d'une application W...
Projet de fin étude  ( LFIG : Conception et Développement d'une application W...Projet de fin étude  ( LFIG : Conception et Développement d'une application W...
Projet de fin étude ( LFIG : Conception et Développement d'une application W...Ramzi Noumairi
 
AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...
AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...
AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...Khadidja BOUKREDIMI
 

Tendances (20)

Rapport de projet de fin d"études
Rapport de projet de fin d"étudesRapport de projet de fin d"études
Rapport de projet de fin d"études
 
Rapport pfe Conceptionet Developpement d'une Application web et Mobile
Rapport pfe Conceptionet Developpement d'une Application web et  Mobile Rapport pfe Conceptionet Developpement d'une Application web et  Mobile
Rapport pfe Conceptionet Developpement d'une Application web et Mobile
 
rapport PFE ingénieur génie logiciel INSAT
rapport PFE ingénieur génie logiciel INSATrapport PFE ingénieur génie logiciel INSAT
rapport PFE ingénieur génie logiciel INSAT
 
Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)
Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)
Contribution a la_realisation_dune_plate_forme_de_suivi_de_colis (1)
 
Rapport PFE réalisation d’un Framework Kinect
Rapport PFE réalisation d’un Framework KinectRapport PFE réalisation d’un Framework Kinect
Rapport PFE réalisation d’un Framework Kinect
 
Rapport du Projet de Fin d'année Génie informatique ENSA AGADIR
Rapport du Projet de Fin d'année Génie informatique ENSA AGADIRRapport du Projet de Fin d'année Génie informatique ENSA AGADIR
Rapport du Projet de Fin d'année Génie informatique ENSA AGADIR
 
Rapport interface terminal
Rapport interface terminalRapport interface terminal
Rapport interface terminal
 
Conception et Réalisation Application Web Laravel PFE BTS
Conception et Réalisation Application Web Laravel PFE BTSConception et Réalisation Application Web Laravel PFE BTS
Conception et Réalisation Application Web Laravel PFE BTS
 
Rapport pfe talan_2018_donia_hammami
Rapport pfe talan_2018_donia_hammamiRapport pfe talan_2018_donia_hammami
Rapport pfe talan_2018_donia_hammami
 
Mise en place d'une infrastructure basée sur OpenStack
Mise en place d'une infrastructure basée sur OpenStack Mise en place d'une infrastructure basée sur OpenStack
Mise en place d'une infrastructure basée sur OpenStack
 
Mise en place d'une solution du supérvision réseau
Mise en place d'une solution du supérvision réseauMise en place d'une solution du supérvision réseau
Mise en place d'une solution du supérvision réseau
 
mémoire de projet de fin d'études
mémoire de projet de fin d'études mémoire de projet de fin d'études
mémoire de projet de fin d'études
 
Conception et développement d'une application Android pour TUNISAIR
Conception et développement d'une application Android pour TUNISAIRConception et développement d'une application Android pour TUNISAIR
Conception et développement d'une application Android pour TUNISAIR
 
éTude et mise_en_place_d'une_solution_voip_sécurisée
éTude et mise_en_place_d'une_solution_voip_sécuriséeéTude et mise_en_place_d'une_solution_voip_sécurisée
éTude et mise_en_place_d'une_solution_voip_sécurisée
 
Rapport PFE
Rapport PFERapport PFE
Rapport PFE
 
Projet sur le Cloud Computing
Projet sur le Cloud ComputingProjet sur le Cloud Computing
Projet sur le Cloud Computing
 
Installation et Configuration de Pfsense
Installation et Configuration de PfsenseInstallation et Configuration de Pfsense
Installation et Configuration de Pfsense
 
Rapport de projet_de_fin_d__tudes__pfe__safwen (8)
Rapport de projet_de_fin_d__tudes__pfe__safwen (8)Rapport de projet_de_fin_d__tudes__pfe__safwen (8)
Rapport de projet_de_fin_d__tudes__pfe__safwen (8)
 
Projet de fin étude ( LFIG : Conception et Développement d'une application W...
Projet de fin étude  ( LFIG : Conception et Développement d'une application W...Projet de fin étude  ( LFIG : Conception et Développement d'une application W...
Projet de fin étude ( LFIG : Conception et Développement d'une application W...
 
AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...
AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...
AUTOMATISATION DU DEPLOIEMENT ET DE LA GESTION DES RESEAUX VIRTUELS DANS LE C...
 

Similaire à Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari

rapport fin d'etude
rapport fin d'etuderapport fin d'etude
rapport fin d'etudesihem-med
 
Medical openerp
Medical openerpMedical openerp
Medical openerpHORIYASOFT
 
467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf
467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf
467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdfBader Nassiri
 
Conception et réalisation d'une application mobile cross-platform "Taki Academy"
Conception et réalisation d'une application mobile cross-platform "Taki Academy"Conception et réalisation d'une application mobile cross-platform "Taki Academy"
Conception et réalisation d'une application mobile cross-platform "Taki Academy"Ibtihel El Bache
 
Rapport_pfe_licence_ISAMM
Rapport_pfe_licence_ISAMMRapport_pfe_licence_ISAMM
Rapport_pfe_licence_ISAMMEya TAYARI
 
Rapport PFE Ahmed BEN JEMIA
Rapport PFE Ahmed BEN JEMIARapport PFE Ahmed BEN JEMIA
Rapport PFE Ahmed BEN JEMIAAhmed BEN JEMIA
 
Rapport stage pfe
Rapport stage  pfe Rapport stage  pfe
Rapport stage pfe rimeh moussi
 
AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...
AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...
AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...RidhaChayeh1
 
392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...
392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...
392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...ElAzzabAbdeSsamad
 
Rapport de projet de fin d'études - SIEMENS 2016
Rapport de projet de fin d'études - SIEMENS 2016Rapport de projet de fin d'études - SIEMENS 2016
Rapport de projet de fin d'études - SIEMENS 2016Soufiane KALLIDA
 
Gestion d'erreurs et accès à distance
Gestion d'erreurs et accès à distanceGestion d'erreurs et accès à distance
Gestion d'erreurs et accès à distanceahmed oumezzine
 
Dvp chaine mesure gsm
Dvp chaine mesure gsmDvp chaine mesure gsm
Dvp chaine mesure gsmMohamed Jacem
 
Plateforme de gestion des projets de fin d'études
Plateforme de gestion des projets de fin d'étudesPlateforme de gestion des projets de fin d'études
Plateforme de gestion des projets de fin d'étudesMajdi SAIBI
 
MALLAT_BOURUIS
MALLAT_BOURUISMALLAT_BOURUIS
MALLAT_BOURUISAli Mallat
 
YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...
YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...
YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...YounesAGABI
 
Mise en place d'une stratégie de marketing digital
Mise en place d'une stratégie de marketing digital Mise en place d'une stratégie de marketing digital
Mise en place d'une stratégie de marketing digital Karim Ben Alaya
 
Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)
Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)
Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)Yasmine Tounsi
 

Similaire à Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari (20)

rapport fin d'etude
rapport fin d'etuderapport fin d'etude
rapport fin d'etude
 
Medical openerp
Medical openerpMedical openerp
Medical openerp
 
467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf
467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf
467720159-rapport-final-bouguerra-khadijaesseghaier-lina-pdf.pdf
 
Conception et réalisation d'une application mobile cross-platform "Taki Academy"
Conception et réalisation d'une application mobile cross-platform "Taki Academy"Conception et réalisation d'une application mobile cross-platform "Taki Academy"
Conception et réalisation d'une application mobile cross-platform "Taki Academy"
 
Rapport_pfe_licence_ISAMM
Rapport_pfe_licence_ISAMMRapport_pfe_licence_ISAMM
Rapport_pfe_licence_ISAMM
 
Rapport PFE Ahmed BEN JEMIA
Rapport PFE Ahmed BEN JEMIARapport PFE Ahmed BEN JEMIA
Rapport PFE Ahmed BEN JEMIA
 
pfe final.docx
pfe final.docxpfe final.docx
pfe final.docx
 
Rapport stage pfe
Rapport stage  pfe Rapport stage  pfe
Rapport stage pfe
 
AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...
AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...
AUTOMATISATION D’UNE MACHINE EXTRUDEUSE ET MISE EN PLACE D’UNE INTERFACE HOMM...
 
392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...
392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...
392327755-Conception-Et-Realisation-d-Un-Site-Web-Et-Une-Application-Mobile-d...
 
Rapport de projet de fin d'études - SIEMENS 2016
Rapport de projet de fin d'études - SIEMENS 2016Rapport de projet de fin d'études - SIEMENS 2016
Rapport de projet de fin d'études - SIEMENS 2016
 
Gestion d'erreurs et accès à distance
Gestion d'erreurs et accès à distanceGestion d'erreurs et accès à distance
Gestion d'erreurs et accès à distance
 
Rapport final
Rapport finalRapport final
Rapport final
 
Dvp chaine mesure gsm
Dvp chaine mesure gsmDvp chaine mesure gsm
Dvp chaine mesure gsm
 
Plateforme de gestion des projets de fin d'études
Plateforme de gestion des projets de fin d'étudesPlateforme de gestion des projets de fin d'études
Plateforme de gestion des projets de fin d'études
 
MALLAT_BOURUIS
MALLAT_BOURUISMALLAT_BOURUIS
MALLAT_BOURUIS
 
YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...
YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...
YouTaQA : Système de Questions-Réponses Intelligent basé sur le Deep Learning...
 
Mise en place d'une stratégie de marketing digital
Mise en place d'une stratégie de marketing digital Mise en place d'une stratégie de marketing digital
Mise en place d'une stratégie de marketing digital
 
Rapport finiale
Rapport finialeRapport finiale
Rapport finiale
 
Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)
Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)
Rapport Projet ERP - Plateforme Odoo 12 (PFE Licence)
 

Deploiement solution_ha_de_stockage_ceph_sous_une_plateforme_virtualisee_vsphere-openstack_-_bts_encadre_par_djebbari

  • 1. REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE LA FORMATION ET DE L’ENSEIGNEMENT PROFESSIONNELS INSTITUT NATIONAL SPECIALISE DE FORMATION PROFESSIONNELLE DE BOU-ISMAIL WILAYA DE TIPAZA Mémoire de Fin de Formation en Vue de l’Obtention du Diplôme de Brevet de Technicien Supérieur Spécialité : Informatique/Option : Administration Cloud computing et virtualisation Code de la Spécialité : INT1704 THEME : L’Organisme d’Accueil : SG. NAFTAL Elaboré par : Encadré par : - HADJI Younes Fethi M. DJEBBARI Abdelmadjid - LAROUCI Mostafa - BOUKROUMA Abd El Moumen Co-Encadreur : M. MANSSORI Djamel PROMOTION : Février 2020
  • 2. REMERCIEMENTS Nous remercions tout d’abord « ALLAH » de nous avoir donné le courage d’entamer et de finir ce mémoire dans les bonnes conditions. Nous remercions vivement notre encadreur, Le professeur Mr. Djebbari Abd El Madjid, d’avoir encadré ce travail avec beaucoup de compétences. Nous remercions notre promoteur Mr. Mansouri Djamel Merci pour votre indéfectible disponibilité, votre rigueur scientifique et la confiance que vous nous avez accordée au cours de l’élaboration de ce mémoire ; Merci pour l’acuité de vos critiques et pour vos conseils éclairés. Nous remercions également les membres du jury d’avoir accepté d’évaluer ce travail. Nos remerciements vont également à tous les enseignants qui ont à notre formation. Nos profondes gratitudes s’orientent vers Mr. Abd El Karim ; grâce à lui nous étions des stagiaires à la D.G NAFTAL. Ainsi que tout le personnel du département DCSI de NAFTAL.
  • 3. DEDICACE Je dédie ce modeste travail à : A la mémoire de mon Père Aucune dédicace ne saurait exprimer l’amour, l’estime, le dévouement et le respect que j’ai toujours eu pour vous. A ma très chère mère Aucune dédicace ne saurait être assez éloquente pour exprimer ce que tu mérites pour tous les sacrifices que tu n’as cessé de me donner depuis ma naissance, durant mon enfance et même à l’âge adulte. Tu as fait plus qu’une mère puisse faire pour que ses enfants suivent le bon chemin dans leur vie et leurs études. Je te dédie ce travail en témoignage de mon profond amour. Puisse Dieu, le tout puissant, te préserver et t’accorder santé, longue vie et bonheur. A mes chères sœurs Je vous souhaite un avenir plein de joie, de bonheur, de réussite et de sérénité. Je vous exprime à travers ce travail mes sentiments de fraternité et d’amour. Hadji Younes Fethi
  • 4. DEDICACE Je dédie ce modeste travail à : Mes chers parents Rien au monde ne vaut les efforts fournis jour et nuit pour mon éducation et mon bien être. Ce travail est le fruit de tes sacrifices que tu as consentis pour mon éducation et ma formation. A mon très cher frère Samir Mon cher frère, les mots ne suffisent guère pour exprimer l’attachement, l’amour et l’affection que je porte pour vous. Mon ange gardien et mon fidèle compagnon dans les moments les plus délicats de cette vie mystérieuse. Je vous dédie ce travail avec tous mes vœux de bonheur, de santé et de réussit. A Mes chères frères et sœurs En témoignage de l’attachement, de l’amour et de l’affection que je porte pour vous. Je vous dédie ce travail avec tous mes vœux de bonheur, de santé et de réussite. A tous les membres de ma famille Petits et grands Veuillez trouver dans ce modeste travail l’expression de mon affection. A Mes chères Mohamed, Arbi, Ben Omar et Oussama ; Que dieu vous assistes. Larouci Moustafa
  • 5. DEDICACE Je dédie ce modeste travail à : Mes chers parents Pour tous leurs sacrifices, leur amour, leur tendresse, leur soutien et leurs prières tout au long de mes études. Que ce travail soit l’accomplissement de vos vœux tant allégués, et le fuit de votre soutien infaillible. A Mes chères sœurs Je vous dédie ce travail avec tous mes vœux de bonheur, de santé et de réussite. A Mes enseignants Un profond respect et un remerciement particulier pour vous. A mes Amis A tous ceux qui me sont chers Boukrouma Abd El Moumen
  • 6. Table des matières : Remerciements Dédicaces Introduction générale Problématique Objectifs du projet Chapitre 1 : présentation de l’entreprise (lieu du stage)…………………………………...1 Section I : Fiche signalétique de NAFTAL District Carburants.……………………….1 A. Historique de NAFTAL ………………………………………………………..1 B. Principales tâches et responsabilités de NAFTAL ……………………...…….1 C. Organisation de NAFTAL ……………………………………………………...2 1. Service Informations de Gestion (ING) : sa mission consiste à……………2 2. Département AMG (administration et moyen généraux) : Les missions du département AMG sont…………………………………………………….2 3. Département finances et comptabilité : Le département finance et comptabilité a pour mission de…………………………………………….2 4. Département Transport & Technique : Il a pour mission………………....3 Section II : Les Moyens et de l’entreprise NAFTAL…………..……………………….4 A. Les moyens de l’entreprise NAFTAL…………………………………..………4 B. Produits commercialisés par l’entreprise…………………………………….…5 1. Carburants………………………………………………………………....5 2. Gaz de pétrole liquéfié ……………………………………………….……6 Chapitre 2 : Technologie de Virtualisation et de Cloud : Etat de L'art………………...…..9 I. Introduction………………………………………………………………….…...9 II. Technologie de Virtualisation....…………………………………………....…...9 1. Définition...………………………………………………………………….9 2. Historique de la virtualisation………...……………………………………..9 2.1. Premiers pas…………………………………………………..…….9 2.2. Machines virtuelles…………………………………...……………..9
  • 7. 2.3. Amélioration des technologies………………………….………….10 2.4. Intérêt du grand public……………………………………..……….10 3. Les types de virtualisations.………………………………………………..10 3.1. La virtualisation complète.………………………………………....10 3.2. La paravirtualisation ……………………………………………13 3.3. Virtualisation matérielle …………………………………………..15 4. Techniques de virtualisation …..…………………………………………...17 4.1. L’Isolation et Le Cloisonnement …………………….…………....17 III. Technologie de Cloud Computing ……………………………………………..17 1. Technologie de Datacenter ………………………………………………...17 2. Historique du Cloud Computing….……………………..........................18 3. Bénéfices du cloud Computing ……………………………………………18 3.1. Pour le fournisseur ………………………………………….……..18 3.2. Pour l'entreprise ...…………………………………………………18 IV. Les différents services…………………………………………………………19 V. Types et Modèles de déploiement de cloud……………………………………19 VI. Les solutions de cloud…………………………………………………………20 1. Eucalyptus……………………………………………………….…………20 2. OpenNebula………………………………………………………………..20 3. OpenStack…………………………………………………………….……20 Chapitre 3 : Etude Comparative et Choix de la solution………………………….………23 I. Introduction…………………………………………………….……………...23 II. Solutions de Virtualisation …………………….……………………………...23 1. VMware (vSphere, ESXi...) ...………….……………………………….....24 1.1. VMware vSphere ………………………………………………..…24 1.2. Composants et fonctionnalités…………………………………..….25 2. Citrix (Xenserver...) ……………………………………………………..…30 2.1. Composants et fonctions…………………………………………....32 2.1.1 . Composants principaux…………………………………….....32 2.1.2 . Composants supplémentaires…………………………………35
  • 8. III. Solutions de cloud…………………………………………………………...36 1. Solution Eucalyptus ……………………………………………………......36 2. Solutions OpenNebula……………………………………………………...37 3. Solutions Openstack………………………………………………………..38 Chapitre 4 : Technologies de stockage et Haute Disponibilité…………………………….43 I. Introduction…………………………………………………………...………43 1. Technologies de stockage (NAS SAN...)…………………………….……44 1) Fonctionnement………………………………………………….…47 2) Quel type de réseau utilise un réseau SAN?......................................47 3) Quels types de commutateurs sont appropriés SAN?........................48 4) Peut-on bâtir un réseau SAN sur réseau existant?.............................48 5) Qu'est-ce qu'un serveur SAN?...........................................................48 6) Topologie…………………………………………………………..49 7) Applications………………………………………………………..49 8) Défauts et qualités…………………………………………….....49 A. Défauts………………………………………………….....49 B. Qualités………………………………………………….....49 2. Systèmes de stockage (CEPH NFS...) ………………………………….....51 A. Architecture de CEPH ………………………………………………..52 B. Les services CEPH……………………………………………………53 C. Gestion de stockage CEPH……………………………….…………...53 C.1. Les pools……………………………………………….…….....53 C.2. Réplication de données………………………………………....54 a. Clonage……………………………….....................................54 b. Utilisation de code à effacement (erasurecoding)…………….54 D. Implantation de stockage distribué à travers Proxmox VE……....…..55 D.1.Implémentation du système de stockage tolérance aux pannes développées pour la virtualisation: le Ceph…………………………………….…..55 a. Configuration du réseau dédié à Ceph…………………….….55 D.2.Installation des paquets CEPH ………………………………...56 D.3.Création de la configuration initiale Ceph……………………..56 D.4.Mise en place des services Ceph……………………………….56 a.Création des moniteurs Ceph………………………………....56
  • 9. b.Création des OSD Ceph ……………………………………...57 D.5. Création de pool Ceph…………………………………………57 3. Concepts et techniques de la haute disponibilité …………………………59 3.1. Mesure du taux de disponibilité……………………………...……59 3.2. Techniques améliorant Ha disponibilité……………………….....60 3.3. Dépendance vis-à-vis des autres applications…………………….61 3.4. Répartition de charge et sensibilité……………………………….62 3.5. Redondance différentielle………………………………………...62 3.6. Redondance avec système de vote………………………………..62 3.7. Shadow opérations………………………………………………..63 4. Les processus qui permettent d'améliorer la haute disponibilité……...….63 4.1. Les processus qui réduisent le nombre de pannes………………….63 4.2. Les processus réduisant la durée des pannes………………………..63 5. Cluster haute disponibilités ……………………………………………...63 Chapitre 5 : Branche Fonctionnelle : Analyse et Spécification des Besoins……………66 I. Introduction…………………………………………………………………66 II. Scénario 1 : Serveur web virtualisé au sein d'Openstack …………………..66 1. Scénario 1a : Système de stockage NFS …………………………………………66 1.1 Les entités physiques………………………………………………..67 1.2 L’utilité des services Openstack…………………………………….68 1.3 Echange de messages………………………………………………..69 1.4 Les services OpenStack…………………………………………………70 1.4.1 Administration de l’infrastructure Openstack ……………...70 1.4.2 Gestion de la virtualisation …………………………………71 1.4.3 Gestion de l’authentification (Keystone)……………………72 1.4.4 Les Bases de Données……………………………………….74 1.5 Profil d’une VM……………………………………………………..75 1.6 Processus de démarrage d’une VM ………………………………...77 1.7 Réseau des VMs……………………………………………………..79 1.8 Stockage par fichier des VMs………………………………………..81
  • 10. 1.9 Conclusion du Scénario 1a ………………………………………….82 2. Scénario lb : Gestion du stockage par bloc ………………………………..82 2.1. Schéma du scénario lb ……………………………………………....82 2.2. Composition de Cinder……………………………………………....83 2.3. Fonctionnement de Cinder…………………………………………...83 2.4. Problèmes rencontrés…………………………………………………84 2.5. Conclusion du Scénario 1b…………………………………………...85 III. Scénario 2 : Haute Disponibilité du Cloud Controller ……………………..85 1. Qu'est-ce que la HA ………………………………………………………..85 1.1 La HA Active/Active………………………………………………....86 1.2 La HA Active/Passive………………………………………………..86 1.3 L’IP flottante ou virtuelle…………………………………………….87 1.4 Services Stateless ou Statefull………………………………………..87 2. Scénario 2 : La HA au sein des AP] OpenStack……………………………88 2.1. Schéma du scénario 2a……………………………………………….88 2.2. But du Scénario…………………………………………………........89 2.3. Éléments physiques…………………………………………………..89 2.4. HA Active/Active avec HAProxy……………………………………89 2.5. HA Load Balancer avec KeepAlived………………………………...90 2.6. Bilan Scénario 2a…………………………………………………….90 3. HA SQL (Active/Active Statefull) ………………………………………...92 3.1. Schéma du Cluster SQL……………………………………………...92 3.2. Théorème du CAP……………………………………………………93 3.3. Gestion du Cluster SQL……………………………………………....94 IV. Scénario 3 : Collecte et entreposage des Logs………………………………95 1. Cahier des Charges………………………………………………………….95 2. Contraintes………………………………………………………………….95 3. Variantes de stockage de Logs………………………………………………96 3.1. Variante 1 : Stockage des Logs sous forme de fichiers……………….96 3.2. Variante 2 : Logstash-­‐> ElasticSearch……………………………....98 3.3. Variante3 : Logstash-­‐> Redis -­‐> Logstash -­‐>ElasticSearch……..102 3.4. Variante 4 : Abolition du serveur de Logs physique………………….103 3.5. Comparaison des quatre variantes et choix…………………………...103 3.6. Choix de la variante…………………………………………………..105
  • 11. 4. Supervision des ressources physiques……………………………………....105 5. Problèmes rencontrés………………………………………………………..106 6. Bilan du scénario 3…………………………………………………………..106 Chapitre 6 : Supervision des ressources avec Shinken……………………………………...108 I. Introduction……………………………………………………………………..108 1. But du scénario……………………………………………………………….108 2. Schéma de principe…………………………………………………………..108 3. Supervision des services d'APl OpenStack…………………………………...108 3.1. Problème au niveau des tests via l'IP Virtuelle ………………………..110 4. Supervision des ressources physiques………………………………………...110 5. Mise en place de tests interdépendants………………………………………..111 5.1 Finalité du test…………………………………………………………..111 5.2 Plugin de démarrage d’une VM intégré à Shinken……………………..112 6. Bilan du scénario………………………………………………………………113 Conclusion générale……………………………………………………………………………114 Bibliographie……………………………………………………………………………………115 Liste des abréviations …………………………………………………………………………116
  • 12. Liste des figures : Numéro Désignation page Figure 2.1 Virtualisation complète 11 Figure 2.2 Couches d’abstraction pour la gestion de la mémoire 12 Figure 2.3 Paravirtualisation 14 Figure 2.4 Hyperviseur 16 Figure2.5 Les services de cloud 19 Figure 3.1 Relations entre les couches de composants de VMware vSphere 24 Figure 3.2 VMware ESXI 25 Figure 3.3 VMware vSphere Client 26 Figure 3.4 VMware vSphere Web Client 27 Figure 3.5 VMware VCenter Server 27 Figure 3.6 vSphere vMotion 28 Figure 3.7 vSphere Storage vMotion 29 Figure 3.8 vSphere High Availability (HA) 29 Figure 3.9 vSphere Fault Tolerance 30 Figure 3.10 Xen server architecture 31 Figure 3.11 les composants principaux d’un déploiement typique 32 Figure 3.12 Citrix Studio 34 Figure 3.13 Architecture d’Eucalyptus 37 Figure 3.14 Les déférents couches d’OpenNebula 38 Figure 3.15 Les déférents taches d’Openstack 39 Figure 3.16 Les différents services d’openstack 41 Figure 4.1 L’architecture de réseau NAS 44 Figure 4.2 Protocole de stockage NAS 46 Figure 4.3 L’architecture de réseau SAN 47 Figure 4.4 Topologie de réseau SAN 49 Figure 4.5 L’architecture de réseau DAS 50 Figure 4.6 Topologie de réseau DAS 51 Figure 4.7 Architecture Cèph 52 Figure 4.8 Organisation des données dans Ceph 54 Figure 4.9 Illustration des deux modes de réplication des données 55 Figure 4.10 Création d'une carte réseau en mode agrégation 56 Figure 4.11 OSD installé 57 Figure 4.12 L'état de cluster Ceph 58 Figure 5.1 But des services OpenStack 68 Figure5.2 Différents types de messages 70 Figure5.3 Interface GUI Horizon 71 Figure5.4 Authentification Keystone 73 Figure5.5 Disques virtuels d'une VM 76 Figure5.6 Démarrage d'une VMs 77 Figure5.7 Configuration de la future VM 78 Figure5.8 Gestion de l'IP flottante 80 Figure5.9 Security-Group sous Horizon 81 Figure 5.10 Graphiques générés par Kibana 101 Figure 5.11 Chargement des JSON distants 102 Figure5.12 Aperçu du Cluster 106 Figure 6.1 Infrastructure opérationnelle 109 Figure 6.2 Fonctionnement de la HA malgré un des deux Horizon Down 109
  • 13. Liste des Schémas : Numéro Désignation page Schéma 5.1 schéma Scénario 1a 67 Schéma 5.2 schéma Scénario 1b 82 Schéma 5.3 Attribution d'un volume par bloc 83 Schéma 5.4 Principe de HA 85 Schéma 5.5 HA Active/Passive 86 Schéma 5.6 Gestion IP virtuelle 87 Schéma 5.7 HA au sein de l'API OpenStack 88 Schéma 5.8 HA au niveau SQL 92 Schéma 5.9 Théorème du CAP 93 Schéma 5.10 Récolte des Logs en un point central 96 Schéma 5.11 Producteurs de logs -> Consommateurs 98 Schéma 5.12 Cluster ElasticSearch 100 Schéma 5.13 Récupération des Logs avec Kibana 101 Schéma 5.14 Mémoire tampon de Logs 102 Schéma 5.15 Cluster ELS variante 2 103 Schéma 6.1 Monitoring des API et serveurs physiques 108 Schéma 6.2 Diagrammes de tests Shinken 112
  • 14. I INTRODUCTION GENERALE: Surfer dans les nuages a toujours été le rêve des hommes. Ce domaine était longtemps réservé aux poètes, et leur offrait la possibilité de s’évader des problèmes quotidiens qui les assaillaient. Mais depuis le jour où les avions et autres objets volants, conquirent le grand espace ciel, une grande majorité de gens pouvait sillonner plusieurs types de nuages. Ce rêve est également devenu réalité, dans le domaine de l’informatique. Actuellement, on parle beaucoup de Cloud Computing, et ce n’est pas par hasard. En effet, le matériel et les systèmes informatiques associés évoluent pour satisfaire les besoins de calcul qui s’accroîent chaque jour. Pour cela, les chercheurs et les technologues travaillent dur et péniblement afin de simplifier la gestion des infrastructures informatiques, la continuité d’activité et la réduction du coût qui représente une stratégie des entreprises d’aujourd’hui pour se focaliser sur leur métier spécifique marqué par une concurrence aiguë. Les solutions présentes sur le marché actuellement sont souvent complexes et très coûteuses. En parallèle, les évolutions quotidiennes au niveau des infrastructures réseaux et les systèmes d’information ont conduit à l’arrivée de nouveaux périphériques et technologies, ce qui rend la tâche de déploiement et de gestion encore plus difficile à assurer. De toutes ces contraintes est né le besoin de « la virtualisation » qui est survenu comme une solution révolutionnaire à un grand nombre de défis auxquels l’entreprise devait faire face. Assurément, remplacer un parc de serveurs physiques par une architecture virtualisée constitue une véritable révolution dans la conception des systèmes d’information. L’objectif de cette technique est d’augmenter la flexibilité et d’améliorer l’utilisation des ressources matérielles à moindre coût, tout en assurant la performance et la disponibilité des services. Cette notion a évoluée encore plus, et a fait apparaître un nouveau terme : le Cloud Computing. Dans les dernières années, cette terminologie, qui se base sur la virtualisation, a envahi le monde de la commercialisation, et s’est présentée comme une solution inédite arrivant jusqu’aux clients distants. Toutefois, cette tendance divulgue des défaillances, qui ont été souvent ignorées lors de ces déploiements en raison du coût, ou la complexité de mise en place. Les entreprises ont besoin de mettre en place plusieurs outils et services pour pouvoir exécuter leurs travaux, afin de bien assurer la gestion des projets, leurs qualités et la productivité des équipes ainsi que l’évolution sûre du produit pour une meilleure compétitivité sur le marché. C’est sous cette optique, que nous allons réaliser au niveau de ce PFE, une plateforme de virtualisation qui permet de migrer de l’architecture physique existante vers un environnement virtuel et déployer une solution haute disponibilité de stockage.
  • 15. II Problématique : Parmi les problèmes et les limites que nous avons étudiées taus allons citer : • Le non interoperabi lite entre les diffèrent types d'hyperviseurs (ESXi, KVM) • Facturation selon la performance des ressources répondre aux besoins des clients par fournit des machines et des serveurs virtuels de performances précises selon leurs besoins. • Cout élevé. A. Les hypothèses : Les principales motivations pouvant influences l'adoption d’une solution alternative aux posses de travail physiques traditionnels sont les suivantes : • Minimiser les coûts. • Gestion des postes de travail plus facile. • Accès distant. Facile • Flexibilité assurée. B. Le plan de travail : • Technologie de Virtualisation et de Cloud : Etat de L'art. • Etude Comparative et Choix de la solution. • Technologies de stockage et Haute Disponibilité. • Branche Fonctionnelle : Analyse et Spécification des Besoins. • Supervision des ressources avec Shinken. • Branche Technique : Spécifications Techniques. • -Perspectives futures. C. Les méthodes de recherche adoptées : Le projet a été mené en suivant 6 étapes : • Etude préalable. • Recueil des besoins. • Etude et conception du projet. • Phase de réalisation. • Mise en œuvre. • Evaluation.
  • 16. III D. Les raisons du choix du thème : Nous avons choisi ce thème car il nous permettre de : • Pouvoir faire les bons choix de configuration. • Savoir déployer manuellement un cloud Vsphére / OpenStack pour fournir du IaaS. • -Connaitre les bonnes pratiques de déploiement d’OpenStack et de Vsphére. • Être capable de déterminer l’origine d’une erreur dans OpenStack et un Vsphére. • -Savoir réagir face à un bug.
  • 17. IV Objectif du thème : - Avoir une solution fiable et efficace pour anticiperles difficultés quepourrait rencontrer un internaute et qui permettra de mettre en place des actions et des paramètres techniques, pour qu’une infrastructure informatique soit toujours en mesure de répondre à la requête d’un utilisateur - Manipuler et orchestrer des ressources dans un cloud Vsphére / OpenStack. - Définir, déployer et maintenir une infrastructure dans le cloud. - Connaitre le fonctionnement du projet Vsphére / OpenStack et ses possibilités Comprendre le fonctionnement de chacun des composants d’OpenStack /Vsphére. Les contraintes affrontées durant la réalisation du travail : Ce PFE a été effectué dans une période insuffisante. Au début du PFE, le sujet n'était pas encore clairement défini. En plus la difficulté de collecte des données et des informations avec le manque de références et matériel. Nous avons également eu de la difficulté à communiquer les uns avec les autres en raison de la séparation à cause de virus Corona.
  • 19. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 1 • Présentation de l’organisme d’accueil : Section I : Fiche signalétique de NAFTAL District Carburants. A.Historique de NAFTAL : Issue de SONATRACH (Société National pour la recherche, Transport, production, transformation, la commercialisation des hydrocarbures), l’entreprise nationale de raffinage et de distribution de produits pétroliers (ERDP) a été crée par le décret N°80-101 datant du 06 Avril 1980. Entrée en activité le 01er Janvier 1982, elle fut chargée de l’industrie de raffinage et de la distribution de produits pétroliers. Le 04 Mars 1985, les districts suivants carburants, lubrifiants, pneumatiques et bitumes ont été regroupés sous le nom UND (Unité NAFTAL de Distribution). Durant l’année 1987, l’activité de raffinage est séparée de la distribution, conformément au Décret N°87-189 du 25 Aout 1987.Modifiant ainsi le décret N°80-101 du 06 Avril 1980, donnant naissance a une nouvelle entreprise nationale dénommée : « Entreprise nationale de commercialisation et de distribution de produits pétroliers » Sous le sigle de « NAFTAL ». Dès l’année 1998, elle change de statut et devient une société par action SPA et filiale SONATRACH a 100 %, elle interviendra par la suite dans les domaines suivants : • Dans l’enfûtage GPL. • Dans la formulation des bitumes. • Dans la distribution, stockage et commercialisation des carburants, GPL, lubrifiants, bitumes, pneumatiques, GPL/produits spéciaux. • Dans le transport des produits pétroliers. Le 01er Janvier 2000, l’activité GPL enfutage est séparée de l’activité CLP. Par décision N°S 554 du 29 mars 2000, il a été procédé à l’organisation générale de la division CLP et l’identification des zones de distribution « CLP » (Carburants Lubrifiants et Pneumatiques). Par décision N° 555 du 29 Mars 2000, il a été procédé à la création des zones de distribution CLP. Par décision N°S 606 du 10 Février 2001, il a été procédé à l’organisation et la classification des centres Bitumes de la division Bitume. Par décision N°S 705 du 17 juin 2002, il a été procédé à la re-nomination des zones de distribution CLP et GPL en District. Par décision N°S766 du 22 Décembre 2003, il a été procédé à la dissolution de la branche CLPB. Par la décision N°S 770 du 03 Janvier 2004, il a été procédé à la dissolution des districts CLP et création des districts commercialisation. A partir du 01er décembre 2006 l’activité carburant est séparée de l’activité commercialisation (L’activité carburant se charge du stockage et déstockage des carburants et l’activité commercialisation s’occupe essentiellement des achats, ventes, bilan annuel, projets…etc.). B.Principales tâches et responsabilités de NAFTAL : • Identifier et recenser les infrastructures, équipements et autres moyens matériels camions, canalisation) relevant de l’activité carburants du district, les structures d’organisation (services, maintenance, installations fixes, surveillance et entretien canalisations, reconnaissance produits…) et les moyens humains œuvrant pour l’activité carburants. • Suivre les plans établis par la branche carburant pour l’approvisionnement et le ravitaillement en carburants des dépôts et communiqué régulièrement les états d’exécution aux structures concernées.
  • 20. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 2 • Exécuter les programmes de la distribution établis par les districts commercialisation pour la livraison de la clientèle. • Gérer les stocks en carburants au niveau des dépôts et communiques régulièrement des points de situation aux structures concernées de la branche. • Suivre l’exploitation et la maintenance des infrastructures de stockage et autres moyens (camions, canalisations) carburants des branches rattachées au district. • NAFTAL est responsable, en liaison avec les responsables concernés des centres carburants et canalisations, de la sûreté interne des installations et des moyens. • Gérer en liaison avec les structures de la branche, les relations avec les directions des raffineries NAFTEC, capotage et transport SNTR et tiers et les transmettre aux structures de la branche pour règlement. • Approuver les bordereaux inter unités (BIU) émis par les districts commercialisation vers le district carburant. C.Organisation de NAFTAL : Comme toute entreprise NAFTAL possède sa propre organisation nous illustrons les principaux services : 1. Service Informations de Gestion (ING) : sa mission consiste à : • Collecter, vérifier et analyser les informations de gestion de district. • Elaborer les tableaux de bord et rapports de l’activité du District. • Assurer l’installation et l’exploitation et la sauvegarde des logiciels de gestion et données afférentes. • Prêter assistance aux structures en matière d’exploitation des applications informatiques opérationnelles. 2. Département AMG (administration et moyen généraux) : Les missions du département AMG sont : • Assurer la gestion des moyens généraux du district • Assurer la gestion des ressources humaines • Assurer la gestion de l’administration • Assurer la gestion des œuvres sociales et culturelles 3. Département finances et comptabilité : Le département finance et comptabilité a pour mission de : • Coordonner et suivre toutes les activités de comptabilité de trésorier, budget et patrimoine. • Consolider, analyser les états comptables et veiller à la sincérité des comptes du District. • Veiller à la concordance des écritures comptables avec les flux physiques et financiers. Service trésorerie : il est composé de deux sections, la Section recettes et la section dépense.
  • 21. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 3 Sa mission est de : • Suivre et contrôler les flux, recettes et dépenses de trésorerie. • Traiter les dossiers de paiement d’investigation, fournisseurs et autres dépenses. • Etablir les situations de rapprochement des comptes (recettes et dépenses) • Contrôler et effectuer les comptabilisations des comptes et grands livres de trésorerie. • Etablir des rapports d’activités. Service comptabilité générale : il est composé de deux sections, la Section SVCD et la Section comptabilité. Sa mission est de : • Procéder aux écritures comptables conformément aux préconisations du plan comptable national. • Elaborer les documents comptables (Bilans, balances et livres). • Contrôler les arrêtés de comptes et préparer les inventaires et bilans. • Elaborer les analyses et synthèses comptables. • Procéder aux opérations des clôtures et réouvertures des comptes. Service budgets et coûts : Ses diverses missions sont : • Elaborer les budgets prévisionnels d’investissement et de fonctionnement du District. • Consolider l’ensemble des charges nécessaires à la détermination du coût • Contrôler et traiter les situations financières du District • Procéder aux ajustements des budgets et crédits • Assurer le suivi régulier de la comptabilité analytique 4. Département Transport & Technique : Il a pour mission : • Elaborer les plans de maintenance préventive et curative des équipements, dépôts, et canalisation et en suivre l’exécution. • Elabore les plans annuels et pluriannuels de transport, en prenant en charge les besoins de distribution et ravitaillement des produits commercialisés. • Suivi de la réalisation des travaux. • Elaborer les plans et budgets d’investissement (rénovation, extension, remise à niveau, remplacement) des installations fixes, canalisation, réseau de stations-services et autres. • Etablir un rapport d’activité périodique. Ce département comporte les services suivants : Service exploitation et maintenance : Sa mission est de : • Vérifier l’application des prescriptions du règlement d’exploitation, de sécurité des équipements et installation fixes. • Etablir les performances de maintenance. • Assurer la maintenance des installations au niveau des dépôts carburants
  • 22. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 4 Service études et réalisation : Sa mission est : • D’établir la partie technique des cahiers de charges. • De contrôler et diriger les différents travaux. • De suivre les travaux programmés ayants traits aux projets. Le District dispose de deux (02) dépôts carburants à Bejaïa, un (01) à TAHER /W. JIJEL, un (01) à Bordj Bou Arreridj et un (01) à M’SILA. Section II : Les Moyens et de l’entreprise NAFTAL : A.Les moyens de l’entreprise NAFTAL : Avec un personnel de 31500 agents. Affectif au 31/12/2009, NAFTAL est le premier et le seul distributeur de produit pétroliers en Algérie. Elle contribue de 51 % de l’énergie finale en fournissant plus de 10 millions de tonnes de produits pétroliers par an sous forme de : • Carburant. • Gaz de pétrole liquéfié. • Bitumes. • Lubrifiants Pour cela NAFTAL dispose de : • 67 centres et dépôts de distribution et stockage carburant. Lubrifiants et pneumatique. • 55 dépôts d’avitaillement d’aéronefs, centres et point de ventes à la mer. • 45 centres d’emballage GOL d’une capacité d’enfutage de 1.2 million de tonnes/an. • 59 dépôts relais de stockage GPL. ¬ 05 centres vrac GPL. • 16 unités de formulation de bitumes de 360.000 tonnes/an. • 3500 véhicules de distribution et 1800 engins de manutention et de maintenance. • 380 km de pipe-lines multi produits carburants et GPL. Et son réseau de distribution s’étend sur : • 1732 stations de service dont 328 en gestion directe par NAFTAL. • 124 points de vente d’essence sans plomb. • 268 points de vente GPL/CARBURANT. • 14550 points de vente GPL. La couverture des besoins du marché national en produit pétroliers implique des transports massifs de carburants et GPL depuis les sources de production vers les zones de consommation qui sont les districts.
  • 23. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 5 Pour assurer cet équilibre entre l’offre et la demande, NAFTAL met à contribution plusieurs modes de transport : • Cabotage pipe : pour l’approvisionnement des entreprises à partir des raffineries. • Rail/chemin de fer : pour le ravitaillement des dépôts de l’intérieure du pays à partir des entrepôts. • Route : pour la livraison des clients et le ravitaillement des dépôts non desservis par le rail. • Pour accomplir sa mission de distribution des pétroliers, NAFTAL dispose d’un parc dépassant les 3 mille véhicules de distribution constitue de : • Tracteur routier. • Semi-remorques plateaux. • Semi-remorques citernes. • Camion citernes. • Camion plateaux. • Camion porte palettes. Ça lui permet d’assurer 70 à 75 % des livraisons clients, le reste étant assuré par les transporteurs tiers ou par les clients eux-mêmes. Par ailleurs, NAFTAL dispose de (7) barges pour le soutage des navires et affrète en permanence auprès des entreprises publiques de transport : • 160 citernes carburantes (SNTR). • 960 wagons-citernes (SNTF). • 04 caboteurs (SNTM/HYPROC). B.Produits commercialisés par l’entreprise : 1. Carburants :  Terre : NAFTAL commercialise quatre (4) types de carburants « terre » pour la motrice essence et diesel : • Essence super. • Essence normale. • Essence sans plomb. • Gas-oil. Ces produits stockés et distribués par NAFTAL sont tous issus des raffineries de NAFTEC et répondent entièrement aux normes de qualité algérienne.  Aviation : Jet a1-for Jos issus 18 kérosène utilisé par les avions.  Marine : FUEL BUNKERC • Norme iso 9217 FUEL 80(BTS), utilisée par les navires.
  • 24. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 6 2. Gaz de pétrole liquéfié  Nature et composition : Les GPL désignent : gaz de pétrole liquéfié. Ce sont les mélanges de butane 4) et de propane (3). Les GPL peuvent être obtenus à partir de traitement des hydrocarbures tels que : • Le traitement du gaz naturel ou gaz associés. • Le raffinage du gaz naturel. • La liquéfaction du gaz naturel. Dans la gamme des produits GPL, NAFTAL commercialise trois (3) produits essentiels : • Le butane commercial. • Le propane commercial ; • Le GPL carburant « SIRGHAZ ». Suite à une phase d’étude d’expérimentation entamée en 1977.la décision d’introduire le GPL carburant « SIRGHAZ » est intervenue en 1983 avec l’adoption de bicarburation et de la mise en place de la réglementation liée aux conditions d’utilisation du GPL/C.  Lubrifiants : A travers son réseau de distribution étendu sur le territoire national, NAFTAL commercialise une gamme complète de lubrifiants qui couvrent tous les besoins du secteur automobile et industriel. Répondant à des normes d’emballages variés, depuis la boite de ½ litre au fut de 180 kg Les gammes commercialisées par NAFTAL sont : • Les huiles motrices à essence. • Les huiles motrices à diesel. • Les huiles motrices industrielles. • Les graisses.  Pneumatiques : Grace à des infrastructures de stockage et son réseau de distribution, NAFTAL commercialise des pneumatiques des grandes marques dans les catégories de véhicules les plus diverses : • Tourisme. • Camionnette. • Poids lourds. • Industriel. • Manutention. • Agraire. • Génie civil. • Cycle.
  • 25. CHAPITRE 1 : Présentation de l’entreprise (lieu du stage) 7 Portant le label de constructeurs renommés, les pneumatiques proposés par NAFTAL sont fournis après contrôle de qualités les plus strictes pour garantir la sécurité des utilisateurs et répondent amplement aux exigences requises.  Bitume : NAFTAL commercialise à partir de ses centres quatre (4) formes de bitumes : • Les bitumes purs 80/100 et 40/50 utilisés dans les domaines de la construction et des chaussées. • Les bitumes oxydés 85/25 utilisés pour l’étanchéité multicouches, pour l’isolement thermique et phonique et pour la protection des ouvrages d’art. • Ils sont commercialisés en vrac et sous deux (2) formes de conditionnement, en sacs de 20 kg et en futs de 200 kg. • Les bitumes fluidifiés ou CUT-BACKS ; ils sont obtenus en fluidifiant les bitumes purs avec le kérosène. • Les émulsions de bitumes sont des dispersions de bitumes pures dans une solution aqueuse.
  • 27. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 8 I. Introduction : Alors que les données informatiques augmentent de façon exponentielle, et que les entreprises font de plus en plus appel aux processus informatiques pour gagner en productivité et en compétitivité, la possible réduction des coûts de gestion des infrastructures informatiques est une des principales priorités des entreprises. Ces dernières années, plusieurs moyens sont apparus pour aborder cette réduction des coûts, parmi lesquels, la virtualisation, et le Cloud Computing. La virtualisation et le Cloud Computing sont deux concepts différents, mais pourtant complémentaires. Nous allons dans ce chapitre nous attacher à vous présenter et vous définir ces deux notions, ainsi que leurs types et les usages possibles pour les entreprises. II. Technologie de Virtualisation : 1. Définition : La virtualisation est l’abstraction du matériel physique afin de générer des ressources virtuelles dans le but de faire fonctionner plusieurs machines virtuelles au sein d’une même machine physique. Ainsi, la virtualisation fait intervenir trois principaux composants : • Un système d'exploitation principal installé sur la machine physique, appelé système hôte, car il joue le rôle d'hôte à d'autres systèmes d’exploitation ; • Un hyperviseur un outil de virtualisation installé sur le système hôte qui fournit l'environnement dans lequel différentes machines virtuelles s’exécutent ; • Un système d'exploitation installé dans une machine virtuelle, appelé système invité, qui fonctionne indépendamment des autres systèmes invités dans d'autres machines virtuelles 2. Historique de la virtualisation : Les premiers ordinateurs, qui occupaient plusieurs pièces d’un bâtiment, n’étaient pas faits pour exécuter plusieurs programmes à la fois. On concevait un programme (qui était à l’époque une simple succession de calculs), on le mettait dans la file d’attente des programmes, et quand le système d’exploitation avait fini de traiter un programme, on lui donnait le suivant dans la liste. 2.1. Premiers pas Très vite, dès la fin des années cinquante, l’idée de pouvoir exécuter plusieurs programmes en parallèle voit le jour. On parle de temps partagé (time sharing), de multiprogrammation, etc. L’idée était de pouvoir faire cohabiter plusieurs programmes au même moment, ayant tous accès au même matériel, sans qu’ils ne se gênent mutuellement. La virtualisation est très proche de concept. 2.2. Machines virtuelles Au milieu des années soixante, IBM effectue des recherches sur les systèmes virtualisés avec le projet M44/44X. L’architecture du système se basait sur des systèmes d’exploitation virtualisés (nommés 44X) s’exécutant au-dessus du matériel (une machine M44). Les systèmes invités étaient
  • 28. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 9 gérés par une simple multiprogrammation. En 1967 est lancé, toujours par IBM, le système CP-40, le premier système offrant une virtualisation complète. Le CP-40 sera suivi par plusieurs évolutions, amenant chacune de nouvelles fonctionnalités pour les utilisateurs. On peut notamment citer Le système VM/370, qui a connu un très fort succès dans les entreprises, et est parfois encore en usage dans certaines entreprises aujourd’hui. 2.3. Amélioration des technologies Après le succès des machines virtuelles introduites par IBM, les technologies ont assez peu évolué. Le système hôte a vite été réduit à l’état de simple arbitre entre les systèmes invités, amenant la notion d’hyperviseur. Toutefois, toutes ces technologies de virtualisation étaient réservées au monde professionnel, destinées à être utilisées sur des mainframes coûtant plusieurs millions de dollars. Parallèlement à cela, le monde de la recherche (souvent financé par ces mêmes entreprises) a continué à étudier différentes possibilités pour améliorer les performances et à essayer de nouvelles technologies. La plupart de ces travaux de recherche sont toutefois restés assez confidentiels et n’ont que rarement été transposés sur un produit.1 2.4. Intérêt du grand public L’orientation « grand public » des technologies de virtualisation est beaucoup plus récente. Dans les années quatre-vingt-dix, l’intérêt pour les émulateurs de consoles de jeu ainsi que l’explosion du marché de l’informatique personnelle (les ordinateurs de type PC) ont fait prendre conscience aux entreprises qu’il y avait un marché pour la virtualisation sur PC. Des sociétés ont alors commencé à créer des produits de virtualisation basés sur des machines virtuelles pour les petites entreprises c’est à dire celles ne pouvant s’offrir des serveurs à plusieurs millions de dollars et pour les particuliers. À partir de ce moment-là, les technologies ont vraiment progressé, avec l’arrivée de nouveaux acteurs toujours prêts à innover pour se démarquer des concurrents. 3. Les types de virtualisations : 3.1. La virtualisation complète : La virtualisation complète (full virtualization), dénommée ainsi par opposition à la para- virtualisation, consiste à émuler l’intégralité d’une machine physique pour le système invité. Le système invité « croit » s’exécuter sur une véritable machine physique. Le logiciel chargé d’émuler cette machine s’appelle une machine virtuelle, son rôle est de transformer les instructions du système invité en instructions pour le système hôte. En effet, la machine virtuelle est un programme comme un autre du point de vue du système hôte, au même titre qu’un navigateur Internet ou un traitement de texte. Or, un système d’exploitation doit normalement manipuler le matériel à un niveau très bas. Les programmes utilisateurs n’ont pas d’accès direct au matériel, mais uniquement aux couches d’abstraction. La machine virtuelle émule donc de manière logique (c’est à dire avec du code) tout le matériel habituel de l’architecture de l’ordinateur cible. Le rectangle en fond vert est le système d’exploitation, seule partie à avoir un accès direct au matériel, ici représenté avec un fond bleu. Le rectangle en fond blanc est une application utilisateur, qui ne peut utiliser que la couche d’abstraction du système d’exploitation pour accéder indirectement au matériel. 1 Alain-B. TCHANA .Système d'Administration Autonome Adaptable: application au Cloud ,novembre 2011
  • 29. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 10 En pratique, le disque dur de la machine virtuelle est la plupart du temps géré comme un (volumineux) fichier pour le système hôte, alors que la mémoire vive dont le système invité dispose est réservée par le programme de la machine virtuelle. Le reste de l’architecture de l’ordinateur peut Varier grandement selon les implémentations, mais on retrouve généralement au moins une carte réseau bas de gamme, un clavier 105 touches « standard » et une carte graphique bas de gamme.2 Figure 2.1 : Virtualisation complète L’utilisation de périphériques bas de gamme s’explique par le fait qu’il y a toujours un nombre minimal d’opérations supportées par toute catégorie de matériel sur un ordinateur : la vitesse de transfert la plus lente pour un disque dur, la résolution d’affichage la plus faible pour une carte graphique, etc. Or comme le comportement de ces périphériques est entièrement implémenté de manière logicielle par la machine virtuelle, émuler un périphérique avec le minimum de fonctionnalités permet de limiter la quantité de code à développer pour en couvrir le comportement. C’est la raison pour laquelle les cartes graphiques et les cartes réseaux sont la plupart du temps aux standards en vigueur dans les années quatre-vingt. Ce n’est toutefois pas la seule raison de l’émulation de périphériques bas de gamme. En effet, la plupart des évolutions ultérieures du matériel visent à améliorer les performances des périphériques, par exemple en augmentant le débit du disque dur ou la résolution supportée par la carte graphique. Cependant, les optimisations de performances sont dans ce cas sans objet, car elles ne se répercutent de toute manière pas sur un matériel physique en mesure de les supporter. La 2 Bhaskar Prasad Rimal, Eunmi Choi, and Ian Lumb. A taxonomy and survey of cloud computing systems. In Proceedings of the 2009 Fifth International Joint Conference on INC, IMS and IDC, NCM '09, pages 44_51, Washington, DC, USA, 2009. IEEE Computer Society.
  • 30. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 11 rapidité du disque dur virtuel est par exemple limitée par la vitesse d’accès au fichier le représentant sur le système hôte. Le système s’exécutant dans la machine virtuelle est un système d’exploitation à part entière, tel qu’on pourrait en installer sur une machine physique : Microsoft Windows, GNU/Linux, Mac OS X, etc. Cette particularité est la caractéristique principale de la virtualisation complète : les systèmes invités n’ont pas à être modifiés pour être utilisés dans une machine virtuelle utilisant une technologie de virtualisation. Dans la pratique, c’est le cas pour les systèmes d’exploitation et les machines virtuelles les plus répandus. Le système invité peut à son tour exécuter n’importe quel programme prévu pour ce système, dans la mesure où il ne nécessite pas de matériel non fourni par la machine virtuelle (i.e. pas de carte graphique dernière génération ou de périphérique peu courant). Cette possibilité est due au fait que le système d’exploitation sert (entre autres) de couche d’abstraction entre le matériel et les applications, donc à partir du moment où le système fonctionne correctement, les applications s’exécutant par-dessus fonctionneront aussi. La traduction au vol des instructions du système invité est néanmoins une opération complexe et coûteuse en temps. En effet, la machine virtuelle ne peut pas, dans la plupart des cas, exécuter directement les instructions du système invité sur le système hôte. Les instructions de manipulation de la RAM, par exemple, doivent être interprétées par la machine virtuelle pour aboutir au résultat attendu, car c’est le processeur de la machine virtuelle qui est censé s’occuper de la gestion physique de la mémoire, et non le processeur de la machine hôte. La machine virtuelle doit donc implémenter en logiciel une gestion complète de la mémoire de l’invité, en utilisant les couches d’abstraction de l’hôte pour accéder à la RAM. Cet empilement de couches réduit significativement les performances, surtout en cas de forte pression sur la mémoire (i.e. quand la mémoire est utilisée de manière in00tensive : lecture, écriture, déplacement de données, etc.). La figure 2.2 détaille les couches d’abstraction entrant en jeu pour la gestion de la mémoire. Dans cette figure, le cadre en bleu foncé représente la couche matérielle ; le cadre vert est le système d’exploitation, qui a un accès privilégié au matériel. Le cadre en fond blanc est une application utilisateur, qui doit utiliser les couches d’abstraction du système d’exploitation représentées en vert foncé pour accéder au matériel. Le cadre bleu ciel représente le matériel émulé par la machine virtuelle, qui doit se comporte comme le matériel réel d’un ordinateur pour le système invité.
  • 31. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 12 Figure 2.2 : Couches d’abstraction pour la gestion de la mémoire Cet empilage de couches est sensiblement identique pour tous les périphériques émulés par la machine virtuelle. On retrouve, du plus bas niveau au plus haut niveau : o Le matériel; o Le pilote du matériel pour le système hôte; o La couche d’abstraction du système hôte; o Le matériel émulé par la machine virtuelle; o Le pilote du matériel pour le système invité; o La couche d’abstraction du système invité. Les performances de la machine virtuelle sont donc limitées par les performances de la couche d’abstraction du système hôte et par la qualité de l’émulation du matériel implémenté. La séparation nette entre la machine virtuelle et le système hôte est un avantage certain pour la sécurité et la stabilité de la machine. En effet, comme la machine virtuelle est un simple programme, on peut très facilement limiter la quantité de mémoire qu’elle peut allouer, le temps processeur consommé, sa priorité par rapport aux autres programmes, etc. Toutes les possibilités d’administration et de configuration des applications offertes par le système hôte s’appliquent à la machine virtuelle. Cela permet par exemple d’attribuer une faible priorité à une machine virtuelle mais de lui permettre de réserver plus de mémoire, alors qu’une autre machine virtuelle aura plus de temps processeur à disposition, mais moins de RAM. Bien évidemment, comme les machines virtuelles sont de simples programmes utilisateurs, on peut en exécuter plusieurs à la fois sur le même système hôte, tant que les ressources sont disponibles. Ainsi, une machine multiprocesseur et disposant de suffisamment de mémoire vive et d’espace de stockage peut aisément accueillir plusieurs machines virtuelles, le système hôte répartissant au mieux la charge entre les différents processeurs.
  • 32. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 13 Cependant du fait de l’empilement de couches d’abstraction et de l’impossibilité pour la machine virtuelle d’accéder directement au matériel, les performances du système invité sont assez éloignées de celles d’un système « natif ». Selon les implémentations, diverses solutions sont utilisées pour accélérer les machines virtuelles, par exemple en passant la plupart des instructions destinées au processeur virtuel directement au processeur physique3 . Cela accélère la vitesse de calcul du système invité. Il reste cependant le problème des Entrées/Sorties (E/S), c’est à dire les accès au disque, à la RAM, à la carte graphique, à la carte réseau, etc. D’une manière générale, on appelle Entrées/Sorties (I/O ou Input/Output) tout ce qui consiste à transférer des informations ou des données entre un périphérique et le système d’exploitation. Les E/S sont beaucoup plus dures à optimiser, car chaque système d’exploitation a une façon propre de gérer cela. Il faut donc cohabiter étroitement à la fois avec le système hôte pour l’accès réel au matériel et avec le système invité pour que ses accès au matériel soient le plus rapide possible. Cela amène une plus grande complexité de code, et une séparation en couches moins marquée que dans le modèle vu sur la figure 2.1. Cette « rupture » dans le modèle en couches est exploitée par une autre technologie de virtualisation : le para virtualisation. 3.2 La paravirtualisation : La para virtualisation (para virtualization ou encore para-virtualization) est très proche du concept de la virtualisation complète, dans le sens où c’est toujours un système d’exploitation complet qui s’exécute sur le matériel émulé par une machine virtuelle, cette dernière s’exécutant au-dessus d’un système hôte. Toutefois, dans une solution de para virtualisation, le système invité est modifié pour être exécuté par la machine virtuelle. Les modifications effectuées visent à rendre le système émulé « au courant » du fait qu’il s’exécute dans une machine virtuelle. De ce fait, il pourra collaborer plus étroitement avec le système hôte, en utilisant une interface spécifique, au lieu d’accéder au matériel virtuel via les couches d’abstraction. Au final, l’architecture obtenue est plus performante que l’empilement de couches d’abstraction de la figure 2.2. Le terme para-virtualisation a été mentionné pour la première fois dans [WSG02], où les auteurs définissent la para virtualisation comme la modification sélective de certaines parties de l’architecture virtuelle pour améliorer les performances, la réactivité sous forte charge et la simplicité de conception. L’idée du para virtualisation est toutefois plus ancienne que cela. Les premiers gros systèmes utilisant une architecture de virtualisation avaient déjà une technologie similaire, dès les années soixante-dix, même si elle n’avait pas de nom. En pratique, un système paravirtualisé possède quelques pilotes de périphériques et sous- systèmes modifiés, qui lui permettent de communiquer directement avec la machine virtuelle, sans avoir passé par une couche d’abstraction pour parler au matériel virtuel. Les pilotes para virtualisés échangent directement des données avec la machine virtuelle, sans avoir à passer par une émulation du comportement du matériel. Les parties du système hôte généralement modifiées pour tirer profit de la para virtualisation sont la gestion de la mémoire et la gestion des E/S. En effet, ce sont véritablement les deux goulets d’étranglement d’un système virtualisé, du fait du nombre de couches d’abstraction à traverser. Il est donc logique que les optimisations se portent là-dessus. La figure 2.3 montre la structure d’une machine virtuelle et d’un système hôte supportant le para virtualisation. Les pilotes non modifiés interagissent toujours avec le matériel émulé par la machine virtuelle (rectangle bleu ciel), alors que les pilotes modifiés communiquent directement les fonctions de la machine virtuelle (rectangle jaune)4 . La simplification qui en résulte communique 3 EuroCloud France. L'évolution maitrisée vers l’IaaS/PaaS. novembre 2011 4 Ignacio M. LlorenteBorja Sotomayor, Ruben S. Montero and Ian Foster
  • 33. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 14 presque directement avec le système hôte, en contournant les couches d’abstraction virtuelles (i.e. le matériel émulé). Le reste de l’architecture est inchangé, la machine virtuelle est toujours une application utilisateur (rectangle blanc) et le système d’exploitation (rectangle vert) est toujours le seul à avoir un accès privilégié au matériel (rectangle bleu). Figure 2.3 : Paravirtualisation Les détails sur comment sont réalisées ces optimisations varient selon les implémentations, mais il s’agit en général pour le système invité d’utiliser des appels systèmes ou des instructions spécifiques pour renseigner la machine virtuelle sur les actions à entreprendre. Cette dernière réalise alors ces actions, et communique le résultat au système invité. Le type d’actions à effectuer varie également selon les implémentations, mais on retrouve en général tout ce qui est déplacement de données entre l’hôte et l’invité (accès disque, transfert réseau, etc.) et gestion de la mémoire. La paravirtualisation apporte un gain de performances avéré, du fait du contournement des couches d’abstraction. En effet, comme le système invité collabore activement avec la machine virtuelle, il ne se comporte plus comme un système d’exploitation à part entière s’exécutant directement sur du matériel. Au contraire, il adapte son comportement pour que les accès au matériel souvent difficiles à interpréter de manière efficace par la machine virtuelle soient transformés en des appels directs à cette dernière. De plus, étant donné que seules les couches de bas niveau du système invité ont été modifiées, toutes les applications qui pouvaient fonctionner dans une architecture de virtualisation complète peuvent aussi être utilisées dans une architecture paravirtualisée. Toutefois, cette augmentation des performances est restreinte à certains systèmes. En effet, comme le système invité doit être modifié pour être paravirtualisé, il faut bien évidemment que l’on ait la possibilité de réaliser cette opération de portage. Or, cela nécessite à la fois l’accès au code source du système d’exploitation et la permission du détenteur des droits de le modifier. Si cela ne pose aucun problème pour un système libre (notamment GNU/Linux et les systèmes BSD), il n’en va pas de même pour les systèmes propriétaires, tels que Microsoft Windows et Mac OS. L’usage de la paravirtualisation est donc généralement limité aux systèmes libres, sauf à utiliser une solution de
  • 34. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 15 virtualisation propriétaire compatible avec un seul système d’exploitation invité, comme les produits que Microsoft propose pour ses systèmes d’exploitation. Tout comme la virtualisation complète, la paravirtualisation garde une séparation nette entre le système invité et le système hôte (cf. figures 2.1 et 2.3). De ce fait, seul le système hôte a un accès direct et exclusif au matériel. Le système invité doit donc toujours passer par la machine virtuelle pour accéder au matériel, qui passe à son tour par la couche d’abstraction. On peut donc améliorer davantage le processus en laissant au système invité un accès direct mais contrôlé au matériel. C’est le but des systèmes à hyperviseur 3.3 Virtualisation matérielle : L’utilisation d’un hyperviseur (hypervisor) est en quelque sorte l’évolution logique de la paravirtualisation, si l’on recherche encore une amélioration des performances. Dans les technologies précédentes, le système hôte était le seul à avoir un accès direct au matériel; avec un hyperviseur, le système hôte partage cet accès avec les systèmes invités. Au démarrage de l’ordinateur, c’est normalement le système d’exploitation qui prend la main et contrôle le matériel. Dans le cas de l’utilisation d’un hyperviseur, c’est un système minimaliste — l’hyperviseur — qui prend le contrôle du matériel. Ensuite, il fait appel à un système d’exploitation complet, qui sera donc exécuté par- dessus l’hyperviseur. Ainsi, le système d’exploitation doit passer par l’hyperviseur pour tout accès au matériel. On peut donc très facilement instancier un deuxième système d’exploitation, qui passera lui aussi par l’hyperviseur pour l’accès au matériel. Comme les systèmes d’exploitation doivent obligatoirement passer par ce dernier pour tout accès au matériel, l’hyperviseur peut s’assurer qu’ils n’accèdent qu’aux ressources autorisées, sans perturber le fonctionnement des autres systèmes. Figure 2.4 : Hyperviseur
  • 35. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 16 La figure 2.4 détaille le principe de fonctionnement de l’hyperviseur. À la différence des technologies exposées précédemment, il n’y a cette fois pas d’accès direct au matériel (rectangle bleu) pour le système d’exploitation, uniquement une couche d’abstraction minimale fournie par l’hyperviseur (rectangle vert). L’hyperviseur est le seul à avoir un accès privilégié au matériel. Dans cette représentation, les systèmes cohabitent au même niveau de privilège, uniquement régulés par l’hyperviseur. Toutefois, selon les implémentations, il y a souvent un système privilégié, qui est en général le premier système démarré par l’hyperviseur. Ce système est alors autorisé à modifier les paramètres de l’hyperviseur ou à instancier de nouveaux systèmes invités. À l’opposé, sur d’autres implémentations, la différence entre hôte et invité est inexistante, tous les systèmes ont les mêmes privilèges et l’hyperviseur est alors contrôlé d’une autre manière. Si les deux technologies vues précédemment (virtualisation complète et paravirtualisation) utilisaient une machine virtuelle pour émuler le matériel, il n’en va pas de même avec un hyperviseur. Chaque système d’exploitation a un accès presque direct au matériel, par l’intermédiaire de l’hyperviseur. Il n’y a donc plus de couche d’abstraction logicielle, le matériel accessible est celui de la machine physique, avec toutes les fonctionnalités qu’il peut offrir. Le gain de performances est parfois significatif, notamment dans le cas des E/S, où le système peut utiliser toutes les extensions des périphériques pour accélérer les transferts. Ressources, alors que dans un système d’exploitation, on s’assurera qu’un programme utilisateur ne dérange pas les autres programmes du système. Au final, le contrôle des priorités est plus précis, et permet de garantir qu’un système invité isolé n’influera jamais sur l’accès aux ressources d’un autre système. Avec une architecture à base de virtualisation complète, si le système hôte est monopolisé par un processus utilisateur (par exemple un programme consommant énormément de mémoire), les systèmes invités peuvent se voir fortement ralentis dans leur activité. Tous les systèmes destinés à s’exécuter au-dessus d’un hyperviseur doivent être portés, comme les systèmes invités pour la paravirtualisation. Cette opération vise à adapter les couches bas niveau du système d’exploitation pour qu’elles communiquent avec l’hyperviseur plutôt qu’avec le matériel. Les inconvénients sont donc les mêmes que pour la paravirtualisation : il est nécessaire d’avoir accès au code source de tous les systèmes ainsi que l’autorisation du détenteur des droits. En outre, le portage est beaucoup plus lourd à réaliser pour fonctionner sur un hyperviseur. En effet, pour la paravirtualisation, seuls quelques pilotes et sous-systèmes avaient besoin d’être réécrits pour tirer parti de l’accélération. Au contraire, un hyperviseur nécessite la modification de toutes les couches d’accès au matériel; la complexité du code s’en trouve grandement augmentée, augmentant par là même la difficulté de maintenir le code. Le portage sur un hyperviseur revient quasiment à porter le système d’exploitation sur une nouvelle architecture matérielle. Les techniques vues jusqu’à présent étaient de complexité croissante, c’est à dire que chaque technologie était un peu plus complexe à mettre en œuvre et à que la précédente. Avec les technologies ayant trait au cloisonnement, c’est différent. En effet, le cloisonnement était au départ utilisé pour sécuriser et isoler des applications, sans rapport avec le fait d’isoler des systèmes d’exploitation, c’est seulement récemment que l’idée d’utiliser ces techniques pour la virtualisation a vu le jour. 4. Techniques de virtualisation : 4.1. L’Isolation et Le Cloisonnement : Une autre pratique répandue dans le domaine de la virtualisation est le cloisonnement. Derrière ce nom se cachent plusieurs technologies visant à séparer fortement les processus s’exécutant sur un même système d’exploitation. Le cloisonnement vise à isoler chaque processus
  • 36. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 17 dans un conteneur dont il est théoriquement impossible de sortir. Un processus isolé de la sorte ne saura pas quels autres processus s’exécutent sur le même système, et n’aura qu’une vision limitée de son environnement. Le but principal de cette technologie est d’améliorer la sécurité du système d’exploitation et des applications. Isolé. Par exemple, si le système hôte est Solaris, alors tous les processus s’exécutant à l’intérieur d’une zone auront accès à la même version de ce Solaris. Les technologies de cloisonnement sont aussi utilisées dans d’autres domaines que les systèmes d’exploitation. Par exemple, le langage Java (de Sun Microsystems) propose une machine virtuelle (qui n’a rien à voir avec les machines virtuelles étudiées ici) qui est un interpréteur pour le langage Java. Cet interpréteur exécute tous les programmes Java dans un conteneur isolé, dont ils ne peuvent pas sortir. Le terme utilisé pour décrire cette technologie est sandbox (bac à sable). Le sandboxing est aussi une technologie de cloisonnement, mais au niveau d’un processus, sans que le système intervienne. Même si l’engouement pour la virtualisation est assez récent, les technologies de virtualisation et l’idée même de la virtualisation sont presque aussi anciennes que l’informatique. La section suivante fera un bref historique de la virtualisation. III. Technologie de Cloud Computing : 1. Technologie de Datacenter : Le datacenter ou centre de données informatique est le site physique où sont regroupées les différentes infrastructures, comme les baies de serveurs et de stockage. Ces sites de production informatique, équipés de systèmes d’alimentation et de refroidissement, hébergent les applications et données des entreprises, ou des particuliers dans le cadre de la mise à disposition de services applicatifs comme la messagerie ou le stockage de données dans le Cloud. Les géants du Cloud, les hébergeurs et les opérateurs disposent tous de multiples datacenters, plus ou moins grands. L’efficacité énergétique de ces datacenters est notamment mesurée grâce à un indicateur, le PUE. Pour des raisons de consommation d’énergie et environnementales, les opérateurs de datacenters s’efforcent d’atteindre un PUE le plus bas possible. Une des tendances du moment dans le datacenter porte sur les technologies de convergence et d'hyper-convergence. Et le mouvement de convergence entre les couches réseau, stockage et calcul ne s'arrête plus à l'échelle du rack. Il touche le centre de données, et permet l'automatisation et l'orchestration des ressources informatiques, via l'utilisation par la DSI d'outils software defined 2. Historique du Cloud Computing : Le Cloud computing est un concept assez récent. Sa première énonciation date de 1960 (John McCarthy), mais sa réelle mise en application a commencé au début des années 2000. Salesforce.com fut le premier hébergeur de Cloud en 1999, suivi en 2002 par Amazon. Le Cloud Computing met en œuvre l'idée de l’informatique utilitaire du type service public, proposée par John McCarthy en 1961 qui suggère que la technologie informatique partagée pourrait construire un bel avenir dans lequel la puissance de calcul et même les applications spécifiques pourraient être vendues comme un service public.
  • 37. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 18 L’apparition du Cloud Computing vient d'une évolution de certaines technologies telles que la virtualisation du matériel informatique, les services web, ou l'architecture orientée services SOA (Service Oriented Architecture). La virtualisation a été la première pierre de l'ère du Cloud Computing. En effet, cette notion permet d'optimiser les ressources matérielles en les partageants entre plusieurs environnements dans le but De pouvoir exécuter plusieurs systèmes « virtuels » sur une seule ressource physique et fournir une couche supplémentaire d’abstraction du matériel. Le Cloud computing est donc la juxtaposition de ces technologies pour passer à la vitesse supérieure sur l’exploitation de données à travers Internet. 3. Bénéfices du cloud Computing : 3.1. Pour le fournisseur : • Aucun investissement préalable. • Service d'une grande disponibilité. • Facturation à la consommation. • Version toujours à jour et identique pour tous les utilisateurs (cas du SaaS). • Architecture sur mesure adaptable selon les besoins. 3.2. Pour l'entreprise : • La sécurité des données • La réduction des coûts • Une parfaite adaptation aux besoins métiers des entreprises • Une prise en charge optimale de l’infrastructure informatique • Une technologie flexible et évolutive IV. Les différents services : Nous parlons généralement de 3 services que nous utilisons différemment selon nos besoins. Certains appellent ces services les couches de cloud et nous les représentons souvent sous forme d’une pyramide comme la montre
  • 38. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 19 Figure2.5 : Les services de cloud • IaaS: Infrastructure as a service: c’est la couche inférieure qui représente les ressources matérielles (puissance de calcul, espace de stockages, serveur …). Les clients, à ce niveau n’ont pas de contrôle sur ces ressources mais plutôt sur les systèmes d’exploitation et les applications qu’ils peuvent installer sur le matériel alloué. • PaaS: Plateforme as a Service, c’est la couche intermédiaire où le fournisseur contrôle le système d’exploitation et les outils d’infrastructure et par suite les clients n’ont le contrôle que sur les applications déployées. • Saas: Software as a service, c’est la couche supérieure qui correspond à la mise à disposition des applications comme étant des services accessibles via internet. Les clients n’ont plus besoin donc à installer les applications sur ses postes. V. Types et Modèles de déploiement de cloud : Nous distinguons quatre modèles de déploiement qui n’ont pas une grande influence sur les systèmes déployés 5 • Cloud public: C’est le cloud dans le sens traditionnel où les services sont offerts au grand public et peuvent être payants ou même gratuit. Les ressources dynamiquement provisionnées peuvent être accessibles par internet ou bien par un fournisseur. • Cloud privé: Ce cloud est destiné entièrement à un organisme et peut être déployé sous deux formes déférentes:  Cloud privé interne: Hébergé et géré par l’entreprise  Cloud privé externe: Hébergé et géré par un tiers et accessible via des réseaux de type VPN 5 JunjiePeng, Xuejun Zhang, Zhou Lei, Bofeng Zhang, Wu Zhang, and Qing Li. Comparison of several Cloud computing plateforms. In Proceedings of the 2009 Second International Symposium on Information Science and Engineering, ISISE '09, pages 23_27, Washington, DC, USA, 2009. IEEE Computer Society.
  • 39. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 20 • Cloud hybride: C’est la combinaison du cloud public et cloud privé par une entreprise. • Cloud communautaire: Un ensemble d’organisations qui ont un intérêt commun partagent l’infrastructure du cloud. Il est plus couteux que le cloud public mais offre d’autres VI. Les solutions de cloud : 1. Eucalyptus : Eucalyptus est un outil open source issu d’un projet de recherche de l’université de Californie. Il est développé en C, Java, Python et est disponible sous deux licences. Une licence GPL gratuite supportant les hyperviseurs Xen et KVM et une licence commerciale offrant des fonctionnalités avancées telles que le support de VMware. Il permet de construire aussi bien les solutions privées du cloud computing que les solutions publiques. Son grand avantage est qu’il est intégré dans les distributions Ubuntu et Debian. Eucalyptus offre des interfaces compatibles avec les services EC2 d’Amazon. Ce qui lui confère la possibilité d’être employé pour les solutions hybrides de cloud computing. L’architecture d’Eucalyptus est constituée de quatre composants principaux (Nurmi et al, 2008 ; Alrwais, 2011). • Le contrôleur de nœud (Node controller NC) : contrôle l’exécution, et l’arrêt des machines virtuelles présentes sur le nœud où il est exécuté. • Le contrôleur de cluster (cluster controller CC) : collecte les informations sur les différents nœuds d’un cluster et planifie l’exécution des machines virtuelles sur chaque nœud. Le contrôleur de stockage (Warlus) : c’est le composant qui gère l’accès au service de stockage. Il est souvent intégré au contrôleur du cloud (CLC). • Le contrôleur de cloud (CLC): C’est le point d’entrée (Front end) des utilisateurs et administrateurs du système. Il collecte des informations sur les nœuds et planifie leur exécution au travers des contrôleurs de clusters (CCs). Il expose les services du cloud à travers une application Web mais également à travers des interfaces compatibles EC2. 2. OpenNebula OpenNebula, purement open source permet de déployer des Cloud privés, hybrides et publics. Ecrite en C++, Ruby et Shell, elle supporte les plateformes de virtualisation Xen, KVM et VMware ainsi que le service “on-demand” d’Amazon EC2. Le projet est publié sous licence Apache 2.0. Parmi ses fonctionnalités : gestion centralisée des machines virtuelles et des ressources physiques, répartition des charges, extension des capacités par ajout de serveurs physiques. Beaucoup de ces solutions sont avant tout des solutions d’infrastructure permettant une gestion simplifiée d’architectures matérielles complexes.
  • 40. CHAPITRE 2 : Technologie de Virtualisation et de Cloud : Etat de L'art 21 3. OpenStack Il est né de la fusion de deux projets portés l’un par la Nasa et l’autre issu de l’offre de l’hébergeur américain Rackspace Cloud Server. L’ensemble de la plateforme est disponible sous licence Apache 2.0. OpenStack est un logiciel libre qui permet la construction de Cloud privé et public. Il est aussi une communauté et un projet en plus d'un logiciel qui a pour but d'aider les organisations à mettre en œuvre un système de serveur et de stockage virtuel. Il s'installe sur un système d'exploitation libre comme Ubuntu ou Debian et se configure entièrement en ligne de commande. C'est un système robuste et qui a fait ses preuves auprès des professionnels du domaine. En comparaison avec les autres produits, OpenStack semble avoir la plus grande et la plus active communauté. Les membres de la communauté sont toujours prêts à aider les autres à trouver des solutions aux problèmes qui se posent. La technologie est populaire parmi une vaste communauté de spécialistes et est soutenue par des sociétés telles que Cisco, Dell, NASA, Intel, AMD, Citrix, Rackspace, et RightScale.  Les caractéristiques principales d’OpenStack sont les suivantes : • Capacité à gérer les ressources du serveur de produits virtualisés. • Capacité à gérer des réseaux locaux. • Gestion de l'image de la machine virtuelle. • Groupes de sécurité. • Contrôle d'accès basé sur les rôles. • VNC proxy via un navigateur Web.
  • 42. CHAPITRE 3 : Etude comparative et choix de la solution 22 I. Introduction : Avant toute chose, rappelons ce qu'est la virtualisation : la virtualisation est une couche d'abstraction informatique qui permet de faire fonctionner plusieurs serveurs, systèmes ou applications sur un même serveur physique (tout dépend du type de virtualisation choisie) La virtualisation a donc permis par ce processus d'ouvrir de nombreuses portes, et constitue la pierre angulaire du Cloud1 . En effet, elle représente donc une formidable ouverture à différents niveaux : utilisateurs, entreprises, services IT... Les avantages sont nombreux : en termes économiques (moins coûteux), de centralisation, de sécurité et de partage de données, en termes de performances (virtualisation applicative/de bureau) etc... Il est également important de comprendre la notion d'hyperviseur et d'hyperviseur de type 1 et 2. Tout d'abord, un hyperviseur est cette fameuse couche d'abstraction qui rend possible la virtualisation : il permet à plusieurs systèmes d'exploitation (OS) de fonctionner simultanément sur une même machine physique. L'hyperviseur de type 1 (natif) s'exécute directement sur la plateforme matérielle alors qu'un hyperviseur de type 2 (hosté) s'exécute à l'intérieur d'un même système d'exploitation. Un hyperviseur héberge des machines virtuelles (VM), qui sont le "résultat" de la virtualisation et ce à partir de quoi on travaille. Il existe différents types de virtualisation (attention ce n'est pas la même chose que le type d'hyperviseur) donc différentes "natures" de VM, qui nécessitent chacune une solution spécifique (n'importe quelle solution ne peut virtualiser n'importe quoi): - La virtualisation de bureau, - La virtualisation d’applicative, - La virtualisation de de réseau, - La virtualisation de de stockage, Etc... II. Solutions de Virtualisation : Le marché des solutions de virtualisation est un marché extrêmement concurrentiel. Parmi les principaux acteurs composant ce marché, nous détaillerons les offres des trois principaux éditeurs, à savoir VMware, Citrix et Microsoft. VMware est le plus vieux et le plus gros éditeur sur le marché de la virtualisation, filiale du groupe EMC et fondée en 1998, cette compagnie propose une gamme de produits et services complète associée à la virtualisation2 . 1 Le cloud computing une nouvelle filière fortement structurante,septembre2012 2 Marvin Rambhadjan and Arthur Schutijser. SURFnet cloud computing solutions.
  • 43. CHAPITRE 3 : Etude comparative et choix de la solution 23 Pour mettre en place notre plateforme de virtualisation, nous avons choisi la solution VMware qui est le leader du marché dans le domaine. 1. VMware (vSphere, ESXi...) : 1.1. VMware vSphere : VMware vSphere gère de grandes collections d'infrastructure (par exemple des processeurs, le stockage et la gestion de réseau) sous la forme d'un environnement d'exploitation transparent et dynamique, ainsi que la complexité d'un centre de données. La pile logicielle VMware vSphere est constituée des couches de virtualisation, de gestion et d'interfaces. Figure 3.1 : Relations entre les couches de composants de VMware vSphere • Couche de virtualisation : La couche de virtualisation de VMware vSphere inclut des services d'infrastructure et d'application. L'infrastructure fournit, entre autres, les services de traitement et de stockage et les services réseau extraient, agrègent et allouent les
  • 44. CHAPITRE 3 : Etude comparative et choix de la solution 24 ressources matérielles ou d'infrastructure. Les services d'infrastructure comprennent les types suivants : • Services de traitement : Inclut les fonctions VMware qui permettent de ne pas tenir compte des ressources serveur hétérogènes sous-jacentes. Les services de traitement agrègent ces ressources sur un grand nombre de serveurs discrets les affectent aux applications. • Services de stockage : Il s'agit de l'ensemble de technologies qui permettent d'utiliser et de gérer efficacement le stockage dans les environnements virtuels. • Services de réseau : Il s'agit de l'ensemble de technologies qui simplifient et améliorent la gestion de réseau dans les environnements virtuels. • Couche de gestion : VMware vCenter Server est le point central de la configuration, du provisionnement et de la gestion des environnements informatiques virtualisés. • Couche d'interfaces : Les utilisateurs peuvent accéder au centre de données VMware vSphere via des clients à interface graphique, tels que vSphere Client ou vSphere Web Client. En outre, ils peuvent accéder au centre de données via des machines clientes qui utilisent des interfaces de ligne de commande et des kits SDK pour la gestion automatique. 1.2 Composants et fonctionnalités : VMware vSphere Une présentation des composants et fonctions de VMware vSphere explique les composants et leurs interactions. VMware vSphere inclut les composants et fonctions suivants : • VMware ESXi : Une couche de virtualisation fonctionne sur des serveurs physiques qui analysent le processeur, la mémoire, le stockage et les ressources dans les machines virtuelles multiples Figure 3.2 : VMware ESXI
  • 45. CHAPITRE 3 : Etude comparative et choix de la solution 25 • VMware vSphere Client : Une interface permettant aux utilisateurs de se connecter à distance vCenter Server ou ESXi depuis n'importe quel PC Windows Figure 3.3 : VMware vSphere Client • VMware vSphere Web Client : Une interface Web permet aux utilisateurs de se connecter à distance à vCenter Server depuis divers navigateurs Web et systèmes d'exploitation.
  • 46. CHAPITRE 3 : Etude comparative et choix de la solution 26 Figure 3.4 : VMware vSphere Web Client • VMware vCenter Server : Le point central pour configurer, approvisionner et gérer des environnements informatiques virtualisés. Il fournit les services essentiels du centre de données : contrôle d'accès, surveillance des performances et • Gestion des alarmes.
  • 47. CHAPITRE 3 : Etude comparative et choix de la solution 27 Figure 3.5 : VMware VCenter Server • VSphere vMotion : Permet de migrer des machines virtuelles sous tension depuis un serveur physique vers un autre sans interruption avec une disponibilité de service continue et une intégrité de transaction complète . Figure 3.6 : vSphere vMotion • VSphere Storage vMotion : Permet de migrer des fichiers de machine virtuelle d'une banque de données vers une autre sans interruption de service. Vous placez la machine virtuelle et tous ses disques dans un seul emplacement ou sélectionnez des emplacements distincts pour le fichier de configuration de la machine virtuelle et chaque disque virtuel. La machine virtuelle reste sur le même hôte pendant Storage vMotion. La migration avec Storage vMotion permet de transférer les disques virtuels ou le fichier de configuration d'une machine virtuelle vers une nouvelle banque de données alors que la machine
  • 48. CHAPITRE 3 : Etude comparative et choix de la solution 28 virtuelle s'exécute. La migration avec Storage vMotion permet de transférer le stockage d'une machine virtuelle sans interrompre la disponibilité de la machine virtuelle3 . Figure 3.7 : vSphere Storage vMotion • VSphere High Availability (HA) : Fonction qui offre une haute disponibilité pour les machines virtuelles. En cas de panne d'un serveur, les machines virtuelles affectées sont redémarrées sur d'autres serveurs disponibles ayant une capacité disponible. 3 Peter Sempolinski and Douglas Thain. A comparison and critique of eucalyptus, opennebula and nimbus. In Proceedings of the 2010 IEEE Second International Conference on Cloud Computing Technology and Science , CLOUDCOM '10, pages 417_426, Washington, DC, USA, 2010. IEEE Computer Society.
  • 49. CHAPITRE 3 : Etude comparative et choix de la solution 29 Figure 3.8 : vSphere High Availability (HA) • VSphere Fault Tolerance : Assure la disponibilité permanente en protégeant une machine virtuelle avec une copie. Lorsque cette fonction est activée pour une machine virtuelle, une seconde copie de la machine d'origine (ou principale) est créée. Toutes les actions effectuées sur la machine virtuelle primaire sont également effectuées sur la seconde machine virtuelle. Si la machine virtuelle principale devient indisponible, la seconde machine devient active immédiatement.
  • 50. CHAPITRE 3 : Etude comparative et choix de la solution 30 Figure 3.9 : vSphere Fault Tolerance 2. Citrix (Xenserver...) : • Citrix XenServer est une solution de virtualisation qui permet de déployer rapidement et simplement des machines virtuelles Windows et Linux hautes performances. • Xenservers’appuie sur l’hyperviseur open source Xen qui installe une fine couche logicielle sur le matériel de la machine nue, ce qui lui rend plus rapide et plus sûre par rapport aux autres hyperviseurs. Il s’appuie en outre sur les toutes dernières solutions Intel VT et AMD-V de virtualisation assistée par matériel. • XenServer permet en outre de gérer ces machines et les ressources réseau et de stockage qui leur sont associées à partir d’une console de gestion unique et très simple d’emploi. • La technologie XenServer s’appuie sur les toutes dernières solutions Intel VT et AMD-V de virtualisation assistée par matériel. L’hyperviseur Xen est exceptionnellement léger (moins de 50 000 lignes de code), ce qui se traduit pour l’hôte par une charge extrêmement faible et des performances quasi natives. • Citrix XenServer est performant et sécuritaire. Sa technologie et ouverte aux capacités de gestion étendues de XenCenter qui constitue une plateforme de virtualisation idéale, parfaitement adaptée à la consolidation des serveurs, au développement et au test de logiciels et aux projets de continuité de service.
  • 51. CHAPITRE 3 : Etude comparative et choix de la solution 31 Figure 3.10 : Xen server architecture 2.1 Composants et fonctions : 2.1.1 . Composants principaux : Cette illustration affiche les composants principaux d’un déploiement typique, qui est appelé un site. Figure 3.11 : les composants principaux d’un déploiement typique
  • 52. CHAPITRE 3 : Etude comparative et choix de la solution 32 • Delivery Controller : Delivery Controller est le composant de gestion centralisée d’un site. Chaque site possède un ou plusieurs Delivery Controller. Il est installé sur au moins un serveur dans le centre de données. Pour la fiabilité et la disponibilité du site, installez des Controller sur plusieurs serveurs4 . Si votre déploiement comprend un hyperviseur ou un service de cloud, les services Controller communiquent avec lui pour distribuer des applications et des bureaux, s’authentifier et gérer l’accès des utilisateurs, négocier des connexions entre les utilisateurs et leurs applications et bureaux, optimiser l’utilisation des connexions et équilibrer la charge de ces connexions. Le service broker du Controller contrôle quels utilisateurs sont connectés et depuis quel endroit, quelles ressources de session les utilisateurs possèdent-ils et si les utilisateurs doivent se reconnecter aux applications existantes. Le service broker exécute des applets de commande PowerShell et communique avec l’agent broker situé sur les VDA via le port TCP 80. Il n’est pas possible d’utiliser le port TCP 4435 . Monitor Service collecte les données historiques et les places dans la base de données de contrôle. Ce service utilise le port TCP 80 ou 443. Les données provenant des services Controller sont stockées dans la base de données du site. Le Controller gère l’état des bureaux, les démarre ou les arrête à la demande et en fonction de la configuration de l’administration. Dans certaines éditions, le Controller permet d’installer Profile Management pour gérer les paramètres de personnalisation des utilisateurs dans des environnements Windows physiques ou virtualisés. • Base de données : Au moins une base de données Microsoft SQL Server est requise pour chaque site pour stocker toutes les informations de configuration et de session. Cette base de données stocke les données collectées et gérés par les services qui constituent le Controller. Installez la base de données dans votre centre de données et assurez-vous qu’elle possède une connexion permanente au Controller. Le site utilise également une base de données de journalisation de la configuration et une base de données de contrôle. Par défaut, ces bases de données sont installées dans le même emplacement que la base de données du site, mais vous pouvez modifier ce paramètre. • Virtual Delivery Agent (VDA) : Le VDA est installé sur chaque machine physique ou virtuelle de votre site que vous mettez à disposition des utilisateurs. Ces machines fournissent des applications ou des postes de travail. Le VDA permet aux machines de s’enregistrer auprès du Controller, qui permet à la machine et aux ressources qu’elle héberge d’être mise à la disposition des utilisateurs. Les VDA établissent et gèrent la connexion entre la machine et l’appareil de l’utilisateur6 . Les VDA vérifient également qu’une 4 ThiagoDamascenoCordeiro, Douglas BritoDamalio, NadilmaCintra 5 Vivansas.p.r.l.Cloud Computing Enjeux, Perspectives et Impacts métiers ,septempre 2009 6 WygwanLe Cloud Computing : Réelle révolution ou simple évolution ? Webographie
  • 53. CHAPITRE 3 : Etude comparative et choix de la solution 33 licence Citrix est disponible pour l’utilisateur ou la session et appliquent les stratégies configurées pour la session. Le VDA communique des informations de session au service Broker dans le Controller via l’agent Broker dans le VDA. L’agent broker héberge de multiples plug-ins et collecte des données en temps réel. Il communique avec le Controller sur le port TCP 80. Le mot « VDA » est souvent utilisé pour faire référence à l’agent ainsi qu’à la machine sur laquelle il est installé. Les VDA sont disponibles pour les systèmes d’exploitation Windows mono-session et multi- session. Les VDA pour les systèmes d’exploitation multi-session Windows autorisent plusieurs utilisateurs à se connecter au serveur à un moment donné. Les VDA pour les systèmes d’exploitation mono-session Windows ne permettent qu’à un seul utilisateur de se connecter au bureau à la fois. Les VDA Linux sont également disponibles. • Citrix StoreFront : StoreFront authentifie les utilisateurs et gère les magasins de bureaux et d’applications auxquels les utilisateurs accèdent. Il peut héberger votre magasin d’applications d’entreprise qui fournit aux utilisateurs un accès en libre-service aux bureaux et aux applications que vous mettez à leur disposition. Il assure également le suivi des abonnements aux applications des utilisateurs, des noms de raccourcis et d’autres données. Cela permet de garantir que les utilisateurs ont une expérience cohérente sur plusieurs appareils. • Application Citrix Workspace : Installée sur les machines utilisateur et autres points de terminaison, tels que les bureaux virtuels, l’application Citrix Workspace offre aux utilisateurs un accès en libre-service, rapide et sécurisé aux documents, applications et bureaux. L’application Citrix Workspace offre également un accès à la demande aux applications Windows, Web et Saas (Software as a Service). Pour les périphériques qui ne peuvent pas installer le logiciel de l’application Citrix Workspace spécifique au périphérique, l’application Citrix Workspace pour HTML5 offre une connexion via un navigateur Web compatible HTML5. • Citrix Studio : Studio est la console de gestion où vous configurez et gérez votre déploiement Citrix Virtual Apps and Desktops. Studio élimine le besoin de consoles de gestion distinctes pour gérer la mise à disposition des applications et des postes de travail. Studio offre des assistants pour vous guider dans le processus de configuration de votre environnement, créer des charges de travail pour héberger les applications et bureaux, et attribuer des applications et des bureaux aux utilisateurs. Vous pouvez également utiliser Studio pour allouer et suivre les licences Citrix pour votre site. Studio obtient les informations qu’il affiche à partir du Broker Service dans le Controller, communiquant via le port TCP 80. Voici un aperçu de Studio :
  • 54. CHAPITRE 3 : Etude comparative et choix de la solution 34 Figure 3.12 : Citrix Studio • Citrix Director : Director est un outil Web qui permet aux équipes d’assistance informatique de surveiller un environnement, de résoudre les problèmes avant qu’ils ne deviennent critiques et de réaliser des tâches d’assistance pour les utilisateurs finaux. Vous pouvez utiliser un déploiement de Director pour vous connecter à et contrôler plusieurs sites Citrix Virtual Apps ou Citrix Virtual Desktops. Director affiche les éléments suivants :  Données de session en temps réel à partir du Broker Service dans le Controller, qui comprennent des données que le service Broker obtient depuis l’agent broker dans le VDA.  Données de site historiques provenant du service Monitoring dans le Controller. Director utilise les données de performances et heuristiques ICA capturées par l’appareil Citrix Gateway pour créer des analyses à partir des données, puis les présenter aux administrateurs. Vous pouvez également afficher et interagir avec les sessions d’un utilisateur via Director, à l’aide de l’Assistance à distance Windows. • Serveur de licences Citrix : Le serveur de licences gère les licences de vos produits Citrix. Il communique avec le Controller pour gérer les licences pour chaque session utilisateur et avec Studio pour allouer les fichiers de licences. Un site doit avoir au moins un serveur de licences pour stocker et gérer vos fichiers de licences. • Hyperviseur ou service de cloud : L’hyperviseur ou le service de cloud héberge les machines virtuelles de votre site. Il peut s’agir des machines virtuelles que vous utilisez pour héberger les applications et les bureaux, ainsi