SlideShare une entreprise Scribd logo
1  sur  117
Découvrez la différence ENI
F o r m a t i o n s à l ’ i n f o r m a t i q u e
www.eni-ecole.fr
version 2.2
Virtualisation - Conception et Architecture
Support de cours
By sofien Mhatli
ISI KEF|ENI France
www.eni-ecole.fr n° 2
Votre formation - Programme
Virtualisation - Conception et architecture
 Module 1 – Retour sur les fondamentaux
 Module 2 – Les fonctionnalités du Datacenter vSphere
 Module 3 – Gestion des ressources et exploitation
 Module 4 – Haute disponibilité de l’infrastructure virtuelle
www.eni-ecole.fr n° 3
Virtualisation - Conception et architecture
Module 1
Retour sur les fondamentaux
www.eni-ecole.fr n° 4
www.eni-ecole.fr
 Les composantes d’une infrastructures vSphere
 Configuration du réseau
 Configuration du stockage
 Stockage et MPIO en environnement vSphere
Contenu du module
www.eni-ecole.fr n° 5
www.eni-ecole.fr
 2 serveurs ESXi et un vCSA vous sont livrés…
 Configurez les Hôtes pour les intégrer au vCenter
 Ajoutez 5 cartes réseaux à chaque hôte
 Configurez la partie réseau
 Configurez le stockage
 Vous simulerez une baie SAN avec le rôle iSCSI Target Server sur votre machine hôte.
Créez un espace de 60Go qui sera accessible par les 2 ESXi.
 Astuce : Pour que votre machine hôte communique avec vos VM, vous devrez
configurer la carte VMNET1 (sur votre machine hôte) avec l’adresse IP :
192.168.1.254/24
 A vous de jouer….
Activons les souvenirs…
www.eni-ecole.fr n° 6
www.eni-ecole.fr
Fonctionnalité / acronyme Définition / Utilité
Hyperviseur
Hôte
vCenter
vSwitch
vNIC
vmNIC
VMKernel
Adaptateur de stockage
iSCSI / NFS
Un peu de vocabulaire…
www.eni-ecole.fr n° 7
www.eni-ecole.fr
 C’est le serveur physique qui dispose des ressources matérielles
La machine hôte
 Processeurs et technologies de virtualisation
Intel AMD
Mécanisme de
prise en charge de
la virtualisation
VT-x AMD-v
Mécanisme de
prise en charge de
SLAT
EPT NPT / RVI
www.eni-ecole.fr n° 8
www.eni-ecole.fr
 Les hyperviseurs (HV) peuvent être gérés de manière autonome ou peuvent
être regroupés au sein d’un même contexte de gestion
 Ce regroupement, qui en simplifie l’administration, se traduit par :
 L’intégration à un contexte de domaine AD des serveurs sur lesquels le rôle Hyper V
est installé (en environnement Microsoft)
 L’ajout du composant vCenter (en environnement vSphere)
 A ces solutions peuvent être ajoutées des fonctionnalités de prise en charge de
la haute disponibilité (contexte de clusters)
La solution de gestion globale d’hyperviseurs
www.eni-ecole.fr n° 9
www.eni-ecole.fr
Les principales fonctionnalités
Fonctionnalité Utilité
vMotion Déplacement de machine virtuelle d’un hôte vers un autre hôte.
Déplacement du stockage d’une machine virtuelle d’une banque de
données vers une autre.
Storage vMotion
DRS Automatisation du déplacement de machines virtuelles : d’un hôte
vers un autre hôte disposant de plus de ressources ; ou d’un
datastore vers un autre.
Storage DRS
DPM Fonctionnalité permettant d’automatiser l’entrée et la sortie de veille
d’hyperviseurs en fonction de la charge d’activité du cluster.
HA High Availability : fonctionnalité de haute disponibilité. Lors de la
défaillance d’un hôte, les machines virtuelles ciblées seront
redémarrées sur un autre hôte du cluster.
FT Fault Tolerance : fonctionnalité de très haute disponibilité protégeant
des machines virtuelles ciblées de la défaillance d’un hôte. Aucune
interruption de service n’affectera les VM ciblées.
www.eni-ecole.fr n° 10
www.eni-ecole.fr
 Les types de ressources suivants sont nécessaires au fonctionnement de
machines virtuelles :
 CPU
 RAM
 Réseau
 Disque
 Ces ressources sont disponibles sur l’hôte et réparties par l’hyperviseur aux
machines virtuelles hébergées
Les ressources de l’hyperviseur
www.eni-ecole.fr n° 11
www.eni-ecole.fr
 C’est le composant central de gestion du réseau de l’ESXi
 Il est géré
 indépendamment pour chaque ESXi de l’infrastructure (vSwitch standard)
 depuis le vCenter et utilisable par tous les hyperviseurs du datacenter
Liaison
 Un vSwitch est lié à un ou plusieurs groupements de ports
 Un vSS peut être raccordé à zéro, une ou plusieurs cartes réseaux
Le vSphere Switch – (standard et distribué)
Par défaut le vSwitch0 est créé, il est utilisable :
- Pour les tâches de gestion de l’ESXi
- Par les machines virtuelles
Il est lié à la carte réseau de l’ESXi présente à l’installation.
www.eni-ecole.fr n° 12
www.eni-ecole.fr
 Ils définissent un type d’utilisation du réseau
pour l’ESXi parmi les suivants :
Les groupements de ports
Type Utilisation
VM Kernel
Création de réseau à destination des
besoins de l’infrastructure de
virtualisation
VM
Network
Création de réseau à destination des
machines virtuelles
La segmentation en VLAN peut être configurée depuis
les groupements de ports.
www.eni-ecole.fr n° 13
www.eni-ecole.fr
 Le groupement de port de type VM Kernel est utilisé pour les différents besoins
de l’infrastructure vSphere
 Un identifiant de VLAN peut lui être associé.
 Pour permettre l’utilisation des fonctionnalités suivantes, elles doivent être
actives sur le groupement de port :
 vMotion
 FT
 Gestion
 L’état d’activation de l’iSCSI résulte de la configuration du stockage
Le groupement de ports de type VM Kernel
www.eni-ecole.fr n° 14
www.eni-ecole.fr
 Les vmNIC sont les cartes réseaux
physiques de l’ESXi.
 Les contraintes de liaison
vmNIC <=> vSwitch
 Chaque carte peut être liée à un
seul vSwitch
 Plusieurs cartes peuvent être liées
au même vSwitch
Les vmNIC et vNIC
 Les vNIC sont les cartes réseaux
associées aux machines virtuelles.
 Elles peuvent être connectées aux
groupements de port de type Virtual
Machine
Network adapters Networking
vmnic0 vmnic1 vSwitch0
VM
Port group
de type Virtual Machine
ENI E©ole
vnic
Hote
La segmentation en VLAN peut être
configurée au niveau des vNIC
www.eni-ecole.fr n° 15
www.eni-ecole.fr
Exemple d’illustration
www.eni-ecole.fr n° 16
www.eni-ecole.fr
 En environnement vSphere les VLAN peuvent affectés :
 Au niveau du switch
(un seul VLAN ciblera alors
tout le trafic)
 Sur des groupements de ports
 Sur des VNIC
 Si les VLAN sont affectés par l’hyperviseur, le switch doit être configuré en mode
trunk et lié à tous les VLAN nécessaires aux composantes d’infrastructure
vSphere et aux VM.
Les VLAN en environnement virtualisé
www.eni-ecole.fr n° 17
www.eni-ecole.fr
Dans une infrastructure vSphere, on distingue deux composantes de configuration
du stockage :
 Les adaptateurs de stockage servent à lier des solutions de stockage aux hôtes
amenés à les utiliser
 Les banques de données ou datastores correspondent aux conteneurs
« virtuels » dans lesquels sont hébergées les données
Les composantes vSphere de stockage
www.eni-ecole.fr n° 18
www.eni-ecole.fr
 De nombreuses possibilités sont prises en charge pour l’hébergement des
machines virtuelles dans l’environnement vSphere
 Les points suivants vous permettront de cibler la solution de stockage la plus
adaptée à une situation donnée :
 Stockage dédié à un hôte ou mutualisé
 Quel protocole d’accès à la solution de stockage
 Quel support
 Quel mode d’accès
 Quel système de fichiers utiliser
vSphere et le stockage
La diapositive suivante illustre ces différents aspects
www.eni-ecole.fr n° 19
www.eni-ecole.fr
 Illustration des éléments constitutifs d’une solution de stockage iSCSI
iSCSI en environnement vSphere
SAN Storage Area Network : le réseau de stockage qui est caractérisé par son
(ses) protocole(s) d’accès et connectivité, sa volumétrie, ses fonctionnalités
associées, ses performances
LUN Logical Unit Number : unité de stockage d’une baie de disques
HBA Host Bus Adapter : adaptateur de stockage qui (une fois configuré)
permettra l’accès à un ou plusieurs espaces disques
iSCSI Target L’élément qui met à disposition de l’espace disque physique
iSCSI Initiator L’élément qui accède à de l’espace disque mis à sa disposition
www.eni-ecole.fr n° 20
www.eni-ecole.fr
 On distingue 3 types de banques de données :
 VMFS
 RDM avec VMFS
 NFS
 Les banques de données exploitant un espace disque en mode bloc doivent être
formatées. Le système de fichier de formatage pris en charge par vSphere est
VMFS.
 VMFS est un système de fichier qui permet un accès concurrentiel en lecture et
écriture à un ensemble d’hôtes.
 La banque de donnée NFS cible un système de fichier réseau, accessible via le
protocole NFS. Pour celle-ci, le formatage est réalisé sur le serveur en charge du
partage de la ressource.
Banques de données et formatage
www.eni-ecole.fr n° 21
www.eni-ecole.fr
Les principales tâches de gestion des banques de données sont :
 Création et formatage
 Suivi de son taux d’utilisation
 Extension dynamique
 Parcours, import et export de données
Gestion des banques de données
Affichage des fichiers masqués
Tous les fichiers ne sont pas visibles depuis l’outil d’exploration, ils peuvent l’être depuis la
console de l’ESXi ou après s’y être connecté via ssh, au moyen de la commande ls
www.eni-ecole.fr n° 22
www.eni-ecole.fr
 Prise en charge de la redondance réseau :
 2 cartes pour le management
 2 cartes pour les VM
o Le vSwitch de l’ESX1 sera nommé VM ESX1
o Le vSwitch de l’ESX2 sera nommé VM ESX2
 2 cartes pour l’ISCSI
 Configurez l’iSCSI. Vérifiez en déconnectant une des 2 cartes réseaux que vous
ne perdez pas l’accès au datastore.
Terminer la MSP précédente
www.eni-ecole.fr n° 23
www.eni-ecole.fr
 MPIO : Multipath I/O est une méthode basée sur l’utilisation de chemins d’accès
multiples à un périphérique de stockage.
 Cette méthode est applicable à différents contextes, elle permet :
 D’accroitre la tolérance de pannes
 D’optimiser les performances
 En environnement vSphere, son utilisation peut être mise au profit
d’hyperviseurs pour leur desserte de solution de stockage distant.
 Cela accroit la disponibilité d’accès au stockage des éléments de l’infrastructure
vSphere et permet d’appliquer de l’équilibrage de charge pour l’accès au
stockage.
 La prise en charge de base du MPIO en environnement vSphere est native.
MPIO - intérêt d’utilisation en environnement vSphere
www.eni-ecole.fr n° 24
www.eni-ecole.fr
Contexte de mise en œuvre en environnement vSphere
 MPIO permet de configurer sur un serveur ESXi plusieurs chemins et réseaux
pour l’accès à une unité de stockage logique via le protocole iSCSI.
Contraintes de conformité des groupes de ports pour l’accès au stockage :
 Plusieurs adaptateurs réseau peuvent être ajoutés à un adaptateur iSCSI donné.
 Les adaptateurs virtuels utilisés doivent être associés à une seule carte réseau
active (et aucune carte en standby)
MPIO – Contextes et contraintes de mise en œuvre
Lors de l’association de VMNic
à un adaptateur de stockage,
la conformité des contraintes
est vérifiée.
www.eni-ecole.fr n° 25
www.eni-ecole.fr
 Les exemples suivants illustrent deux configurations réseaux pouvant être
utilisées pour le raccordement au stockage iSCSI d’un ESXi
MPIO – exemples de configuration réseau
 Exemple 1
Utilisation d’un vSwitch avec
deux groupes de ports (chacun
lié à une VMNic de l’hyperviseur)
 Exemple 2
Utilisation de deux vSwitchs avec
un groupe de port chacun
(chaque groupe de port étant lié
à une VMNic de l’hyperviseur)
www.eni-ecole.fr n° 26
www.eni-ecole.fr
 Configuration de la liaison de l’adaptateur iSCSI à des réseaux multiples
MPIO – Configuration de l’adaptateur de stockage
www.eni-ecole.fr n° 27
Virtualisation - Conception et architecture
Module 2
Les fonctionnalités du Datacenter
vSphere
www.eni-ecole.fr n° 28
www.eni-ecole.fr
 vCenter et la gestion vSphere
 Single Sign On (SSO)
 Les migrations
 Gestion distribuée du réseau
Contenu du module
www.eni-ecole.fr n° 29
www.eni-ecole.fr
 vCenter a pour objectif de permettre la gestion centralisée de multiples serveurs
hôtes de virtualisation ESXi et des machines virtuelles hébergées sur ces
serveurs.
 Deux types de mise en œuvre de vCenter sont possibles :
 Installation du serveur vCenter sur un serveur Windows et liaison de celui-ci à une
base de données de type SQL.
 Utilisation de l'appliance vCSA (Virtual Center Server Appliance) limitée à 5 hôtes sur
vCenter 5.1 et 300 hôtes sur vCenter 5.5
vCenter est le point central de l’infrastructure virtualisée
VMware vCenter
www.eni-ecole.fr n° 30
www.eni-ecole.fr
Architecture vCenter
VMware vSphere VMware vSphere VMware vSphere
Serveur VMware vCenter
Gestion
www.eni-ecole.fr n° 31
www.eni-ecole.fr
Fonctionnalités vCenter
VMware vSphere
Services
Application
Services
Infrastructure
vMotion
Storage vMotion
HA
Fault Tolerance
Data Recovery
vShield Zones
VMSafe
DRS
Hot Add
ESX and ESXi
DRS and DPM
Memory
Overcommit
VMFS
Thin Provisioning
Storage I/O Control
Distributed Switch
Network I/O
Control
Disponibilité Evolutivité
Stockage Réseau
Sécurité
Calcul
www.eni-ecole.fr n° 32
www.eni-ecole.fr
 L’ajout de vCenter à une infrastructure de virtualisation vSphere permet la
création de contexte(s) de Datacenter vSphere.
 Les Datacenters définissent des périmètres de gestion de l'infrastructure
virtuelle. Peuvent être associés à un contexte de datacenter donné les
ressources suivantes :
 Cluster
 Serveur hôte
 Machine virtuelle
 Datastore
 Modèle
 Réseau virtuel
vCenter et le contexte de Datacenter
www.eni-ecole.fr n° 33
www.eni-ecole.fr
vCenter et le contexte de Datacenter
 L’organisation des ressources au sein de Datacenters multiples permet de
regrouper ces ressources selon certains critères comme :
 Leur emplacement géographique
 Leur client d’affectation
 Leur contexte d’utilisation (production, maquette)
Serveur vCenter
Datacenter
Nantes
Datacenter
Rennes
Datacenter
Montpellier
Datacenter
Lyon
Datacenter
Barcelone
www.eni-ecole.fr n° 34
www.eni-ecole.fr
 La création de dossiers permet de regrouper des ressources d’un même type
pour la délégation et/ou pour des contraintes physiques.
Organisation des objets de l'inventaire
Datacenter
Nantes
VDI Serveurs Hôtes
Intel
Hôtes
AMD
www.eni-ecole.fr n° 35
www.eni-ecole.fr
 Gestion centralisée des utilisateurs
 Support de multiples fournisseurs d'identités
 Découverte automatique des serveurs vCenter de l'infrastructure
 Granularité des délégations sur les objets
Bénéfices du Single Sign On
www.eni-ecole.fr n° 36
www.eni-ecole.fr
Composants Single Sign On (SSO)
Serveur SSO
Authentification Audit
Services d'identité
Active Directory
2003 et +
Open LDAP NIS Base locale
vSphere client ou
Web
Inventaire Serveur vCenter
www.eni-ecole.fr n° 37
www.eni-ecole.fr
 Ajout d'un service d'identité
Composants Single Sign On (SSO)
www.eni-ecole.fr n° 38
www.eni-ecole.fr
 Le gestion de machines physiques entraine des opérations en général lourdes à
réaliser (migration de serveurs, migration de SAN, réplication de configuration…)
 Le serveur vCenter permet de réaliser ces opérations dans l'environnement
virtuel en prenant en charge les opérations :
 de clonage,
 de déploiement de modèles préexistant de machines virtuelles
 de capture de l'état de machines virtuelles
 Le serveur vCenter est aussi nécessaire pour
 la migration à chaud des machines virtuelles et des datastores (sous réserve de
disposer des licences adéquates).
Gestion des machines virtuelles
www.eni-ecole.fr n° 39
www.eni-ecole.fr
 La migration consiste à déplacer une machine virtuelle d’un hôte ESXi vers un
autre hôte ESXi. Il existe quatre types de migration :
 À Froid : La machine à migrer est arrêtée
 Suspendue : La machine à migrer est en pause (suspendue)
 vMotion : La machine virtuelle est en cours de fonctionnement
 Storage vMotion : Migration des fichiers de la machine virtuelle en cours de
fonctionnement d’un datastore à un autre
 Enhanced vMotion : Migration des fichiers de la machine virtuelle en cours de
fonctionnement sans stockage partagé. Cette opération ne peut être réalisée qu’à
l’aide du vSphere Web Client.
Migration de machines virtuelles
www.eni-ecole.fr n° 40
www.eni-ecole.fr
 Source Vmware
Méthodes de migration
www.eni-ecole.fr n° 41
www.eni-ecole.fr
vMotion
VM 1
(Réseau Production)
VM 1
(Réseau Production)
ESX A ESX B
Image
Mémoire
Stockage partagé
Disques virtuels et fichiers
de configuration
Réseau vMotion
Mémoire
Réseau Production
www.eni-ecole.fr n° 42
www.eni-ecole.fr
 Storage vMotion permet la réalisation d’opération de maintenance et de
reconfiguration des espaces de stockage sans arrêt de production.
 Cette fonctionnalité est indépendante des types de stockage
Storage vMotion
1. Démarrage de la migration
2. Utilisation du VMkernel data
mover ou de l’API VAAI pour
copier les données
3. Démarrage d’un nouveau process
de VM
4. Le driver miroir intercepte tous
les appels et effectue les copies
sur les datastores source et
destination
 Source Vmware
www.eni-ecole.fr n° 43
www.eni-ecole.fr
 Dans un contexte de gestion isolée d’hyperviseurs, la gestion du réseau est
propre à chaque hyperviseur. Elle se traduit par l’utilisation de vSwitchs
standards et de groupes de ports locaux associés à ces commutateurs virtuels.
 Ces vSwitchs et groupes de ports sont créés et gérés localement sur chaque
hyperviseurs.
 Il est possible d’utiliser ces objets réseaux propres à chaque hyperviseur en
contexte de gestion global, dans une infrastructure vSphere intégrant vCenter.
Cependant la gestion d’une multitude de composantes réseaux isolées peut
s’avérer laborieuse. De plus cela accroit les risques d’incohérences en particulier
en cas de migration de VM.
 Pour simplifier la gestion du réseau et limiter ces contraintes, l’utilisation de
Switchs Distribués vSphere peut être envisagée.
 Cette fonctionnalité est disponible à partir de la version Entreprise Plus.
Conception d’une gestion distribuée du réseau
www.eni-ecole.fr n° 44
www.eni-ecole.fr
vDS : vSphere Distributed Switch
Hôte ESXi Hôte ESXi Hôte ESXi
vSwitch vSwitch vSwitch
vDS
www.eni-ecole.fr n° 45
www.eni-ecole.fr
 L’utilisation de réseaux vSphere distribués s’appuie sur la configuration d’un
ensemble d’éléments. Certains éléments sont gérés au niveau du vCenter /
Datacenter, d’autres sont à configurer sur les hôtes prenant part au réseau
distribué.
 Les composantes vCenter d’une infrastructure de réseau distribuée sont :
 Le vSphere Distributed Switch (vDS)
 Le Distributed Port Group (DPortGroup)
 Les éléments gérés sur les ESXi prenant part au réseau distribué sont :
 Les VMNic de l’hyperviseurs affectées au vDS
 Les adaptateurs virtuels associés aux vDS et DPortGroup
 Ces éléments seront abordés dans le détail dans les diapositives suivantes.
Les composantes d’infrastructure réseau distribuée
www.eni-ecole.fr n° 46
www.eni-ecole.fr
 Il peut être associé à :
 un (ou plusieurs) groupes de ports distribués
 un ou plusieurs hyperviseurs (ainsi que les VMNic à utiliser)
Le vSphere Distributed Switch
 Le vSphere Distributed Switch
 Il est caractérisé par
 sa version (contrainte par les ESXi)
 un nombre de ports de liens montants
 l’état d’activation de la fonctionnalité
Network I/O Control
Gestion des Groupes de
ports distribués associés
au vSwitch
Ajout du vDS
à un (ou
plusieurs)
hyperviseurs
www.eni-ecole.fr n° 47
www.eni-ecole.fr
 L’association d’un ou plusieurs groupes de ports distribués à un vSwitch
 permet de raccorder des machines virtuelles au réseau
 permet de répondre aux besoins d’infrastructure vSphere
 Les groupes de ports distribués sont notamment caractérisés par :
 Une méthode de liaison et d’allocation de port
 Un nombre de ports
Le groupe de port distribué
www.eni-ecole.fr n° 48
www.eni-ecole.fr
 Pour être utilisable par des hyperviseurs de l’infrastructure, un vDS doit être
ajouté aux hyperviseurs concernés.
 Lors de cet ajout, on sélectionne la ou les VMNic de l’hyperviseur utilisée(s)
pour le raccordement à ce vSwitch. Les machines virtuelles de l’ESXi peuvent
alors être raccordées à ce groupe de ports du vDS.
Configuration réseau sur l’ESXi - 1
www.eni-ecole.fr n° 49
www.eni-ecole.fr
Configuration réseau sur l’ESXi - 2
 Pour qu’un groupe de port distribué soit utilisable pour répondre aux besoins de
l’infrastructure vSphere d’un hyperviseur, il faut lui associer un adaptateur
virtuel du (ou des) ESXi concerné.
 Le ciblage des différentes fonctionnalités vSphere est configuré sur les
adaptateurs virtuels.
www.eni-ecole.fr n° 50
www.eni-ecole.fr
Desserte réseau des machines virtuelles
Les types de cartes réseaux suivants peuvent être ajoutés aux machines virtuelles :
 E1000 : Emulation de la carte Intel 82545EM Gigabit Ethernet, reconnue par un
grand nombre d’OS récents, proposée par défaut, lors de la création de VM.
 E1000e : Emulation de la carte Intel Gigabit NIC 82574. Proposée par défaut
pour Windows 8 et Windows 2012 offre des performances supérieures.
 VMXNET 2 (Enhanced): Version supérieure de la carte VMXTNET et qui offre de
meilleures performances, et le support du jumbo frames. Nécessite les VMware
Tools.
 VMXNET 3 : Dernière génération des cartes réseaux paravirtualisées ajoutant
de la performance et des fonctionnalités supplémentaires. Requiert les VMWare
Tools, elle est reconnue comme une carte 10Gbps.
www.eni-ecole.fr n° 51
www.eni-ecole.fr
Débits comparés des différents types de cartes réseaux
 Tests réalisés par Cedric Megroz
source : http://www.virtualementvotre.ch/blog/2014/11/17/performances-des-cartes-virtuelles/
entre ESXi intra ESXi
E1000 935 Mbits/sec 4.47 Gbits/sec
E1000e 926 Mbits/sec 4.47 Gbits/sec
VMXNET3 917 Mbits/sec 5.65 Gbits/sec
 Comparaison des taux de transfert des différentes cartes :
www.eni-ecole.fr n° 52
www.eni-ecole.fr
Bonnes pratiques
 La partie réseau dans un environnement virtualisé est souvent cause de
ralentissements et de goulots d’étranglements.
 Pour palier à cette problématique, l’ajout d’un maximum de cartes réseaux
permet un meilleur équilibrage de la charge réseau et une meilleure tolérance
de panne.
 Aujourd’hui on peut considérer qu’il faut :
o 2 cartes pour le Management
o 2 cartes pour le vMotion
o 2 cartes pour le stockage IP (si SAN)
o 2 cartes minimum pour les VM
 Le faible coût financier des cartes réseaux aujourd’hui peut très facilement le
permettre.
www.eni-ecole.fr n° 53
www.eni-ecole.fr
 Réaliser un déplacement de la VM Win7-ESX1 vers l’ESX2. Le stockage sera
également modifié vers le datastore local de l’ESX2.
 Quelle problématique se présente ?
 Créez un vSphere Distributed Switch pour les VM et incluez les cartes réseaux
correspondantes des hôtes à ce vDS.
 Assignez les 2 Vm à ce vDS et déplacez ensuite la VM Win7-ESX1 vers l’ESX1 (VM
+ Stockage vers le Datastore local).
 Vérifiez l’étiquette réseau assignée à la VM après son déplacement.
MSP : vMotion, Storage vMotion, vDS
www.eni-ecole.fr n° 54
Virtualisation - Conception et architecture
Module 3
Gestion des ressources et
Exploitation
www.eni-ecole.fr n° 55
www.eni-ecole.fr
 Les Snapshots
 Gestion de l’automatisation du démarrage des VM
 Gestion des ressources
 Réservations / limites / pools : rappels
 Les parts
 L’extensibilité
 Allocation de ressources CPU
Contenu du module
www.eni-ecole.fr n° 56
www.eni-ecole.fr
 Les snapshots ou instantanés de VM permettent de conserver l'état d'une
machine virtuelle et de réaliser un retour arrière en cas de nécessité.
 Un snapshot peut-être réalisé sur une machine virtuelle :
 en cours de fonctionnement
 en pause
 arrêtée
 Un snapshot capture l'état de la mémoire, des paramètres et du ou des
disque(s) de la machine virtuelle
Snapshots
www.eni-ecole.fr n° 57
www.eni-ecole.fr
 Le gestionnaire de snapshot permet de consolider des snapshots existants ou de
faire des retours arrières sur des versions précédentes de la machine virtuelle.
 Des applications destinées à la sauvegarde vont se baser sur des Snapshots pour
effectuer leur sauvegarde (Veeam Backup&Replication…)
 Dans le cadre de VM Windows, l’utilisation du protocole VSS (Volume Snapshot
Service) est indispensable.
 Il est chargé de geler la VM
 Doit être supporté par l’application sauvegardée (AD, Exchange, SQL…)
Snapshots
www.eni-ecole.fr n° 58
www.eni-ecole.fr
 Il est possible de configurer le démarrage automatique de VM au lancement de
l’hyperviseur. Cette fonctionnalité permet de réduire l’indisponibilité de
machine virtuelles après redémarrage de l’hyperviseur les hébergeant.
 A défaut de paramétrage les machines virtuelles sont à démarrer manuellement.
Automatisation du démarrage des VM
www.eni-ecole.fr n° 59
www.eni-ecole.fr
Configuration du démarrage automatique de VM
www.eni-ecole.fr n° 60
www.eni-ecole.fr
Réservation et limites
 La réservation de ressources
Permet de garantir le provisionnement en ressources physiques de l’hôte pour des
machines virtuelles.
 La configuration de limites de ressources
Permet de limiter l’utilisation de ressources physiques pour des machines virtuelles
 La réservation de ressources
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
 La configuration de limites de ressources
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
www.eni-ecole.fr n° 61
www.eni-ecole.fr
Ciblage Pool / VM
 Mise en œuvre de limites et réservations sur une VM
Affecte les ressources de l’hyperviseur AU DEMARRAGE de la VM.
Peut bloquer le démarrage d’une VM (VM seul) ou le garantir (VM + POOL).
 Mise en œuvre de limites et réservations sur un pool de ressources
Affecte les ressources de l’hyperviseur immédiatement.
Les ressources affectées au pool sont utilisables par les VM du pool sur lesquelles
des réservations sont configurées.
 La mise en œuvre de limites et réservations sur une VM
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
 La mise en œuvre de limites et réservations sur un pool de ressource
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
…….……………………………………………………………………………………………………………………………
www.eni-ecole.fr n° 62
www.eni-ecole.fr
 Quand l’hyperviseur utilise toutes ses ressources, mémoire ou processeur il
privilégie certaines machines au détriment d’autres.
 Les machine privilégiées se voient accorder plus de ressources physiques, ou
plus de parts de ressources matérielles.
Ressources : fonctionnement des parts
 L’affectation de parts se configure sur une
machine virtuelle ou sur un pool (parts
réparties entre les machines du pool).
 La gestion des parts possède 3 niveaux
par défaut Low, Normal, High
 Ils s’appuient sur des ratios 1:2:4.
 Un pool de ressources avec une priorité
High aura donc 4 fois plus de ressources
qu’un pool en priorité Low.
10GiB
10 000 parts Capacité 100 GiB
10GiB
10GiB
10GiB
VM-ERP
10GiB
10GiB
SRV-INF1
SRV-PROD1
DC01
10GiB
SRV-PROD2
SRV-INF2
SRV-BACKUP
SRV-MAIL1
10GiB
3000 parts
4000 parts
10GiB
10GiB
1000 parts
1000 parts
1000 parts
10GiB
www.eni-ecole.fr n° 63
www.eni-ecole.fr
Un cluster possède une capacité totale de calcul de 30GHz et 300Go de RAM.
On crée 2 pools de ressources :
- Un pool production avec parts configurées en High hébergeant 8 VM
- Un pool tests avec parts configurées en Normal hébergeant 2 VM
Exemple de configuration des parts
PRODUCTION (high) TESTS (normal) Capacité totale
CPU : 30 GHz
RAM : 300Go
 Contexte : on considère que toutes les ressources de l’hôte sont utilisées
 Les parts définies sur les pools sont donc exploitées
o Le pool production a un ratio de 4
o Le pool tests a un ratio de 2
 Ressources allouées aux pools :
o Production : 20Ghz, 200Go RAM
o Tests : 10 Ghz, 100Go RAM
www.eni-ecole.fr n° 64
www.eni-ecole.fr
Résultante de la configuration des parts
PRODUCTION (high)
20GHz / 200 Go RAM
TESTS (normal)
10Ghz / 100Go RAM
Capacité totale
CPU : 30 GHz
RAM : 300Go
La résultat appliqué aux machines virtuelles des pools est le suivant :
 Sur le pool production (8 VM) on aura donc une moyenne par VM de :
 2,5 GHz
 25 Go RAM
 Sur le pool tests (2 VM) :
 5 Ghz / VM
 50 Go RAM / VM
www.eni-ecole.fr n° 65
www.eni-ecole.fr
Configuration des parts : conception
 Le nombre de VM présentes dans le pool est capital pour effectuer les calculs. Il
faut avoir conscience que les ressources attribuées au pool sont réparties entre
les différentes machine.
 Pour donner plus de priorité aux VM du pool de production il faudra donc
effectuer des calculs et configurer le nombre de parts de celui-ci à personnalisé.
www.eni-ecole.fr n° 66
www.eni-ecole.fr
 L’extensibilité est un point de configuration qui peut être activé (par défaut) ou
désactivé sur un pool de ressources. Un pool de ressources « extensible » peut
emprunter des ressources réservables aux pools parents. Cette opération peut-
être récursive jusqu’au pool racine.
 Scénario mettant en œuvre cette notion :
 Le service informatique de l’entreprise OMB fournit des services à deux clients
internes : les services administratif-finances et le service ingénierie-production.
 Le service ingénierie-production finance les 2/3 du budget informatique
 Le service administratif-finance finance 1/3 du budget informatique
 Chaque service exploite des machines de production et de test
Imbrication de pools et extensibilité
www.eni-ecole.fr n° 67
www.eni-ecole.fr
Scénario – exemple de configuration
CPU Total : 12000 MHz
Mémoire Totale : 8 000 Mo
Pool de ressource Racine
Réservation : 1400 MHz
Réservation extensible : oui
Pool Ingénierie
Réservation : 3000 MHz
Réservation extensible : oui
Pool Ing-Prod
Réservation : 1000 MHz
Réservation extensible : Non
Pool Production
VM 1
R =400
VM 2
R =300
VM 3
R =500
Les machines virtuelles du pool Ingénierie
pourront emprunter des ressources au
pool parent.
Les machines virtuelles
du pool production sont
limitées aux ressources
de leur pool
VM 4
R =500
VM 5
R =500
VM 6
R =500
VM 7
R =500
www.eni-ecole.fr n° 68
www.eni-ecole.fr
 L’allocation de ressources CPU par machine virtuelle se traduit par la
configuration :
 D’un nombre de socket virtuel
 D’un nombre de cœurs d’exécution
par socket
 Le produit de ces deux valeurs détermine le nombre de vCPU alloué à la VM.
 L’affectation d’une limite de fréquence CPU peut compléter la configuration du
nombre de vCPU en affectant précisément les ressources CPU dont elle a
besoin.
 Lorsqu’une VM demande des ressources CPU à l’hyperviseur, elle requiert la
disponibilité d’autant de vCPU que configurés.
Allocation de ressources CPU aux machines virtuelles
www.eni-ecole.fr n° 69
www.eni-ecole.fr
 L’hôte physique sur lequel est installé l’hyperviseur dispose d’un ou plusieurs
socket CPU à un ou plusieurs cœurs chacun. Le produit de ces deux valeurs
forme le nombre de vCPU de l’hôte.
 Il est possible d’allouer à l’ensemble des VM plus de vCPU que n’en dispose
l’hôte. Cela n’a pas de conséquence sur les performances des VM tant que les
ressources utilisées par les VM sont inférieures aux ressources de l’hyperviseur.
 Cela impacte les performances des VM quand plus de ressources sont
demandées par les VM que n’en dispose l’hyperviseur.
Conséquences de la sur allocation CPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
Hôte
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
vCPU
Machines virtuelles
www.eni-ecole.fr n° 70
www.eni-ecole.fr
 En cas de surallocation de vCPU, lors du besoin de ressources CPU par les VM,
celles-ci peuvent :
 Soit disposer d’autant de vCPU que configuré
 Soit être en attente de disponibilité CPU
 Plus le nombre de vCPU alloué à une VM est grand, plus ses demandes de
ressources risquent d’être mises en attente.
Allocation de vCPU multiple à une VM
vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU
vCPU vCPU vCPU vCPU vCPU vCPU
vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU
vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU
1 cycle d’horloge
VM en attente CPU
2
vCPU
4
vCPU
8
vCPU
Ressources CPU
configurées
vCPU vCPU
www.eni-ecole.fr n° 71
Virtualisation - Conception et architecture
Module 4
Haute disponibilité
de l'infrastructure virtuelle
www.eni-ecole.fr n° 72
www.eni-ecole.fr
 Disponibilité et solutions
 Le cluster vSphere
 vSphere HA
 vSphere FT
 vSphere DRS
 vSphere DPM
Contenu du module
www.eni-ecole.fr n° 73
www.eni-ecole.fr
 La plupart des organisations s’appuient aujourd'hui sur un système
d’information qui est devenu critique pour leur bon fonctionnement. La
défaillance d’un service d’infrastructure ou un service applicatifs peut entrainer
des dysfonctionnements importants et des pertes de production conséquentes.
 La mise en œuvre de services permettant de garantir des niveaux de
disponibilité est donc primordiale.
Introduction
www.eni-ecole.fr n° 74
www.eni-ecole.fr
 Le rôle du service informatique ou d’un fournisseur de service est de garantir le
bon fonctionnement et la disponibilité des services mis en œuvres.
 Pour les services critiques, des contraintes de disponibilité peuvent être
imposées, notamment quand leur indisponibilité impactent directement le
fonctionnement de l’entreprise.
 La notion de haute disponibilité est liée à la mise en œuvre d’un ensemble de
techniques visant à accroitre la disponibilité d’un environnement donné.
 Les principaux niveaux de disponibilités
 Pas de haute disponibilité
 Haute disponibilité
interruption de service limitée
 Très haute disponibilité
aucune interruption de service
Contextes de haute disponibilité
Niveau de
disponibilité
Temps d’interruption/an
99 % 87,5 heures (3,5jours)
99,9% 8,76 heures
99,99% 52 minutes
99,999% 5 minutes
www.eni-ecole.fr n° 75
www.eni-ecole.fr
 Une multitude de mesures peut être mise en œuvre pour accroitre la
disponibilité d’éléments ciblés d’une infrastructure.
 Approche granulaire : accroitre la disponibilité d’un service nécessite des
compétences, des taches de gestion supplémentaires, des ressources, la mise en
œuvre de solutions complexes et coûteuses … C’est donc une approche qui doit
être menée service par service et un traitement au cas par cas.
Les solutions pour accroitre la disponibilité
Infrastructure vSphère
Matériel
Services
OS
 Une fois ciblé les services, devra être
choisie la couche et la solution à
appliquer afin d’accroitre leur
disponibilité.
www.eni-ecole.fr Module 1 - n° 76
www.eni-ecole.fr
Solutions de haute disponibilité
Quelles solutions avez-vous déjà mis en œuvre ou
rencontré afin d’accroitre la disponibilité de services ?
Discussion
www.eni-ecole.fr n° 77
www.eni-ecole.fr
 La mise en place d’un ensemble de solutions, pour accroitre la disponibilité
d’une multitude de services doit se faire après un important travail d’analyse des
besoins et contraintes de disponibilité service par service.
 On ne met pas en place une solution de haute disponibilité pour les services de
l’entreprise, mais des solutions personnalisées pour des services ciblés.
 La mise en œuvre et configuration de solutions ne représente qu’une petite
partie du processus d’accroissement de la disponibilité de ressources. C’est
cependant cette partie qui est majoritairement traitée dans ce support.
Analyse des besoins
www.eni-ecole.fr n° 78
www.eni-ecole.fr
/!
Seules les fonctionnalités de haute disponibilité propre à
l’environnement vSphere sont présentées dans la suite de ce
module.
www.eni-ecole.fr n° 79
www.eni-ecole.fr
 L’environnement vSphere correspond à la couche de virtualisation de serveur de
l’infrastructure. Les solutions prises en charge par vSphere permettent d’agir à
ce niveau.
 La haute disponibilité se traduit par la mise en place d’un contexte de cluster
vSphere auquel on associe un ensemble d’hôtes.
 Les fonctionnalités suivantes sont liées au cluster vSphere :
 vSphere HA (vSphere High Availability)
 vSphere FT (vSphere Fault Tolerance)
 vSphere DRS (vSphere Distributed Ressource Scheduler)
 vSphere Storage DRS (vSphere Storage Distributed Ressource Scheduler)
 vSphere DPM (vSphereDistributed Power Management)
Haute disponibilité en environnement vSphere
www.eni-ecole.fr n° 80
www.eni-ecole.fr
 vSphere HA permet de minimiser le temps d’indisponibilité. L’interruption de
service existe toujours mais est très largement minimisée.
 Tous les systèmes d’exploitation invités sont supportés
 La fonctionnalité est disponible dans le cadre d'un cluster
 Protection contre la défaillance d’un hôte ESXi, d’une machine virtuelle, d’une
application
 Le Heartbeat est chargé de détecter les défaillances
vSphere HA
www.eni-ecole.fr n° 81
www.eni-ecole.fr
 Lors de l’ajout d’un hôte dans un cluster HA, un agent FDM (Fault Domain
Manager) est transféré sur l’hôte.
 L’agent FDM est chargé de la communication entre les hôtes du cluster et de la
remontée d’informations :
 Etat des VMs
 Placement, redémarrage des VMs
 Mécanisme de heartbeat
 En relation directe avec l’agent hostd
vSphere HA: Fonctionnement du cluster
ESXi master ESXi slave
Serveur vCenter
VM 1
VM 2
VM 3
VM 4
Cluster
FDM FDM
hostd hostd
www.eni-ecole.fr n° 82
www.eni-ecole.fr
 Un processus d’élection détermine un serveur Maitre, tous les autres sont
esclaves. En cas de défaillance du serveur Maitre, une nouvelle élection a lieu.
 Le choix du nouveau maître est basé sur celui qui possède le plus grand nombre
de datastores connectés.
 Le serveur principal :
 Surveille l’état des hôtes secondaires
 Surveille l'état d'alimentation des VM protégées
 Collecte les informations des VM protégées par le HA.
 Les serveurs esclaves :
 Indiquent l’état de leurs VM et informent le serveur maître des changements d’états.
 Si le serveur maître est injoignable, ils provoquent une élection.
vSphere HA: Fonctionnement du cluster
www.eni-ecole.fr n° 83
www.eni-ecole.fr
 Deux mécanismes de heartbeat différents sont utilisés dans le cluster:
 Un mécanisme de heartbeat utilisant tous les réseaux VMKernel configurés pour un
trafic de gestion.
o Maitres et esclaves s’envoient un heartbeat chaque seconde.
 Si il y a une rupture de communication sur le heartbeat, le maître envoie un ping
ICMP sur l’adresse IP du serveur esclave injoignable.
 Pour vérifier qu’il n’est pas en situation d’isolement réseau, un hôte effectue
également une requête ICMP sur son adresse de passerelle par défaut. Sans réponse
à cette requête HA ne se déclenchera pas. Les VMs ne seront pas redémarrées sur un
autre hôte.
 Un mécanisme de heartbeat utilisant les datastores partagés.
o Quand un isolement réseau est détectée (le heartbeat réseau n’est plus détecté) et
uniquement dans ce cas là, le serveur maitre recherche sur les datastores partagés (deux
par défaut) la présence d’un fichiers spécial généré par chacun des hôtes actifs.
vSphere HA : HeartBeat
www.eni-ecole.fr n° 84
www.eni-ecole.fr
 Si plusieurs hôtes sont isolés et peuvent continuer à s’échanger des pulsations
au travers d’un des réseau de gestion ou bien d’un datastore, on parlera de
Partitionnement du réseau et un processus d’élection sera déclenché.
 Lorsqu’un hôte est isolé, HA va forcer les VM à s’arrêter.
 Dans un cluster HA les pulsations heartbeat sont :
 Envoyées entre le serveur maitre et les serveurs esclaves
 Utilisées pour savoir si un hôte est défaillant
 Mises en œuvre sur un port Vmkernel configuré pour le trafic de gestion
 La redondance des réseaux sur lesquels circulent les pulsations est primordiale
pour éviter un isolement des hôtes pouvant entrainer le démarrage de deux
machines identiques sur le réseau.
Redondance des réseaux pour Heartbeat
www.eni-ecole.fr n° 85
www.eni-ecole.fr
Redondance réseau pour Heartbeat
 Redondance avec agrégation de liens
 Redondance avec plusieurs réseaux de heartbeat
Différentes méthodes sont envisageables pour rendre redondant le réseau utilisé pour le
heartbeat :
 Le trafic de gestion doit être coché sur
le·s groupement·s de ports concerné·s
www.eni-ecole.fr n° 86
www.eni-ecole.fr
En cas de défaillance des réseaux de gestion, les datastores communs sont utilisés
pour déterminer si un hôte est isolé ou non. Minimum 2 datastores sont nécessaires.
Datastore Heartbeat
www.eni-ecole.fr n° 87
www.eni-ecole.fr
 En cas de défaillance le service HA redémarre les VM sur un autre hôte ESXi
vSphere HA : Défaillance d’un hôte
Cluster
ESXi ESXi ESXi
Serveur vCenter
VM 1
VM 2
VM 3
VM 4
VM 5
VM 6
!
www.eni-ecole.fr n° 88
www.eni-ecole.fr
 Quand une VM n’envoie plus son heartbeat ou que le process de la machine
virtuelle échoue, HA redémarre la VM. Les VMware tools doivent être installé
vSphere HA : Défaillance d’une VM
Cluster
ESXi ESXi ESXi
Serveur vCenter
VM 1
VM 2
VM 3
VM 4
VM 7
VM 8
VM 9
VM 5
VM 6
www.eni-ecole.fr n° 89
www.eni-ecole.fr
 En cas de défaillance d’une application pouvant dialoguer avec les VMware
tools, HA redémarre la VM concernée.
vSphere HA : Défaillance d’une application
Serveur vCenter
Cluster
ESXi ESXi ESXi
VM 1
VM 2
VM 3
VM 4
VM 7
VM 8
VM 9
VM 5
VM 6
www.eni-ecole.fr n° 90
www.eni-ecole.fr
 Un cluster regroupe un ensemble d’hyperviseurs et leurs machines hébergées
sur lesquels les fonctions de haute disponibilité (HA et/ou DRS) sont activées.
 Les différentes fonctionnalités de haute disponibilité peuvent :
 Etre activées à la création du cluster
 Etre activées sur un cluster existant
vSphere HA : Configuration
www.eni-ecole.fr n° 91
www.eni-ecole.fr
vSphere HA : Configuration
Désactiver ce
paramètres lors de
maintenance du
réseau
Le contrôle
d'admission garantit
que suffisamment de
ressources sont
disponibles pour le
fonctionnalité HA
 En cas de modification de la configuration réseau (ajout de groupement de port,
suppression de vswitchs … ) pour prévenir des dysfonctionnement du cluster HA, il est
nécessaire de désactiver la surveillance de l'hôte et de le placer en mode maintenance
www.eni-ecole.fr n° 92
www.eni-ecole.fr
Options des machines virtuelles
 Dans la configuration de vSphere HA sont défini les comportements par défaut :
 De priorité de redémarrage des VM
 D’action à mener en cas d’isolement réseau de l’hôte
www.eni-ecole.fr n° 93
www.eni-ecole.fr
 Ces règles peuvent être redéfinies machine par machine au besoin afin de
répondre à des besoins précis.
 Il est ainsi possible de gérer l’ordre de redémarrage des VM dans le cadre de HA.
 On pourra par exemple dans le cadre d’applications métier redémarrer le
serveur hébergeant la base de données avant le serveur applicatif.
Options des machines virtuelles
www.eni-ecole.fr n° 94
www.eni-ecole.fr
Surveillance des machines virtuelles
Réinitialisation par l’hyperviseur de la machine virtuelle en cas de non réception des
heartbeats (requiert les VMware tools)
Paramètres Intervalle de
défaillance
Période de
réinitialisation
Haut 30 1h
Moyen 60 24h
Faible 120 7 jours
www.eni-ecole.fr n° 95
www.eni-ecole.fr
Surveillance du cluster HA
www.eni-ecole.fr n° 97
www.eni-ecole.fr
 La fonctionnalité HA entraine une indisponibilité (downtime) non négligeable
puisqu’une machine virtuelle considérée comme non disponible est redémarrée
sur un autre hôte ESXi. Cela entraine donc la perte de toutes les transactions qui
n'ont pas été validées sur les disques stockés sur les datastores. Une application
pourrait également avoir conservé des fichiers ouverts et se trouver dans un état
incohérent.
 vSphere FT (Fault Tolerance) va permettre de répondre à ces deux
problématiques et de protéger d’une interruption de service les machines
critiques.
 FT est une solution de très haute disponibilité qui est utilisée dans le cadre
d’applications critiques.
 Cette fonctionnalité requiert le contexte de cluster vSphere.
vSphere FT (Fault Tolerance)
www.eni-ecole.fr n° 98
www.eni-ecole.fr
 La fonctionnalité FT fonctionne sur le modèle du cluster actif / passif : une VM
en fonctionnement est active sur un hôte et passive sur le second. Tous les flux
d’E/S de cette VM sont répliqués en permanence vers sa « copie » passive.
vSphere FT (Fault Tolerance)
VMware ESXi VMware ESXi VMware ESXi
Hôte
défaillant
Hôte
opérationnel
Hôte
opérationnel
 En cas de défaillance de l’hôte sur lequel la VM est active, celle-ci devient active
sur l’autre hôte immédiatement, sans aucune interruption de service.
www.eni-ecole.fr n° 99
www.eni-ecole.fr
 Un nombre suffisant de serveurs ESXi doit être disponible pour protéger des VM
tolérantes aux pannes. (VMware recommande un nombre maximum de 4 VM-
FT primaires ou secondaires par hôte)
 Les datastores doivent être accessibles par tous les hôtes.
 Des contraintes du nombre de vCPU s’appliquent aux machines virtuelles
concernées (en fonction de la version de l’hyperviseur et des licences).
 La fonctionnalité storage vMotion est incompatible avec FT.
 Un réseau vmkernel différent du réseau vMotion est nécessaire à des fins de
redondance.
vSphere FT (Fault Tolerance) : Contraintes
www.eni-ecole.fr n° 100
www.eni-ecole.fr
 Les snapshots sont impossibles.
 Les sauvegardes exploitant l'API VADP (vStorage API for Data protection) sont
indisponibles.
 Les disques durs doivent être de taille fixe (Thick Eager Zeroed) ou RDMv.
L’activation de FT modifiera leur état et ajustera automatiquement la réservation
de la RAM.
vSphere FT (Fault Tolerance) : Contraintes
www.eni-ecole.fr n° 101
www.eni-ecole.fr
Elements vSphere 5.5 vSphere 6
Virtual machine maximums
Virtual CPUs per core 32 32
Fault Tolerance maximums
Virtual disks 16 16
Virtual CPUs per virtual machine 1 4
RAM per FT VM 64 Go 64 Go
Virtual machines per host 4 4
vSphere FT : Evolutions de avec vSphere 6
 Depuis la version 6, certains logiciels de Backup comme Veeam
Backup&Replication prennent en charge la sauvegarde de machines protégées
par FT.
 Les limites techniques ont été repoussées sur de nombreux points, en particulier
sur le nombre de vCPU par VM qui est passé de 1 à 4.
www.eni-ecole.fr n° 102
www.eni-ecole.fr
 Mettez en place HA entre les 2 hôtes.
 Vérifiez le bon fonctionnement en arrêtant physiquement un des deux ESX
 Vérifiez le bon fonctionnement en déconnectant les cartes réseaux d’un des hôtes
MSP : HA
www.eni-ecole.fr n° 103
www.eni-ecole.fr
 Les services de migration vMotion et Storage vMotion permettent de déplacer
VM et contenu dans l'infrastructure virtuelle.
 Les services de Haute disponibilité HA et FT permettent d’accroitre la
disponibilité de VM.
 La charge des hyperviseur peut être inégale dans le temps ce qui requiert un
suivi des administrateurs afin de positionner / migrer les VM sur les hôtes de
manière appropriée afin d’équilibrer leur charge.
 vSphere propose plusieurs services pour répondre à ces besoins :
 Distributed Ressource Scheduler (DRS) : optimisation du placement des VM
 Storage Distributed Ressource Scheduler (Storage DRS) : optimisation des Datastores
 Distributed Power Management (DPM) : consolidation des VM sur les hôtes
DRS, SDRS, DPM
www.eni-ecole.fr n° 104
www.eni-ecole.fr
 Les fonctions DRS sont disponibles dans le cadre d'un cluster vSphere.
 Le cluster DRS est géré par un serveur vCenter et propose la gestion :
 Du placement initial des VM
 De l'équilibrage de charge
 De la gestion de l'énergie (Power Management)
Cluster DRS
www.eni-ecole.fr n° 105
www.eni-ecole.fr
 Pour le fonctionnement du cluster DRS :
 les hôtes doivent être reliés par un réseau virtuel configuré pour vMotion
 les hôtes doivent être connectés à un stockage partagé
 Tous les datastores doivent être accessibles par les hôtes membres du cluster
 Un certain niveau de compatibilité matérielle est requis pour utiliser cette
fonctionnalité
Cluster DRS : Prérequis
www.eni-ecole.fr n° 106
www.eni-ecole.fr
EVC (Enhanced vMotion Compatibility)
 Dans le cadre de la mise en place d’un Cluster, il est essentiel de tenir compte de
la couche matérielle, bien souvent oubliée lors de la mise en place
d’hyperviseurs.
 La famille de processeurs (Intel / AMD) est une donnée essentielle puisque dans
le cadre d’un cluster, il sera impossible de mixer les technologies.
 Au-delà du constructeur, la génération du processeur va également avoir un
rôle.
 Les processeurs évoluent et certaines instructions CPU apparaissent. Elles ne seront
donc pas forcement prises en charge par l’ancienne génération.
 Ces différentes instructions non prises en charge peuvent notamment poser des
problèmes dans un contexte vMotion (impossible de migrer les VM).
 Pour faire face à ces problématiques, EVC (Enhanced vMotion Compatibility) à
fait sont apparition.
www.eni-ecole.fr n° 107
www.eni-ecole.fr
EVC (Enhanced vMotion Compatibility)
 Cette fonctionnalité favorise la compatibilité des processeurs de génération
différentes dans un contexte vMotion.
 EVC garantit que tous les serveurs hôtes d'un cluster présenteront les mêmes
jeux d'intruction aux VM
www.eni-ecole.fr n° 108
www.eni-ecole.fr
 Trois niveaux d'automatisation sont disponibles
 En mode entièrement automatisé, un seuil de migration permet de définir 5
niveaux d'automatisation, du plus conservateur au plus agressif.
DRS: Niveau d'automatisation
Niveau d'automatisation Placement initial des VM Equilibrage de charge dynamique
Manuel Manuel Manuel
Partiellement automatisé Automatique Manuel
Entièrement automatisé Automatique Automatique
www.eni-ecole.fr n° 109
www.eni-ecole.fr
 L'automatisation du placement des VM dans un cluster peut être la source de
problème de performances ou de sécurité. Exemple : les deux membres d'un
cluster à basculement positionnés sur le même hôte. En cas de défaillance de
l'hôte, le cluster à basculement serait pris en défaut.
 Des règles d'affinité ou d'anti-affinité permettent de définir si des machines
virtuelles peuvent se trouver sur le même hôte ou si au contraire ils doivent être
sur deux hôtes distincts.
DRS : Règles d'affinité du cluster
www.eni-ecole.fr n° 110
www.eni-ecole.fr
 Si l’option d’activation des niveaux d’automatisation au niveau des VM est
cochée dans les propriétés du cluster DRS, les paramètres de migration peuvent
être définis par VM
DRS : Niveau d'automatisation des machines virtuelles
www.eni-ecole.fr n° 111
www.eni-ecole.fr
 Les performances d'une infrastructure de virtualisation sont très dépendantes
des ressources de stockage. L'optimisation des performances de ces ressources
peut-être effectuée au niveau des services de stockage SAN (sous réserve de
compatibilité avec le tiering automatique) ou bien par vSphere.
 La fonctionnalité Storage DRS permet d'analyser les I/O sur les datastores pour
positionner au mieux ceux-ci sur les ressources de stockage les plus appropriées.
Cette fonctionnalité requiert la création d’un cluster de banques de données
Storage DRS
www.eni-ecole.fr n° 112
www.eni-ecole.fr
 Des mesures sont effectuées régulièrement pour proposer des
recommandations à l'administrateur
Storage DRS
www.eni-ecole.fr n° 113
www.eni-ecole.fr
 La fonction Distributed Power Management (DPM) de vSphere permet à un
cluster DRS de réduire sa consommation d'énergie en activant et désactivant
des hôtes sur la base de l'utilisation des ressources de cluster.
 vSphere DPM surveille le cumul des exigences de toutes les machines virtuelles
dans le cluster en termes de mémoire et de ressources CPU et les compare à la
capacité totale de ressources disponible de tous les hôtes dans le cluster. Si la
surcapacité suffisante est trouvée, vSphere DPM place un ou plusieurs hôtes en
mode standby et les désactive après avoir migré leurs machines virtuelles vers
d'autres hôtes.
 À l'inverse, quand la capacité est considérée insuffisante, DRS met fin au mode
veille des hôtes (les active) et emploie vMotion pour migrer des machines
virtuelles vers eux.
DPM: Distributed Power Management
www.eni-ecole.fr n° 114
www.eni-ecole.fr
 Ici, un des 3 hôtes n’héberge qu’une seule VM.
 Un des autres hôtes n’est pas surchargé et possède les ressources nécessaires pour
accueillir cette VM supplémentaire
 La VM est déplacée et l’hôte qui l’hébergeait est mis en standby
DPM: Distributed Power Management
Cluster
ESXi ESXi ESXi
Serveur vCenter
VM 1
VM 2
VM 3 VM 4
VM 5
www.eni-ecole.fr n° 115
www.eni-ecole.fr
 Si un hôte est surchargé, DPM va rallumer un hôte en standby pour décharger
l’hôte et mieux répartir la charge.
DPM: Distributed Power Management
Cluster
ESXi ESXi ESXi
Serveur vCenter
VM 1
VM 2
VM 3
VM 4
VM 5
www.eni-ecole.fr n° 116
www.eni-ecole.fr
 Pour que vSphere DPM puissent gérer l’alimentation des hôtes, il sera
indispensable que ces hôtes disposent de « cartes de management ».
 Selon le constructeur, elles portent des noms différents
 DELL : Carte iDRAC
 HP : Carte ILO
 IBM : Carte RSA
 …
 Ces cartes permettent de gérer les hôtes même si ils sont éteints.
Comment DPM allume et éteint-il les hôtes ?
www.eni-ecole.fr n° 117
www.eni-ecole.fr
DPM : Activation
www.eni-ecole.fr n° 118
www.eni-ecole.fr
 Validation du mode DRS partiellement automatisé
 Déplacez les 2 VM sur un seul hôte
 Arrêtez une des VM
 Mettez en place DRS en mode partiellement automatisé
 Démarrer la VM éteinte
 Validation du mode DRS totalement automatisé
 Déplacez les 2 VM allumées sur un seul hôte
 Installez l’outil Loadstorm sur une des VM (disponible en ISO sur « Distrib »)
 Mettez en place DRS en mode totalement automatisé
 Générez de la charge CPU via Loadstorm sur la VM
 Vérifiez que les machines ont bien été déplacées
MSP : Pools de ressources et de DRS

Contenu connexe

Similaire à ENI_Cours_Virtualisation_ASR_v2.2 (2).pptx

Techdays 2009 - Administration centralisée des infrastructures de virtualisation
Techdays 2009 - Administration centralisée des infrastructures de virtualisationTechdays 2009 - Administration centralisée des infrastructures de virtualisation
Techdays 2009 - Administration centralisée des infrastructures de virtualisationfabricemeillon
 
Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1
Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1
Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1CERTyou Formation
 
Administration VMware esxi vsphere
Administration VMware esxi  vsphere Administration VMware esxi  vsphere
Administration VMware esxi vsphere tiandrazanalino
 
Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...
Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...
Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...Jérôme Petazzoni
 
Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels Roland Kouakou
 
Protection complète des données pour Hyper-V
Protection complète des données pour Hyper-VProtection complète des données pour Hyper-V
Protection complète des données pour Hyper-VMicrosoft Décideurs IT
 
Café techno: nouveautes vSphere5 solution de virtualisation
Café techno: nouveautes vSphere5 solution de virtualisationCafé techno: nouveautes vSphere5 solution de virtualisation
Café techno: nouveautes vSphere5 solution de virtualisationGroupe D.FI
 
Gestion des environnements hétérogènes avec System Center 2012
Gestion des environnements hétérogènes avec System Center 2012Gestion des environnements hétérogènes avec System Center 2012
Gestion des environnements hétérogènes avec System Center 2012Microsoft Technet France
 
Alphorm.com Support de la Formation PromoxVE 4.x
Alphorm.com Support de la Formation PromoxVE 4.xAlphorm.com Support de la Formation PromoxVE 4.x
Alphorm.com Support de la Formation PromoxVE 4.xAlphorm
 
Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...
Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...
Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...CERTyou Formation
 
An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...
An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...
An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...CERTyou Formation
 
Administration intégrée HP/Microsoft des serveurs HP ProLiant
Administration intégrée HP/Microsoft des serveurs HP ProLiantAdministration intégrée HP/Microsoft des serveurs HP ProLiant
Administration intégrée HP/Microsoft des serveurs HP ProLiantMicrosoft Technet France
 
An30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmc
An30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmcAn30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmc
An30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmcCERTyou Formation
 
Présentation CoreOS
Présentation CoreOSPrésentation CoreOS
Présentation CoreOSgcatt
 
Cours sys 2PPT20.pdf
Cours sys 2PPT20.pdfCours sys 2PPT20.pdf
Cours sys 2PPT20.pdfC00LiMoUn
 
cours-supcom-virt.pptx
cours-supcom-virt.pptxcours-supcom-virt.pptx
cours-supcom-virt.pptxManellansari
 

Similaire à ENI_Cours_Virtualisation_ASR_v2.2 (2).pptx (20)

Techdays 2009 - Administration centralisée des infrastructures de virtualisation
Techdays 2009 - Administration centralisée des infrastructures de virtualisationTechdays 2009 - Administration centralisée des infrastructures de virtualisation
Techdays 2009 - Administration centralisée des infrastructures de virtualisation
 
Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1
Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1
Vmw06 formation-vmware-vsphere-installation-configuration-maintenance-4-1
 
Administration VMware esxi vsphere
Administration VMware esxi  vsphere Administration VMware esxi  vsphere
Administration VMware esxi vsphere
 
Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...
Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...
Docker : quels enjeux pour le stockage et réseau ? Paris Open Source Summit ...
 
Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels Comprendre les systèmes informatiques virtuels
Comprendre les systèmes informatiques virtuels
 
Eucalyptus
EucalyptusEucalyptus
Eucalyptus
 
Protection complète des données pour Hyper-V
Protection complète des données pour Hyper-VProtection complète des données pour Hyper-V
Protection complète des données pour Hyper-V
 
Café techno: nouveautes vSphere5 solution de virtualisation
Café techno: nouveautes vSphere5 solution de virtualisationCafé techno: nouveautes vSphere5 solution de virtualisation
Café techno: nouveautes vSphere5 solution de virtualisation
 
Gestion des environnements hétérogènes avec System Center 2012
Gestion des environnements hétérogènes avec System Center 2012Gestion des environnements hétérogènes avec System Center 2012
Gestion des environnements hétérogènes avec System Center 2012
 
Alphorm.com Support de la Formation PromoxVE 4.x
Alphorm.com Support de la Formation PromoxVE 4.xAlphorm.com Support de la Formation PromoxVE 4.x
Alphorm.com Support de la Formation PromoxVE 4.x
 
Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...
Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...
Vmw08 formation-vmware-vsphere-5-installation-configuration-haute-disponibili...
 
Cloud_2022.pdf
Cloud_2022.pdfCloud_2022.pdf
Cloud_2022.pdf
 
An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...
An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...
An11 g formation-power-systems-for-aix-i-planification-et-configuration-des-p...
 
Administration intégrée HP/Microsoft des serveurs HP ProLiant
Administration intégrée HP/Microsoft des serveurs HP ProLiantAdministration intégrée HP/Microsoft des serveurs HP ProLiant
Administration intégrée HP/Microsoft des serveurs HP ProLiant
 
An30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmc
An30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmcAn30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmc
An30 g formation-power-systems-pour-aix-mise-en-oeuvre-de-la-virtualisation-hmc
 
Présentation CoreOS
Présentation CoreOSPrésentation CoreOS
Présentation CoreOS
 
DevOps 3 - Docker.pdf
DevOps 3 - Docker.pdfDevOps 3 - Docker.pdf
DevOps 3 - Docker.pdf
 
Cours sys 2PPT20.pdf
Cours sys 2PPT20.pdfCours sys 2PPT20.pdf
Cours sys 2PPT20.pdf
 
cours-supcom-virt.pptx
cours-supcom-virt.pptxcours-supcom-virt.pptx
cours-supcom-virt.pptx
 
Etude de la virtualisation
Etude de la virtualisationEtude de la virtualisation
Etude de la virtualisation
 

ENI_Cours_Virtualisation_ASR_v2.2 (2).pptx

  • 1. Découvrez la différence ENI F o r m a t i o n s à l ’ i n f o r m a t i q u e www.eni-ecole.fr version 2.2 Virtualisation - Conception et Architecture Support de cours By sofien Mhatli ISI KEF|ENI France
  • 2. www.eni-ecole.fr n° 2 Votre formation - Programme Virtualisation - Conception et architecture  Module 1 – Retour sur les fondamentaux  Module 2 – Les fonctionnalités du Datacenter vSphere  Module 3 – Gestion des ressources et exploitation  Module 4 – Haute disponibilité de l’infrastructure virtuelle
  • 3. www.eni-ecole.fr n° 3 Virtualisation - Conception et architecture Module 1 Retour sur les fondamentaux
  • 4. www.eni-ecole.fr n° 4 www.eni-ecole.fr  Les composantes d’une infrastructures vSphere  Configuration du réseau  Configuration du stockage  Stockage et MPIO en environnement vSphere Contenu du module
  • 5. www.eni-ecole.fr n° 5 www.eni-ecole.fr  2 serveurs ESXi et un vCSA vous sont livrés…  Configurez les Hôtes pour les intégrer au vCenter  Ajoutez 5 cartes réseaux à chaque hôte  Configurez la partie réseau  Configurez le stockage  Vous simulerez une baie SAN avec le rôle iSCSI Target Server sur votre machine hôte. Créez un espace de 60Go qui sera accessible par les 2 ESXi.  Astuce : Pour que votre machine hôte communique avec vos VM, vous devrez configurer la carte VMNET1 (sur votre machine hôte) avec l’adresse IP : 192.168.1.254/24  A vous de jouer…. Activons les souvenirs…
  • 6. www.eni-ecole.fr n° 6 www.eni-ecole.fr Fonctionnalité / acronyme Définition / Utilité Hyperviseur Hôte vCenter vSwitch vNIC vmNIC VMKernel Adaptateur de stockage iSCSI / NFS Un peu de vocabulaire…
  • 7. www.eni-ecole.fr n° 7 www.eni-ecole.fr  C’est le serveur physique qui dispose des ressources matérielles La machine hôte  Processeurs et technologies de virtualisation Intel AMD Mécanisme de prise en charge de la virtualisation VT-x AMD-v Mécanisme de prise en charge de SLAT EPT NPT / RVI
  • 8. www.eni-ecole.fr n° 8 www.eni-ecole.fr  Les hyperviseurs (HV) peuvent être gérés de manière autonome ou peuvent être regroupés au sein d’un même contexte de gestion  Ce regroupement, qui en simplifie l’administration, se traduit par :  L’intégration à un contexte de domaine AD des serveurs sur lesquels le rôle Hyper V est installé (en environnement Microsoft)  L’ajout du composant vCenter (en environnement vSphere)  A ces solutions peuvent être ajoutées des fonctionnalités de prise en charge de la haute disponibilité (contexte de clusters) La solution de gestion globale d’hyperviseurs
  • 9. www.eni-ecole.fr n° 9 www.eni-ecole.fr Les principales fonctionnalités Fonctionnalité Utilité vMotion Déplacement de machine virtuelle d’un hôte vers un autre hôte. Déplacement du stockage d’une machine virtuelle d’une banque de données vers une autre. Storage vMotion DRS Automatisation du déplacement de machines virtuelles : d’un hôte vers un autre hôte disposant de plus de ressources ; ou d’un datastore vers un autre. Storage DRS DPM Fonctionnalité permettant d’automatiser l’entrée et la sortie de veille d’hyperviseurs en fonction de la charge d’activité du cluster. HA High Availability : fonctionnalité de haute disponibilité. Lors de la défaillance d’un hôte, les machines virtuelles ciblées seront redémarrées sur un autre hôte du cluster. FT Fault Tolerance : fonctionnalité de très haute disponibilité protégeant des machines virtuelles ciblées de la défaillance d’un hôte. Aucune interruption de service n’affectera les VM ciblées.
  • 10. www.eni-ecole.fr n° 10 www.eni-ecole.fr  Les types de ressources suivants sont nécessaires au fonctionnement de machines virtuelles :  CPU  RAM  Réseau  Disque  Ces ressources sont disponibles sur l’hôte et réparties par l’hyperviseur aux machines virtuelles hébergées Les ressources de l’hyperviseur
  • 11. www.eni-ecole.fr n° 11 www.eni-ecole.fr  C’est le composant central de gestion du réseau de l’ESXi  Il est géré  indépendamment pour chaque ESXi de l’infrastructure (vSwitch standard)  depuis le vCenter et utilisable par tous les hyperviseurs du datacenter Liaison  Un vSwitch est lié à un ou plusieurs groupements de ports  Un vSS peut être raccordé à zéro, une ou plusieurs cartes réseaux Le vSphere Switch – (standard et distribué) Par défaut le vSwitch0 est créé, il est utilisable : - Pour les tâches de gestion de l’ESXi - Par les machines virtuelles Il est lié à la carte réseau de l’ESXi présente à l’installation.
  • 12. www.eni-ecole.fr n° 12 www.eni-ecole.fr  Ils définissent un type d’utilisation du réseau pour l’ESXi parmi les suivants : Les groupements de ports Type Utilisation VM Kernel Création de réseau à destination des besoins de l’infrastructure de virtualisation VM Network Création de réseau à destination des machines virtuelles La segmentation en VLAN peut être configurée depuis les groupements de ports.
  • 13. www.eni-ecole.fr n° 13 www.eni-ecole.fr  Le groupement de port de type VM Kernel est utilisé pour les différents besoins de l’infrastructure vSphere  Un identifiant de VLAN peut lui être associé.  Pour permettre l’utilisation des fonctionnalités suivantes, elles doivent être actives sur le groupement de port :  vMotion  FT  Gestion  L’état d’activation de l’iSCSI résulte de la configuration du stockage Le groupement de ports de type VM Kernel
  • 14. www.eni-ecole.fr n° 14 www.eni-ecole.fr  Les vmNIC sont les cartes réseaux physiques de l’ESXi.  Les contraintes de liaison vmNIC <=> vSwitch  Chaque carte peut être liée à un seul vSwitch  Plusieurs cartes peuvent être liées au même vSwitch Les vmNIC et vNIC  Les vNIC sont les cartes réseaux associées aux machines virtuelles.  Elles peuvent être connectées aux groupements de port de type Virtual Machine Network adapters Networking vmnic0 vmnic1 vSwitch0 VM Port group de type Virtual Machine ENI E©ole vnic Hote La segmentation en VLAN peut être configurée au niveau des vNIC
  • 16. www.eni-ecole.fr n° 16 www.eni-ecole.fr  En environnement vSphere les VLAN peuvent affectés :  Au niveau du switch (un seul VLAN ciblera alors tout le trafic)  Sur des groupements de ports  Sur des VNIC  Si les VLAN sont affectés par l’hyperviseur, le switch doit être configuré en mode trunk et lié à tous les VLAN nécessaires aux composantes d’infrastructure vSphere et aux VM. Les VLAN en environnement virtualisé
  • 17. www.eni-ecole.fr n° 17 www.eni-ecole.fr Dans une infrastructure vSphere, on distingue deux composantes de configuration du stockage :  Les adaptateurs de stockage servent à lier des solutions de stockage aux hôtes amenés à les utiliser  Les banques de données ou datastores correspondent aux conteneurs « virtuels » dans lesquels sont hébergées les données Les composantes vSphere de stockage
  • 18. www.eni-ecole.fr n° 18 www.eni-ecole.fr  De nombreuses possibilités sont prises en charge pour l’hébergement des machines virtuelles dans l’environnement vSphere  Les points suivants vous permettront de cibler la solution de stockage la plus adaptée à une situation donnée :  Stockage dédié à un hôte ou mutualisé  Quel protocole d’accès à la solution de stockage  Quel support  Quel mode d’accès  Quel système de fichiers utiliser vSphere et le stockage La diapositive suivante illustre ces différents aspects
  • 19. www.eni-ecole.fr n° 19 www.eni-ecole.fr  Illustration des éléments constitutifs d’une solution de stockage iSCSI iSCSI en environnement vSphere SAN Storage Area Network : le réseau de stockage qui est caractérisé par son (ses) protocole(s) d’accès et connectivité, sa volumétrie, ses fonctionnalités associées, ses performances LUN Logical Unit Number : unité de stockage d’une baie de disques HBA Host Bus Adapter : adaptateur de stockage qui (une fois configuré) permettra l’accès à un ou plusieurs espaces disques iSCSI Target L’élément qui met à disposition de l’espace disque physique iSCSI Initiator L’élément qui accède à de l’espace disque mis à sa disposition
  • 20. www.eni-ecole.fr n° 20 www.eni-ecole.fr  On distingue 3 types de banques de données :  VMFS  RDM avec VMFS  NFS  Les banques de données exploitant un espace disque en mode bloc doivent être formatées. Le système de fichier de formatage pris en charge par vSphere est VMFS.  VMFS est un système de fichier qui permet un accès concurrentiel en lecture et écriture à un ensemble d’hôtes.  La banque de donnée NFS cible un système de fichier réseau, accessible via le protocole NFS. Pour celle-ci, le formatage est réalisé sur le serveur en charge du partage de la ressource. Banques de données et formatage
  • 21. www.eni-ecole.fr n° 21 www.eni-ecole.fr Les principales tâches de gestion des banques de données sont :  Création et formatage  Suivi de son taux d’utilisation  Extension dynamique  Parcours, import et export de données Gestion des banques de données Affichage des fichiers masqués Tous les fichiers ne sont pas visibles depuis l’outil d’exploration, ils peuvent l’être depuis la console de l’ESXi ou après s’y être connecté via ssh, au moyen de la commande ls
  • 22. www.eni-ecole.fr n° 22 www.eni-ecole.fr  Prise en charge de la redondance réseau :  2 cartes pour le management  2 cartes pour les VM o Le vSwitch de l’ESX1 sera nommé VM ESX1 o Le vSwitch de l’ESX2 sera nommé VM ESX2  2 cartes pour l’ISCSI  Configurez l’iSCSI. Vérifiez en déconnectant une des 2 cartes réseaux que vous ne perdez pas l’accès au datastore. Terminer la MSP précédente
  • 23. www.eni-ecole.fr n° 23 www.eni-ecole.fr  MPIO : Multipath I/O est une méthode basée sur l’utilisation de chemins d’accès multiples à un périphérique de stockage.  Cette méthode est applicable à différents contextes, elle permet :  D’accroitre la tolérance de pannes  D’optimiser les performances  En environnement vSphere, son utilisation peut être mise au profit d’hyperviseurs pour leur desserte de solution de stockage distant.  Cela accroit la disponibilité d’accès au stockage des éléments de l’infrastructure vSphere et permet d’appliquer de l’équilibrage de charge pour l’accès au stockage.  La prise en charge de base du MPIO en environnement vSphere est native. MPIO - intérêt d’utilisation en environnement vSphere
  • 24. www.eni-ecole.fr n° 24 www.eni-ecole.fr Contexte de mise en œuvre en environnement vSphere  MPIO permet de configurer sur un serveur ESXi plusieurs chemins et réseaux pour l’accès à une unité de stockage logique via le protocole iSCSI. Contraintes de conformité des groupes de ports pour l’accès au stockage :  Plusieurs adaptateurs réseau peuvent être ajoutés à un adaptateur iSCSI donné.  Les adaptateurs virtuels utilisés doivent être associés à une seule carte réseau active (et aucune carte en standby) MPIO – Contextes et contraintes de mise en œuvre Lors de l’association de VMNic à un adaptateur de stockage, la conformité des contraintes est vérifiée.
  • 25. www.eni-ecole.fr n° 25 www.eni-ecole.fr  Les exemples suivants illustrent deux configurations réseaux pouvant être utilisées pour le raccordement au stockage iSCSI d’un ESXi MPIO – exemples de configuration réseau  Exemple 1 Utilisation d’un vSwitch avec deux groupes de ports (chacun lié à une VMNic de l’hyperviseur)  Exemple 2 Utilisation de deux vSwitchs avec un groupe de port chacun (chaque groupe de port étant lié à une VMNic de l’hyperviseur)
  • 26. www.eni-ecole.fr n° 26 www.eni-ecole.fr  Configuration de la liaison de l’adaptateur iSCSI à des réseaux multiples MPIO – Configuration de l’adaptateur de stockage
  • 27. www.eni-ecole.fr n° 27 Virtualisation - Conception et architecture Module 2 Les fonctionnalités du Datacenter vSphere
  • 28. www.eni-ecole.fr n° 28 www.eni-ecole.fr  vCenter et la gestion vSphere  Single Sign On (SSO)  Les migrations  Gestion distribuée du réseau Contenu du module
  • 29. www.eni-ecole.fr n° 29 www.eni-ecole.fr  vCenter a pour objectif de permettre la gestion centralisée de multiples serveurs hôtes de virtualisation ESXi et des machines virtuelles hébergées sur ces serveurs.  Deux types de mise en œuvre de vCenter sont possibles :  Installation du serveur vCenter sur un serveur Windows et liaison de celui-ci à une base de données de type SQL.  Utilisation de l'appliance vCSA (Virtual Center Server Appliance) limitée à 5 hôtes sur vCenter 5.1 et 300 hôtes sur vCenter 5.5 vCenter est le point central de l’infrastructure virtualisée VMware vCenter
  • 30. www.eni-ecole.fr n° 30 www.eni-ecole.fr Architecture vCenter VMware vSphere VMware vSphere VMware vSphere Serveur VMware vCenter Gestion
  • 31. www.eni-ecole.fr n° 31 www.eni-ecole.fr Fonctionnalités vCenter VMware vSphere Services Application Services Infrastructure vMotion Storage vMotion HA Fault Tolerance Data Recovery vShield Zones VMSafe DRS Hot Add ESX and ESXi DRS and DPM Memory Overcommit VMFS Thin Provisioning Storage I/O Control Distributed Switch Network I/O Control Disponibilité Evolutivité Stockage Réseau Sécurité Calcul
  • 32. www.eni-ecole.fr n° 32 www.eni-ecole.fr  L’ajout de vCenter à une infrastructure de virtualisation vSphere permet la création de contexte(s) de Datacenter vSphere.  Les Datacenters définissent des périmètres de gestion de l'infrastructure virtuelle. Peuvent être associés à un contexte de datacenter donné les ressources suivantes :  Cluster  Serveur hôte  Machine virtuelle  Datastore  Modèle  Réseau virtuel vCenter et le contexte de Datacenter
  • 33. www.eni-ecole.fr n° 33 www.eni-ecole.fr vCenter et le contexte de Datacenter  L’organisation des ressources au sein de Datacenters multiples permet de regrouper ces ressources selon certains critères comme :  Leur emplacement géographique  Leur client d’affectation  Leur contexte d’utilisation (production, maquette) Serveur vCenter Datacenter Nantes Datacenter Rennes Datacenter Montpellier Datacenter Lyon Datacenter Barcelone
  • 34. www.eni-ecole.fr n° 34 www.eni-ecole.fr  La création de dossiers permet de regrouper des ressources d’un même type pour la délégation et/ou pour des contraintes physiques. Organisation des objets de l'inventaire Datacenter Nantes VDI Serveurs Hôtes Intel Hôtes AMD
  • 35. www.eni-ecole.fr n° 35 www.eni-ecole.fr  Gestion centralisée des utilisateurs  Support de multiples fournisseurs d'identités  Découverte automatique des serveurs vCenter de l'infrastructure  Granularité des délégations sur les objets Bénéfices du Single Sign On
  • 36. www.eni-ecole.fr n° 36 www.eni-ecole.fr Composants Single Sign On (SSO) Serveur SSO Authentification Audit Services d'identité Active Directory 2003 et + Open LDAP NIS Base locale vSphere client ou Web Inventaire Serveur vCenter
  • 37. www.eni-ecole.fr n° 37 www.eni-ecole.fr  Ajout d'un service d'identité Composants Single Sign On (SSO)
  • 38. www.eni-ecole.fr n° 38 www.eni-ecole.fr  Le gestion de machines physiques entraine des opérations en général lourdes à réaliser (migration de serveurs, migration de SAN, réplication de configuration…)  Le serveur vCenter permet de réaliser ces opérations dans l'environnement virtuel en prenant en charge les opérations :  de clonage,  de déploiement de modèles préexistant de machines virtuelles  de capture de l'état de machines virtuelles  Le serveur vCenter est aussi nécessaire pour  la migration à chaud des machines virtuelles et des datastores (sous réserve de disposer des licences adéquates). Gestion des machines virtuelles
  • 39. www.eni-ecole.fr n° 39 www.eni-ecole.fr  La migration consiste à déplacer une machine virtuelle d’un hôte ESXi vers un autre hôte ESXi. Il existe quatre types de migration :  À Froid : La machine à migrer est arrêtée  Suspendue : La machine à migrer est en pause (suspendue)  vMotion : La machine virtuelle est en cours de fonctionnement  Storage vMotion : Migration des fichiers de la machine virtuelle en cours de fonctionnement d’un datastore à un autre  Enhanced vMotion : Migration des fichiers de la machine virtuelle en cours de fonctionnement sans stockage partagé. Cette opération ne peut être réalisée qu’à l’aide du vSphere Web Client. Migration de machines virtuelles
  • 40. www.eni-ecole.fr n° 40 www.eni-ecole.fr  Source Vmware Méthodes de migration
  • 41. www.eni-ecole.fr n° 41 www.eni-ecole.fr vMotion VM 1 (Réseau Production) VM 1 (Réseau Production) ESX A ESX B Image Mémoire Stockage partagé Disques virtuels et fichiers de configuration Réseau vMotion Mémoire Réseau Production
  • 42. www.eni-ecole.fr n° 42 www.eni-ecole.fr  Storage vMotion permet la réalisation d’opération de maintenance et de reconfiguration des espaces de stockage sans arrêt de production.  Cette fonctionnalité est indépendante des types de stockage Storage vMotion 1. Démarrage de la migration 2. Utilisation du VMkernel data mover ou de l’API VAAI pour copier les données 3. Démarrage d’un nouveau process de VM 4. Le driver miroir intercepte tous les appels et effectue les copies sur les datastores source et destination  Source Vmware
  • 43. www.eni-ecole.fr n° 43 www.eni-ecole.fr  Dans un contexte de gestion isolée d’hyperviseurs, la gestion du réseau est propre à chaque hyperviseur. Elle se traduit par l’utilisation de vSwitchs standards et de groupes de ports locaux associés à ces commutateurs virtuels.  Ces vSwitchs et groupes de ports sont créés et gérés localement sur chaque hyperviseurs.  Il est possible d’utiliser ces objets réseaux propres à chaque hyperviseur en contexte de gestion global, dans une infrastructure vSphere intégrant vCenter. Cependant la gestion d’une multitude de composantes réseaux isolées peut s’avérer laborieuse. De plus cela accroit les risques d’incohérences en particulier en cas de migration de VM.  Pour simplifier la gestion du réseau et limiter ces contraintes, l’utilisation de Switchs Distribués vSphere peut être envisagée.  Cette fonctionnalité est disponible à partir de la version Entreprise Plus. Conception d’une gestion distribuée du réseau
  • 44. www.eni-ecole.fr n° 44 www.eni-ecole.fr vDS : vSphere Distributed Switch Hôte ESXi Hôte ESXi Hôte ESXi vSwitch vSwitch vSwitch vDS
  • 45. www.eni-ecole.fr n° 45 www.eni-ecole.fr  L’utilisation de réseaux vSphere distribués s’appuie sur la configuration d’un ensemble d’éléments. Certains éléments sont gérés au niveau du vCenter / Datacenter, d’autres sont à configurer sur les hôtes prenant part au réseau distribué.  Les composantes vCenter d’une infrastructure de réseau distribuée sont :  Le vSphere Distributed Switch (vDS)  Le Distributed Port Group (DPortGroup)  Les éléments gérés sur les ESXi prenant part au réseau distribué sont :  Les VMNic de l’hyperviseurs affectées au vDS  Les adaptateurs virtuels associés aux vDS et DPortGroup  Ces éléments seront abordés dans le détail dans les diapositives suivantes. Les composantes d’infrastructure réseau distribuée
  • 46. www.eni-ecole.fr n° 46 www.eni-ecole.fr  Il peut être associé à :  un (ou plusieurs) groupes de ports distribués  un ou plusieurs hyperviseurs (ainsi que les VMNic à utiliser) Le vSphere Distributed Switch  Le vSphere Distributed Switch  Il est caractérisé par  sa version (contrainte par les ESXi)  un nombre de ports de liens montants  l’état d’activation de la fonctionnalité Network I/O Control Gestion des Groupes de ports distribués associés au vSwitch Ajout du vDS à un (ou plusieurs) hyperviseurs
  • 47. www.eni-ecole.fr n° 47 www.eni-ecole.fr  L’association d’un ou plusieurs groupes de ports distribués à un vSwitch  permet de raccorder des machines virtuelles au réseau  permet de répondre aux besoins d’infrastructure vSphere  Les groupes de ports distribués sont notamment caractérisés par :  Une méthode de liaison et d’allocation de port  Un nombre de ports Le groupe de port distribué
  • 48. www.eni-ecole.fr n° 48 www.eni-ecole.fr  Pour être utilisable par des hyperviseurs de l’infrastructure, un vDS doit être ajouté aux hyperviseurs concernés.  Lors de cet ajout, on sélectionne la ou les VMNic de l’hyperviseur utilisée(s) pour le raccordement à ce vSwitch. Les machines virtuelles de l’ESXi peuvent alors être raccordées à ce groupe de ports du vDS. Configuration réseau sur l’ESXi - 1
  • 49. www.eni-ecole.fr n° 49 www.eni-ecole.fr Configuration réseau sur l’ESXi - 2  Pour qu’un groupe de port distribué soit utilisable pour répondre aux besoins de l’infrastructure vSphere d’un hyperviseur, il faut lui associer un adaptateur virtuel du (ou des) ESXi concerné.  Le ciblage des différentes fonctionnalités vSphere est configuré sur les adaptateurs virtuels.
  • 50. www.eni-ecole.fr n° 50 www.eni-ecole.fr Desserte réseau des machines virtuelles Les types de cartes réseaux suivants peuvent être ajoutés aux machines virtuelles :  E1000 : Emulation de la carte Intel 82545EM Gigabit Ethernet, reconnue par un grand nombre d’OS récents, proposée par défaut, lors de la création de VM.  E1000e : Emulation de la carte Intel Gigabit NIC 82574. Proposée par défaut pour Windows 8 et Windows 2012 offre des performances supérieures.  VMXNET 2 (Enhanced): Version supérieure de la carte VMXTNET et qui offre de meilleures performances, et le support du jumbo frames. Nécessite les VMware Tools.  VMXNET 3 : Dernière génération des cartes réseaux paravirtualisées ajoutant de la performance et des fonctionnalités supplémentaires. Requiert les VMWare Tools, elle est reconnue comme une carte 10Gbps.
  • 51. www.eni-ecole.fr n° 51 www.eni-ecole.fr Débits comparés des différents types de cartes réseaux  Tests réalisés par Cedric Megroz source : http://www.virtualementvotre.ch/blog/2014/11/17/performances-des-cartes-virtuelles/ entre ESXi intra ESXi E1000 935 Mbits/sec 4.47 Gbits/sec E1000e 926 Mbits/sec 4.47 Gbits/sec VMXNET3 917 Mbits/sec 5.65 Gbits/sec  Comparaison des taux de transfert des différentes cartes :
  • 52. www.eni-ecole.fr n° 52 www.eni-ecole.fr Bonnes pratiques  La partie réseau dans un environnement virtualisé est souvent cause de ralentissements et de goulots d’étranglements.  Pour palier à cette problématique, l’ajout d’un maximum de cartes réseaux permet un meilleur équilibrage de la charge réseau et une meilleure tolérance de panne.  Aujourd’hui on peut considérer qu’il faut : o 2 cartes pour le Management o 2 cartes pour le vMotion o 2 cartes pour le stockage IP (si SAN) o 2 cartes minimum pour les VM  Le faible coût financier des cartes réseaux aujourd’hui peut très facilement le permettre.
  • 53. www.eni-ecole.fr n° 53 www.eni-ecole.fr  Réaliser un déplacement de la VM Win7-ESX1 vers l’ESX2. Le stockage sera également modifié vers le datastore local de l’ESX2.  Quelle problématique se présente ?  Créez un vSphere Distributed Switch pour les VM et incluez les cartes réseaux correspondantes des hôtes à ce vDS.  Assignez les 2 Vm à ce vDS et déplacez ensuite la VM Win7-ESX1 vers l’ESX1 (VM + Stockage vers le Datastore local).  Vérifiez l’étiquette réseau assignée à la VM après son déplacement. MSP : vMotion, Storage vMotion, vDS
  • 54. www.eni-ecole.fr n° 54 Virtualisation - Conception et architecture Module 3 Gestion des ressources et Exploitation
  • 55. www.eni-ecole.fr n° 55 www.eni-ecole.fr  Les Snapshots  Gestion de l’automatisation du démarrage des VM  Gestion des ressources  Réservations / limites / pools : rappels  Les parts  L’extensibilité  Allocation de ressources CPU Contenu du module
  • 56. www.eni-ecole.fr n° 56 www.eni-ecole.fr  Les snapshots ou instantanés de VM permettent de conserver l'état d'une machine virtuelle et de réaliser un retour arrière en cas de nécessité.  Un snapshot peut-être réalisé sur une machine virtuelle :  en cours de fonctionnement  en pause  arrêtée  Un snapshot capture l'état de la mémoire, des paramètres et du ou des disque(s) de la machine virtuelle Snapshots
  • 57. www.eni-ecole.fr n° 57 www.eni-ecole.fr  Le gestionnaire de snapshot permet de consolider des snapshots existants ou de faire des retours arrières sur des versions précédentes de la machine virtuelle.  Des applications destinées à la sauvegarde vont se baser sur des Snapshots pour effectuer leur sauvegarde (Veeam Backup&Replication…)  Dans le cadre de VM Windows, l’utilisation du protocole VSS (Volume Snapshot Service) est indispensable.  Il est chargé de geler la VM  Doit être supporté par l’application sauvegardée (AD, Exchange, SQL…) Snapshots
  • 58. www.eni-ecole.fr n° 58 www.eni-ecole.fr  Il est possible de configurer le démarrage automatique de VM au lancement de l’hyperviseur. Cette fonctionnalité permet de réduire l’indisponibilité de machine virtuelles après redémarrage de l’hyperviseur les hébergeant.  A défaut de paramétrage les machines virtuelles sont à démarrer manuellement. Automatisation du démarrage des VM
  • 60. www.eni-ecole.fr n° 60 www.eni-ecole.fr Réservation et limites  La réservation de ressources Permet de garantir le provisionnement en ressources physiques de l’hôte pour des machines virtuelles.  La configuration de limites de ressources Permet de limiter l’utilisation de ressources physiques pour des machines virtuelles  La réservation de ressources …….…………………………………………………………………………………………………………………………… …….…………………………………………………………………………………………………………………………… …….……………………………………………………………………………………………………………………………  La configuration de limites de ressources …….…………………………………………………………………………………………………………………………… …….…………………………………………………………………………………………………………………………… …….……………………………………………………………………………………………………………………………
  • 61. www.eni-ecole.fr n° 61 www.eni-ecole.fr Ciblage Pool / VM  Mise en œuvre de limites et réservations sur une VM Affecte les ressources de l’hyperviseur AU DEMARRAGE de la VM. Peut bloquer le démarrage d’une VM (VM seul) ou le garantir (VM + POOL).  Mise en œuvre de limites et réservations sur un pool de ressources Affecte les ressources de l’hyperviseur immédiatement. Les ressources affectées au pool sont utilisables par les VM du pool sur lesquelles des réservations sont configurées.  La mise en œuvre de limites et réservations sur une VM …….…………………………………………………………………………………………………………………………… …….…………………………………………………………………………………………………………………………… …….……………………………………………………………………………………………………………………………  La mise en œuvre de limites et réservations sur un pool de ressource …….…………………………………………………………………………………………………………………………… …….…………………………………………………………………………………………………………………………… …….……………………………………………………………………………………………………………………………
  • 62. www.eni-ecole.fr n° 62 www.eni-ecole.fr  Quand l’hyperviseur utilise toutes ses ressources, mémoire ou processeur il privilégie certaines machines au détriment d’autres.  Les machine privilégiées se voient accorder plus de ressources physiques, ou plus de parts de ressources matérielles. Ressources : fonctionnement des parts  L’affectation de parts se configure sur une machine virtuelle ou sur un pool (parts réparties entre les machines du pool).  La gestion des parts possède 3 niveaux par défaut Low, Normal, High  Ils s’appuient sur des ratios 1:2:4.  Un pool de ressources avec une priorité High aura donc 4 fois plus de ressources qu’un pool en priorité Low. 10GiB 10 000 parts Capacité 100 GiB 10GiB 10GiB 10GiB VM-ERP 10GiB 10GiB SRV-INF1 SRV-PROD1 DC01 10GiB SRV-PROD2 SRV-INF2 SRV-BACKUP SRV-MAIL1 10GiB 3000 parts 4000 parts 10GiB 10GiB 1000 parts 1000 parts 1000 parts 10GiB
  • 63. www.eni-ecole.fr n° 63 www.eni-ecole.fr Un cluster possède une capacité totale de calcul de 30GHz et 300Go de RAM. On crée 2 pools de ressources : - Un pool production avec parts configurées en High hébergeant 8 VM - Un pool tests avec parts configurées en Normal hébergeant 2 VM Exemple de configuration des parts PRODUCTION (high) TESTS (normal) Capacité totale CPU : 30 GHz RAM : 300Go  Contexte : on considère que toutes les ressources de l’hôte sont utilisées  Les parts définies sur les pools sont donc exploitées o Le pool production a un ratio de 4 o Le pool tests a un ratio de 2  Ressources allouées aux pools : o Production : 20Ghz, 200Go RAM o Tests : 10 Ghz, 100Go RAM
  • 64. www.eni-ecole.fr n° 64 www.eni-ecole.fr Résultante de la configuration des parts PRODUCTION (high) 20GHz / 200 Go RAM TESTS (normal) 10Ghz / 100Go RAM Capacité totale CPU : 30 GHz RAM : 300Go La résultat appliqué aux machines virtuelles des pools est le suivant :  Sur le pool production (8 VM) on aura donc une moyenne par VM de :  2,5 GHz  25 Go RAM  Sur le pool tests (2 VM) :  5 Ghz / VM  50 Go RAM / VM
  • 65. www.eni-ecole.fr n° 65 www.eni-ecole.fr Configuration des parts : conception  Le nombre de VM présentes dans le pool est capital pour effectuer les calculs. Il faut avoir conscience que les ressources attribuées au pool sont réparties entre les différentes machine.  Pour donner plus de priorité aux VM du pool de production il faudra donc effectuer des calculs et configurer le nombre de parts de celui-ci à personnalisé.
  • 66. www.eni-ecole.fr n° 66 www.eni-ecole.fr  L’extensibilité est un point de configuration qui peut être activé (par défaut) ou désactivé sur un pool de ressources. Un pool de ressources « extensible » peut emprunter des ressources réservables aux pools parents. Cette opération peut- être récursive jusqu’au pool racine.  Scénario mettant en œuvre cette notion :  Le service informatique de l’entreprise OMB fournit des services à deux clients internes : les services administratif-finances et le service ingénierie-production.  Le service ingénierie-production finance les 2/3 du budget informatique  Le service administratif-finance finance 1/3 du budget informatique  Chaque service exploite des machines de production et de test Imbrication de pools et extensibilité
  • 67. www.eni-ecole.fr n° 67 www.eni-ecole.fr Scénario – exemple de configuration CPU Total : 12000 MHz Mémoire Totale : 8 000 Mo Pool de ressource Racine Réservation : 1400 MHz Réservation extensible : oui Pool Ingénierie Réservation : 3000 MHz Réservation extensible : oui Pool Ing-Prod Réservation : 1000 MHz Réservation extensible : Non Pool Production VM 1 R =400 VM 2 R =300 VM 3 R =500 Les machines virtuelles du pool Ingénierie pourront emprunter des ressources au pool parent. Les machines virtuelles du pool production sont limitées aux ressources de leur pool VM 4 R =500 VM 5 R =500 VM 6 R =500 VM 7 R =500
  • 68. www.eni-ecole.fr n° 68 www.eni-ecole.fr  L’allocation de ressources CPU par machine virtuelle se traduit par la configuration :  D’un nombre de socket virtuel  D’un nombre de cœurs d’exécution par socket  Le produit de ces deux valeurs détermine le nombre de vCPU alloué à la VM.  L’affectation d’une limite de fréquence CPU peut compléter la configuration du nombre de vCPU en affectant précisément les ressources CPU dont elle a besoin.  Lorsqu’une VM demande des ressources CPU à l’hyperviseur, elle requiert la disponibilité d’autant de vCPU que configurés. Allocation de ressources CPU aux machines virtuelles
  • 69. www.eni-ecole.fr n° 69 www.eni-ecole.fr  L’hôte physique sur lequel est installé l’hyperviseur dispose d’un ou plusieurs socket CPU à un ou plusieurs cœurs chacun. Le produit de ces deux valeurs forme le nombre de vCPU de l’hôte.  Il est possible d’allouer à l’ensemble des VM plus de vCPU que n’en dispose l’hôte. Cela n’a pas de conséquence sur les performances des VM tant que les ressources utilisées par les VM sont inférieures aux ressources de l’hyperviseur.  Cela impacte les performances des VM quand plus de ressources sont demandées par les VM que n’en dispose l’hyperviseur. Conséquences de la sur allocation CPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU Hôte vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU Machines virtuelles
  • 70. www.eni-ecole.fr n° 70 www.eni-ecole.fr  En cas de surallocation de vCPU, lors du besoin de ressources CPU par les VM, celles-ci peuvent :  Soit disposer d’autant de vCPU que configuré  Soit être en attente de disponibilité CPU  Plus le nombre de vCPU alloué à une VM est grand, plus ses demandes de ressources risquent d’être mises en attente. Allocation de vCPU multiple à une VM vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU vCPU 1 cycle d’horloge VM en attente CPU 2 vCPU 4 vCPU 8 vCPU Ressources CPU configurées vCPU vCPU
  • 71. www.eni-ecole.fr n° 71 Virtualisation - Conception et architecture Module 4 Haute disponibilité de l'infrastructure virtuelle
  • 72. www.eni-ecole.fr n° 72 www.eni-ecole.fr  Disponibilité et solutions  Le cluster vSphere  vSphere HA  vSphere FT  vSphere DRS  vSphere DPM Contenu du module
  • 73. www.eni-ecole.fr n° 73 www.eni-ecole.fr  La plupart des organisations s’appuient aujourd'hui sur un système d’information qui est devenu critique pour leur bon fonctionnement. La défaillance d’un service d’infrastructure ou un service applicatifs peut entrainer des dysfonctionnements importants et des pertes de production conséquentes.  La mise en œuvre de services permettant de garantir des niveaux de disponibilité est donc primordiale. Introduction
  • 74. www.eni-ecole.fr n° 74 www.eni-ecole.fr  Le rôle du service informatique ou d’un fournisseur de service est de garantir le bon fonctionnement et la disponibilité des services mis en œuvres.  Pour les services critiques, des contraintes de disponibilité peuvent être imposées, notamment quand leur indisponibilité impactent directement le fonctionnement de l’entreprise.  La notion de haute disponibilité est liée à la mise en œuvre d’un ensemble de techniques visant à accroitre la disponibilité d’un environnement donné.  Les principaux niveaux de disponibilités  Pas de haute disponibilité  Haute disponibilité interruption de service limitée  Très haute disponibilité aucune interruption de service Contextes de haute disponibilité Niveau de disponibilité Temps d’interruption/an 99 % 87,5 heures (3,5jours) 99,9% 8,76 heures 99,99% 52 minutes 99,999% 5 minutes
  • 75. www.eni-ecole.fr n° 75 www.eni-ecole.fr  Une multitude de mesures peut être mise en œuvre pour accroitre la disponibilité d’éléments ciblés d’une infrastructure.  Approche granulaire : accroitre la disponibilité d’un service nécessite des compétences, des taches de gestion supplémentaires, des ressources, la mise en œuvre de solutions complexes et coûteuses … C’est donc une approche qui doit être menée service par service et un traitement au cas par cas. Les solutions pour accroitre la disponibilité Infrastructure vSphère Matériel Services OS  Une fois ciblé les services, devra être choisie la couche et la solution à appliquer afin d’accroitre leur disponibilité.
  • 76. www.eni-ecole.fr Module 1 - n° 76 www.eni-ecole.fr Solutions de haute disponibilité Quelles solutions avez-vous déjà mis en œuvre ou rencontré afin d’accroitre la disponibilité de services ? Discussion
  • 77. www.eni-ecole.fr n° 77 www.eni-ecole.fr  La mise en place d’un ensemble de solutions, pour accroitre la disponibilité d’une multitude de services doit se faire après un important travail d’analyse des besoins et contraintes de disponibilité service par service.  On ne met pas en place une solution de haute disponibilité pour les services de l’entreprise, mais des solutions personnalisées pour des services ciblés.  La mise en œuvre et configuration de solutions ne représente qu’une petite partie du processus d’accroissement de la disponibilité de ressources. C’est cependant cette partie qui est majoritairement traitée dans ce support. Analyse des besoins
  • 78. www.eni-ecole.fr n° 78 www.eni-ecole.fr /! Seules les fonctionnalités de haute disponibilité propre à l’environnement vSphere sont présentées dans la suite de ce module.
  • 79. www.eni-ecole.fr n° 79 www.eni-ecole.fr  L’environnement vSphere correspond à la couche de virtualisation de serveur de l’infrastructure. Les solutions prises en charge par vSphere permettent d’agir à ce niveau.  La haute disponibilité se traduit par la mise en place d’un contexte de cluster vSphere auquel on associe un ensemble d’hôtes.  Les fonctionnalités suivantes sont liées au cluster vSphere :  vSphere HA (vSphere High Availability)  vSphere FT (vSphere Fault Tolerance)  vSphere DRS (vSphere Distributed Ressource Scheduler)  vSphere Storage DRS (vSphere Storage Distributed Ressource Scheduler)  vSphere DPM (vSphereDistributed Power Management) Haute disponibilité en environnement vSphere
  • 80. www.eni-ecole.fr n° 80 www.eni-ecole.fr  vSphere HA permet de minimiser le temps d’indisponibilité. L’interruption de service existe toujours mais est très largement minimisée.  Tous les systèmes d’exploitation invités sont supportés  La fonctionnalité est disponible dans le cadre d'un cluster  Protection contre la défaillance d’un hôte ESXi, d’une machine virtuelle, d’une application  Le Heartbeat est chargé de détecter les défaillances vSphere HA
  • 81. www.eni-ecole.fr n° 81 www.eni-ecole.fr  Lors de l’ajout d’un hôte dans un cluster HA, un agent FDM (Fault Domain Manager) est transféré sur l’hôte.  L’agent FDM est chargé de la communication entre les hôtes du cluster et de la remontée d’informations :  Etat des VMs  Placement, redémarrage des VMs  Mécanisme de heartbeat  En relation directe avec l’agent hostd vSphere HA: Fonctionnement du cluster ESXi master ESXi slave Serveur vCenter VM 1 VM 2 VM 3 VM 4 Cluster FDM FDM hostd hostd
  • 82. www.eni-ecole.fr n° 82 www.eni-ecole.fr  Un processus d’élection détermine un serveur Maitre, tous les autres sont esclaves. En cas de défaillance du serveur Maitre, une nouvelle élection a lieu.  Le choix du nouveau maître est basé sur celui qui possède le plus grand nombre de datastores connectés.  Le serveur principal :  Surveille l’état des hôtes secondaires  Surveille l'état d'alimentation des VM protégées  Collecte les informations des VM protégées par le HA.  Les serveurs esclaves :  Indiquent l’état de leurs VM et informent le serveur maître des changements d’états.  Si le serveur maître est injoignable, ils provoquent une élection. vSphere HA: Fonctionnement du cluster
  • 83. www.eni-ecole.fr n° 83 www.eni-ecole.fr  Deux mécanismes de heartbeat différents sont utilisés dans le cluster:  Un mécanisme de heartbeat utilisant tous les réseaux VMKernel configurés pour un trafic de gestion. o Maitres et esclaves s’envoient un heartbeat chaque seconde.  Si il y a une rupture de communication sur le heartbeat, le maître envoie un ping ICMP sur l’adresse IP du serveur esclave injoignable.  Pour vérifier qu’il n’est pas en situation d’isolement réseau, un hôte effectue également une requête ICMP sur son adresse de passerelle par défaut. Sans réponse à cette requête HA ne se déclenchera pas. Les VMs ne seront pas redémarrées sur un autre hôte.  Un mécanisme de heartbeat utilisant les datastores partagés. o Quand un isolement réseau est détectée (le heartbeat réseau n’est plus détecté) et uniquement dans ce cas là, le serveur maitre recherche sur les datastores partagés (deux par défaut) la présence d’un fichiers spécial généré par chacun des hôtes actifs. vSphere HA : HeartBeat
  • 84. www.eni-ecole.fr n° 84 www.eni-ecole.fr  Si plusieurs hôtes sont isolés et peuvent continuer à s’échanger des pulsations au travers d’un des réseau de gestion ou bien d’un datastore, on parlera de Partitionnement du réseau et un processus d’élection sera déclenché.  Lorsqu’un hôte est isolé, HA va forcer les VM à s’arrêter.  Dans un cluster HA les pulsations heartbeat sont :  Envoyées entre le serveur maitre et les serveurs esclaves  Utilisées pour savoir si un hôte est défaillant  Mises en œuvre sur un port Vmkernel configuré pour le trafic de gestion  La redondance des réseaux sur lesquels circulent les pulsations est primordiale pour éviter un isolement des hôtes pouvant entrainer le démarrage de deux machines identiques sur le réseau. Redondance des réseaux pour Heartbeat
  • 85. www.eni-ecole.fr n° 85 www.eni-ecole.fr Redondance réseau pour Heartbeat  Redondance avec agrégation de liens  Redondance avec plusieurs réseaux de heartbeat Différentes méthodes sont envisageables pour rendre redondant le réseau utilisé pour le heartbeat :  Le trafic de gestion doit être coché sur le·s groupement·s de ports concerné·s
  • 86. www.eni-ecole.fr n° 86 www.eni-ecole.fr En cas de défaillance des réseaux de gestion, les datastores communs sont utilisés pour déterminer si un hôte est isolé ou non. Minimum 2 datastores sont nécessaires. Datastore Heartbeat
  • 87. www.eni-ecole.fr n° 87 www.eni-ecole.fr  En cas de défaillance le service HA redémarre les VM sur un autre hôte ESXi vSphere HA : Défaillance d’un hôte Cluster ESXi ESXi ESXi Serveur vCenter VM 1 VM 2 VM 3 VM 4 VM 5 VM 6 !
  • 88. www.eni-ecole.fr n° 88 www.eni-ecole.fr  Quand une VM n’envoie plus son heartbeat ou que le process de la machine virtuelle échoue, HA redémarre la VM. Les VMware tools doivent être installé vSphere HA : Défaillance d’une VM Cluster ESXi ESXi ESXi Serveur vCenter VM 1 VM 2 VM 3 VM 4 VM 7 VM 8 VM 9 VM 5 VM 6
  • 89. www.eni-ecole.fr n° 89 www.eni-ecole.fr  En cas de défaillance d’une application pouvant dialoguer avec les VMware tools, HA redémarre la VM concernée. vSphere HA : Défaillance d’une application Serveur vCenter Cluster ESXi ESXi ESXi VM 1 VM 2 VM 3 VM 4 VM 7 VM 8 VM 9 VM 5 VM 6
  • 90. www.eni-ecole.fr n° 90 www.eni-ecole.fr  Un cluster regroupe un ensemble d’hyperviseurs et leurs machines hébergées sur lesquels les fonctions de haute disponibilité (HA et/ou DRS) sont activées.  Les différentes fonctionnalités de haute disponibilité peuvent :  Etre activées à la création du cluster  Etre activées sur un cluster existant vSphere HA : Configuration
  • 91. www.eni-ecole.fr n° 91 www.eni-ecole.fr vSphere HA : Configuration Désactiver ce paramètres lors de maintenance du réseau Le contrôle d'admission garantit que suffisamment de ressources sont disponibles pour le fonctionnalité HA  En cas de modification de la configuration réseau (ajout de groupement de port, suppression de vswitchs … ) pour prévenir des dysfonctionnement du cluster HA, il est nécessaire de désactiver la surveillance de l'hôte et de le placer en mode maintenance
  • 92. www.eni-ecole.fr n° 92 www.eni-ecole.fr Options des machines virtuelles  Dans la configuration de vSphere HA sont défini les comportements par défaut :  De priorité de redémarrage des VM  D’action à mener en cas d’isolement réseau de l’hôte
  • 93. www.eni-ecole.fr n° 93 www.eni-ecole.fr  Ces règles peuvent être redéfinies machine par machine au besoin afin de répondre à des besoins précis.  Il est ainsi possible de gérer l’ordre de redémarrage des VM dans le cadre de HA.  On pourra par exemple dans le cadre d’applications métier redémarrer le serveur hébergeant la base de données avant le serveur applicatif. Options des machines virtuelles
  • 94. www.eni-ecole.fr n° 94 www.eni-ecole.fr Surveillance des machines virtuelles Réinitialisation par l’hyperviseur de la machine virtuelle en cas de non réception des heartbeats (requiert les VMware tools) Paramètres Intervalle de défaillance Période de réinitialisation Haut 30 1h Moyen 60 24h Faible 120 7 jours
  • 96. www.eni-ecole.fr n° 97 www.eni-ecole.fr  La fonctionnalité HA entraine une indisponibilité (downtime) non négligeable puisqu’une machine virtuelle considérée comme non disponible est redémarrée sur un autre hôte ESXi. Cela entraine donc la perte de toutes les transactions qui n'ont pas été validées sur les disques stockés sur les datastores. Une application pourrait également avoir conservé des fichiers ouverts et se trouver dans un état incohérent.  vSphere FT (Fault Tolerance) va permettre de répondre à ces deux problématiques et de protéger d’une interruption de service les machines critiques.  FT est une solution de très haute disponibilité qui est utilisée dans le cadre d’applications critiques.  Cette fonctionnalité requiert le contexte de cluster vSphere. vSphere FT (Fault Tolerance)
  • 97. www.eni-ecole.fr n° 98 www.eni-ecole.fr  La fonctionnalité FT fonctionne sur le modèle du cluster actif / passif : une VM en fonctionnement est active sur un hôte et passive sur le second. Tous les flux d’E/S de cette VM sont répliqués en permanence vers sa « copie » passive. vSphere FT (Fault Tolerance) VMware ESXi VMware ESXi VMware ESXi Hôte défaillant Hôte opérationnel Hôte opérationnel  En cas de défaillance de l’hôte sur lequel la VM est active, celle-ci devient active sur l’autre hôte immédiatement, sans aucune interruption de service.
  • 98. www.eni-ecole.fr n° 99 www.eni-ecole.fr  Un nombre suffisant de serveurs ESXi doit être disponible pour protéger des VM tolérantes aux pannes. (VMware recommande un nombre maximum de 4 VM- FT primaires ou secondaires par hôte)  Les datastores doivent être accessibles par tous les hôtes.  Des contraintes du nombre de vCPU s’appliquent aux machines virtuelles concernées (en fonction de la version de l’hyperviseur et des licences).  La fonctionnalité storage vMotion est incompatible avec FT.  Un réseau vmkernel différent du réseau vMotion est nécessaire à des fins de redondance. vSphere FT (Fault Tolerance) : Contraintes
  • 99. www.eni-ecole.fr n° 100 www.eni-ecole.fr  Les snapshots sont impossibles.  Les sauvegardes exploitant l'API VADP (vStorage API for Data protection) sont indisponibles.  Les disques durs doivent être de taille fixe (Thick Eager Zeroed) ou RDMv. L’activation de FT modifiera leur état et ajustera automatiquement la réservation de la RAM. vSphere FT (Fault Tolerance) : Contraintes
  • 100. www.eni-ecole.fr n° 101 www.eni-ecole.fr Elements vSphere 5.5 vSphere 6 Virtual machine maximums Virtual CPUs per core 32 32 Fault Tolerance maximums Virtual disks 16 16 Virtual CPUs per virtual machine 1 4 RAM per FT VM 64 Go 64 Go Virtual machines per host 4 4 vSphere FT : Evolutions de avec vSphere 6  Depuis la version 6, certains logiciels de Backup comme Veeam Backup&Replication prennent en charge la sauvegarde de machines protégées par FT.  Les limites techniques ont été repoussées sur de nombreux points, en particulier sur le nombre de vCPU par VM qui est passé de 1 à 4.
  • 101. www.eni-ecole.fr n° 102 www.eni-ecole.fr  Mettez en place HA entre les 2 hôtes.  Vérifiez le bon fonctionnement en arrêtant physiquement un des deux ESX  Vérifiez le bon fonctionnement en déconnectant les cartes réseaux d’un des hôtes MSP : HA
  • 102. www.eni-ecole.fr n° 103 www.eni-ecole.fr  Les services de migration vMotion et Storage vMotion permettent de déplacer VM et contenu dans l'infrastructure virtuelle.  Les services de Haute disponibilité HA et FT permettent d’accroitre la disponibilité de VM.  La charge des hyperviseur peut être inégale dans le temps ce qui requiert un suivi des administrateurs afin de positionner / migrer les VM sur les hôtes de manière appropriée afin d’équilibrer leur charge.  vSphere propose plusieurs services pour répondre à ces besoins :  Distributed Ressource Scheduler (DRS) : optimisation du placement des VM  Storage Distributed Ressource Scheduler (Storage DRS) : optimisation des Datastores  Distributed Power Management (DPM) : consolidation des VM sur les hôtes DRS, SDRS, DPM
  • 103. www.eni-ecole.fr n° 104 www.eni-ecole.fr  Les fonctions DRS sont disponibles dans le cadre d'un cluster vSphere.  Le cluster DRS est géré par un serveur vCenter et propose la gestion :  Du placement initial des VM  De l'équilibrage de charge  De la gestion de l'énergie (Power Management) Cluster DRS
  • 104. www.eni-ecole.fr n° 105 www.eni-ecole.fr  Pour le fonctionnement du cluster DRS :  les hôtes doivent être reliés par un réseau virtuel configuré pour vMotion  les hôtes doivent être connectés à un stockage partagé  Tous les datastores doivent être accessibles par les hôtes membres du cluster  Un certain niveau de compatibilité matérielle est requis pour utiliser cette fonctionnalité Cluster DRS : Prérequis
  • 105. www.eni-ecole.fr n° 106 www.eni-ecole.fr EVC (Enhanced vMotion Compatibility)  Dans le cadre de la mise en place d’un Cluster, il est essentiel de tenir compte de la couche matérielle, bien souvent oubliée lors de la mise en place d’hyperviseurs.  La famille de processeurs (Intel / AMD) est une donnée essentielle puisque dans le cadre d’un cluster, il sera impossible de mixer les technologies.  Au-delà du constructeur, la génération du processeur va également avoir un rôle.  Les processeurs évoluent et certaines instructions CPU apparaissent. Elles ne seront donc pas forcement prises en charge par l’ancienne génération.  Ces différentes instructions non prises en charge peuvent notamment poser des problèmes dans un contexte vMotion (impossible de migrer les VM).  Pour faire face à ces problématiques, EVC (Enhanced vMotion Compatibility) à fait sont apparition.
  • 106. www.eni-ecole.fr n° 107 www.eni-ecole.fr EVC (Enhanced vMotion Compatibility)  Cette fonctionnalité favorise la compatibilité des processeurs de génération différentes dans un contexte vMotion.  EVC garantit que tous les serveurs hôtes d'un cluster présenteront les mêmes jeux d'intruction aux VM
  • 107. www.eni-ecole.fr n° 108 www.eni-ecole.fr  Trois niveaux d'automatisation sont disponibles  En mode entièrement automatisé, un seuil de migration permet de définir 5 niveaux d'automatisation, du plus conservateur au plus agressif. DRS: Niveau d'automatisation Niveau d'automatisation Placement initial des VM Equilibrage de charge dynamique Manuel Manuel Manuel Partiellement automatisé Automatique Manuel Entièrement automatisé Automatique Automatique
  • 108. www.eni-ecole.fr n° 109 www.eni-ecole.fr  L'automatisation du placement des VM dans un cluster peut être la source de problème de performances ou de sécurité. Exemple : les deux membres d'un cluster à basculement positionnés sur le même hôte. En cas de défaillance de l'hôte, le cluster à basculement serait pris en défaut.  Des règles d'affinité ou d'anti-affinité permettent de définir si des machines virtuelles peuvent se trouver sur le même hôte ou si au contraire ils doivent être sur deux hôtes distincts. DRS : Règles d'affinité du cluster
  • 109. www.eni-ecole.fr n° 110 www.eni-ecole.fr  Si l’option d’activation des niveaux d’automatisation au niveau des VM est cochée dans les propriétés du cluster DRS, les paramètres de migration peuvent être définis par VM DRS : Niveau d'automatisation des machines virtuelles
  • 110. www.eni-ecole.fr n° 111 www.eni-ecole.fr  Les performances d'une infrastructure de virtualisation sont très dépendantes des ressources de stockage. L'optimisation des performances de ces ressources peut-être effectuée au niveau des services de stockage SAN (sous réserve de compatibilité avec le tiering automatique) ou bien par vSphere.  La fonctionnalité Storage DRS permet d'analyser les I/O sur les datastores pour positionner au mieux ceux-ci sur les ressources de stockage les plus appropriées. Cette fonctionnalité requiert la création d’un cluster de banques de données Storage DRS
  • 111. www.eni-ecole.fr n° 112 www.eni-ecole.fr  Des mesures sont effectuées régulièrement pour proposer des recommandations à l'administrateur Storage DRS
  • 112. www.eni-ecole.fr n° 113 www.eni-ecole.fr  La fonction Distributed Power Management (DPM) de vSphere permet à un cluster DRS de réduire sa consommation d'énergie en activant et désactivant des hôtes sur la base de l'utilisation des ressources de cluster.  vSphere DPM surveille le cumul des exigences de toutes les machines virtuelles dans le cluster en termes de mémoire et de ressources CPU et les compare à la capacité totale de ressources disponible de tous les hôtes dans le cluster. Si la surcapacité suffisante est trouvée, vSphere DPM place un ou plusieurs hôtes en mode standby et les désactive après avoir migré leurs machines virtuelles vers d'autres hôtes.  À l'inverse, quand la capacité est considérée insuffisante, DRS met fin au mode veille des hôtes (les active) et emploie vMotion pour migrer des machines virtuelles vers eux. DPM: Distributed Power Management
  • 113. www.eni-ecole.fr n° 114 www.eni-ecole.fr  Ici, un des 3 hôtes n’héberge qu’une seule VM.  Un des autres hôtes n’est pas surchargé et possède les ressources nécessaires pour accueillir cette VM supplémentaire  La VM est déplacée et l’hôte qui l’hébergeait est mis en standby DPM: Distributed Power Management Cluster ESXi ESXi ESXi Serveur vCenter VM 1 VM 2 VM 3 VM 4 VM 5
  • 114. www.eni-ecole.fr n° 115 www.eni-ecole.fr  Si un hôte est surchargé, DPM va rallumer un hôte en standby pour décharger l’hôte et mieux répartir la charge. DPM: Distributed Power Management Cluster ESXi ESXi ESXi Serveur vCenter VM 1 VM 2 VM 3 VM 4 VM 5
  • 115. www.eni-ecole.fr n° 116 www.eni-ecole.fr  Pour que vSphere DPM puissent gérer l’alimentation des hôtes, il sera indispensable que ces hôtes disposent de « cartes de management ».  Selon le constructeur, elles portent des noms différents  DELL : Carte iDRAC  HP : Carte ILO  IBM : Carte RSA  …  Ces cartes permettent de gérer les hôtes même si ils sont éteints. Comment DPM allume et éteint-il les hôtes ?
  • 117. www.eni-ecole.fr n° 118 www.eni-ecole.fr  Validation du mode DRS partiellement automatisé  Déplacez les 2 VM sur un seul hôte  Arrêtez une des VM  Mettez en place DRS en mode partiellement automatisé  Démarrer la VM éteinte  Validation du mode DRS totalement automatisé  Déplacez les 2 VM allumées sur un seul hôte  Installez l’outil Loadstorm sur une des VM (disponible en ISO sur « Distrib »)  Mettez en place DRS en mode totalement automatisé  Générez de la charge CPU via Loadstorm sur la VM  Vérifiez que les machines ont bien été déplacées MSP : Pools de ressources et de DRS

Notes de l'éditeur

  1. EDIT Eric: Il m’arrive souvent de faire les rappels avant le cours, le temps que la plate-forme se télécharge. EDIT 2 : Penser à refaire la maquette en y integrant des 2008 R2 Entreprise ou 2012 R2 Datacenter pour tester le Hot memory Add ou hot CPU Add si Windows 7 ne le gère pas. Principales étapes de l’historique généralement recensées : Fin des années 60 – début 70 IBM (CP 40 Lab[1967] / CP 67 prod[1972]) Préoccupation de réponse au besoin d’un système multi utilisateur avec gestion de time-sharing du MIT ; chaque utilisateur possède son « propre » OS qui peut alors être simplifié sur UN SEUL ordinateur physique. Milieu des années 90 Les émulateurs font leur apparition en Micro Informatique (ils rendent possible l'émulation des machines Atari, Amiga, Amstrad et de consoles) Début des années 2000 VMware développa et popularisa son système propriétaire de virtualisation logicielle pour les architectures de type x86 2003 – 2005 XenServer apparition Prise en charge matérielle par le CPU d’instructions de virtualisation KVM est intégré au noyau Linux 2007 XenSource racheté par Citrix 2007 Virtual Desktop Infrastructures VMWare Ressources : http://www.everythingvm.com/content/history-virtualization http://www.ibmsystemsmag.com/mainframe/administrator/Virtualization/history_virtualization/?page=1
  2. Principales étapes de l’historique généralement recensées : Fin des années 60 – début 70 IBM (CP 40 Lab[1967] / CP 67 prod[1972]) Préoccupation de réponse au besoin d’un système multi utilisateur avec gestion de time-sharing du MIT ; chaque utilisateur possède son « propre » OS qui peut alors être simplifié sur UN SEUL ordinateur physique. Milieu des années 90 Les émulateurs font leur apparition en Micro Informatique (ils rendent possible l'émulation des machines Atari, Amiga, Amstrad et de consoles) Début des années 2000 VMware développa et popularisa son système propriétaire de virtualisation logicielle pour les architectures de type x86 2003 – 2005 XenServer apparition Prise en charge matérielle par le CPU d’instructions de virtualisation KVM est intégré au noyau Linux 2007 XenSource racheté par Citrix 2007 Virtual Desktop Infrastructures VMWare Ressources : http://www.everythingvm.com/content/history-virtualization http://www.ibmsystemsmag.com/mainframe/administrator/Virtualization/history_virtualization/?page=1
  3. Intel VT-x et AMD-v : Technologies permettant de faire fonctionner plusieurs système d’Exploitation sur le mm processeurs SLAT : Second Level Address Translation SLAT : évite que l’adressage RAM soit “traduit” 2 fois Sans : VM <-traduction HOTE-> Materiel <-traduction CPU-> AVEC : VM <-> Materiel <-traduction CPU-> Concernant le SLAT, EPT et RVI Voir : http://www.lemagit.fr/conseil/CPU-et-Virtualisation-les-caracteristiques-fondamentales-a-verifier Voir : http://www.tomshardware.fr/articles/virtualisation-Intel-AMD,2-353-7.html Acronyms : AMD Nested Page tables (NPT) AMD Rapid Virtualization Indexing (RVI) Intel Extended Page Tables (EPT) Up until recently, hardware that supported Second Level Address Translation (SLAT) wasn’t a hard and fast requirement, although it has the potential to significantly improve performance.&nbsp; However, newer hypervisors, such as Hyper-V 3.0 and newer features, such as RemoteFX under the current Hyper-V, require SLAT-capable hardware Ressources : Comprendre les mécanismes de virtualisation de CPU : http://www.hardwaresecrets.com/printpage/263 Virtualiser dans un environnement virtuel : http://www.veeam.com/blog/fr/nesting-hyper-v-avec-vmware-workstation-8-et-esxi-5.html http://www.virtualizationadmin.com/blogs/lowe/news/difference-between-amd-vintel-vt-x-and-amd-viintel-vt-d-188.html
  4. Les noms HVx des éléments des les illustrations correspondent à HyperViseur x et non HyperV !
  5. Indiquer aux stagiaires que le point 5 du chapitre 2 décrit les principales fonctionnalités de vSphere ; leur indiquer que cette liste n’est pas exhaustive. DRS Distributed Ressources Scheduler (équilibrage de charge entre ESX) DPM = Distributed Power Management ; dispo sur versions Enterprise / Enterprise +
  6. Ressources : La gestion des ressources sous vSphere 5 - http://pubs.vmware.com/vsphere-50/topic/com.vmware.ICbase/PDF/vsphere-esxi-vcenter-server-50-resource-management-guide.pdf La gestion des pools de ressources - http://pubs.vmware.com/vsphere-50/index.jsp#com.vmware.vsphere.resmgmt.doc_50/GUID-60077B40-66FF-4625-934A-641703ED7601.html Faire le lien entre ressources indispensable pour une VM et SLOT SIZE voir page 231 et schéma page 232 du support
  7. vSwitch pour « vSphere Switch » Ressources : http://pubs.vmware.com/vsphere-50/index.jsp?topic=%2Fcom.vmware.vcli.examples.doc_50%2Fcli_manage_networks.11.4.html Le vDS : requiert le niveau de licence Enterprise plus
  8. Pour configurer un VLAN, lui affecter depuis le champ « VLAN ID » une valeur de 1 à 4095. 4095 pour VGT et propager les VLAN jusqu’à l’invité Seul les groupements de type Virtual Machine peuvent être associés à un vSwhitch distribué. <- POINT A VALIDER -> Des machines liées à des groupements de ports distincts d’un même vSwitch ne peuvent pas communiquer entre elles. Indiquer aux stagiaires qu’il est important que le nom donné aux groupements de ports de type VM doivent être identiques entre les différents hôtes (en cas de déplacement de VM …) Il en est de même pour la configuration d’identifiants de VLAN
  9. Vocabulaire   vSwitch pour vSphere Switch vSS = vSphere Standard Switch Port Group = 2 possibilités Vm Kernel Vm Network   VmNIC = Objet vSphere associé à une pNIC pNIC = Physical Network Interface Controller vNIC = Virtual Network Interface Controller Carte réseau d’une vm
  10. On pourra indiquer qu’en réalité les 2 cartes liés au SW3 seraient de préférence liés à deux switchs virtuels et non un seul (cette préconisation n’a pas été respectée sur le schéma afin d’en simplifier la lecture).
  11. Ressources utiles : http://pubs.vmware.com/vsphere-50/index.jsp?topic=%2Fcom.vmware.vsphere.networking.doc_50%2FGUID-7225A28C-DAAB-4E90-AE8C-795A755FBE27.html Configuration des VLAN dans une infrastructure vSphere 5 : Vous pouvez configurer les VLAN dans ESXi en procédant de trois manières : Balisage de commutateur externe (EST), Balisage de commutateur virtuel (VST) et Balisage d'invité virtuel (VGT). Avec EST, tous les balisages VLAN de paquets sont exécutés sur le commutateur physique. Les adaptateurs réseau hôtes sont connectés aux ports d'accès sur le commutateur physique. Les groupes de ports connectés au commutateur virtuel doivent avoir leur ID VLAN réglée sur 0. Avec VST, tous les balisages VLAN de paquets sont exécutés par le commutateur virtuel (vswitch)avant de quitter l'hôte. Les adaptateurs réseau hôtes doivent être connectés aux ports trunk sur le commutateur physique. Les groupes de ports connectés au commutateur virtuel doivent avoir une ID VLAN appropriée spécifiée. Avec VGT, tous les balisages VLAN sont exécutés par la machine virtuelle. Les balises VLAN sont conservées entre la pile réseau de la machine virtuelle et le commutateur externe quand les trames passent par les commutateurs virtuels. Les ports de commutateur physique sont réglés sur le port trunk. VLAN id 4095 pour VGT
  12. <A COMPLETER> LA DESCRIPTION DES ADAPTATEURS DE STOCKAGE !
  13. En complément on pourra indiquer qu’un SAN peut proposer des protocoles / connectiques d’accès multiples (iSCSI et FC par exemple) Les adaptateurs HBA matériel peuvent être regroupés en 2 sous catégories : les adaptateurs matériels dépendants : HBA dédiés mais dont la config est à réaliser dans vSphere les adaptateurs matériels indépendants : HBA dédiés dont la config est a réaliser au niveau du matériel.
  14. Des informations supplémentaires sont fournies au point 5.1.2 du chapitre 3 de l’ouvrage de référence. Mise à jour manuelle d’un datastore de VMFS3 vers VMFS5 : Sur l’ESXi / Configuration / Stockage sélectionner le datastore ; dans la partie « détails » cliquer sur « Mettre à jour vers VMFS5 ».
  15. Une banque de donnée peut être étendue sur d’autres disques que celui d’origine. Des démonstrations des différentes taches pourront être réalisées pour les illustrer. <DEMO> Lancer le client vSphere, se connecter à un ESXi Parcours : Configuration / Storage / Clic droit sur le datastore et « Browse Datastore » Création formatage depuis : Configuration / Storage / Add Storage Suivi de son taux d’utilisation depuis : Configuration / Storage / sélectionner un datastore et visualiser Extension dynamique depuis : Configuration / Storage / Properties / Increase ! Il faudra avoir au préalable déterminé l’élément ciblé pour l’extension (extension du volume iSCSI, autre espace disque …) </DEMO>
  16. La prise en charge de base du MPIO dans vSphere est native et ne requiert pas de fonctionnalité / licence particulière : http://www.pearsonitcertification.com/articles/article.aspx?p=1941024&seqNum=12 http://vmtoday.com/2013/07/multipathing-support-in-vsphere-standard-edition/
  17. Ressource sur MPIO sous vSphere : https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vmware-multipathing-configuration-software-iscsi-port-binding-white-paper.pdf Contraintes de compatibilité des adaptateurs : NOTE: The port group policy status might report as noncompliant for the VMkernel network adapter for the following reasons: • The VMkernel network adapter is not connected to an active physical network adapter or it is connected to more than one physical network adapter. • The VMkernel network adapter is connected to standby physical network adapters. • The active physical network adapter got changed.
  18. 1 vSwitch avec 2 groupes de ports ou 2 vSwitch avec 1 groupe de port par vSwitch ? => « if your VMkernel network adapters are on the same subnet, they must be configured on the same vSwitch » Sources : https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vmware-multipathing-configuration-software-iscsi-port-binding-white-paper.pdf
  19. Vcenter 5.5 avec DB interne vpostgre : 100 hotes/ 3000 VMs Avec base externe Oracle : 1000 hôtes/10000 VMs Pas de Vcenter Link Mode Vcenter 6 vCenter Server Scalability Hosts per vCenter Server 1000 Powered-on virtual machines per vCenter Server 10,000 Registered virtual machines per vCenter Server 15,000 Linked vCenter Servers 10 Hosts in linked vCenter Servers 4000 Powered-on virtual machines in linked vCenter Servers 30,000 Registered virtual machines in linked vCenter Servers 50,000 Concurrent vSphere Web Clients connections to vCenter Server 180 Number of host per datacenter 500 MAC addresses per vCenter Server (using default VMware OUI) 65,536
  20. Overcommit : Surallocation VMSafe : https://www.techrepublic.com/blog/virtualization-coach/what-is-vmsafe/ Vshield Zones ets déprécié depuis 5,1 et en End of Life
  21. Différence d’utilité dossier / datacenter - https://pubs.vmware.com/vsphere-51/index.jsp?topic=%2Fcom.vmware.vsphere.vcenterhost.doc%2FGUID-4D4B3DF2-D033-4782-A030-3C3600DE5A7F.html
  22. Prévoir un test de liaison LDAP pour le TP
  23. A virtual machine must meet the following requirements: A virtual machine must not have a connection to an internal standard virtual switch (vSwitch with zero uplink adapters). A virtual machine must not have a connection to a virtual device (such as a CD-ROM or floppy drive) with a local image mounted. A virtual machine must not have CPU affinity configured. If the virtual machine’s swap file is not accessible to the destination host, vMotion must be able to create a swap file accessible to the destination host before migration can begin. If a virtual machine uses an RDM, the RDM must be accessible by the destination host. Source and destination hosts must have: Visibility to all storage (Fibre Channel, iSCSI, or NAS) used by the virtual machine: •128 concurrent vMotion migrations per VMFS datastore At least a Gigabit Ethernet (GigE) network: •Four concurrent vMotion migrations on a 1Gbps network •Eight concurrent vMotion migrations on a 10Gbps network Identically named port groups connected to the same physical networks Compatible CPUs: •CPU feature sets of both the source and destination host must be compatible. •Some features can be hidden by using Enhanced vMotion Compatibility (EVC) or compatibility masks.
  24. Plus d’infos sur VAAI : http://vinception.fr/les-primitives-vaai/
  25. Le nombre de ports de liaison montante : Les ports de liaison montante connectent le distributed switch aux cartes réseau physiques sur les hôtes associés. Le nombre de ports de liaison montante est le nombre maximal autorisé de connections physiques au commutateur distribué par hôte. Plus d’infos sur Network IO Control ici : https://pubs.vmware.com/vsphere-51/index.jsp?topic=%2Fcom.vmware.vsphere.networking.doc%2FGUID-ADEA0213-C969-43E4-B1F4-66D4A916EBDF.html
  26. Doc sur les paramètres de DPortGroup : http://www.vmwarearena.com/vsphere-distributed-switch-part-14/ https://docs.vmware.com/fr/VMware-vSphere/6.5/com.vmware.vsphere.networking.doc/GUID-809743E1-F366-4454-9BA5-9C3FD8C56D32.html Liaison : Liaison statique : affectez un port à une machine virtuelle quand la machine virtuelle se connecte au groupe de ports distribués. Éphémère - aucune attache : aucune liaison de port. Vous pouvez assigner une machine virtuelle à un groupe de ports distribués, avec également une liaison de port temporaire lors d'une connexion à l'hôte.
  27. https://www.lewan.com/blog/choosing-the-right-vmware-nic-should-you-replace-your-e1000-with-the-vmxnet3 http://www.virtualementvotre.ch/blog/2014/11/17/performances-des-cartes-virtuelles/ http://rickardnobel.se/vmxnet3-vs-e1000e-and-e1000-part-1/ http://rickardnobel.se/vmxnet3-vs-e1000e-and-e1000-part-2/
  28. Réaliser un déplacement de la VM Win7-ESX1 vers l’ESX2 : objectif, réaliser ce déplacement à chaud. Il faut au préalable cocher la case vMotion sur un groupement de port d’un réseau commun sur les 2 ESXi Depuis le client lourd, la case « Change both host and datastore » est grisée et il est indiqué que cette action ne peut être réalisée que si la VM est éteinte. Le cours indiquant que Enhanced vMotion doit permettre cela, un peu de recherche Internet s’impose L’on trouve alors l’article suivant : https://kb.vmware.com/s/article/2037951 En retentant la migration depuis le client web … ça fonctionne !
  29. Pour VSS : page 208 dans le support
  30. Pour VSS : page 208 dans le support ; Volume Snapshot Service
  31. Les notions présentées ont été abordées dans le premier cours virtualisation. Diapositive animée ; exemples de réponses attendues dans l’animation.
  32. Les notions présentées ont été abordées dans le premier cours virtualisation. Diapositive animée ; exemples de réponses attendues dans l’animation.
  33. Indiquer aux stagiaires que ce point est abordé dans le support P251. Quelques articles traitant du sujet : - http://wahlnetwork.com/2012/02/01/understanding-resource-pools-in-vmware-vsphere/ http://www.vfrank.org/2013/09/19/understanding-vmware-reservations-limits-and-shares/ http://www.v-front.de/2013/02/a-common-misconception-about-resource.html Valeurs par défaut : http://pubs.vmware.com/vsphere-4-esx-vcenter/index.jsp?topic=/com.vmware.vsphere.resourcemanagement.doc_41/getting_started_with_resource_management/c_shares.html
  34. Ressource sur la différence NB CPU / NB Cœurs - https://vblog.io/bien-choisir-ses-coeurs-et-sockets-virtuels/ « si vous souhaitez que ESXi gère lui-même le placement des VM au sein sur les processeurs et se faisant optimise les accès mémoire, il suffit de ne provisionner que des sockets virtuels en laissant le nombre de cœurs à 1. Vous voulez avoir une machine de 4 vCPU, provisionnez 4 sockets et un cœur par socket. »
  35. Ratio : 5 VM/Core à vérifier
  36. Dans l’illustration, pourquoi le troisième cycle (en partant du haut) n’est pas alloué à la VM noire ? Le nombre de parts configurées peut être supérieur pour la VM verte.
  37. Cette question favorise l’interaction avec les stagiaires. L’objectif est plus de faire un recensement des idées des stagiaires. L’idée est de montrer que généralement on met en place et retrouve des solutions agissant sur les couches hautes. Celles-ci ont un cout de mise en œuvre nettement inférieur. Il est cependant intéressant d’appréhender les fonctionnalités disponibles pour vSphere.
  38. Support page 167 => Très bien expliqué http://www.yellow-bricks.com/vmware-high-availability-deepdiv/#HA-50heartbeats Le serveur qui possède le plus grand nombre de datastore est élu maitre.
  39. Le choix du maitre peut être modifié par l’ajout de la directive fdm.nodeGoodness (en lui affectant une valeur élevée)
  40. Voir page 172 pour plus de détails
  41. A approfondir, les notions suivantes : Crash-consistent os-consistent Application-consistent Un ouvrage Editions en parle, je cherche, ce n’est a priori pas dans un des ouvrages vmware
  42. https://blogs.vmware.com/vsphere/2014/03/vsphere-ha-vm-monitoring-back-basics.html
  43. http://pubs.vmware.com/vsphere-50/index.jsp#com.vmware.vsphere.avail.doc_50/GUID-62B80D7A-C764-40CB-AE59-752DA6AD78E7.html Surveillance des VM et applications Surveillance de VM redémarre les machines virtuelles si leurs signaux de pulsation de VMware Tools n'ont pas été reçus pendant un certain temps. De même, la Surveillance d'application peut redémarrer une machine virtuelle si les signaux de pulsation d'une application exécutée ne sont pas reçus. Il est possible d'activer ces fonctions et de configurer la sensibilité de la surveillance de l'absence de réaction par vSphere HA. Lorsque vous activez la Surveillance de VM, le service Surveillance de VM (à l'aide de VMware Tools) vérifie si chaque machine virtuelle du cluster fonctionne en vérifiant la régularité des signaux de pulsations et l'activité des E/S à partir du processus VMware Tools exécuté sur le client. Si aucun signal de pulsation ou activité des E/S n'est reçu, cela est probablement dû à une défaillance du système d'exploitation client ou au fait que les VMware Tools n'ont pas eu le temps de terminer certaines tâches. Dans ce cas, le service Surveillance de VM détermine que la machine virtuelle est défectueuse et la machine virtuelle redémarre pour restaurer le service. Il arrive qu'occasionnellement, les machines virtuelles ou les applications qui continuent à fonctionner correctement, cessent d'émettre des signaux de pulsation. Pour éviter les réinitialisations inutiles, le service Surveillance de VM surveille aussi l'activité des E/S d'une machine virtuelle. Si aucun signal de pulsation n'est reçu pendant la période de défaillance, la fréquence des statistiques des E/S (attribut défini au niveau du cluster) est vérifiée. La fréquence des statistiques des E/S détermine si un disque ou une activité réseau s'est produite sur la machine virtuelle au cours des deux minutes (120 secondes) précédentes. Si ce n'est pas le cas, la machine virtuelle est réinitialisée. Cette valeur par défaut (120 secondes) peut être modifiée à l'aide de l'attribut avancé das.iostatsinterval. Pour activer la surveillance d'application, il faut d'abord obtenir le SDK approprié (ou utiliser une application qui prend en charge la surveillance de l'application VMware) et l'utiliser pour configurer des signaux de pulsation personnalisés pour les applications à surveiller. Après avoir fait cela, la surveillance d'application fonctionne de la même manière que la Surveillance de VM. Si les signaux de pulsation d'une application ne sont pas reçus pendant un certain temps, sa machine virtuelle est redémarrée. Vous pouvez configurer le niveau de sensibilité de la surveillance. Une sensibilité de surveillance élevée permet de conclure plus rapidement à un dysfonctionnement. Même si cela est peu probable, une sensibilité de surveillance élevée peut entraîner l'identification erronée de dysfonctionnements alors que la machine virtuelle ou l'application en question fonctionne toujours mais les signaux de pulsation ne sont pas reçus du fait de certains facteurs tels que des contraintes de ressources. Une sensibilité de surveillance basse se traduit par des interruptions de service prolongées entre les défaillances avérées et le redémarrage des machines virtuelles. Sélectionnez l'option qui offre un compromis intéressant par rapport à vos besoins. Les paramètres par défaut de la sensibilité de surveillance sont décrits dans Paramètres de surveillance des machines virtuelles. Vous pouvez aussi indiquer des valeurs personnalisées à la fois pour la sensibilité de la surveillance et les intervalles de statistiques d'E/S en cochant la case Personnalisé. Paramètres de surveillance des machines virtuellesParamètre Intervalle de défaillance (en secondes) Période de réinitialisation Haut 30 1 heure Moyen 60 24 heures Faible 120 7 jours Lorsque des dysfonctionnements sont détectés, vSphere HA réinitialise les machines virtuelles. La réinitialisation contribue à garantir que les services restent disponibles. Pour éviter de réinitialiser constamment des machines virtuelles en cas d'erreurs non transitoires, les machines virtuelles sont réinitialisées par défaut trois fois seulement au cours d'une période configurable. Après trois réinitialisations des machines virtuelles, vSphere HA n'effectue aucune tentative supplémentaire pour redémarrer les machines virtuelles en cas de nouvel échec et ce jusqu'à ce que la période définie ne soit écoulée. Vous pouvez configurer le nombre de réinitialisations à l'aide du paramètre personnalisé Nbre maximum de réinitialisations par machine virtuelle.
  44. Enable host monitoring : si la case est cochée, l’heartbeat est envoyé via le réseau entre les hyperviseurs afin de savoir si un HV dysfonctionne. Dans ce cas les VM de celui-ci seront redémarrées sur un autre. Si elle est décochée, l’heartbeat n’est plus envoyé via le réseau. Cette case est donc à désactiver en cas de maintenance sur le réseau de gestion de l’ESXi.
  45. http://pubs.vmware.com/vsphere-51/index.jsp#com.vmware.vsphere.avail.doc/GUID-FA8B166D-A5F5-47D3-840E-68996507A95B.html
  46. http://pubs.vmware.com/vsphere-51/index.jsp#com.vmware.vsphere.avail.doc/GUID-FA8B166D-A5F5-47D3-840E-68996507A95B.html
  47. http://pubs.vmware.com/vsphere-51/index.jsp?topic=%2Fcom.vmware.vsphere.vcenterhost.doc%2FGUID-3B5AF2B1-C534-4426-B97A-D14019A8010F.html&__utma=207178772.1099312497.1398772769.1399283718.1399380744.3&__utmb=207178772.1.10.1399380744&__utmc=207178772&__utmx=-&__utmz=207178772.1399283718.2.2.utmcsr=google|utmccn=%28organic%29|utmcmd=organic|utmctr=%28not%20provided%29&__utmv=-&__utmk=142196657 https://blogs.vmware.com/vsphere/2014/03/vsphere-ha-vm-monitoring-back-basics.html Failure interval = temps avant que l’hote ne reboot la VM Minimum uptime = Temps minimum de fonctionnement avant que la VM ne puisse être rebootée Maximum per-VM reset = nombre de fois ou l’hote intentera de rebooter la VM Maximum resets time window = interval de temps considéré pour le nombre de tentative indiqué au paramètre précédent.
  48. Depuis vSphere 4.1, les API vStorage for Data Protection (VADP) - introduites dans vSphere 4.0 - ont définitivement remplacé le framework VMware Consolidated Backup (VCB), le précédent mécanisme de sauvegarde fourni par vSphere VADP est une des 4 API cœurs du jeu d’API VMware vStorage, qui comprend VADP,VASRM (vStorage API for Site Recovery Manager), VAMP (vStorage API for Multi-pathing) et VAAI (vStorage API for Array Integration). Ces interfaces de programmation permettent aux éditeurs et constructeurs tiers d’intégrer leurs produits avec vSphere. VMware VADP permet de sauvegarder et de restaurer des machines virtuelles vSphere et fournit des capacités très supérieures à celles de VCB dont : Copie en une étape de la source à la destination Suivi des changements de blocs (Change block tracking ou CBT) Support du Volume Shadow Copy Service quiescing pour Windows Server Sauvegarde et restauration au niveau fichier pour les environnements clients Linux Capacité de restauration de VM sans VMware Converter. Ressource : http://www.lemagit.fr/conseil/Les-principales-questions-a-propos-de-VMware-VADP-et-VDP
  49. Confs maxi sur vSphere 6 : https://www.vmware.com/files/fr/pdf/vsphere-60-configuration-maximums.pdf Confs maxi sur vSphere 5.5 : https://www.vmware.com/pdf/vsphere5/r55/vsphere-55-configuration-maximums.pdf Article sur Veeam et vSphere 6 : https://www.veeam.com/blog/fr/veeam-availability-suite-update-2-vsphere-6-support-endpoint-and-more.html
  50. Bon tuto pour HA : http://vpourchet.com/2012/09/18/vmware-vsphere-5-creation-dun-cluster-ha-drs-dpm-evc/
  51. Support de référence 1.3.4
  52. Support de référence 1.3.4
  53. Ouvrage de référence chapitre 4 p178 1,4
  54. Bon tuto pour HA : http://vpourchet.com/2012/09/18/vmware-vsphere-5-creation-dun-cluster-ha-drs-dpm-evc/