DOSSIER                                                                                                                   ...
Chacune de ces VM peut comporter l’image d’un système d’exploitation (Windows,Linux, etc.) et un ensemble applicatif. Comm...
Approche de la virtualisation logicielleLa mise en œuvre du partitionnement et de machines virtuelles sur architecture Int...
En mode purement logiciel, l’hyperviseur est géré en ring0, ce qui ramène les privilègesdu système d’exploitation à ceux d...
En palliant les inconvénients d’une virtualisation purement logicielle, la technologie IntelVT est le socle de solutions s...
Dans l’ensemble, la virtualisation assistée par matériel que propose la technologie IntelVT, associée au soutien continu d...
FIGURE  3La v ir tu a l i s a ti o n m a té ri e l l e s e l o n Intel             VM 1                   VM 2            ...
Consolidation de serveursLa possibilité de partitionner un serveur permet de gérer sur chaque partition un BIOS,un OS et d...
caractéristiques RAS de pointe. De plus, avec la fiabilité sans cesse croissance desnouveaux serveurs Xeon et Itanium, cet...
ENJEUXLes enjeux qui se présentent à Intel pour la virtualisation assistée par matériel consistentsurtout à faire accepter...
Prochain SlideShare
Chargement dans…5
×

IDC Vitrualization Whitepaper

596 vues

Publié le

Dossier IDC (10 pages, juin 2006)

Publié dans : Technologie
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
596
Sur SlideShare
0
Issues des intégrations
0
Intégrations
58
Actions
Partages
0
Téléchargements
0
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

IDC Vitrualization Whitepaper

  1. 1. DOSSIER Généralisation de la virtualisation des serveurs : l’approche d’Intel En partenariat avec Intel John Humphreys Tim Grieser Juin 2006 L’AVIS D’IDCIDC France • 124 Bureaux de la colline • 92213 SAINT-CLOUD CEDEX • Tél. : 01 55 39 61 00 • Fax : 01 55 39 61 01 • wwww.idc.com/france La démocratisation rapide de la virtualisation logicielle des serveurs d’architecture Intel (IA) qui est intervenue ces dernières années fait aujourd’hui de cette technique une solution incontournable pour le partage de ressources matérielles «  horizontales  » (plusieurs ordinateurs). Avec un emploi de plus en plus fréquent en environnement de production, les stratégies de sa mise en œuvre perdent en complexité et gagnent en efficacité. Face à l’intérêt qu’elle suscite, il est d’autant plus important, pour obtenir la plate-forme la plus rentable, la plus performante et la plus fiable possible, qu’une intégration intervienne entre les couches matérielles et logicielles. L’approche d’Intel repose sur la nouvelle technologie Intel® VT (Virtualization Technology) qui, assurant une virtualisation assistée par matériel, vise à rationaliser le fonctionnement des hyperviseurs de machines virtuelles. DANS CE DOSSIER… Ce dossier IDC aborde l’essor de la virtualisation sur plates-formes dotées de processeurs Xeon® ainsi que l’action d’Intel pour généraliser la virtualisation sur plates- formes fondées sur son architecture. INTRODUCTION Sous la forme du partitionnement d’un serveur physique en plusieurs serveurs virtuels («  machines virtuelles  »), la virtualisation est une solution connue et utilisée depuis longtemps pour le partage des ressources matérielles de plates-formes serveurs «  verticales  » (un seul ordinateur très puissant). Dans ces environnements, elle a évolué au fil des ans pour devenir une technique stable et performante d’amélioration du rendement matériel et de rationalisation du traitement des charges de production, y compris à l’intention des applications stratégiques. L’historique de la virtualisation sur ces plates-formes correspond à l’évolution du partitionnement des ressources de base, d’abord logiciel uniquement, puis logiciel assisté par matériel, jusqu’à une assistance matérielle élargie. ESSOR RAPIDE DE LA VIRTUALISATION Ces dernières années, la virtualisation s’est peu à peu imposée comme une stratégie essentielle pour le partage des ressources de plates-formes d’architecture Intel en environnement horizontal. On lui prédit par ailleurs un essor rapide quant au nombre des serveurs capables de gérer des machines virtuelles. Jusqu’ici, sa mise en œuvre sur architecture Intel reposait essentiellement sur des logiciels — les « hyperviseurs de machines virtuelles » — capables de partitionner des serveurs physiques en plusieurs serveurs logiques appelés « machines virtuelles » (VM).
  2. 2. Chacune de ces VM peut comporter l’image d’un système d’exploitation (Windows,Linux, etc.) et un ensemble applicatif. Comme le montre la figure 1, les livraisons deplates-formes serveurs matérielles dotées de capacités de virtualisation logiciellesdevraient, selon les prévisions actuelles d’IDC, augmenter rapidement, pour passerainsi de 172 000 unités en 2004 à 1 209 000 en 2009, soit un taux de croissance annuelcomposé de 47,7 %. Parallèlement, le nombre de plates-formes serveurs virtualiséesdevrait passer de 778 000 en 2004 à 5 107 000 en 2009, soit un taux de croissanceannuel composé de 45,7 %. Sur l’ensemble des plates-formes virtualisées, celles géréssous Windows ou Linux devraient augmenter de 51,4 et 55,3 % respectivement, cemême taux étant plus faible pour Unix puisqu’il ne serait que de 34,7 %.FIGURE  1É v olut i o n d e s l i v ra i s o n s d e s e rv e urs à vi rtual i ser (2004-2009) 6 000 000 5 000 000 (en nb. d’unités) 4 000 000 3 000 000 2 000 000 1 000 000 0 2 004 2005 2006 2007 2008 2009 Serveurs physiques virtualisés Machines virtuellesSource : IDC, 2006.LES PLATES-FORMES INTEL ET LA VIRTUALISATIONLa virtualisation sur serveurs haut de gamme se pratique depuis une trentaine d’années,c’est-à-dire depuis qu’IBM l’a instaurée sur ses macro-ordinateurs (mainframes).De ces configurations, elle s’est étendue aux serveurs d’architecture RISC à partird’une combinaison matériel/logiciel exclusive (micrologiciel, système d’exploitation,hyperviseur), pour arriver ces dernières années sur serveurs équipés de processeursXeon, avec l’apparition de solutions de virtualisation logicielle d’éditeurs tels queVMware et Microsoft ainsi que dans le cadre du projet Xeon Open Source. Si lavirtualisation logicielle sur architecture Intel est aujourd’hui une réalité concrète, c’estaussi en raison de la très forte augmentation de leurs capacités qu’ont enregistréeles plates‑formes équipées de processeurs Xeon.2 n° 201922 © 2006, IDC
  3. 3. Approche de la virtualisation logicielleLa mise en œuvre du partitionnement et de machines virtuelles sur architecture Intels’est effectuée grâce à des logiciels appelés «  moniteurs de machines virtuelles  » ou«  hyperviseurs  » et, en particulier, ceux de VMware (ESX Server), Microsoft (MicrosoftVirtual Server) et Xen. Dans le cadre de ces implémentations uniquement logicielles,l’hyperviseur intercale un niveau d’abstraction (la machine virtuelle, autrement dit leserveur logique) entre le matériel de base (le serveur physique) et le système d’exploitation(Windows, Linux), ce qui permet à chaque OS gérant une machine virtuelle de secomporter comme s’il avait le contrôle du matériel sous-jacent. C’est ainsi l’hyperviseurqui autorise la coexistence de plusieurs machines virtuelles sur une même plate-formematérielle et de plusieurs systèmes d’exploitation et leurs ensembles applicatifs respectifssur un même serveur physique. Ces OS et applications gérés sur partitions virtuelles sonten général qualifiés d’« invités », pour les distinguer de leurs homologues fonctionnant enenvironnement serveur non virtualisé.À la base, la virtualisation est une technique de partage des moyens matériels. Le principalavantage des machines virtuelles est en effet qu’elles permettent de relever le rendementdes serveurs physiques grâce, précisément, au partage par plusieurs applications d’unmême ensemble de ressources physiques. On abandonne ainsi le modèle classique d’uneapplication par serveur qui caractérisait souvent les environnements serveur classiques,autrement dit non virtualisés. Un autre avantage des VM est la possibilité d’isoler uneapplication des autres en termes de mémoire vive, de données et de contenus sur mémoirede masse, pour ainsi éviter les problèmes tels que les conflits de pilotes.On utilise par exemple les machines virtuelles en environnements d’études et de test.On s’en sert ainsi pour gérer les évolutions d’un système d’exploitation (gestion de deuxversions successives de Windows sur le même serveur physique, par exemple), pourfaire fonctionner plusieurs versions d’une application sur un même serveur ainsi que pourmettre en place, pour les essais, plusieurs environnements logiques assortis chacun d’uneconfiguration matérielle virtuelle. On fait par ailleurs de plus en plus fréquemment appelà des VM sur architecture Intel en contexte de production, par exemple dans le cas deserveurs consolidés (gestion de plusieurs applications regroupées sur un serveur, qui setraduit par un rendement moyen en très nette hausse, mais qui conserve une réserve depuissance convenable).Limites de la virtualisation logicielleLa virtualisation purement logicielle offre certes de nombreux avantages, mais elle n’estpas sans inconvénients en termes de temps système, de performances et de prise encharge. La raison en est que les systèmes d’exploitation sont prévus pour disposer de lamaîtrise totale du matériel sous-jacent et non pas pour favoriser le partage des moyens.Or les capacités matérielles qu’offre la technologie Intel VT, associées aux logiciels devirtualisation actuels, ont précisément été pensées pour palier ces inconvénients.L’APPROCHE INTEL VTAu travers de la technologie Intel VT, Intel instaure une prise en charge matérielle dela virtualisation. Cette technologie, qui vise à renforcer l’efficacité et les possibilités dessolutions de virtualisation logicielles, correspond à un ensemble d’optimisations apportéesaux plates-formes d’Intel et, en particulier, à ses processeurs. L’architecture Intel se fondeen effet sur le principe d’anneaux de privilèges à quatre niveaux, du ring0 au ring3. Lering0 correspond à l’anneau disposant des privilèges les plus élevés et c’est celui qui, enenvironnement natif, est dédié au système d’exploitation.© 2006, IDC n° 201922 3
  4. 4. En mode purement logiciel, l’hyperviseur est géré en ring0, ce qui ramène les privilègesdu système d’exploitation à ceux du ring1. Cette approche fonctionne, mais présentecertains inconvénients — en termes d’exécution à un autre niveau de privilèges queprévu (ring aliasing), d’instructions de non-déroutement (non-trapping instructions), dedéclaration excessive d’erreurs (faulting), de changement de contexte pour l’état CPUet de compression de l’espace d’adresses — qui peuvent nuire aux performances ou àla fiabilité de la solution. Aujourd’hui, la virtualisation des processeurs d’architecture x86nécessite ainsi de complexes solutions logicielles de contournement.La technologie Intel VT est prévue pour éliminer ces obstacles et la nécessité de cessolutions palliatives, en gérant l’hyperviseur sur une couche racine, c’est-à-dire sur unanneau de niveau inédit. On conserve ainsi la structure classique, avec le systèmed’exploitation en ring0 et les logiciels d’application en ring2 (cf. figure 2).FIGURE  2La v ir t u a l i s a ti o n a v a n t e t a p rè s l a technol ogi e Intel V T VM1 VMn VM1 VMn Ring 3 Ring 3 App App App App OS OS Ring 1 OS OS Ring 0 Racine Ring 0 Hyperviseur Hyperviseur VMX Technologie Intel® VT Matériel physique partagé Matériel physique partagé • L’hyperviseur ramène l’exécution de l’OS • L’hyperviseur est géré à un niveau de invité en ring1 et occupe le ring0 privilèges qui lui est propre • L’OS ignore qu’il ne bénéficie pas des • L’OS invité ne perd pas ses privilèges privilèges du ring0 • L’OS est géré directement sur le matériel • Nécessite une traduction logicielle lourdeSource : Intel, 2006.4 n° 201922 © 2006, IDC
  5. 5. En palliant les inconvénients d’une virtualisation purement logicielle, la technologie IntelVT est le socle de solutions susceptibles d’un large déploiement, sur tout un éventaild’applications et pour de multiples environnements de production.`` Surcharge en calcul et performances. Pour assurer l’émulation des ressources serveur, les hyperviseurs uniquement logiciels entraînent un allongement du temps système dans des domaines tels que ceux des E/S, de la gestion mémoire (pagination) et de la simulation des instructions CPU « privilégiées ». Or, en prenant en charge ces fonctions par une virtualisation matérielle, la technologie Intel VT contribue à réduire ce temps système et élargit donc l’ensemble des applications qui se prêtent à la virtualisation.`` Simplification. Les solutions actuelles de virtualisation logicielle imposent au système d’exploitation de passer par l’hyperviseur pour communiquer avec le matériel sous-jacent, car l’OS est géré dans l’espace d’adresses et au niveau de privilèges normalement réservés aux applications. Avec ces solutions, c’est par l’intermédiaire d’une traduction binaire et du patchage de l’OS que l’on parvient à gérer ce dernier comme invité en environnement virtualisé, en lui faisant croire qu’il fonctionne sur une «  machine nue  ». Cette traduction peut intervenir en dynamique, à l’exécution (runtime) ou bien de manière statique, par avance (c’est ce qu’on appelle la paravirtualisation). Lorsqu’il y a traduction, à chaque mise à jour de l’OS (nouvelle version, Service Pack, correctif, etc.), l’hyperviseur doit systématiquement être patché. Or, par la mise en place d’une architecture nouvelle qui permet à l’OS de fonctionner en invité, sans modification, la virtualisation assistée par matérielle élimine cette traduction binaire et ce patchage.`` Fiabilité. Nombreux sont les utilisateurs à craindre que la traduction logicielle et le patchage ne nuisent à la fiabilité globale de la solution. La technologie Intel VT y répond par la prise en charge matérielle d’un élargissement des anneaux de privilèges, qui se traduit par une simplification de l’hyperviseur : celui-ci s’exécute dans un nouvel anneau, aux privilèges plus forts, l’OS invité continuant de tourner en anneau 0.`` Champ d’application. Comparée aux solutions purement logicielles actuelles, la technologie Intel VT élargit la virtualisation à des systèmes d’exploitation bien plus nombreux. Elle assure en effet la prise en charge directe des OS patrimoniaux sans modification (plusieurs versions de Linux et Windows). Elle gère par ailleurs aussi les OS 64 bits invités, ce qui a toute son importance face à la rapide montée en puissance des solutions articulées sur les processeurs Xeon 64 bits d’Intel (et sachant que les solutions actuelles n’en sont pas capables).`` Flexibilité. L’un des objectifs premiers de la technologie Intel VT est d’assurer l’indépendance des hyperviseurs par rapport à tel ou tel système d’exploitation, pour dispenser d’avoir à mettre à jour ceux-ci à chaque évolution d’un OS.`` Fiabilité de la plate-forme. Avec l’évolution d’environnements où chaque application a plus ou moins son serveur vers un contexte où un même serveur virtualisé hébergera toute d’une série d’entre elles, l’impératif est à la fiabilité du matériel. Pour limiter les risques liés au fait de «  mettre tous ses œufs sans le même panier  », les utilisateurs ne pourront donc que se tourner vers la plate-forme la plus susceptible de leur assurer fiabilité, continuité de service et facilité d’intervention (RAS).© 2006, IDC n° 201922 5
  6. 6. Dans l’ensemble, la virtualisation assistée par matériel que propose la technologie IntelVT, associée au soutien continu de celle-ci par les éditeurs d’hyperviseurs, va optimiserles environnements virtualisés. Le lancement de cette technologie constitue la premièreétape dans les perspectives à long terme d’Intel pour la virtualisation.SOUTIEN DE L’ÉCOSYSTÈMELe succès de la technologie Intel VT repose sur le soutien d’un vaste écosystèmede constructeurs, d’éditeurs, de revendeurs, d’entreprises utilisatrices et d’instancesnormatives. Intel travaille en l’occurrence avec des éditeurs de logiciels pour assurer laprise en charge de cette technologie par leurs hyperviseurs : Microsoft et VMware ainsique Xen pour l’Open Source.Intel intervient par ailleurs activement auprès de grands constructeurs et distributeurspour veiller à ce que leurs plates-formes soient équipées d’un BIOS compatible avec lesderniers-nés de ses processeurs dotés de la technologie Intel VT.L’objectif est de proposer au secteur informatique une plate-forme de virtualisationassistée par matériel qui soit monostandard, qui gère les systèmes d’exploitation invitésqu’ils soient paravirtualisés ou patrimoniaux et qui puisse s’appliquer aux serveurséquipés de processeurs Xeon® et Itanium® attendus en cours d’année ainsi qu’auxmicro-ordinateurs.Intel a ainsi annoncé la prise en charge d’interfaces d’hyperviseur définies pourle système d’exploitation hôte, la pile logicielle d’administration système et/ou lemicrologiciel (firmware) et les périphériques de la plate-forme. Cette interface prenden partie en charge les activités de bas niveau afin de limiter le temps système lié àla couche de virtualisation ainsi que pour renforcer les performances, la sécurité et lafiabilité des services virtualisés. Aux plates-formes qui en sont dotées, la technologieIntel VT permet aussi l’exécution directe d’un hyperviseur sur une architecture et un jeud’instructions IA-32.L’arrivée de la virtualisation CPU, fin 2005, représente la première d’une série de solutionsde virtualisation d’Intel dont « VT » est le nom générique. Cette entreprise concentreses activités d’études actuelles sur une assistance à la virtualisation des processeurset de la mémoire. Elle entend ensuite élargir cette technique aux sous-systèmes d’E/S,afin d’améliorer encore les capacités de virtualisation à l’échelle de toute la plate-forme.C’est ainsi qu’en mars 2006, Intel a publié la spécification préliminaire de la technologieIntel VT-d (Virtualization Technology for Directed I/O), après l’avoir communiquée auxconstructeurs concernés.La technologie Intel VT-d assure une assistance matérielle au jeu de composants(chipset) pour le remappage DMA (Direct Memory Access) et l’attribution directe demémoire. En prenant en charge ce remappage au niveau du matériel, elle protège mieuxla mémoire contre le code DMA erratique et renforce la fiabilité globale. Les hyperviseurspeuvent aussi faire appel à la technologie Intel VT-d pour attribuer directement desressources d’E/S à des machines virtuelles précises, ce qui assure à l’OS invité unaccès direct aux fonctions des périphériques physiques pour lesquels l’éditeur del’hyperviseur n’a peut-être pas publié de pilotes d’émulation. Cette technologie stimuleégalement les performances des E/S pour certains schémas d’utilisation, par exempleles environnements stratégiques ou d’études et de tests. Les premiers processeursdotés de la technologie VT-d seront mis à la disposition des éditeurs d’hyperviseurs en2006, pour une livraison effective en phase avec les projets de l’écosystème.L’échéance suivante d’Intel portera sur une virtualisation plus granulaire de la mémoireafin d’améliorer encore les performances et la stabilité des hyperviseurs.6 n° 201922 © 2006, IDC
  7. 7. FIGURE  3La v ir tu a l i s a ti o n m a té ri e l l e s e l o n Intel VM 1 VM 2 VM 3 VT-x et VT-I : virtualisation CPU Hyperviseur et mémoire MCH PCIe x8 PCIe x8 PCIe x8 PCIe x8 DMI Boot anciens OS VT-d : virtualisation des sous-systèmes d’E/SSource : Intel, 2006.PERSPECTIVESLes perspectives de la virtualisation sont immenses. Une récente étude d’IDC indiqueen effet que les entreprises qui l’emploient déjà l’ont mise en œuvre sur un cinquièmede leurs serveurs et que cette proportion devrait passer à 50 % d’ici à la fin 2006.On constate ainsi de plus en plus que cette technique cesse d’être l’apanage desréceptifs précoces et qu’elle se généralise au contraire, en raison des usagessupplémentaires qui lui sont trouvés et de ses nombreux atouts, dont la suitede ce document dresse la liste.© 2006, IDC n° 201922 7
  8. 8. Consolidation de serveursLa possibilité de partitionner un serveur permet de gérer sur chaque partition un BIOS,un OS et des applications distincts. La virtualisation purement logicielle assure le partagedes moyens matériels physiques avec isolement complet de la partie logicielle. Ellefavorise une réduction des coûts matériels (mais coûts logiciels inchangés) et facilitel’administration en la simplifiant. Elle réduit par ailleurs la consommation électrique, lecâblage et l’encombrement des datacenters. Il s’agit actuellement de l’usage le pluscourant de la virtualisation.`` Consolidation de l’infrastructure informatique`` Tout un datacenter en seul rack de serveurs`` Environnements multi-OSEnvironnement d’études et de testsL’une des applications de la virtualisation à connaître un engouement certain est lagestion de solutions pilotes dans des partitions virtuelles distinctes. Cette approche tireparti de tous les avantages de la consolidation des serveurs (en réduisant le nombre desmachines sous-exploitées) et favorise une plus grande flexibilité grâce à la possibilitéd’un déploiement applicatif plus rapide. Avant de les déployer sur tout un datacenter,on peut en effet valider des applications nouvelles dans une simple partition, ce quirenforce la stabilité de la solution concernée.`` Meilleur rendement de la ou des machines de test`` Déploiement de nouvelles applications`` Déploiement accéléréMigrations et mises à niveau matériellesLes atouts de la virtualisation pour les migrations matérielles sont comparables àceux qu’elle assure aux environnements d’études et de tests. Elle permet en effet dephaser la migration d’un système d’exploitation et de ses applications sur une nouvellemachine. En validant les solutions correspondantes sur des partitions virtuelles, leséquipes informatiques limitent ainsi les risques de perturbation de service qu’impliquecette opération. Lorsqu’il s’agit de changer d’architecture, le phasage de cette migrationsur des serveurs virtualisés permet une validation complète avant déploiement.`` Gestion des changements`` Migration des systèmes d’exploitation`` Correctifs et mises à niveauContinuité de l’activitéLa majorité des datacenters dispose d’un système ou d’un autre de basculement de lacharge d’un serveur en cas d’indisponibilité de celui-ci, en général sur une machine quiest la réplique de la première. Or, dans la mesure où une grande partie des défaillancesde serveurs sont d’origine logicielle, réaliser cette duplication sous forme de deuxpartitions virtuelles de la même machine se traduit par une baisse du coût. Ce dispositifnécessite cependant, bien sûr, que la machine elle-même soit extrêmement fiable,ce qui est le cas des serveurs équipés de processeurs Intel Xeon MP grâce à leurs8 n° 201922 © 2006, IDC
  9. 9. caractéristiques RAS de pointe. De plus, avec la fiabilité sans cesse croissance desnouveaux serveurs Xeon et Itanium, cette application de la virtualisation ne peut quese développer.`` Prise de relais, sur incident, d’une machine virtuelle par une autre`` Partition réservée aux services informatiques`` Reprise sur sinistre et incident (sauvegardes)Gestion prévisionnelle des moyensLes partitions virtuelles peuvent se dimensionner et se redimensionner à loisir, enfonction des besoins. Cette particularité offre une grande souplesse aux servicesinformatiques, qui peuvent ainsi mettre en place des ressources de calcul massives sinécessaire (clôture de fin de trimestre, par exemple), pour les réduire ensuite. Grâce àcette attribution des moyens de traitement à la carte, le rendement global des serveursest optimisé.À l’avenir, le provisionnement des capacités de traitement sera encore plus dynamique,en particulier pour leur mise en place et leur suppression.`` Globalisation de l’infrastructure`` Dimensionnement applicative dynamique`` Informatique à la demandeÉquilibrage de chargesDans le cadre de la virtualisation, les outils d’équilibrage des charges surveillent le tauxd’utilisation des machines virtuelles et modifient, en appliquant des règles préétablies,la répartition de ces charges sur plusieurs VM pour optimiser la capacité de traitementpar rapport à la réserve de puissance.`` Équilibrage des charges sur plusieurs plates-formes`` Gestion de la réserve de puissance`` Dimensionnement applicative dynamiqueDepuis l’apparition de la virtualisation, ses applications se sont considérablementélargies. Technique réservée à l’origine au renforcement du rendement des serveurs parleur consolidation, elle s’emploie également aujourd’hui pour pérenniser les applicationsgérées sous d’anciens systèmes d’exploitation en les déplaçant des machines qui leshébergeaient vers des serveurs plus puissants.Ses applications se sont également étendues à la continuité de l’activité, à la gestionprévisionnelle des moyens informatiques et à l’automatisation à partir d’un ensemble derègles, qui sont les prémices d’une vraie informatique à la demande.C’est cette palette d’usages en constante expansion qui rend la virtualisation aussiintéressante pour les entreprises et c’est aussi la raison pour laquelle Intel, ses partenairesconstructeurs et les éditeurs spécialisés travaillent à créer ensemble une plate-formede virtualisation performante, qui englobe les aspects matériels et logiciels ainsi quede gestion et d’administration. Cette collaboration est essentielle pour surmonter lesobstacles à cette technique et pour pleinement exploiter son potentiel.© 2006, IDC n° 201922 9
  10. 10. ENJEUXLes enjeux qui se présentent à Intel pour la virtualisation assistée par matériel consistentsurtout à faire accepter cette solution. Cette entreprise devra ainsi continuer de démontrertant à ses clients qu’à ses partenaires éditeurs que la technique en question renforce lesperformances et voit ses applications se multiplier.Elle devra également continuer de développer l’écosystème autour de la technologieIntel VT et mettre en place un cadre où les éditeurs et elle-même pourront travailler enpartenariat. L’enjeu auquel elle répond actuellement est ainsi d’orchestrer la prise encharge de cette technologie par les hyperviseurs des trois grands éditeurs concernés :VMware, Microsoft et Xen.Le déploiement de serveurs dotés de cette technologie et des hyperviseurs correspondantss’effectue dans le souci des besoins des utilisateurs. Sa réussite conduirait à renforcerla crédibilité de cette solution et aiderait Intel à planter le premier le drapeau de lavirtualisation pour les ordinateurs d’architecture x86.L’entreprise restera par ailleurs vigilante en continuant de se démarquer par la virtualisationmatérielle, d’innover et de promouvoir les standards. Or innover sur le marché del’informatique standard, où les partenaires d’un intervenant jouent un rôle crucial danssa réussite, est un art dans lequel l’entreprise est passée maître. Il lui faudra néanmoinsimpérativement continuer à appliquer ces enseignements au marché de la virtualisationen veillant à fournir à ses partenaires éditeurs la marge de manœuvre dont ils ont besoinpour améliorer les capacités des produits qu’ils proposent.CONCLUSIONLa virtualisation se dessine comme l’une des tendances majeures pour le marché desserveurs et la réalité des datacenters. Elle trouve déjà toute une série d’applications, del’amélioration du rendement des moyens matériels à la reprise sur sinistre, en passant parles infrastructures d’études et de tests, la pérennisation des investissements applicatifs etle renforcement de la continuité de service.Son évolution vers une technologie habilitante horizontale est l’une des principalesraisons à l’engouement qu’elle suscite. Pour concrétiser son plein potentiel et élargir lapalette des applications pour lesquelles elle démontre un avantage, elle doit néanmoinss’intégrer plus fortement au matériel.En s’efforçant de l’incorporer à toute la gamme de ses plates-formes, Intel réaliseactuellement les investissements nécessaires à sa généralisation, ce qui assurera ladisponibilité de plates-formes à haut rendement, stables et ultraperformantes pour touteune panoplie de technologies de virtualisation.Note de copyrightPublication externe d’informations et données d’IDC. Toute utilisation d’informationsd’IDC pour la publicité, dans un communiqué de presse ou sur un support promotionnelne peut intervenir que sur autorisation écrite du vice-président d’IDC concerné ou duresponsable IDC pour le pays concerné. Un avant-projet du document doit accompagnerla demande d’autorisation. IDC est libre de refuser cette autorisation.© 2006, IDC. Toute reproduction sans autorisation écrite est strictement interdite.10 n° 201922 © 2006, IDC

×