6. 6
Intégration
complète des
serveurs et du
stockage
Totalement
logiciel et
distribué
Plateforme
matérielle X86
standard
Architecture
purement
scale-out
Les grands principes
Notes de l'éditeur
Dans les années 2000, les grands acteurs comme Yahoo et Altavista utilisaient des architectures classiques comme ce qu’on fait dans les entreprises aujourd’hui, c’est-à-dire des baies de stockage connectés à des serveurs.
Lorsqu’on regarde une architecture classique, le problème ne se trouve pas du côté des serveurs parce qu’il suffit d’en rajouter, ni du côté des disques parce qu’on peut également en rajouter, mais le problème se situe au niveau des contrôleurs de stockage.
Un contrôleur de stockage est conçu pour gérer un certain nombre de disques, un nombre maximum d’I/O, et c’est ce qui crée des gammes chez les constructeurs de stockage. Ces contrôleurs ont pour rôle de paralléliser les écritures et lectures sur les disques et répartir la donnée, reconstruire la donnée lorsqu’on perd un disque.
Mais avec l’arrivée de la virtualisation de serveurs, on donne au contrôleur plus de taches à gérées, comme la création de clone, la réplication vers un autre site.
Et le seul élément qui ne peut pas changer d’échelle, le contrôleur, on va lui donner des fonctions supplémentaires à gérer.
Quand sont arrivés les nouveaux acteurs comme Facebook et Google, ils ont réalisé qu’avec une architecture classique, à chaque fois que l’entreprise change d’échelle il fallait revoir l’architecture. Ils sont plutôt partis sur une architecture en grille en utilisant des composants standards, et c’est le logiciel qui va fédérer toutes ces ressources physiques.
Google, Amazon et Facebook se sont dit qu’ils allaient converger les serveurs et le stockage dans une même unité qu’on va appeler nœud, ce sera totalement distribué et complétement logiciel car on ne veut pas dépendre d’une fonctionnalité matérielle d’un constructeur physique, on veut que ce soit purement logiciel. Le choix évident était de partir sur du x86, même si on voit que les processeurs ARM commencent à être utilisés, sachant que la majorité des applications dans les entreprises tournent sur du x86 et que la plupart des clouds aussi sont en x86. Cette architecture doit également être scale out, c’est-à-dire que lorsqu’on veut changer d’échelles, on ajoute des nœuds supplémentaires
Key Points:
When Google, Facebook, Amazon and other leading cloud providers set out to design a next-generation datacenter, they threw away the playbook. They understood that if they relied upon traditional hardware-centric architectures, which demanded ever more powerful servers, networks and storage arrays, they would fail.
Instead, these technological pioneers re-invented how scalable datacenters were built and managed.
They embraced a highly distributed software model that was implemented on clusters of commodity hardware.
They also took the bold step of converging compute and storage resources into a single tier, thus removing the complexity of a storage network.
By integrating datacenter intelligence into software instead of hardware, and eliminating costly network infrastructure, Google and others have been able to realize both massive scale and rapid feature velocity.
At the same time, they have achieved unheard of economics by eliminating the need to upgrade hardware simply to achieve greater performance or scale, while still increasing overall reliability.
Nutanix has incorporated these same design principles into its solutions. For the first time, Google-like scale and performance is available to mainstream enterprises.