CERN Gigabit Case Study

377 vues

Publié le

Publié dans : Technologie
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
377
Sur SlideShare
0
Issues des intégrations
0
Intégrations
32
Actions
Partages
0
Téléchargements
0
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

CERN Gigabit Case Study

  1. 1. Étude de cas Gigabit Intel CERN, centre européen pour la recherche nucléaireLe CERN, « accélérateurd’innovation »Le 10 Gigabit Ethernet d’Intel au service de la recherche en physiquedes particulesEn bref…Structure CERN, centre européen pour la recherche nucléaireObjectif final Aménagement d’un environnement capable d’accepter la transmission et l’analyse de plusieurs pétaoctets de données issues de son collisionneur de hadrons (LHC).Objectif intermédiaire Parvenir à des débits cumulés de 10 Gbit/s sur réseau local, à l’aide de la tech- nologie 10 Gigabit Ethernet d’Intel.Résultats Une infrastructure pilote dégage de très hautes performances et une très forte continuité de service. Il s’agit de résultats encourageants pour la mise en place future de la grille de calcul globale du LHC.SynthèseDoté d’un acronyme hérité de l’ancien Conseil européen pour la recherche nucléaire, le CERNa été fondé à Genève en 1954. Il s’agit du plus grand laboratoire mondial de recherche en physiquedes particules. Il fédère ainsi quelque 6 500 scientifiques visiteurs, soit la moitié des spécialistes aumonde dans ce domaine, qui y étudient la structure de la matière et les origines de l’univers. Sonrôle est principalement de fournir à ces chercheurs les outils de leurs découvertes : accélérateursde particules qui propulsent celles-ci à des vitesses proches de celle de la lumière et détecteursqui les rendent visibles. Il emploie environ 3 000 personnes. Il se définit lui-même comme « unaccélérateur d’innovation ».Le grand chantier actuel du CERN est la construction de ce qui sera le plus grand accélérateur departicules au monde, un grand collisionneur de hadrons (Large Hadron Collider, LHC), qui devraitêtre mis en service en 2007. Or le service informatique de cet organisme prévoit que les quatredétecteurs géants, situés sur l’anneau de l’accélérateur et qui mesurent les collisions entre desprotons se déplaçant dans des directions opposées, généreront des volumes de données inouïs.C’est parmi ces relevés que les physiciens espèrent trouver les traces de particules élémentaires« exotiques », parmi lesquelles le boson de Higgs, dont certaines théories sur les origines de l’uni-vers ont prédit qu’elles existaient, mais dont l’existence n’est pas encore scientifiquement prou-vée.Chaque année, ce seront ainsi jusqu’à 15 pétaoctets de données (15 x 1015) issues du LHC quidéferleront sur sa grille de calcul reliant plusieurs centaines de centres informatiques d’universitéset de grands laboratoires de recherche dans le monde. Ces données seront collectées et achemi-nées sur l’infrastructure LAN/WAN du CERN et c’est en prévision de cette énorme masse qu’encollaboration étroite avec de grands intervenants du secteur informatique, a été mis en place en2003 le CERN openlab. Le premier projet important de ce laboratoire a ainsi consisté en l’aména-gement d’un environnement pilote, baptisé « CERN opencluster », à l’aide de la technologie réseau10 Gigabit Ethernet, dont l’objectif était de confirmer la capacité de l’infrastructure à dégager lesperformances voulues.
  2. 2. Processus : une évolution logique Sverre Jarp estime que la décision de travailler avec Intel, parmi d’autres partenaires, relève de la logique : « Nous travaillons depuis longtemps avec Intel et nous sommes très satisfaits des produits Intel auxquels nous faisons appel en ce moment. » L’infrastructure informatique actuelle du CERN repose sur un environnement lui-même articulé sur des serveurs dotés de deux processeurs Intel® Xeon® et de cartes réseau Gigabit Ethernet d’Intel aussi. Sverre Jarp s’en explique : « Bien que ce type d’environnements ne se banalise qu’actuellement dans le contexte des entreprises commerciales, nous exploitons le nôtre depuis plusieurs années à notre plus grande satisfaction et nous connaissons donc bien les technologies Ethernet de pointe. « Bien entendu, nous sommes en permanence à l’affût d’al-Figure 1. Vue conceptuelle du grand collisionneur ternatives et de solutions nouvelles — après tout, il nous fautde hadrons (LHC). un environnement capable de nous faire accomplir un immense pas en avant —, mais l’une des qualités saillantes du 10 Gigabit Ethernet est qu’il relève d’une évolution logique parEnjeu : atteindre des performances rapport à l’existant. Cette technologie représente un investis-et une continuité de service sement stratégique, aussi bien pour nous que pour les orga-de pointe nismes scientifiques du monde entier qui sont nos partenaires. »Sverre Jarp, directeur informatique du CERN, dirige une L’infrastructure Ethernet du CERN est immense puisqu’elleéquipe d’ingénieurs chargée d’étudier des technologies inno- recouvre 25 000 prises et 10 000 équipements rien que pourvantes, susceptibles de s’intégrer à l’architecture informatique l’organisme en lui-même, chacun de ses partenaires en pos-du laboratoire. Depuis son arrivée au CERN en 1974, il peut sédant une d’importance similaire.témoigner de l’évolution constante qui anime l’informatique etla technologie, et cette équipe a d’ailleurs la réputation de Le LHC devrait rester en service pendant plus d’une décennie« réceptif précoce ». Le projet opencluster vise en particulier et ses évolutions successives se traduiront par des volumesl’essai de technologies de pointe dans le cadre difficile et très de données produites encore plus astronomiques. Étant donnéspécifique de la grille de calcul du LHC (LHC Computing Grid, ses projets de longue haleine, le CERN apprécie les partenairesLCG), à laquelle participent quelque quatre-vingts partenaires industriels qui disposent de calendriers à long terme pour ladu CERN de par le monde. Sverre Jarp : « Si ce projet accu- sortie de leurs produits : « Nous savons que nous nous situonsmule les défis, il relève pourtant de notre activité normale. » à la limite des possibilités informatiques actuelles. Dans la mesureLa physique des hautes énergies est en effet depuis long- où nous faisons œuvre de défricheur, l’intention d’Intel de tirertemps un domaine qui innove volontiers en termes de réseau- les débits Ethernet vers le haut nous intéresse au plus hauttique et, incidemment, il n’est donc pas étonnant que ce soit point. De plus, nous apprécions l’adaptabilité de cet interve-au CERN que soit né le Web. nant, qui consiste par exemple à nous fournir des versions Open Source des pilotes des E/S, ce qui nous permet de maî-« Nous travaillons avec des partenaires industriels, dont Intel, triser plus aisément notre environnement pilote. »à la validation de technologies d’avant-garde », poursuitSverre Jarp. « Dans le cadre de notre projet en cours, nousavons mis en place un environnement pilote pour simuler lesvolumes de données sans précédent que devraient produireles expériences menées sur le LHC et ainsi vérifier que l’infra-structure sera à la hauteur du défi, de la collecte des donnéesjusqu’à leur stockage dans d’immenses “silos”. »À cet égard, des performances optimales ne sont évidem-ment pas la seule mesure de la réussite. L’expérienceimplique en effet la collecte et la transmission granulaires etcontinues de l’information, c’est-à-dire que l’infrastructureinformatique doit témoigner d’une très forte continuité de ser-vice afin que rien n’échappe à l’analyse.2
  3. 3. Solution : performances 10 GigabitL’objectif sous-jacent à ce projet pilote consiste à atteindre debout en bout des débits de l’ordre de 10 Gbit/s : « L’élémentle plus essentiel pour nous est l’agrégation de bande passante »,souligne Sverre Jarp. « Ce n’est pas seulement les cartesd’interface que nous testons ; nous devons aussi nous assu-rer que le serveur et l’équipement de commutation serontcapables de supporter les débits 10 Gigabit visés. »Au printemps 2003, le CERN a déployé des équipements deplusieurs constructeurs pour atteindre les performances sansprécédent qu’il lui fallait. Son openlab est ainsi équipé de cent Figure 2. Schéma de la grille de calcul du LHC (qui relie plusserveurs HP* rx2600 dotés chacun de deux processeurs de 80 centres informatiques dans le monde pour le traitement des données issues du LHC).Intel® Itanium® 2, la plupart de ces puces étant cadencéesà 1,5 GHz. Seize de ces ordinateurs disposent d’une carteréseau PCI X 10 Gigabit Ethernet Intel PRO/10GbE SR. Perspectives : la course à la vitesseDans le cadre de l’environnement de production qui sera misen place d’ici à 2007, les données collectées à partir du LHC Le LHC sera l’instrument le plus puissant jamais construitseront acheminées vers les serveurs de traitement par l’inter- pour étudier les propriétés de la matière à un niveau subato-médiaire de la dorsale LAN 10 Gigabit. Ces moteurs recons- mique. Pourtant, les scientifiques du CERN voient déjà au- delà et envisagent des expériences encore plus poussées surtruisent les données brutes et les contextualisent, avant de les hautes énergies. C’est pourquoi la course à la vitesseles diffuser hors du périmètre, auprès des centres dits ne peut que s’y maintenir.« de niveau 1 », qui, eux-mêmes, stockent des ensembles dedonnées complets issus des expériences menées. Plusieurs « C’est ensuite le 40 Gbit/s que nous visons », explique Sverrede ces centres seront des instituts européens de physique Jarp. « Nous étudions donc déjà des processeurs ainsi quedes hautes énergies, dont le laboratoire Rutherford Appleton les technologies mémoire, LAN et WAN qui nous permettront(RAL) pour la Grande-Bretagne et l’institut IN2P3 pour la d’y parvenir. Dans le cadre du CERN openlab, Intel est un par-France ; pour le reste du monde, on peut citer le Fermilab tenaire essentiel, qui nous aidera à repousser en permanence nos limites informatiques, non seulement pour ce qui est desde Chicago. cartes d’interface réseau, mais aussi pour les processeurs etSverre Jarp : « Jusqu’ici, nous sommes très satisfaits des per- jusqu’aux ordinateurs pris dans leur globalité. »formances établies par notre environnement pilote. Mêmeavec un seul flux de données en provenance d’une applica-tion unique, nous avons pu exploiter plus de la moitié de labande passante disponible des cartes d’interface, ce quireprésente un débit d’environ 5 Gbit/s sur le réseau. Il s’estrévélé rapide et simple de mettre en service les cartes réseauIntel PRO/10GbE Server. Elles n’ont cessé d’afficher sansfaillir d’excellentes performances, ce qui nous a permisd’atteindre nos objectifs d’agrégation. » 3
  4. 4. Renseignez-vous sur les solutions réseau adaptées à votre entreprise en consultant le site Internet d’Intel à l’adresse http://www.intel.fr/network © 2005, Intel Corporation. Intel, Intel Xeon et Itanium sont des marques déposées ou enregistrées d’Intel Corporation ou de ses filiales, aux États-Unis et dans d’autres pays. * Les autres noms et désignations peuvent être revendiqués comme marques par des tiers.

×