SlideShare une entreprise Scribd logo
Étude de cas Gigabit Intel
                                                                         CERN, centre européen
                                                                         pour la recherche nucléaire




Le CERN, « accélérateur
d’innovation »
Le 10 Gigabit Ethernet d’Intel au service de la recherche en physique
des particules

En bref…

Structure                  CERN, centre européen pour la recherche nucléaire

Objectif final             Aménagement d’un environnement capable d’accepter la transmission et
                           l’analyse de plusieurs pétaoctets de données issues de son collisionneur de
                           hadrons (LHC).

Objectif intermédiaire     Parvenir à des débits cumulés de 10 Gbit/s sur réseau local, à l’aide de la tech-
                           nologie 10 Gigabit Ethernet d’Intel.

Résultats                  Une infrastructure pilote dégage de très hautes performances et une très forte
                           continuité de service. Il s’agit de résultats encourageants pour la mise en place
                           future de la grille de calcul globale du LHC.



Synthèse
Doté d’un acronyme hérité de l’ancien Conseil européen pour la recherche nucléaire, le CERN
a été fondé à Genève en 1954. Il s’agit du plus grand laboratoire mondial de recherche en physique
des particules. Il fédère ainsi quelque 6 500 scientifiques visiteurs, soit la moitié des spécialistes au
monde dans ce domaine, qui y étudient la structure de la matière et les origines de l’univers. Son
rôle est principalement de fournir à ces chercheurs les outils de leurs découvertes : accélérateurs
de particules qui propulsent celles-ci à des vitesses proches de celle de la lumière et détecteurs
qui les rendent visibles. Il emploie environ 3 000 personnes. Il se définit lui-même comme « un
accélérateur d’innovation ».

Le grand chantier actuel du CERN est la construction de ce qui sera le plus grand accélérateur de
particules au monde, un grand collisionneur de hadrons (Large Hadron Collider, LHC), qui devrait
être mis en service en 2007. Or le service informatique de cet organisme prévoit que les quatre
détecteurs géants, situés sur l’anneau de l’accélérateur et qui mesurent les collisions entre des
protons se déplaçant dans des directions opposées, généreront des volumes de données inouïs.
C’est parmi ces relevés que les physiciens espèrent trouver les traces de particules élémentaires
« exotiques », parmi lesquelles le boson de Higgs, dont certaines théories sur les origines de l’uni-
vers ont prédit qu’elles existaient, mais dont l’existence n’est pas encore scientifiquement prou-
vée.

Chaque année, ce seront ainsi jusqu’à 15 pétaoctets de données (15 x 1015) issues du LHC qui
déferleront sur sa grille de calcul reliant plusieurs centaines de centres informatiques d’universités
et de grands laboratoires de recherche dans le monde. Ces données seront collectées et achemi-
nées sur l’infrastructure LAN/WAN du CERN et c’est en prévision de cette énorme masse qu’en
collaboration étroite avec de grands intervenants du secteur informatique, a été mis en place en
2003 le CERN openlab. Le premier projet important de ce laboratoire a ainsi consisté en l’aména-
gement d’un environnement pilote, baptisé « CERN opencluster », à l’aide de la technologie réseau
10 Gigabit Ethernet, dont l’objectif était de confirmer la capacité de l’infrastructure à dégager les
performances voulues.
Processus : une évolution logique
                                                                    Sverre Jarp estime que la décision de travailler avec Intel, parmi
                                                                    d’autres partenaires, relève de la logique : « Nous travaillons
                                                                    depuis longtemps avec Intel et nous sommes très satisfaits
                                                                    des produits Intel auxquels nous faisons appel en ce moment. »

                                                                    L’infrastructure informatique actuelle du CERN repose sur un
                                                                    environnement lui-même articulé sur des serveurs dotés de
                                                                    deux processeurs Intel® Xeon® et de cartes réseau Gigabit
                                                                    Ethernet d’Intel aussi. Sverre Jarp s’en explique : « Bien que
                                                                    ce type d’environnements ne se banalise qu’actuellement dans
                                                                    le contexte des entreprises commerciales, nous exploitons le
                                                                    nôtre depuis plusieurs années à notre plus grande satisfaction
                                                                    et nous connaissons donc bien les technologies Ethernet de
                                                                    pointe.

                                                                    « Bien entendu, nous sommes en permanence à l’affût d’al-
Figure 1. Vue conceptuelle du grand collisionneur                   ternatives et de solutions nouvelles — après tout, il nous faut
de hadrons (LHC).                                                   un environnement capable de nous faire accomplir un immense
                                                                    pas en avant —, mais l’une des qualités saillantes du
                                                                    10 Gigabit Ethernet est qu’il relève d’une évolution logique par
Enjeu : atteindre des performances                                  rapport à l’existant. Cette technologie représente un investis-
et une continuité de service                                        sement stratégique, aussi bien pour nous que pour les orga-
de pointe                                                           nismes scientifiques du monde entier qui sont nos partenaires. »
Sverre Jarp, directeur informatique du CERN, dirige une             L’infrastructure Ethernet du CERN est immense puisqu’elle
équipe d’ingénieurs chargée d’étudier des technologies inno-        recouvre 25 000 prises et 10 000 équipements rien que pour
vantes, susceptibles de s’intégrer à l’architecture informatique    l’organisme en lui-même, chacun de ses partenaires en pos-
du laboratoire. Depuis son arrivée au CERN en 1974, il peut         sédant une d’importance similaire.
témoigner de l’évolution constante qui anime l’informatique et
la technologie, et cette équipe a d’ailleurs la réputation de       Le LHC devrait rester en service pendant plus d’une décennie
« réceptif précoce ». Le projet opencluster vise en particulier     et ses évolutions successives se traduiront par des volumes
l’essai de technologies de pointe dans le cadre difficile et très   de données produites encore plus astronomiques. Étant donné
spécifique de la grille de calcul du LHC (LHC Computing Grid,       ses projets de longue haleine, le CERN apprécie les partenaires
LCG), à laquelle participent quelque quatre-vingts partenaires      industriels qui disposent de calendriers à long terme pour la
du CERN de par le monde. Sverre Jarp : « Si ce projet accu-         sortie de leurs produits : « Nous savons que nous nous situons
mule les défis, il relève pourtant de notre activité normale. »     à la limite des possibilités informatiques actuelles. Dans la mesure
La physique des hautes énergies est en effet depuis long-           où nous faisons œuvre de défricheur, l’intention d’Intel de tirer
temps un domaine qui innove volontiers en termes de réseau-         les débits Ethernet vers le haut nous intéresse au plus haut
tique et, incidemment, il n’est donc pas étonnant que ce soit       point. De plus, nous apprécions l’adaptabilité de cet interve-
au CERN que soit né le Web.                                         nant, qui consiste par exemple à nous fournir des versions
                                                                    Open Source des pilotes des E/S, ce qui nous permet de maî-
« Nous travaillons avec des partenaires industriels, dont Intel,    triser plus aisément notre environnement pilote. »
à la validation de technologies d’avant-garde », poursuit
Sverre Jarp. « Dans le cadre de notre projet en cours, nous
avons mis en place un environnement pilote pour simuler les
volumes de données sans précédent que devraient produire
les expériences menées sur le LHC et ainsi vérifier que l’infra-
structure sera à la hauteur du défi, de la collecte des données
jusqu’à leur stockage dans d’immenses “silos”. »

À cet égard, des performances optimales ne sont évidem-
ment pas la seule mesure de la réussite. L’expérience
implique en effet la collecte et la transmission granulaires et
continues de l’information, c’est-à-dire que l’infrastructure
informatique doit témoigner d’une très forte continuité de ser-
vice afin que rien n’échappe à l’analyse.



2
Solution : performances 10 Gigabit
L’objectif sous-jacent à ce projet pilote consiste à atteindre de
bout en bout des débits de l’ordre de 10 Gbit/s : « L’élément
le plus essentiel pour nous est l’agrégation de bande passante »,
souligne Sverre Jarp. « Ce n’est pas seulement les cartes
d’interface que nous testons ; nous devons aussi nous assu-
rer que le serveur et l’équipement de commutation seront
capables de supporter les débits 10 Gigabit visés. »

Au printemps 2003, le CERN a déployé des équipements de
plusieurs constructeurs pour atteindre les performances sans
précédent qu’il lui fallait. Son openlab est ainsi équipé de cent   Figure 2. Schéma de la grille de calcul du LHC (qui relie plus
serveurs HP* rx2600 dotés chacun de deux processeurs                de 80 centres informatiques dans le monde pour le traitement
                                                                    des données issues du LHC).
Intel® Itanium® 2, la plupart de ces puces étant cadencées
à 1,5 GHz. Seize de ces ordinateurs disposent d’une carte
réseau PCI X 10 Gigabit Ethernet Intel PRO/10GbE SR.                Perspectives : la course
                                                                    à la vitesse
Dans le cadre de l’environnement de production qui sera mis
en place d’ici à 2007, les données collectées à partir du LHC       Le LHC sera l’instrument le plus puissant jamais construit
seront acheminées vers les serveurs de traitement par l’inter-      pour étudier les propriétés de la matière à un niveau subato-
médiaire de la dorsale LAN 10 Gigabit. Ces moteurs recons-          mique. Pourtant, les scientifiques du CERN voient déjà au-
                                                                    delà et envisagent des expériences encore plus poussées sur
truisent les données brutes et les contextualisent, avant de
                                                                    les hautes énergies. C’est pourquoi la course à la vitesse
les diffuser hors du périmètre, auprès des centres dits
                                                                    ne peut que s’y maintenir.
« de niveau 1 », qui, eux-mêmes, stockent des ensembles de
données complets issus des expériences menées. Plusieurs            « C’est ensuite le 40 Gbit/s que nous visons », explique Sverre
de ces centres seront des instituts européens de physique           Jarp. « Nous étudions donc déjà des processeurs ainsi que
des hautes énergies, dont le laboratoire Rutherford Appleton        les technologies mémoire, LAN et WAN qui nous permettront
(RAL) pour la Grande-Bretagne et l’institut IN2P3 pour la           d’y parvenir. Dans le cadre du CERN openlab, Intel est un par-
France ; pour le reste du monde, on peut citer le Fermilab          tenaire essentiel, qui nous aidera à repousser en permanence
                                                                    nos limites informatiques, non seulement pour ce qui est des
de Chicago.
                                                                    cartes d’interface réseau, mais aussi pour les processeurs et
Sverre Jarp : « Jusqu’ici, nous sommes très satisfaits des per-     jusqu’aux ordinateurs pris dans leur globalité. »
formances établies par notre environnement pilote. Même
avec un seul flux de données en provenance d’une applica-
tion unique, nous avons pu exploiter plus de la moitié de la
bande passante disponible des cartes d’interface, ce qui
représente un débit d’environ 5 Gbit/s sur le réseau. Il s’est
révélé rapide et simple de mettre en service les cartes réseau
Intel PRO/10GbE Server. Elles n’ont cessé d’afficher sans
faillir d’excellentes performances, ce qui nous a permis
d’atteindre nos objectifs d’agrégation. »




                                                                                                                                 3
Renseignez-vous sur les solutions réseau adaptées à votre entreprise en consultant
                        le site Internet d’Intel à l’adresse
                                           http://www.intel.fr/network




       © 2005, Intel Corporation.
       Intel, Intel Xeon et Itanium sont des marques déposées ou enregistrées d’Intel Corporation ou de ses filiales, aux États-Unis et dans d’autres pays.
      * Les autres noms et désignations peuvent être revendiqués comme marques par des tiers.

Contenu connexe

Similaire à CERN Gigabit Case Study

OpenStack - open source au service du Cloud
OpenStack - open source au service du CloudOpenStack - open source au service du Cloud
OpenStack - open source au service du Cloud
LINAGORA
 
Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...
Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...
Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...
Paris, France
 
20160216 - From BigData to BigProcessing
20160216 - From BigData to BigProcessing20160216 - From BigData to BigProcessing
20160216 - From BigData to BigProcessing
Pierre-Marie Brunet
 
OpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du CloudOpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du Cloud
Michel-Marie Maudet
 
large scale multiprocessors et leurs application scientifique
large scale multiprocessors et leurs application scientifique large scale multiprocessors et leurs application scientifique
large scale multiprocessors et leurs application scientifique
Abdelkrim Bournane
 
OpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégieOpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégie
Savoir-faire Linux
 
[Workshop] Calcul intensif - GENCI
[Workshop] Calcul intensif - GENCI[Workshop] Calcul intensif - GENCI
[Workshop] Calcul intensif - GENCI
FrenchTechCentral
 
Slides trophee big data
Slides trophee big dataSlides trophee big data
Slides trophee big data
Piero Geiger
 
Déployer facilement OpenStack et CEPH avec Bright OpenStack
Déployer facilement OpenStack et CEPH avec Bright OpenStackDéployer facilement OpenStack et CEPH avec Bright OpenStack
Déployer facilement OpenStack et CEPH avec Bright OpenStack
Cyril Baudillon
 
Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...
Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...
Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...
Objectif Libre
 
Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]
Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]
Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]
Antoine Poliakov
 
Présentation HPC@LR
Présentation HPC@LRPrésentation HPC@LR
Présentation HPC@LR
fberthu
 
2008 - Eyrolles - Reseaux et Telecom.pdf
2008 - Eyrolles - Reseaux et Telecom.pdf2008 - Eyrolles - Reseaux et Telecom.pdf
2008 - Eyrolles - Reseaux et Telecom.pdf
MartinTraore
 
Internet-1-intro.pdf
Internet-1-intro.pdfInternet-1-intro.pdf
Internet-1-intro.pdf
Junior724645
 
Openshift 3 & Kubernetes
Openshift 3 & KubernetesOpenshift 3 & Kubernetes
Openshift 3 & Kubernetes
Perfect Memory
 
Sussex Downs College Case Study
Sussex Downs College Case StudySussex Downs College Case Study
Sussex Downs College Case Study
Christian Hym
 
SensLab Anr Stic2010
SensLab Anr Stic2010SensLab Anr Stic2010
SensLab Anr Stic2010
Eric Fleury
 
FTC Workshop-genci
FTC  Workshop-genciFTC  Workshop-genci
FTC Workshop-genci
FrenchTechCentral
 
Révolution dans l'analytique et les entrepôts de données à découvrir avec Intel
Révolution dans l'analytique et les entrepôts de données à découvrir avec IntelRévolution dans l'analytique et les entrepôts de données à découvrir avec Intel
Révolution dans l'analytique et les entrepôts de données à découvrir avec Intel
Microsoft Décideurs IT
 

Similaire à CERN Gigabit Case Study (20)

CERN Case Study
CERN Case StudyCERN Case Study
CERN Case Study
 
OpenStack - open source au service du Cloud
OpenStack - open source au service du CloudOpenStack - open source au service du Cloud
OpenStack - open source au service du Cloud
 
Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...
Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...
Systematic/NEOPPOD dévoilent la première base de données objets NoSQL Open So...
 
20160216 - From BigData to BigProcessing
20160216 - From BigData to BigProcessing20160216 - From BigData to BigProcessing
20160216 - From BigData to BigProcessing
 
OpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du CloudOpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du Cloud
 
large scale multiprocessors et leurs application scientifique
large scale multiprocessors et leurs application scientifique large scale multiprocessors et leurs application scientifique
large scale multiprocessors et leurs application scientifique
 
OpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégieOpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégie
 
[Workshop] Calcul intensif - GENCI
[Workshop] Calcul intensif - GENCI[Workshop] Calcul intensif - GENCI
[Workshop] Calcul intensif - GENCI
 
Slides trophee big data
Slides trophee big dataSlides trophee big data
Slides trophee big data
 
Déployer facilement OpenStack et CEPH avec Bright OpenStack
Déployer facilement OpenStack et CEPH avec Bright OpenStackDéployer facilement OpenStack et CEPH avec Bright OpenStack
Déployer facilement OpenStack et CEPH avec Bright OpenStack
 
Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...
Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...
Quoi de neuf dans OpenStack - Christophe Sauthier / Objectif Libre lors du Me...
 
Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]
Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]
Retour d’expérience Big Compute & HPC sur Windows Azure [TechDays 2014]
 
Présentation HPC@LR
Présentation HPC@LRPrésentation HPC@LR
Présentation HPC@LR
 
2008 - Eyrolles - Reseaux et Telecom.pdf
2008 - Eyrolles - Reseaux et Telecom.pdf2008 - Eyrolles - Reseaux et Telecom.pdf
2008 - Eyrolles - Reseaux et Telecom.pdf
 
Internet-1-intro.pdf
Internet-1-intro.pdfInternet-1-intro.pdf
Internet-1-intro.pdf
 
Openshift 3 & Kubernetes
Openshift 3 & KubernetesOpenshift 3 & Kubernetes
Openshift 3 & Kubernetes
 
Sussex Downs College Case Study
Sussex Downs College Case StudySussex Downs College Case Study
Sussex Downs College Case Study
 
SensLab Anr Stic2010
SensLab Anr Stic2010SensLab Anr Stic2010
SensLab Anr Stic2010
 
FTC Workshop-genci
FTC  Workshop-genciFTC  Workshop-genci
FTC Workshop-genci
 
Révolution dans l'analytique et les entrepôts de données à découvrir avec Intel
Révolution dans l'analytique et les entrepôts de données à découvrir avec IntelRévolution dans l'analytique et les entrepôts de données à découvrir avec Intel
Révolution dans l'analytique et les entrepôts de données à découvrir avec Intel
 

Plus de Christian Hym

Earnings Release Q2'11
Earnings Release Q2'11Earnings Release Q2'11
Earnings Release Q2'11
Christian Hym
 
World Ahead Healthcare Release
World Ahead Healthcare ReleaseWorld Ahead Healthcare Release
World Ahead Healthcare Release
Christian Hym
 
Latest Science and Technology Center
Latest Science and Technology CenterLatest Science and Technology Center
Latest Science and Technology Center
Christian Hym
 
Intel Challenge Winner Press Release
Intel Challenge Winner Press ReleaseIntel Challenge Winner Press Release
Intel Challenge Winner Press Release
Christian Hym
 
Praises
PraisesPraises
Praises
Christian Hym
 
Praises
PraisesPraises
Praises
Christian Hym
 
Intel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO TrainingIntel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO Training
Christian Hym
 
VMWare / Intel relationship
VMWare / Intel relationship VMWare / Intel relationship
VMWare / Intel relationship
Christian Hym
 
IDC Vitrualization Whitepaper
IDC Vitrualization WhitepaperIDC Vitrualization Whitepaper
IDC Vitrualization Whitepaper
Christian Hym
 
Xmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell TechXmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell Tech
Christian Hym
 
Xmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 SupportXmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 Support
Christian Hym
 
Xmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About IntelXmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About Intel
Christian Hym
 
Xmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vProXmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vPro
Christian Hym
 
Xmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D ExpertXmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D Expert
Christian Hym
 

Plus de Christian Hym (20)

Earnings Release Q2'11
Earnings Release Q2'11Earnings Release Q2'11
Earnings Release Q2'11
 
World Ahead Healthcare Release
World Ahead Healthcare ReleaseWorld Ahead Healthcare Release
World Ahead Healthcare Release
 
Latest Science and Technology Center
Latest Science and Technology CenterLatest Science and Technology Center
Latest Science and Technology Center
 
Intel Challenge Winner Press Release
Intel Challenge Winner Press ReleaseIntel Challenge Winner Press Release
Intel Challenge Winner Press Release
 
Praises
PraisesPraises
Praises
 
Praises
PraisesPraises
Praises
 
Centrino brochure
Centrino brochureCentrino brochure
Centrino brochure
 
Intel POS Leaflet
Intel POS LeafletIntel POS Leaflet
Intel POS Leaflet
 
Intel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO TrainingIntel Viiv Guide Book for RSO Training
Intel Viiv Guide Book for RSO Training
 
Intel Viiv Flyer
Intel Viiv FlyerIntel Viiv Flyer
Intel Viiv Flyer
 
VMWare / Intel relationship
VMWare / Intel relationship VMWare / Intel relationship
VMWare / Intel relationship
 
IDC Vitrualization Whitepaper
IDC Vitrualization WhitepaperIDC Vitrualization Whitepaper
IDC Vitrualization Whitepaper
 
Xmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell TechXmas 2006 - Module 6 Sell Tech
Xmas 2006 - Module 6 Sell Tech
 
Xmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 SupportXmas 2006 - Module 5 Holiday 2006 Support
Xmas 2006 - Module 5 Holiday 2006 Support
 
Xmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About IntelXmas 2006 - Module 4 About Intel
Xmas 2006 - Module 4 About Intel
 
Xmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vProXmas 2006 - Module 3 vPro
Xmas 2006 - Module 3 vPro
 
Xmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D ExpertXmas 2006 - Module 1b C2D Expert
Xmas 2006 - Module 1b C2D Expert
 
IVT Flyezr
IVT FlyezrIVT Flyezr
IVT Flyezr
 
CMDT Xmas Flyer
CMDT Xmas FlyerCMDT Xmas Flyer
CMDT Xmas Flyer
 
C2D Mobile Hanger
C2D Mobile HangerC2D Mobile Hanger
C2D Mobile Hanger
 

CERN Gigabit Case Study

  • 1. Étude de cas Gigabit Intel CERN, centre européen pour la recherche nucléaire Le CERN, « accélérateur d’innovation » Le 10 Gigabit Ethernet d’Intel au service de la recherche en physique des particules En bref… Structure CERN, centre européen pour la recherche nucléaire Objectif final Aménagement d’un environnement capable d’accepter la transmission et l’analyse de plusieurs pétaoctets de données issues de son collisionneur de hadrons (LHC). Objectif intermédiaire Parvenir à des débits cumulés de 10 Gbit/s sur réseau local, à l’aide de la tech- nologie 10 Gigabit Ethernet d’Intel. Résultats Une infrastructure pilote dégage de très hautes performances et une très forte continuité de service. Il s’agit de résultats encourageants pour la mise en place future de la grille de calcul globale du LHC. Synthèse Doté d’un acronyme hérité de l’ancien Conseil européen pour la recherche nucléaire, le CERN a été fondé à Genève en 1954. Il s’agit du plus grand laboratoire mondial de recherche en physique des particules. Il fédère ainsi quelque 6 500 scientifiques visiteurs, soit la moitié des spécialistes au monde dans ce domaine, qui y étudient la structure de la matière et les origines de l’univers. Son rôle est principalement de fournir à ces chercheurs les outils de leurs découvertes : accélérateurs de particules qui propulsent celles-ci à des vitesses proches de celle de la lumière et détecteurs qui les rendent visibles. Il emploie environ 3 000 personnes. Il se définit lui-même comme « un accélérateur d’innovation ». Le grand chantier actuel du CERN est la construction de ce qui sera le plus grand accélérateur de particules au monde, un grand collisionneur de hadrons (Large Hadron Collider, LHC), qui devrait être mis en service en 2007. Or le service informatique de cet organisme prévoit que les quatre détecteurs géants, situés sur l’anneau de l’accélérateur et qui mesurent les collisions entre des protons se déplaçant dans des directions opposées, généreront des volumes de données inouïs. C’est parmi ces relevés que les physiciens espèrent trouver les traces de particules élémentaires « exotiques », parmi lesquelles le boson de Higgs, dont certaines théories sur les origines de l’uni- vers ont prédit qu’elles existaient, mais dont l’existence n’est pas encore scientifiquement prou- vée. Chaque année, ce seront ainsi jusqu’à 15 pétaoctets de données (15 x 1015) issues du LHC qui déferleront sur sa grille de calcul reliant plusieurs centaines de centres informatiques d’universités et de grands laboratoires de recherche dans le monde. Ces données seront collectées et achemi- nées sur l’infrastructure LAN/WAN du CERN et c’est en prévision de cette énorme masse qu’en collaboration étroite avec de grands intervenants du secteur informatique, a été mis en place en 2003 le CERN openlab. Le premier projet important de ce laboratoire a ainsi consisté en l’aména- gement d’un environnement pilote, baptisé « CERN opencluster », à l’aide de la technologie réseau 10 Gigabit Ethernet, dont l’objectif était de confirmer la capacité de l’infrastructure à dégager les performances voulues.
  • 2. Processus : une évolution logique Sverre Jarp estime que la décision de travailler avec Intel, parmi d’autres partenaires, relève de la logique : « Nous travaillons depuis longtemps avec Intel et nous sommes très satisfaits des produits Intel auxquels nous faisons appel en ce moment. » L’infrastructure informatique actuelle du CERN repose sur un environnement lui-même articulé sur des serveurs dotés de deux processeurs Intel® Xeon® et de cartes réseau Gigabit Ethernet d’Intel aussi. Sverre Jarp s’en explique : « Bien que ce type d’environnements ne se banalise qu’actuellement dans le contexte des entreprises commerciales, nous exploitons le nôtre depuis plusieurs années à notre plus grande satisfaction et nous connaissons donc bien les technologies Ethernet de pointe. « Bien entendu, nous sommes en permanence à l’affût d’al- Figure 1. Vue conceptuelle du grand collisionneur ternatives et de solutions nouvelles — après tout, il nous faut de hadrons (LHC). un environnement capable de nous faire accomplir un immense pas en avant —, mais l’une des qualités saillantes du 10 Gigabit Ethernet est qu’il relève d’une évolution logique par Enjeu : atteindre des performances rapport à l’existant. Cette technologie représente un investis- et une continuité de service sement stratégique, aussi bien pour nous que pour les orga- de pointe nismes scientifiques du monde entier qui sont nos partenaires. » Sverre Jarp, directeur informatique du CERN, dirige une L’infrastructure Ethernet du CERN est immense puisqu’elle équipe d’ingénieurs chargée d’étudier des technologies inno- recouvre 25 000 prises et 10 000 équipements rien que pour vantes, susceptibles de s’intégrer à l’architecture informatique l’organisme en lui-même, chacun de ses partenaires en pos- du laboratoire. Depuis son arrivée au CERN en 1974, il peut sédant une d’importance similaire. témoigner de l’évolution constante qui anime l’informatique et la technologie, et cette équipe a d’ailleurs la réputation de Le LHC devrait rester en service pendant plus d’une décennie « réceptif précoce ». Le projet opencluster vise en particulier et ses évolutions successives se traduiront par des volumes l’essai de technologies de pointe dans le cadre difficile et très de données produites encore plus astronomiques. Étant donné spécifique de la grille de calcul du LHC (LHC Computing Grid, ses projets de longue haleine, le CERN apprécie les partenaires LCG), à laquelle participent quelque quatre-vingts partenaires industriels qui disposent de calendriers à long terme pour la du CERN de par le monde. Sverre Jarp : « Si ce projet accu- sortie de leurs produits : « Nous savons que nous nous situons mule les défis, il relève pourtant de notre activité normale. » à la limite des possibilités informatiques actuelles. Dans la mesure La physique des hautes énergies est en effet depuis long- où nous faisons œuvre de défricheur, l’intention d’Intel de tirer temps un domaine qui innove volontiers en termes de réseau- les débits Ethernet vers le haut nous intéresse au plus haut tique et, incidemment, il n’est donc pas étonnant que ce soit point. De plus, nous apprécions l’adaptabilité de cet interve- au CERN que soit né le Web. nant, qui consiste par exemple à nous fournir des versions Open Source des pilotes des E/S, ce qui nous permet de maî- « Nous travaillons avec des partenaires industriels, dont Intel, triser plus aisément notre environnement pilote. » à la validation de technologies d’avant-garde », poursuit Sverre Jarp. « Dans le cadre de notre projet en cours, nous avons mis en place un environnement pilote pour simuler les volumes de données sans précédent que devraient produire les expériences menées sur le LHC et ainsi vérifier que l’infra- structure sera à la hauteur du défi, de la collecte des données jusqu’à leur stockage dans d’immenses “silos”. » À cet égard, des performances optimales ne sont évidem- ment pas la seule mesure de la réussite. L’expérience implique en effet la collecte et la transmission granulaires et continues de l’information, c’est-à-dire que l’infrastructure informatique doit témoigner d’une très forte continuité de ser- vice afin que rien n’échappe à l’analyse. 2
  • 3. Solution : performances 10 Gigabit L’objectif sous-jacent à ce projet pilote consiste à atteindre de bout en bout des débits de l’ordre de 10 Gbit/s : « L’élément le plus essentiel pour nous est l’agrégation de bande passante », souligne Sverre Jarp. « Ce n’est pas seulement les cartes d’interface que nous testons ; nous devons aussi nous assu- rer que le serveur et l’équipement de commutation seront capables de supporter les débits 10 Gigabit visés. » Au printemps 2003, le CERN a déployé des équipements de plusieurs constructeurs pour atteindre les performances sans précédent qu’il lui fallait. Son openlab est ainsi équipé de cent Figure 2. Schéma de la grille de calcul du LHC (qui relie plus serveurs HP* rx2600 dotés chacun de deux processeurs de 80 centres informatiques dans le monde pour le traitement des données issues du LHC). Intel® Itanium® 2, la plupart de ces puces étant cadencées à 1,5 GHz. Seize de ces ordinateurs disposent d’une carte réseau PCI X 10 Gigabit Ethernet Intel PRO/10GbE SR. Perspectives : la course à la vitesse Dans le cadre de l’environnement de production qui sera mis en place d’ici à 2007, les données collectées à partir du LHC Le LHC sera l’instrument le plus puissant jamais construit seront acheminées vers les serveurs de traitement par l’inter- pour étudier les propriétés de la matière à un niveau subato- médiaire de la dorsale LAN 10 Gigabit. Ces moteurs recons- mique. Pourtant, les scientifiques du CERN voient déjà au- delà et envisagent des expériences encore plus poussées sur truisent les données brutes et les contextualisent, avant de les hautes énergies. C’est pourquoi la course à la vitesse les diffuser hors du périmètre, auprès des centres dits ne peut que s’y maintenir. « de niveau 1 », qui, eux-mêmes, stockent des ensembles de données complets issus des expériences menées. Plusieurs « C’est ensuite le 40 Gbit/s que nous visons », explique Sverre de ces centres seront des instituts européens de physique Jarp. « Nous étudions donc déjà des processeurs ainsi que des hautes énergies, dont le laboratoire Rutherford Appleton les technologies mémoire, LAN et WAN qui nous permettront (RAL) pour la Grande-Bretagne et l’institut IN2P3 pour la d’y parvenir. Dans le cadre du CERN openlab, Intel est un par- France ; pour le reste du monde, on peut citer le Fermilab tenaire essentiel, qui nous aidera à repousser en permanence nos limites informatiques, non seulement pour ce qui est des de Chicago. cartes d’interface réseau, mais aussi pour les processeurs et Sverre Jarp : « Jusqu’ici, nous sommes très satisfaits des per- jusqu’aux ordinateurs pris dans leur globalité. » formances établies par notre environnement pilote. Même avec un seul flux de données en provenance d’une applica- tion unique, nous avons pu exploiter plus de la moitié de la bande passante disponible des cartes d’interface, ce qui représente un débit d’environ 5 Gbit/s sur le réseau. Il s’est révélé rapide et simple de mettre en service les cartes réseau Intel PRO/10GbE Server. Elles n’ont cessé d’afficher sans faillir d’excellentes performances, ce qui nous a permis d’atteindre nos objectifs d’agrégation. » 3
  • 4. Renseignez-vous sur les solutions réseau adaptées à votre entreprise en consultant le site Internet d’Intel à l’adresse http://www.intel.fr/network © 2005, Intel Corporation. Intel, Intel Xeon et Itanium sont des marques déposées ou enregistrées d’Intel Corporation ou de ses filiales, aux États-Unis et dans d’autres pays. * Les autres noms et désignations peuvent être revendiqués comme marques par des tiers.