12 juini 2012                Le CC-IN2P3 au service de la recherche                           Dominique Boutigny          ...
LHC                                Auger         HESS            HESS      AMS                Supernovae            Planck...
CMSATLAS  15 Petaoctets dedonnées brutes par an      ALICE            LHCb                        12 juini 2012
Une architecture de Grille globale pour le LHC         CC-IN2P3                             Annecy                        ...
12 juini 2012
Traitement de données en physique HEPLes collisions de particules sont indépendantes les unes des autres    Ø  Traitement...
Exemple daccès aux données : Xrootd                                          T1.root              HPSS                 (5)...
12 juini 2012
12 juini 2012
Ressources du CC-IN2P3                         16 000 tâches en //                                        8 Po LHC        ...
Les futures expériences dastroparticules                            LSST : Large Synoptic Survey Telescope                ...
Stockage des données dans LSST     Solution de base : qservhttp://dev.lsstcorp.org/trac/wiki/dbQservOverview    http://www...
VirtualisationLa virtualisation permet de dé-corréler l’infrastructure matérielle (réelle) del’infrastructure présentée à ...
Prototype de cloud académique auCC-IN2P3                                   12 juini 2012
Les briques de base                                     Lessentiel de la ferme de calcul est                              ...
Partenariat avec DELLMise en place dun partenariat avec DELL    Ø  Test de solutions innovante         Ø  Architecture d...
Infrastructure                 17 janvier 2012
Nouveau datacenterCapacité pour 240 racks   Ø  3.2 MW pour linformatique   Ø  +1 MW pour le datacenter       existant   ...
Prochain SlideShare
Chargement dans…5
×

11h35 in2 p3_dominique_boutigny

199 vues

Publié le

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
199
Sur SlideShare
0
Issues des intégrations
0
Intégrations
2
Actions
Partages
0
Téléchargements
0
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

11h35 in2 p3_dominique_boutigny

  1. 1. 12 juini 2012 Le CC-IN2P3 au service de la recherche Dominique Boutigny Crédits CC-IN2P3 : Laurent Caillat-Vallet Jean-Yves Nief Pierre Girard Mattieu Puel
  2. 2. LHC Auger HESS HESS AMS Supernovae Planck Embryogenèse ANTARES 12 juini 2012
  3. 3. CMSATLAS 15 Petaoctets dedonnées brutes par an ALICE LHCb 12 juini 2012
  4. 4. Une architecture de Grille globale pour le LHC CC-IN2P3 Annecy CC-IN2P3 FZK TRIUMF CC-IN2P3Nantes T3 (many) RAL T1 (11) ASCC CNAF Île de France Strasbourg Brookhaven T0 PIC T2 (~70) NIKHEFLyon Fermilab NDGF Clermont Marseille 12 juini 2012
  5. 5. 12 juini 2012
  6. 6. Traitement de données en physique HEPLes collisions de particules sont indépendantes les unes des autres Ø  Traitement de données : "Embarrassingly parallel problem" Ø  Chaque CPU (core / thread) traite un ensemble de données Ø  Les analyses de physique consistent à filtrer les données afin deffectuer un traitement statistiqueIl faut passer au crible des millions / milliardsdenregistrements dinteractions afin delocaliser les quelques "évènements"intéressantsAu niveau informatique il sagit essentiellementdun problème daccès aux donnéesLe comportement des détecteurs est modélisé è  CPUavec une très grande précision è Simulation è  Accès aux données 12 juini 2012
  7. 7. Exemple daccès aux données : Xrootd T1.root HPSS (5)(4) + (5):dynamic (4) Data server: Data server:staging Xrootd Xrootd (6): (6) random (3) access Redirector server: Xrootd (1) (etc…) Client (2) (1) + (2): load balancing + scalabilité/hpss/in2p3.fr/T1.root ? Système similaire : SRM / DCache 12 juini 2012
  8. 8. 12 juini 2012
  9. 9. 12 juini 2012
  10. 10. Ressources du CC-IN2P3 16 000 tâches en // 8 Po LHC 11 Po Total 14 Po 12 juini 2012
  11. 11. Les futures expériences dastroparticules LSST : Large Synoptic Survey Telescope 3.2 Gpixels – 1 image toutes les 15s è 15 à 30 To de données chaque nuitLensemble du ciel estsondé 1000 fois en 10 ans Crédit : LSST Collaboration 12 juini 2012
  12. 12. Stockage des données dans LSST Solution de base : qservhttp://dev.lsstcorp.org/trac/wiki/dbQservOverview http://www.scidb.org/ Base de données Open Source spécifiquement conçue pour le stockage de masses de données scientifiques Modèle de données basé sur des tableaux multidimensionnels Vise un passage à léchelle jusquà plusieurs centaines de Po sur 1000 nœuds 12 juini 2012
  13. 13. VirtualisationLa virtualisation permet de dé-corréler l’infrastructure matérielle (réelle) del’infrastructure présentée à l’utilisateur (virtuelle)Sur un serveur multi-cœur, il est possible dinstancier plusieurs machinesvirtuelles ayant des caractéristiques données : Ø  Système dexploitation Ø  Environnement logiciel Ø  Éventuellement environnement danalyseLa virtualisation va prendre une place de plus en plus importante dans lescentres de traitement de données Ø  Saffranchir au maximum des spécificités des sites pour créer des infrastructure adaptées aux expériences Cloud : IaaS è Introduction de la virtualisation dans les architectures de grille 12 juini 2012
  14. 14. Prototype de cloud académique auCC-IN2P3 12 juini 2012
  15. 15. Les briques de base Lessentiel de la ferme de calcul est constitué de châssis DELL C6100 ~14 000 cœurs physiques è Oracle Grid EngineLessentiel du stockage DASest constitué de châssis DELLR510 + MD 1200 4 robots de stockage de masse è 200 Po accessibles via le système de stockage hiérarchique HPSS 12 juini 2012
  16. 16. Partenariat avec DELLMise en place dun partenariat avec DELL Ø  Test de solutions innovante Ø  Architecture de calcul et de stockage Ø  Architecture réseau Ø  Gestion / Maitrise de lénergie Ø  Plateforme GPURésultats des expérimentations publiés sous forme de "white paper" 12 juini 2012
  17. 17. Infrastructure 17 janvier 2012
  18. 18. Nouveau datacenterCapacité pour 240 racks Ø  3.2 MW pour linformatique Ø  +1 MW pour le datacenter existant 17 janvier 2012

×