Projet DC Cambridge

109 vues

Publié le

Opportunités pour un nouvel entrant sur le marché des centres d’hébergement et de traitement de données.

Valeur ajoutée et retour sur investissement

Publié dans : Technologie
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
109
Sur SlideShare
0
Issues des intégrations
0
Intégrations
3
Actions
Partages
0
Téléchargements
3
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Projet DC Cambridge

  1. 1.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   1/33     Pré-­‐étude  de  projet  «  Cambridge  »       Opportunités  pour  un  nouvel  entrant  sur  le  marché  des   centres  d’hébergement  et  de  traitement  de  données       Valeur  ajoutée  et  retour  sur  investissement                             Rédacteur  :  Bertrand  Guézel   Version  :  1.0  
  2. 2.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   2/33       INDEX     1.   Introduction ......................................................................................................................... 3   2.   Concept  et  utilité  d’un  datacentre................................................................................. 4   3.   Spécificités  du  marché  des  datacentres...................................................................... 8   4.   Clientèle  type......................................................................................................................11   5.   Mode  opératoire................................................................................................................16   6.   Valeur  ajoutée....................................................................................................................20   7.   Services  associés...............................................................................................................25   8.   L’environnement  du  datacentre..................................................................................27   9.   Retour  sur  investissement.............................................................................................30   10.   Addendum ........................................................................................................................33      
  3. 3.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   3/33   1.  Introduction     Le  rédacteur,  Bertrand  Guézel,  a  été  sollicité  en  vue  d’établir  une  étude  de  cas  portant  sur  le   marché  des  datacentres  et  des  opportunités  d’investissement  relatives  à  ce  secteur.   Marché   de   niche   très   technique,   ce   secteur   d’activité   ne   bénéficie   d’une   couverture   médiatique  que  de  la  part  de  la  presse  spécialisée.     Le  rédacteur,  dont  l’expérience  professionnelle  porte  sur  des  projets  techniques  complexes   couvrant  des  environnements  matériels,  logiciels  et  réseaux  depuis  quasiment  les  débuts  de   l’internet   commercial,   a   tissé   des   liens   stratégiques   avec   certains   des   acteurs   les   plus   importants  du  marché  et  qui  sont  évoqués  dans  le  document  ci-­‐après.   Une   relation   partenariale   construite   au   long   de   plusieurs   années   qui   permet   aujourd’hui   d’obtenir  certaines  informations  non  financières  en  toute  transparence.   Les  informations  financières  divulguées  ci-­‐après  sont  issues  des  rapports  communiqués  par   les   directions   financières   des   opérateurs   et   exploitants   eux-­‐mêmes   à   destinations   des   autorités  financières,  aux  investisseurs  et  au  public.     Le  développement  ci-­‐dessous  tend  à  énumérer  les  grands  concepts  et  modèles  de  réussite  et   s’appuie   sur   des   données   parfois   publiques   extraites   de   documentation   sectorielle   communiquée   lors   de   colloques   et   séminaires   ou   disponible   via   des   sites   d’information     couvrant  le  domaine  très  particulier  des  centres  d’hébergement.     Ce   secteur   repose   sur   l’amalgame   d’un   ensemble   de   compétences   et   expertises   allant   de   l’ingénierie  immobilière  et  financière  à  l’exploitation  informatique  en  passant  par  les  métiers   de  la  sécurité  physique  et  informatique,  la  climatisation  et  la  logistique.     Cette  étude  ambitionne  d’éclairer  le  lecteur  sur  les  multiples  aspects  du  métier  de  fournisseur   de   datacentre   en   revenant   sur   ce   qu’est   un   datacentre   puis   en   détaillant   le   marché   et   les   obligations  d’un  opérateur  de  site.     Cette  synthèse  entend  donner  une  vue  pertinente  de  la  valeur  ajoutée  et  des  divers  impacts   inhérents  à  l’implantation  d’un  tel  site  pour  enfin  aider  le  lecteur  à  jauger  l’intérêt  d’investir   dans  de  telles  opérations  et  quels  retours  il  peut  en  attendre.     Pour  en  savoir  plus  sur  le  rédacteur  :     http://fr.linkedin.com/in/bertrandguezel http://www.facebook.com/bertrand.guezel http://twitter.com/BaiGeai
  4. 4.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   4/33   2. Concept  et  utilité  d’un  datacentre     Pour   bien   comprendre   les   enjeux   du   marché   des   datacentres,   il   est   primordial   de   revenir,   avant  tout,  sur  ce  qu’est  un  datacentre.     Un  datacentre,  ou  centre  de  traitement  de  données,  est  un  site  sur  lequel  sont  centralisés  des   moyens  d’héberger,  d’exploiter  des  données  plus  ou  moins  sensibles.     Ce  site  se  définit,  généralement  un  bâtiment  de  plusieurs  milliers  de  mètres  carrés  au  duquel   des  «  plateaux  »  de  plusieurs  centaines  de  mètres  compartimentés  isolent  les  unes  des  autres   les  zones  de  sécurité  et  de  contrôle  d’accès,  de  logistique  et  de  production.     En   effet,   un   centre   d’hébergement   se   caractérise   par   un   ensemble   d’infrastructures   superposées  se  définissant  communément  comme  suit  :     -­‐ une  infrastructure  immobilière,  une  infrastructure  électrique  capable  de  répondre  aux   besoins  croissant  en  matière  de  consommation  d’énergie  tant  pour  les  équipements   hébergés  que  pour  l’infrastructure  de  refroidissement  inhérente  au  datacentre  ;   -­‐ une   infrastructure   réseau   assez   robuste   pour   livrer   les   services   liés   à   la   dématérialisation  des  contenus  ;   -­‐ une  infrastructure  de  refroidissement  évolutive  accompagnant  la  montée  en  charge  du   site  ;   -­‐ une   infrastructure   de   services,   au   premier   rang   desquels   se   situent   l’accueil,   la   sécurité  et  les  services  de  proximité.     Revenons   sur   ces   points   afin   de   détailler   la   criticité   de   chaque   strate   composant   l’aspect   purement  immobilier.     L’infrastructure  immobilière  :  c’est,  comme  il  se  doit,  la  pierre  angulaire  du  projet  ;  soit  un  ou   plusieurs   bâtiments   présentant   une   surface   suffisante   pour   assurer   la   logistique   et   la   production   de   service.   Le   lieu   retenu   pour   la   construction   d’un   tel   édifice   doit   présenter   a   priori  un  certain  nombre  de  garanties  et  d’exemptions  afin  que  le  nouvel  entrant  dispose  des   meilleurs   atouts  :   la   zone   doit   être   certifiée   non   inondable,   éloignée   des   couloirs   aériens,   facilement  accessible  par  la  route  mais  à  l’écart  des  zones  de  congestion,  de  trafic  routier  et  de   concentration   urbaine,   disposer   d’une   surface   autorisant   à   la   fois   l’installation   de   zones   et   d’équipements  de  sécurité  et  laissant  envisager  de  futures  extensions.     Le  bâtiment  en  lui-­‐même  devra  être  le  plus   neutre   et   anonyme   possible,   être   doté   de   systèmes   anti   intrusion   pour   pouvoir   repousser   un   assaut   par   véhicule   bélier,   être   assez   distant   des   zones   de   stationnement   pour   faciliter   la   vidéosurveillance   des   allers   et   venues,   distinguer   les   zones   d’accès   visiteurs   des   accès   livraison,   disposer   de   zones   de   contrôles  d’accès  pourvues  entre  autres  de   sas   hermétiques,   de   contrôles   de   lecteurs   de  badges  et  contrôle  biométriques.     L’infrastructure   réseau   aura   été   étudiée   au   préalable   afin   d’accueillir   un   maximum   de   fournisseurs   de   services   sur   site,   via   une   surcapacité   de   fibre   optique   à   la   construction.  
  5. 5.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   5/33   L’implantation  de  chambres  de  tirages  et  de  fourreaux,  là  aussi  en  surcapacité,  facilitera  les   travaux  ultérieurs  et  permettra  d’aborder  sereinement  le  raccordement  de  futurs  partenaires.   Comme  nous  le  verrons  plus  tard,  le  caractère  multi  opérateur  et  donc  neutre  du  datacentre  a   une  influence  directe  sur  le  volume  et  la  qualité  des  projets.       L’infrastructure  de  refroidissement  est  composée  en  fait  de  l’ensemble  de  la  chaine  climatique   à  proprement  parler  (surveillance  et  maintien  du  taux  hygrométrique,  de  la  température  et  de   la  ventilation)  mais  également  des  mécanismes  de  correction  (détection  de  fumée,  de  chaleur   d’incendie,  alarme,  dispersion  /  annihilation  des  gaz,  extinction  d’incendie).     La   couche   de   services   du   datacentre   comprend   des   compétences   aussi   diverses   que   le   contrôle  d’accès,  l’accueil  des  opérations    logistiques,  l’accueil  des  visiteurs,  les  opérations  de   maintenance   réseaux,   systèmes   et   matérielles   et   dans   certains   –   quand   elles   ne   sont   pas   confiées  à  des  sous-­‐traitants  –  les  opérations  de  maintenance  électriques  et  climatiques.     Il   est   opportun   de   souligner   ici   l’importance   du   facteur   humain   dans   les   opérations   quotidiennes  du  datacentre  :  tout  centre  d’hébergement,  même  sécurisé  et  redondé  à  tous  les   niveaux,  sera  jugé  sur  la  capacité  de  ses  ressources  humaines  à  anticiper  les  problèmes,  être   réactives  face  aux  impondérables  et  transparentes  en  matière  de  communication  de  crise.   Les   crises   rencontrées   par   les   datacentres   étant   habituellement   les   incidents   électriques   inopinés   et   ayant   potentiellement   un   impact   sur   les   plateformes   hébergées   en   leur   sein,   l’analyse   de   ces   incidents   fait   généralement   ressortir   une   défaillance   humaine   plutôt   que   technique.     Dès  lors  que  la  notion  d’incident  potentiel  est  posée,  il  est  pertinent  de  s’interroger  sur  l’utilité   d’un  datacentre.   Tout  d’abord,  nombre  de  sociétés  ne  disposent  pas  de  locaux  permettant  la  mise  en  place  de   salles  techniques  permettant  l’exploitation  de  leur  informatique,  que  cette  informatique  soit   leur  cœur  de  métier  ou  un  «  simple  »  outil.     En  effet,  l’informatique  moderne  requiert  le  respect  de  règles  et  normes  tant  en  terme  de  sols   techniques,   fourniture   d’énergie,   sécurité   incendie,   refroidissement   des   équipements,   circulation  des  intervenants.   Tout   ceci   pousse   certaines   entreprises   à   opter   pour   l’externalisation   de   leur   informatique   dans  des  centres  conçus  pour  accueillir  leurs  équipements.     D’autres   sociétés,   ou   plus   particulièrement   secteurs   d’activité,   répondent   à   des   obligations   réglementaires,  comme  le  secteur  financier,  et  sont  contraintes  à  présenter  à  leur  régulateur   les  moyens  mis  en  œuvre  pour  assurer  la  concordance  de  leur  méthodes  avec  les  meilleurs   pratiques  édictées  par  l’état  de  l’art.   Entre  alors  la  notion  de  datacentre  répondant  a  minima  aux  critères  retenus  par  l’état  de  l’art   selon  le  secteur  d’activité  concerné.     Pour  faciliter  le  tri  a  priori  des  acteurs,  les  fournisseurs  de  datacentres  se  classent  en  «  Tiers  ».   Ces  Tiers  sont  paradoxalement  au  nombre  de  quatre,  que  l’Uptime  Institute  a  classifié  comme   suit  (Traduction  de  gridatacenter.org)  :     -­‐ «  Tier  I:  composé  d’un  seul  circuit  électrique  pour  l’énergie  et  pour  la  distribution  de   refroidissement,   sans   composant   redondant  ;   offre   un   taux   de   disponibilité   de   99,671%,   -­‐ Tier  II:  composé  d’un  seul  circuit  électrique  pour  l’énergie  et  pour  la  distribution  de   refroidissement,  avec  des  composants  redondants  ;  offre  un  taux  de  disponibilité  de   99,741%,  
  6. 6.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   6/33   -­‐ Tier  III:  composé  de  plusieurs  circuits  électriques  pour  l’énergie  et  pour  la  distribution   de  refroidissement,  mais  seulement  un  circuit  est  actif  ;  a  des  composants  redondants,   offre  un  taux  de  disponibilité  de  99,982%,   -­‐ Tier  IV:  composé  de  plusieurs  circuits  électriques  pour  l’énergie  et  pour  la  distribution   de  refroidissement,  a  des  composants  redondants  ;  actifs  et  supporte  la  tolérance  de   panne,  offre  un  taux  de  disponibilité  de  99,995%.         Les  datacentres  en  Tier  I  ont  beaucoup  de  points  uniques  de  défaillance  ou  Single  Point  Of   Failure  (SPOF),  l’infrastructure  doit  être  complètement  arrêtée  pour  des  entretiens  préventifs   ou  pour  des  travaux  de  maintenance  annuelle.   A  contrario,  les  datacentres  Tier  IV  ont  tous  les  éléments  nécessaires  redondés,  ce  qui  permet   de  maintenir  en  fonctionnement  le  datacentre  sans  jamais  avoir  besoin  de  l’arrêter  pour  un   entretien,  une  maintenance  annuelle  ou  un  remplacement  d’un  élément  actif.  »     En  fonction  du  type  de  projet,  d’équipements,  de  réglementation  à  laquelle  il  répond,  le  client   sélectionnera  un  datacentre  de  Tier  correspondant  à  ses  attentes  ou  obligations.   A  noter  toutefois  que  la  plupart  des  datacentres  répondant  à  la  demande  globale  proposent  un   niveau  de  service  équivalent  au  Tier  III.   La   classification   Tier   IV   est   à   ce   point   exigeante   qu’en   Amérique   du   Nord,   seuls   deux   datacenters  ont  été  certifiés  par  l’Uptime  Institute.     Reste  à  savoir  quels  équipements  un  client  envisage  d’externaliser  en  datacentre.     Comme   son   nom   l’indique,   un   centre   de   traitement   de   données   répond   à   une   fonction   d’exploitation  de  données  dématérialisées.   Ceci  se  distingue  par  le  fait  de  faire  transiter,  traiter,  transmettre  ou  stocker  et  archiver  ces   données.   Un  datacentre  loge  donc  tout  à  la  fois  des  équipements  purement  informatiques  (ordinateurs,   serveurs,   calculateurs,   bases   de   données)   et   réseaux   (commutateurs,   routeurs,   pares-­‐feu,   multiplexeurs),  le  tout    en  selon  le  métier  du  client  et  la  nature  du  projet  l’amenant  à  retenir   les  services  de  ce  datacentre.     Rappelons  que  l’aspect  du  site  doit  être  le  plus  neutre  et  anodin  possible,  pour  des  raisons  de   sécurité  passive  évidentes.  
  7. 7.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   7/33   En   effet,   compte   tenu   de   la   criticité   de   certaines   missions   confiées   aux   opérateurs   de   datacentres,   l’anonymat   du   site   sera   parmi   ses   plus   grands   atouts   et   assurera   un   premier   niveau  de  sécurité.     A   noter   que   le   risque   sécuritaire   (crises   sociales,   émeutes)   voire   terroriste   est   désormais   pleinement  intégré  dans  les  projets  de  bon  nombre  de  clients.     D’ailleurs,  certains  opérateurs  se  sont  spécialisés   sur   le   créneau   de   la   sécurité   et   ont   poussé   le   concept   jusqu’à   proposer   des   datacentres   sécurisés  en  multipliant  les  contrôles  d’accès,  en   optimisant  la  vidéosurveillance,  en  imposant  des   règles  de  logistique  strictes,  en  sélectionnant  les   intervenants  autorisés  à  intervenir  dans  les  salles   des   clients,   en   limitant   les   effectifs   désignés   par   les  clients  pour  accéder  à  leurs  équipements,  etc.       La  palme  revient  probablement  à  cet  exploitant  suisse  ayant  négocié  avec  le  Ministère  de  la     Défense  helvète  un  partenariat  lui  octroyant  une  portion  de  base  aérienne  au  cœur  des  Alpes   et  lui  permettant  de  se  faire  livrer  les  équipements  de  ses  clients  par  avion  puis  d’assurer  la   manutention,   les   opérations   d’installation/configuration/maintenance   par   ses   propres   équipes   dans   un   datacentre   enterré   entièrement   autonome   car   disposant   d’un   accès   à   la   même  alimentation  électrique  que  la  base  militaire  adjacente  et  puisant  l’eau  nécessaire  au   refroidissement   de   l’ensemble   directement   dans   une   source   souterraine   à   laquelle   le   Ministère  de  l’Environnement  lui  a  concédé  un  accès.       C’est  là,  probablement,  le  modèle  de  datacentre  sécurisé  le  plus  poussé,  à  ce  jour  :  le  client  ne   voit  jamais  la  salle  dans  laquelle  ses  équipements  sont  hébergés,  expédient   ses  palettes  de   matériel  directement  à  destination  du  site  secret  et  lui  sous-­‐traite  entièrement  l’exploitation   de  sa  plateforme  informatique.     Résumons  :  un  datacentre  doit  proposer  une  infrastructure  robuste  rassemblant,  autour  d’un   bâtiment   neutre,   les   conditions   nécessaires   à   une   salle   informatique   externalisée   (énergie,   climatisation,   sécurité)   et   les   moyens   humains   indispensables   aux   opérations   usuelles   (accueil,  logistique,  maintenance  et  -­‐  là  encore  -­‐  sécurité).     Nous   allons   voir,   en   sept   points,   ce   qui   fait   du   marché   des   datacentres   un   marché   intrinsèquement   de   croissance   (économique,   politique   et   social),   comment   il   interagit   avec   son  environnement  et  quel  intérêt  a  un  nouvel  entrant  à  étudier  une  opportunité  d’investir   sur  ce  segment.  
  8. 8.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   8/33     3. Spécificités  du  marché  des  datacentres     Avant   de   pénétrer   un   nouveau   marché,   l’investisseur   désire   prendre   connaissance   des   principaux  éléments  constitutifs  du  secteur  cible  via  un  tour  d’horizon  couvrant  les  acteurs,   les  résultats  issus  des  modèles  de  références  et  les  perspectives  à  avenir.     Le   tableau   ci-­‐dessous,   réunissant   des   données   concordantes   éditées   par   plusieurs   sources,   nous  donne  un  cliché  du  marché,  illustré  par  ses  principaux  animateurs.     Equinix,  leader  mondial  du  marché  a  accéléré  récemment  sa  croissance  en  s’appuyant  à  la  fois   sur  une  forte  croissance  organique  associée  à  une  croissance  externe  menée  en  sélectionnant   des  actifs  stratégiques  (IX  Europe,  sur  le  marché  européen,  et  Switch  &  Data  en  Amérique  du   Nord,  notamment).       Equinix   Telehouse   CoreSite   Telx   Interxion   Telecity   Global   Switch   Founded:   1998   1990   2001   2000   1998   1998   1998   Company  type:   Public   Public   Private   Private   Private   Public   Private   Symbol/owner:   NASDAQ:EQIX   TYO:9433   Carlyle   GI  Partners   Baker  Capital   LON:TCY   Reuben   Bros   Revenue  H1   (2009)  :   $508.9m         €82.9m   £82.2m     EBITDA  H1   (2009)  :   $226.2m         €29.8m   £29.4m     -­                 Data  centers:   79   47   10   15   26   23   9   Capacity  (sq.  f.):   6,100,000+   750,000+   2,000,000+   Unknown   590,000+   620,000+   2,790,000+   2009  New  DC’s:   8   6   1   1   4   3   0   2009  Expansions   3   0   1   5   4   1   0   -­                 Countries  served:   10   11   1   1   11   7   7   Markets  served:   34   24   7   11   13   8   7   -­  Europe:   8   2   0   0   13   8   5   -­  North  America:   22   2   0   0   0   0   5   -­  Asia-­Pacific:   4   18   0   0   0   0   2   -­  Africa:   0   2   0   0   0   0   0     Un  rapide  calcul  fait  ressortir  un  EBITDA  moyen  de  42  %.  Le  prix  du  mètre  carré  navigant   entre   654,00   et   1.512,00   euros,   le   revenu   moyen   s’établit   à   1.068,00   euros/m2/mois.   En   gardant  le  ratio  d’EBE  de  42%,  nous  avons  un  m2  carré  produisant  une  rentabilité  brute  à   hauteur  de  449,00  euros  (par  an).   Sachant  que  le  Top  7  ici  présent  opère  en  moyenne  200.000,00  m2  et  que  la  majeure  partie   des   contrats   d’hébergement   portent   sur   3   à   5   ans,   cela   donne   une   idée   à   la   fois   de   la   rentabilité  et  de  la  visibilité  du  secteur.   C’est   ce   détail   qui   différencie   d’ailleurs   les   opérateurs   de   datacentres   des   exploitants.   Ces   derniers   obtiennent   de   leurs   clients   respectifs   des   engagements   de   3   à   5   ans   quand   l’opérateur  de  site  (qui  gère  l’investissement  immobiliers  et  tous  les  aspects  jusqu’à  livrer  le   site  clés  en  main)  peut  se  permettre  d’imposer  des  contrat  de  leasing  de  10  à  15  ans.  
  9. 9.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   9/33   Les   chiffres   de   rentabilité   du   m2   sont   en   revanche   à   moduler   en   fonction   des   zones   géographiques   étant  donné  que  le  marché  connaît   de   grandes   disparités,   que   le   datacentre   soit   situé   à   Tokyo,   San   Francisco,   New-­‐York,   Londres   ou   Paris   qui   sont   d’importants   nœuds   internet…   ou   à   50   kilomètres   de   Paris,   où   il   sera   légèrement   plus   difficile  de  convaincre  un  client  et  a   fortiori   un   opérateur   réseau   d’y   implanter  son  infrastructure.       Reste  que  les  investisseurs  ne  s’y  trompent  pas  :  la  mise  de  départ  est  certes  élevée  car  il  faut   compter  en  moyenne  entre  6.000  dollars  et  6.000  euros  du  m2,  en  fonction  de  la  zone  cible,   sachant   qu’un   certain   nombre   d’investissements   sont   incontournables   que   l’investisseur   retienne  une  opération  de  5.000  m2  ou  de  20.000  m2  (alimentation  et  secours  énergétique,   notamment).     Il  est  intéressant  de  noter  à  ce  titre  que  l’étude  détaillée  des  chiffres  communiqués  par  les   grands  acteurs  internationaux  fait  ressortir  une  moyenne  de  15.000  m2  par  site.     Dernier   exemple   en   date,   la   communication   de   l’exploitant   Interxion   qui   dévoile   dans   la   presse   spécialisée   son   investissement   lié   à   son   septième   datacentre   en   région   parisienne  :   «  (…)   il   offrira   9000   mètres   carrés   pour   un   coût   de   130   millions   d’euros   (équipement   compris).    PAR  7,  c’est  aussi  2300  W  par  mètre  carré,  soit  une  puissance  totale  de  10.35  MW   pour  les  4500  mètres  carrés  de  la  première  phase  et  donc  20.7  MW  à  termes.    »   Si   cela   est   vrai,   cela   porte   l’investissement   d’Interxion   à   un   peu   plus   de   14.000   euros   par   mètre  carré  pour  afficher  un  site  dit  «  Haute  Densité  »  dans  le  sens  ou  chaque  baie  disposera   de  plus  de  kW  que  la  moyenne  du  marché.   La  norme  non  écrite  consiste  à  fournir  1  à  2  kW  par  baie,  les  fournisseurs  abordent  le  discours   de  la  haute  densité  dès  lors  qu’ils  proposent  4  à  5  kW  par  baie.     Ces   chiffres   justifient   l’engouement   de   certains   investisseurs   en   matière   de   mètre   carré   technique,  compte  tenu  de  la  rentabilité  de  certaines  zones  et  la  demande  toujours  croissante   de  ce  type  de  services.     D’ailleurs,   les   révisions   de   Gartner,   IDC   et   consorts   sont   largement   revenues   sur   le   renversement  de  tendance  du  marché  de  l’hébergement.   Marché  ralenti  par  la  surabondance  de  mètres  carrés,  notamment  en  Europe,  il  y  a  à  peine  5   ans,  la  conjoncture  présente  un  tout  autre  profil  maintenant  que  les  principaux  fournisseurs   jouent  à  raréfier  ces  mêmes  mètres  carrés  et  que,  en  face,  le  besoin  en  volume  s’accélère  grâce   à  la  confirmation  de  nouveaux  usages  d’internet  et  de  nouvelles  tendances  de  consommation   en  ligne.     En   effet,   si     les   termes   «  réseaux   sociaux,   streaming   vidéo,   e-­‐commerce,   cloud   computing,   MMORPG,   HD  »   ou   encore     «  3D  »   font   désormais   partie   du   vocabulaire   de   tous   bons   professionnels   et   utilisateurs   connectés,   il   n’en   reste   pas   moins   qu’il   y   a   derrière   cette   révolution   numérique   des   datacentres   répartis   sur   le   globe,   et   qu’il   faut   en   construire   de   nouveaux  pour  soutenir  la  demande  actuelle  et  encore  plus  celle  à  venir.     Certes,   les   marchés   européens   et   nord-­‐américains   sont   désormais   relayés   par   les   Brésil,   Russie,   Inde   et   Chine   (les   fameux   «  BRIC  »)  mais  c’est  encore  sans   compter   l’émergence   de  
  10. 10.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   10/33   marchés  qui  ne  sont  pour  l’instant  pas  –  ou  peu  –  connectés  :  l’Amérique  du  Sud,  l’Afrique  et   encore   une   grande   part   de   l’Asie,   sans   parler   de   l’Europe   de   l’Est   s’apprêtent   eux   aussi   à   entrer  en  jeu  et  rattraper  le  reste  du  Monde  moderne.     Il   y   a   par   exemple   de   gros   mouvements   de   concentrations   au   Brésil,   en   Argentine   et   au   Mexique.  Cela  laisse  toutefois  le  reste  de  l’Amérique  latine  –  et  les  Caraïbes  –  dans  l’attente  de   futurs  investissements  pour  niveler  les  services.   Que   dire   de   la   Russie   qui   connaît   actuellement   une   période   d’énormes   investissements   en   matières   de   datacentres   et   de   réseaux   fibre   optique   dont   les   cibles   secondaires   sont   bien   entendu  l’ensemble  des  pays  d’Europe  de  l’Est,  tout  comme  la  Chine  –  qui  a  déjà  fort  à  faire  en   matière  de  couverture  de  son  propre  territoire  –  se  voit  en  futur  fournisseur  de  ses  voisins   directs  ou  l’Afrique  du  Sud  qui  tente  de  s’imposer  en  leader  continental  face  au  Nigéria  ?       Ces  vagues  d’investissements  sont  par  ailleurs  intimement  liées  à  la  rentabilité  des  opérateurs   télécom  et  tout  particulièrement  de  réseaux  mobiles.   En  clair,  dès  lors  qu’une  zone  géographique  connaît  le  développement  de  nouveaux  réseaux,   les   nouveaux   usages   l’accompagnent   et   provoquent   de   nouvelles   phases   de   croissance   des   fournisseurs   de   réseaux   et   de   contenu   justifiant   l’implantation   de   nouveaux   centres   d’hébergement.     Du  côté  des  professionnels  du  contenu,  justement,  on  ne  compte  plus  les  nouveaux  jeux  vidéo   qui   comprennent   un   volet   «  en   ligne  »,   les   chaines   de   télévision   lançant   leur   avatar   asynchrone  (catchup  tv,  tv  à  la  demande,  etc)  accessibles  via  les  «  boxes  »  d’abonnés  aDSL  et   bientôt  fibre.     Dans  des  domaines  beaucoup  plus  terre  à  terre,  les  grands  groupes  internationaux  ont  besoin   de  toujours  plus  de  datacentres  afin  d’homogénéiser  leur  informatique  globale,  les  segments   des  Petites  et  Moyennes  Entreprises  et  des  Entreprises  de  Taille  Intermédiaire  prennent  enfin   le  train  du  cloud  computing  -­‐  dont  les  concepts  de  virtualisation  de  serveurs  ont  été  mis  à   l’épreuve  par  les  grandes  entreprises  depuis  plusieurs  années  maintenant  -­‐  et  les  institutions   financières   multipliant   les   alliances   intercontinentales   en   même   temps   que   les   produits   dérivés  requièrent  toujours  plus  de  datacentres  afin  de  sécuriser  les  moyens  de  connexion  à   leurs  plateformes     En  bref,  alors  que  l’Europe,  l’Amérique  du  Nord  et  quelques  pays  asiatiques  (Japon,  Corée)  ou   d’Amérique   latine   (Brésil)   gèrent   le   mètre   carré   en   flux   tendu,   il   est   difficile   de   voir   un   ralentissement  du  besoin  quand  la  Chine,  l’Inde,  la  Russie  d’abord  et  l’ensemble  de  l’Europe  de   l’Est,  de  l’Afrique,  de  l’Asie  et  de  l’Amérique  du  Sud  connectent  toujours  plus  d’entreprises  et   de  foyers  à  mesure  que  la  croissance  des  PIBs  respectifs  -­‐  et  incidemment  du  revenus  moyens   par  foyer  -­‐  favorise  et  accélère  l’accès  aux  nouvelles  technologies.  
  11. 11.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   11/33     4. Clientèle  type     Etant  donné  le  coût  facial  du  poste  «  hébergement  »,  il  est  certain  que  ce  type  de  prestation  ne   peut  s’adresser  qu’aux  professionnels.   Non  pas  qu’aucun  particulier  ne  bénéficie  jamais  de  la  qualité  de  ces  infrastructures,  mais  il  ne   se  doutent  pas  que  les  services  fournis  par  leurs  fournisseurs  d’accès  internet,  leurs  banques   en  ligne,  leur  webmarchands,  etc.,  passent  par  ces  centres  de  traitement  de  données.     De   fait,   quatre   principaux   profils   d’entreprises   requérant   les   services   des   datacentres   se   dessinent  :   -­‐ les  institutions  financières,   -­‐ les  sociétés  cotées,   -­‐ les  SSII,   -­‐ les   pure   players  :   opérateurs   télécom,   web   marchands,   moteurs   de   recherche,   jeux   vidéo,  plateforme  de  streaming,  réseaux  sociaux.     Les  institutions  financières,  tout  d’abord,  comptent  à  la  fois  les  banques  et  les  assurances  mais   également   les   Bourses,   les   sociétés   de   notations,   les   intermédiaires   (brokers)   ainsi   que   les   fournisseurs  de  flux.   Toutes   ces   entreprises   sont   à   la   recherche   des   meilleures   performances   pour   traiter   leurs   données  à  destination  des  marchés.     Leur   plateformes   de   calcul   et   traitement   sont   en   expansion   permanente  :   la   branche   Investissements   Marchés   d’une   célèbre   banque   française   maintient   sa   position   de   leader   européen  en  lançant  un  à  deux  nouveaux  projets  de  salles  machines  de  500  m2  par  an.   Ceci  afin  de  multiplier  ses   capacités   d’analyse   des   flux,   de   calcul   d’opportunités,   de   traitement   d’information   et   de   transmission   d’ordre  ;   toutes   ces   opérations   étant   de   plus   en   plus   automatisées   via   des   algorithmes   ultra   perfectionnés,   les   exécutants   humains   sont   progressivement  remplacés  par  des  fermes  de  serveurs.   Les   capacités   d’extension   des   bâtiments   de   bureaux   étant   intrinsèquement   limitées,   cette   banque  (et  les  concurrents  qui  souhaitent  rester  dans  la  course)  consulte  en  permanence  le   marché  pour  anticiper  ses  besoins  en  salles  machines.     Certains  hedge  funds  ne  s’y  sont  pas  trompés    et  ne  sont  aujourd’hui  constitué  que  de  deux   types  de  profils  :  des  mathématiciens  pour  élaborer  des  algorithmes  intégrant  jusqu’à  vingt   années   d’historique   sur   un   marché   donné   et   pour   les   faire   évoluer   en   fonction   du   comportement  du  marché  afin  de  placer  automatiquement  leurs  ordres  avant  les  concurrents.     Les   places   boursières   elles-­‐mêmes   ont   depuis   longtemps   quitté   leurs   «  palais  »   historiques   pour   n’être   que   des   fermes   de   serveurs   identifiant,   enregistrant,   traitant,   horodatant,   archivant  absolument  tous  les  mouvements  des  opérateurs  financiers.  
  12. 12.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   12/33   Aujourd’hui,     toute   institution   financière   intervenant   sur   les   marchés   doit   composer   avec   l’implantation  des  datacentres  retenus  par  telle  et  telle  bourse.         Car,  plus  que  le  bug  de  l’an  2000  ou  le  passage  à  la  monnaie  unique  en  Europe,  les  attentats  du   11  septembre  2001  ont  eu  pour  effet   une  remise  en  question  de  l’infrastructure  technique   permettant  jusque  là  de  passer  des  ordres.     En  effet,  depuis  ces  dramatiques  événements,  chaque  place  boursière  de  niveau  mondial  (New   York   Stock   Exchange,   London   Stock   Exchange   mais   également   Francfort   et   Paris)   n’autorise   l’accès   à   ses   outils   que   si   l’abonné   au   service   peut   garantir   un   accès   aux   deux   datacentres   (minimum)  retenus  par  chaque  place  financière  afin  d’assurer  la  continuité  des  cotations,  quel   que  soit  le  contexte.   Le   double   intérêt   est   ici   bien   entendu   d’assurer   un   service   exempt   de   risque   face   aux     manœuvres  mal  intentionnées  cherchant  à  provoquer  un  incident  sur  les  marchés  mondiaux   mais   également   de   bénéficier   de   systèmes   redondants   résistant   aux   «  simples  »   incidents   techniques.     Enfin   les   bourses   alternatives   (ou   MTF,   pour   Multilateral   Trade   Facilities)   ont   accéléré   la   course  à  l’armement  technologique  car,  en  multipliant  les  produits  et  services  en  élargissant   les   couvertures   horaires,   investissent   (et   leurs   clients   avec)   largement   en   datacentres,   de   sorte  à  présenter  une  infrastructure  technique  sérieuse  et  évolutive.     Bourses  traditionnelles  et  alternatives,  de  même  que  clients  et  intermédiaires  misent  ainsi  sur   le   proximity   hosting   (hébergement   de   proximité)   pour   assurer   des   temps   de   transmission   d’ordre  optimisés  pour  se  maintenir  dans  la  compétition.     Dans  tous  les  cas,  ces  méthodes  requièrent  des  capacités  d’accueil  que  seuls  des  datacentres   professionnels   offrent,   dans   le   sens   où   les   ressources   humaines   peuvent   disposer   d’immeubles   de   bureaux   et   les   ressources   technologiques   sont   alors   hébergées   dans   des   bâtiments  leur  offrant  un  environnement  propice  aux  performance  et  à  l’inévitable  évolution   de  leur  architecture.     Si  les  places  financières  utilisent  autant  les  datacentres,  c’est  bien  autant  pour  sécuriser  leurs   plateformes   que   pour   respecter   les   réglementations   toujours   plus   strictes   que   leurs  
  13. 13.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   13/33   régulateurs  respectifs  mettent  en  place,  en  vue  de  dresser  un  cadre  pour  les  Best  Practices   (les  Meilleures  Pratiques,  équivalent  de  l’art).     De   fait,   ces   réglementations   ont   également   influencé   les   sociétés   cotées   qui   ont   progressivement  sécurisé  voire  tout  bonnement  transféré  une  partie  –  quand  ce  ne  sont  pas   toutes  -­‐  leurs  ressources  technologiques.     Le  but  des  sociétés  du  CAC  40,  par  exemple,  était  -­‐  dans  un  premier  temps  -­‐  de  rassurer  les   investisseurs  en  se  mettant  au  même  niveau  qu’eux.  L’effet  secondaire  étant  que  les  grands   groupes,   par   essence   dispersés   pour   la   plupart   sur   plusieurs   continents,   ont   pu   alors   bénéficier   d’un   environnement   technique   homogène,   structuré   facilitant   la   maintenance   de   leurs  outils  bureautiques  en  même  temps  que  leur  informatique  de  production.     On  ne  compte  plus  les  projets  de  systèmes  ERP  et  CRM  hébergés  (et  synchronisés)  au  sein  de   datacentres  disséminés  en  Europe,  en  Amérique  du  Nord  et  en  Asie.     Pour   ce   faire,   ces   sociétés   cotées   ont   dû   retenir   la   solution   de   datacentres   prêts   à   l’emploi   plutôt  que  d’investir  en  propre  dans  des  capacités  immobilières  difficiles  à  rentabiliser  quand   ce  n’est  pas  leur  cœur  de  métier.     Ainsi,  un  groupe  de  luxe  du  CAC  40  dispose-­‐t-­‐il  de  liaisons  directes  entre  tous  ses  points  de   vente   en   Asie   vers   un   datacentre   au   Japon   qui   rassemble   toutes   les   données   de   caisse   et   compile   les   statistiques   de   vente   avant   qu’elles   soient   transférées   vers   le   datacentre   en   Europe  retenu  par  le  siège.     Cet   autre   groupe   spécialiste   des   matériaux   de   construction   dispose   de   salle   machines   en   Europe,   en   Amérique   du   Nord   et   en   Océanie   pour   distribuer   les   mises   à   jour   des   outils   de   bureautique.   En   la   matière,   les   économies   d’échelle   liées   au   poste   informatique   s’avèrent   considérables,   et   ce   malgré   l’investissement   nécessaire   à   l’externalisation   de   serveurs,   routeurs  et  pares-­‐feu.     Enfin,   les   résultats   de   ce   constructeur   automobile,  qui  n’est   plus   aujourd’hui   qu’un   assembleur,   repose-­‐t-­‐il   pour   partie    sur  la  qualité   des   datacentres   qui   lui   permettent   de   rassembler   les   résultats  des  centres   de   Recherche   et   Développement   en   Amérique   du   Sud,   les   études   conceptuelles   issues   de   ses   centres   de   style   en   Asie   et   en   Europe,   le   traitement   des   fiches   techniques  et  tarifaires  communiquées  par  ses  fournisseurs  en  Asie  et  en  Europe.   Le   suivi   en   temps   réel   de   ses   capacités   de   production   et   de   logistique   est   facilité   grâce   à   l’externalisation  d’une  partie  considérable  de  son  outil  informatique.        
  14. 14.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   14/33   Tout   cela   fait   désormais   partie   intégrante   de   la   communication   des   grands   groupes   pour   rassurer  les  investisseurs  sur  leur  capacité  à  sécuriser  leur  chaine  d’information  mais  inspire   depuis  quelques  temps  les  sociétés  de  taille  intermédiaire  et  les  petites  entreprises.     Tout   d’abord,   pour   rester   eux   aussi   dans   la   course   et   répondre   au   cahier   des   charges   des   grand  donneurs  d’ordre,  les  sous-­‐traitants  ont  progressivement  externalisé  une  partie  de  leur   informatique  de  production,  bénéficiant  des  mêmes  effets  de  «  proximity  hosting  »  attendus   par  les  institutions  financières.   Ensuite,  ces  projets  ont  vu  naître  de  grandes  PME    et  confirmé  le  positionnement  de  grands   groupes   informatiques   qui,   répondant   aux   appels   d’offres   de   certaines   filières,   se   sont   positionnées   sur   les   prestations   de   gestion   d’infrastructures   éclatées,   la   supervision   des   serveurs  et  suites  logicielles,  la  maintenance  des  réseaux  indispensables  aux  communications   liées  à  ces  systèmes  en  étoile.     De  fait,  les  Sociétés  de  Services  en  Ingénierie  Informatique  (les  SSII),  loin  de  se  contenter  de   gérer   pour   le   compte   de   leurs   clients   ces   configurations   complexes,   donnent   l’exemple   en   intégrant   dans   leurs   stratégies   respectives   des   partenariats   avec   des   exploitants   de   datacentres  internationaux.   Manière   pour   ces   spécialistes   de   s’assurer,   là   aussi,   une   certaine   économie   d’échelle   en   négociant   un   volume   de   mètres   carrés   techniques   dans   le   monde   entier   plutôt   que   de   négocier  50  ou  100  mètres  carrés  à  chaque  nouveau  projet.     Les   projets   confiés   à   ces   SSII   ont   généré   un   retour   d’expérience   qui   leur   a   permis   de   promouvoir  les  avantages  de  l’informatique  distribuée,  sous  la  forme  de  SaaS  (Software  as  a   Service,  ou  logiciel  à  la  demande)  et  de  Cloud  Computing  permettant  la  mise  en  commun  de   ressources   techniques,   la   virtualisation   de   serveurs   de   moins   en   moins   physiques   et   l’optimisation  de  budgets  toujours  plus  gourmands.     Loin  d’être  des  concepts  exotiques,  ces  solutions,  lorsqu’elles  sont  maîtrisées  par  des  experts   autorisent  des  gains  de  productivité  remarquables  puisque  c’est  le  fournisseur  qui  investit  en   capacité  serveurs  et  système  ;  le  client  souscrit  alors  de  la  capacité  au  fur  et  à  mesure  que  son   besoin  -­‐  ponctuel  ou  durable  -­‐  en  ressources  techniques  nécessite  l’extension  de  l’existant.   Dès  lors,  l’exploitant  ne  doit  pas  seulement  séduire  les  utilisateurs  mais,  au  surplus,  s’attacher   les  faveurs  des  intermédiaires  qui  encouragent  alors  l’utilisation  de  datacentres.     Mais   il   n’est   pas   de   fidélisation   plus   réciproquement   critique   que   celle   des   start-­‐up   de   la   netéconomie   tant   la   qualité   de   service   de   ces   utilisateurs   ou   inversement   le   moindre   incident   sont   en   permanence   visible   par   le   plus   grand   nombre.   Ces   «  pure   players  »   dont   le   cœur   de   métier   et   la   stratégie   tout   entière   sont   basés   sur   la   fiabilité   des   réseaux   et   des   datacentres.         Portails,  moteurs  de  recherche,  e-­‐commerce,  vidéo  à  la  demande  ou  encore  réseaux  sociaux   nécessitent  peu  de  ressources  au  démarrage  mais  peuvent  se  révéler  très  consommateurs  en   espace,  énergie  et  services  associés  quand  le  «  buzz  »  fait  son  effet.  
  15. 15.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   15/33         L’Histoire   du   web   retiendra   cette   plateforme   française   de   streaming   vidéo,   qui   avait   pour   ambition  de  concurrencer  le  géant  américain  du  secteur,  n’avait  besoin  que  d’un  quart  de  baie   lors  du  démarrage  de  son  service  ;  l’engouement  pour  ce  service  a  provoqué  une  croissance   de  la  demande  telle  que  la  start-­‐up  commandait  ses  extensions  de  service  par  demi-­‐douzaines   de   baies   jusqu’à   rassembler   ses   capacités   de   calcul   et   de   distribution   sur   un   plateau   de   plusieurs   centaines   de   mètres   carrés   au   sein   du   même   datacentre,   avant   de   s’étendre   sur   d’autres  sites.     Et  cette  anecdote  se  répète  quasiment  à  l’infini  dès  que  l’on  aborde  le  commerce  en  ligne  ou   les  réseaux  sociaux.   Quelle   n’est   pas   la   satisfaction   de   l’exploitant   ayant   été   le   premier   à   croire   au   modèle   des   Yahoo,  Google  et  autres  DailyMotion.  Etre  le  fournisseur  de  salle  informatique  d’une  société   n’ayant  pas  généré  de  profits,  croire  en  son  modèle  (parfois  flou)  et  être  récompensé  par  sa   fidélité  lorsque  ce  client  passe  d’un  quart  de  baie  à  une  salle  de  50  m2  pour  ensuite  demander   à  disposer  d’un  plateau  de  2.000  m2  voire  de  quatre  datacentres  pour  couvrir  le  Globe.     Mais  les  premiers  «  pure-­‐players  »  réclamant  un  partenariat  fort  avec  les  datacentres  sont  les   opérateurs  télécom  et  internet  (les  «  carriers  »).   La  qualité  de  service  aidant,  ce  sont  les  premiers  ambassadeurs  de  tout  datacentre  :  un  site   accueillant   de   nombreux   opérateurs   sera   alors   qualifié   de   Carrier   Hotel   neutre   ajoutera   à   l’attrait   de   ses   atouts   purement   techniques   un   avantage   certain   lié   à   la   qualité   de   la   connectivité  disponible  en  un  seul  et  même  endroit.     Tous  les  exemples  de  sociétés  citées  précédemment  demandent  une  qualité  de  la  connectivité   et  de  la  bande  passante  qui  ne  peut  passer  que  par  la  sécurisation  des  accès  via  de  multiples   carriers.     La   clé   de   l’attractivité   n’est   donc   pas   seulement   la   qualité   technique   du   site   (énergie,   climatisation,   accueil,   logistique,   sécurité)   mais   bien   le   partenariat   établi   de   facto   avec   les   utilisateurs,  intermédiaires  et  partenaires  ;  c’est  l’aspect  humain  à  ne  pas  négliger,  car  sans  le   relationnel  d’une  équipe  formée,  ouverte,  experte  et  motivée,  un  datacentre  performant  ne   pourra  être  mis  à  l’épreuve  du  marché  que  grâce  au  relationnel  de  ses  intervenants.  
  16. 16.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   16/33     5. Mode  opératoire     Dès   lors   que   l’interaction   de   moyens   techniques   de   base   et   de   ressources   humaines   compétentes  est  énoncée  en  principe  de  base,  il  est  important  de  décrire  le  mode  opératoire   régissant  le  quotidien  d’un  datacentre.     Comme   évoqué   précédemment,   un   datacentre   doit   non   seulement   présenter   des   qualités   techniques  répondant  à  l’état  de  l’art  mais  en  outre  afficher  une  expertise  humaine  en  matière   d’accueil,  de  sécurité,  de  logistique  et  technique.   Toutes  ces  compétences  rassemblées  font  que  l’équipage  tout  entier  guide  un  navire  sain  dans   la  bonne  direction.     En  effet,  la  disparité  des  profils  de  clients  traités  amène  les  commerciaux  du  site  à  louer  des   zones   privatisées   (un   client   commande   une   cage   de   500   mètres)   ou   mutualisées   (un   autre   espace  de  500  mètres  carrés  hébergera  100  ou  200  clients  différents).   La  stratégie  de  l’exploitant  doit  intégrer,  dès  son  élaboration,  un  découpage  de  zones  destiné  à   répondre  à  ces  deux  types  de  salles.     Les  zones  mutualisées  assurent  une  multitude  de  clients  (petits  et  moyens)  pour  lesquels  le   revenu  moyen  (et  la  marge)  par  tête  est  relativement  élevé.   Compte   tenu   des   surfaces   engagées,   les   zones   privatisées   offrent   certes   un   levier   de   négociation   important     pour   le   client   mais   offre   à   l’exploitant   une   référence   qui   attirera   d’autres  projets  de  taille  –  au  minimum  –  équivalente.     Le  datacentre  disposera  en  divers   points   stratégiques   de   Meet   Me   Room   –   espaces   fermés   d’interconnexion  à  destination  des   carriers  –  elles-­‐mêmes  raccordées   à   une   ou   plusieurs   Carrier   Room(s)   –   salle   d’accueil   des   opérateurs   connectant   le   datacentre.  Ces  MMR  imposent  de   gérer   au   quotidien   des   demandes   de   cross-­connects   (rocades   et   jarretières)   de   nature   différentes   (cuivre   ou   fibre   optique)   et   reposant   sur   une   multitude   de   types  de  connecteurs.     Il  faut  souligner  ici  l’importance  des  Carrier  Room  et  Meet  Me  Room  qui  doivent  présenter   une   capacité   d’accueil   suffisante,   une   praticité   et   une   évolutivité   qui,   une   fois   les   carriers   séduits,  les  amènera  à  vanter  les  mérites  du  site.     La   Carrier   Room,   si   elle   n’accueille   que   trois   ou   quatre   opérateurs   lors   du   démarrage   des   opérations,  doit  pouvoir  présenter  assez  d’intérêt  pour  attirer  trente  à  quarante  opérateurs   qui,   séduits   par   le   potentiel   de   clients   et   donc   de   relais   de   croissance,   investiront   dans   la   connectivité  nécessaire  pour  s’implanter  sur  le  nouveau  site.    
  17. 17.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   17/33   De  même,  après  avoir  attiré  les  fournisseurs  d’accès  locaux  (historiques  –  les  «  incumbents  »  -­‐   et   alternatifs),   le   datacentre   facilitera   l’installation   d’opérateurs   étrangers   cherchant   à   améliorer  leur  empreinte  et  leur  capillarité  réseau  en  répondant  aux  projets  de  leurs  propres   clients,   en   s’implantant   sur   un   nouveau   territoire   ou   tout   simplement   sécurisant   leurs   capacité  réseau  sur  plusieurs  datacentres.     Le  datacentre  fera  preuve  d’une  initiative,  généralement  bien  accueillie  par  ces  carriers,  en   mettant  en  place  un  point  d’échange  réseau.     Le  principe  consiste  à  proposer  la  possibilité  de  connecter  les  carriers  entre  eux  afin  qu’ils   échangent  réciproquement  de  la  capacité  sur  leurs  réseaux  respectifs.  Mais  ce  point  d’échange   facilite  aussi  le  raccordement  de  chaque  client  non  opérateur.   L’exploitant   mettant   à   disposition   les   MMR,   les   câbles   et   -­‐   dans   certains   cas   -­‐   les   commutateurs,  il  est  alors  relativement  simple  pour  l’exploitant    de  mettre  en  œuvre  cet  autre   relai  de  croissance  rémunéré,  là  aussi,  par  des  redevances  récurrentes.     L’immixtion   des   datacentres   est   un   fait   relativement   récent   est   observée   de   près   par   les   parties   prenantes   de   ce   segment   de   marché   ainsi   que   les   analystes   afin   de   déterminer   la   réaction  des  clients  et  discerner  le  potentiel  de  relai  de  croissance.   En  effet,  les  points  d’échanges  d’opérateurs  (dits  «  IXP  »  pour  Internet  eXchange  Point),  sont   depuis   leurs   débuts   gérés   par   des   sociétés   très   profitables   au   mode   de   fonctionnement   associatif.         Les  IXP  proposent  de  gérer  tous  les  aspects  de  cross-­‐connects  entre  opérateurs  et  clients,  la   commutation  du  trafic,  les  mises  en  commun  de  capacité  réseau,  la  fourniture  de  routeurs  et   commutateurs,  le  tout  pour  le  bien  de  la  «  communauté  »  Internet.   Ce   mode   de   fonctionnement   coopératif   a   le   mérite   de   véhiculer   des   valeurs   collant   à   l’état   d’esprit  Internet  (échanges  de  gré  à  gré,  relative  liberté  des  échanges,  élitisme  technique  des   interlocuteurs,  etc.)  et  propose  de  fait  un  financement  commun  de  l’infrastructure  de  l’IXP.     A  raison  d’un  coût  d’installation  moyen  de  1.000  euros,  lié  à  la  mise  disposition  accès  au  point   d’échange  et  variant  selon  le  type  d’interface  (cuivre  ou  fibre,  Fast  Ethernet,  Gigabit  Ethernet,   10   Gigabit   Ethernet   en   attendant   plus)   et   d’une   redevance   mensuelle   fixée   en   fonction   du  
  18. 18.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   18/33   besoin   du   client   (100   Megabits   par   seconde,   500   Mbps,   1   Gbps,   10   Gbps),   l’IXP   agrège   et   redistribue  le  trafic  des  souscripteurs  selon  les  configurations  de  routage  demandées.   Ce  type  de  service  permet  d’améliorer  substantiellement  la  visibilité  de  l’acteur  qui  propose   une  telle  plateforme.     Les  plus  gros  points  d’échange  Internet  sont  européens.  Ainsi,  le  DECIX  (Francfort)  avec  un   trafic  moyen  de  900  Gbps  et  des  pics  à  4  Tbps  est  le  plus  important  nœud  d’échange,  suivi  de   l’AMSIX  (Amsterdam)  et  du  LINX  (Londres).   Malgré   l’importance   du   trafic   agrégé   via   ces   sites   neutres,   ils   voient   grandir   la   menace   de   l’opérateur   de   datacentres   Equinix   qui   a   lui-­‐même   constitué   une   plateforme   de   services   interconnectant  ses  propres  clients.     A  raison  d’un  coût  moyen  de  1.000  euros  par  mois  pour  10  Gbps,  on  comprend  que  ces  points   d’échange   «  traditionnels  »   voient   d’un   mauvais   œil   la   concurrence   d’un   hébergeur   intrinsèquement   en   position   favorable   puisqu’il   est   propriétaire   de   bâtiment   et   des   infrastructures  de  livraison  du  service.     Selon  les  statistiques  de  trafic  publiques,  on  peut  estimer  le  chiffre  d’affaires  du  DECIX  à  11   Millions   d’euros,   de   l’Amsix   à   près   de   10   Millions   d’euros   et   le   Linx   à   plus   de   7   Millions   d’euros.   De  son  côté,  Equinix  interconnecte  déjà  autant  de  clients  que  Francfort  et  Amsterdam  réunis   et  serait  en  position  de  bientôt  router  90%  du  trafic  mondial  grâce  à  ses  connexions  avec  600   opérateurs  télécom  et  internet.     Générant   17   Millions   de   dollars,   le   poste   «  interconnexion  »   du   bilan   2010   d’Equinix   représente  désormais  15%  des  revenus  d’Equinix.   Ce  poste  amalgame  certes  les  redevances  des  simples  cross-­‐connects  et  les  redevances  liées  à   l’IXP  mais  c’est  dire  combien  la  fourniture  de  câble  sous  forme  de  service  récurrent  est  un   véritable  relai  de  croissance  pour  une  activité  à  la  base  plutôt  proche  de  l’immobilier.     Il  est  précieux  de  noter  à  cet  instant  que  les  efforts  de  l’exploitant  du  site  en  matière  de  point   d’échange  ne  génèrent  finalement  que  peu  de  coûts  additionnels  puisqu’ils  font  normalement   partie   intégrante   de   l’infrastructure   du   site.   Alors   que,   en   revanche,   le   retour   en   terme   de   redevances  récurrentes  et  d’image  est  démultiplié.     Somme  toute,  plus  l’exploitant  de  datacentre  présentera  d’efforts  à  destination  des  opérateurs   télécom  et  internet,  plus  la  publicité  sous-­‐jacente  sera  positive  et  générera  de  facto  un  cercle   vertueux  :   les   carriers   attirés   par   un   datacentre   encouragent   leurs   prospects   et   clients   à   le   retenir   pour   leurs   projets  ;   plus   un   datacentre   présente   de   concentration   de   services   et   de   potentiel  commercial,  plus  ces  carriers  estiment  que  le  risque  lié  à  l’implantation  de  moyens   réseaux  est  faible.     Le   sérieux   du   datacentre   est,   du   reste,   jugé   au   quotidien   par   la   qualité   et   la   réactivité   des   interventions   de   ses   techniciens   lors  de  la  réalisation  de  nouveaux   raccordements   mais   également   lors  d’interventions  urgentes  pour   remettre   en   ordre   de   marche   un   cross-­‐connect   défaillant  ;   car   le   datacentre  est  garant  des  rocades   et   jarretières   installées   pour   le   compte  de  ses  clients.    
  19. 19.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   19/33     Loin   d’être   une   contrainte,   cette   prestation   s’avère   être   une   source   de   revenus   supplémentaires   considérable   puisque   les   datacentres   font   désormais   payer   sous   forme   de   redevance  la  mise  à  disposition  de  ces  câbles  ainsi  que  leur  maintenance  ;  la  probabilité  de   défaillance  se  révèle  en  réalité  très  faible  et  il  relève  finalement  du  simple  effort  commercial   que  de  rétablir  un  service  réseau  pour  lequel  l’exploitant  doit  avant  tout  s’assurer  de  la  qualité   et  de  la  disponibilité  s’il  souhaite  s’assurer  de  la  fidélité  de  ses  clients.     A  titre  d’exemple,  les  grands  opérateurs  proposent  une  matrice  de  coûts  qui  ressemble  à  la   compilation  des  coûts  moyens  suivants  :   • mise  à  disposition  d’un  circuit*  cuivre  (rj45  /  Ethernet)  complet  :  250  euros  ;   • redevance  annuelle  d’un  circuit  cuivre  (rj45  /  Ethernet)  complet  :  250  euros  ;   • mise  à  disposition  d’un  circuit  fibre  optique  complet  :  1.000  euros  ;   • redevance  annuelle  d’un  fibre  optique  complet  :  250  euros  ;     *Le   circuit   est   composé   de   deux   demi-­circuit   raccordant   les   équipements   réseau   respectifs   du   client  et  de  l’opérateur  réseau  à  la  MMR.  Au  sein  de  cette  dernière,  les  deux  demi-­circuit  sont   interconnectés  via  un  «  patch  ».     L’effet  démultiplicateur  de  cette  prestation  vient  du  nombre  de  clients  hébergés  et  du  nombre   d’interconnexions  qu’ils  requièrent  tout  au  long  de  leur  contrat.   A  titre  d’exemple,  un  client  souhaite  généralement  s’interconnecter  à  un  minimum  de  deux   opérateurs  ce  qui  représente  un  coût  additionnel  minimum  de  500  euros  par  mois,  par  client.       Au-­‐delà   des   aspects   liés   à   la   connectivité,   la   fidélité   des   clients   sera   également   mise   à   l’épreuve  par  les  perspectives  d’évolutivité  du  site.     Un  datacentre  mettant  à  la  disposition  du  marché  une  surface  de  4.500  mètres  carrés  sera,   dans  la  durée,  moins  intéressant  qu’un  site  présentant  un  potentiel  de  20.000  mètres  carrés   mis  à  disposition  du  marché  par  tranches  successives  et  contrôlées  de  3.000  mètres  carrés.     Cela  revêt  par  ailleurs  un  double  aspect  désormais  stratégique  de  gestion  de  la  rareté  et  de   l’évolution   du   site  ;   encore   une   fois,   les   carriers   jaugent   l’intérêt   d’un   datacentre   donné   en   fonction  de  la  surface  à  terme  et  non  seulement  de  la  surface  à  la  mise  en  production.   De   fait,   l’ensemble   des   prescripteurs   (SSII   et   carriers)   communiquera   sur   la   qualité   du   datacentre   dès   lors   que   la   capacité   d’accueil   de   nouveaux   clients   sera   perçue   comme   étant   envisageable.     Mais  l’installation  de  nouveaux  plateaux  et  de  nouveaux  clients  peut  impacter  l’infrastructure   énergétique  et  climatique  en  place.   Pour  assurer  un  très  haut  niveau  de  service  et  former  en  permanence  ses  propres  équipes,   l’exploitant   doit   mettre   en   place   des   mesures   de   maintenance   préventive   et   régulière   de   l’ensemble  de  la  chaîne  d’alimentation  en  énergie  et  de  refroidissement.   Ces   exercices   in   situ   ont   pour   objet   de   vérifier   la   bonne   marche   des   mécanismes   de   sécurisation   et   de   redondance   de   l’édifice   tout   entier,   de   minimiser   les   risques   de   maintenance  curative  et  accessoirement  de  rassurer  a  priori  les  prospects  et  clients.     C’est  d’ailleurs  à  ce  titre  que  chaque  prospect  important    (celui  visant  une  zone  privatisée)   bénéficie,   au   cours   du   processus   de   vente,   d’une   visite   complète   des   installations,   qui   assureront  la  pérennité  de  la  plateforme  qu’il  sera  amené  à  confier  à  l’exploitant,  en  direct  ou   par  l’intermédiaire  d’un  sous-­‐traitant.     La  séduction  puis  la  fidélisation  des  prescripteurs  et  clients  passe  ainsi  par  la  transparence   sur  les  coulisses.  
  20. 20.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   20/33     6. Valeur  ajoutée     Détailler  les  aspects  purement  techniques,  la  composition  du  marché,  de  la  concurrence,  des   clients  potentiels  et  des  services  de  base  composant  un  datacentre  ne  suffisent  pas  à  le  rendre   attractif  ni  indispensable.   Encore  faut-­‐il  qu’il  réponde  à  un  besoin  et  que  ce  besoin  justifie  de  la  mise  sur  le  marché  d’une   capacité  d’accueil  supplémentaire  qui  vient  s’ajouter  à  une  offre  a  priori  déjà  abondante  sur   un  secteur,  lui  aussi  a  priori,  mature.     Le   nouvel   entrant   sur   le   marché   des   datacentres   doit   présenter   un   ensemble   de   caractéristiques  comparables  à  ses  compétiteurs  mais,  au  surplus,  ses  points  différenciant,  sa   valeur  ajoutée.     Tout   d’abord,   l’existence   d’un   datacentre   répond   à   certains   projets   soumis   à   certaines   obligations   règlementaires  ;   comme   évoqué   précédemment,   un   certain   nombre   de   secteurs   d’activités  sont  soumis  à  des  obligations  qui  leurs  sont  propres.   Contrôlés  par  des  régulateurs,  la  mise  en  œuvre  de  projets  informatiques  liés  à  la  production,   la  communication  et  l’archivage  de  données  sensibles  requiert  de  présenter  à  cette  autorité  de   surveillance  les  meilleurs  gages.   Le   client   devra   en   effet   communiquer   à   son   autorité   de   surveillance   –   voire   parfois   aux   marchés   –   les   méthodes   retenues   pour   respecter   le   cahier   des   charges   sectoriel   qui   n’est   parfois  qu’implicite.     Mais   il   arrive   parfois   que   quelques   réglementations   détaillent   par   le   menu   chaque   couche   d’infrastructure  et  de  service  auquel  le  directeur  de  projet  du  client  devra  se  référer  au  cours   de  chaque  étape  du  déploiement  de  son  architecture  système,  matériel  et  réseau.     Quelques   projets   font   encore   l’objet   de   validation   du   datacentre   par   le   client,   parfois   accompagné   de   son   régulateur,   qui   va   jusqu’à   anatomiser   tous   les   aspects   du  datacentre  ciblé.     Il  s’agit  alors  de  mettre  en  avant  tous  les  atouts  du  site   afin   de   ressortir   de   cette   mise   à   l’épreuve   avec   des   certifications   qui   répondent   à   une   filière,   ce   qui   peut   provoquer  l’afflux  de  nombreux  prospects  alors  moins   sévères  sur  les  seuls  aspects  financiers.     Un   datacentre   du   nord-­‐parisien   a   obtenu,   après   un   audit   de   sécurité   commandité   par   un   prospect,   une   certification   indiquant   que   les   travaux   réalisés   au   niveau   des   murs   d’enceinte   et   intérieurs   aurait   pu   lui   permettre  d’héberger  une  agence  de  banque,  coffre-­‐fort   inclus.     Répondre   aux   contraintes   techniques   posées   à   certaines   filières   par   leurs   régulateurs   respectifs   peut   se  révéler  être  un  levier  mais  ne  sera  toutefois  que  marginal.    
  21. 21.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   21/33   Une  marge  certes  non  négligeable  compte  tenu  du  relai  potentiel  de  notoriété  et  d’image,  mais   un   volume   d’affaires   moins   important   que   ce   que   le   cœur   de   métier   du   datacentre   doit   apporter  au  marché  :  son  gage  de  qualité  en  matière  de  connectivité  et  de  visibilité,  donc  de   pérennité  de  l’installation,  donc  de  risque  contractuel  maîtrisé  pour  les  Directeurs  de  Projet   souhaitant  s’engager.     Car  la  majeure  partie  des  projets  de  datacentre  est  bien  portée  par  la  notion  de  neutralité  du   site.   Comme   évoqué   précédemment,   la   présence   de   nombreux   opérateurs   télécom   et   internet   rassure  les  clients  potentiels  qui  sollicitent  ainsi  leurs  propres  fournisseurs  pour  les  mettre  en   concurrence,  ces  derniers  faisant  alors  l’effort  de  connecter  le  –  si  ce  n’était  pas  encore  fait  –   afin  de  rester  compétitifs.     La   notion   de   «  Neutral   Carrier   Hotel  »   est   à   ce   point   primordiale   que   seuls   les   nouveaux   bâtiments  présentant  cette  qualité  attirent  l’attention  des  clients  potentiels.     Naturellement,  il  existe  des  centres  d’hébergement  non  neutres  et  rentables,  gérés  ici  par  une   SSII,  là  par  un  opérateur  télécom  seul  ou  encore  par  un  fournisseur  de  services  internet  ayant   transformé  un  hangar  à  sa  disposition  en  salle  informatique  pour  ses  propres  opérations.   Ces   exceptions   présentent   dans   certains   cas   une   rentabilité   intéressante   pour   leurs   exploitants   respectifs   quand   ils   sont   remplis   mais,   non   neutres,   ils   sont   intrinsèquement   dépourvus   de   potentiel   de   croissance   que   présente   l’activité   que   mène   l’investisseur   en   datacentre.     En   effet,   ce   dernier   se   dote   avant   tout   de   mécanismes   accélérant   la   rentabilité   de   son   site,   amenant  le  point  mort  bien  plus  bas  que  celui  d’un  datacentre  isolé.     En  outre,  le  niveau  d’activité  du  datacentre  neutre  sera  porté  par  le  dynamisme  du  marché   relayé  par  la  multitude  de  carriers  et  SSII  dont  il  accompagne  les  projets.   Et  une  fois  le  seuil  de  rentabilité  atteint,  l’investisseur  en  datacentre  lance  généralement  la   phase  suivante  d’extension  du  site,  là  où  le  datacentre  isolé  sera  contraint  de  respecter  une   surface  de  bâtiment  donnée  et  des  ratios  énergétiques  et  climatiques  figés.     A  titre  d’exemple,  le  site  de  Telehouse  «  Voltaire  »,  probablement  le  plus  stratégique  de  Paris   tant   le   nombre   d’acteurs   incontournables   des   télécoms   et   de   l’Internet   y   sont   présents,   propose  les  conditions  de  location  suivante  :     • mise   à   disposition   d’une   baie  dotée   d’une   double   alimentation   électrique   :   2.500   euros  ;   • location  d’une  baie  2  kvA  :  20.000  euros  par  an.     Ces   conditions   tarifaires   sont   identiques   que   l’ont   soit   «  telco  »   ou   client   final.   Or,   la   probabilité  qu’un  opérateur  consomme  son  quota  électrique  est  très  faible  puisque  –  en  règle   générale  –  les  équipements  réseau  des  opérateurs  (routeurs,  commutateurs,  multiplexeurs  et,   dans   une   moindre   mesure,   pares-­‐feu)   sont   beaucoup   moins   énergivores   que   les   serveurs,   bladecenters  et  baie  de  disques  des  clients  webmarchands  ou  SSII.     De  fait,  se  dégagent  deux  modèles  de  facturation  :   • forfaitaire  pour  le  telco,  ce  qui  assure  un  revenu  minimum  récurrent  pour  l’exploitant   du  site  ;   • forfaitaire  plus  dépassements  pour  le  client  qui  dépasse  son  quota  énergétique  (et  qui   bien  souvent  sera  contraint  de  commander  une  ou  plusieurs  baies  supplémentaires   pour  compenser),  ce  qui  génère  partiellement  la  croissance  de  l’exploitant.     Ce  qui  ne  se  voit  pas  dans  ce  modèle  de  revenu  est  la  rentabilité  de  la  seule  Carrier  Room.   Même   s’il   faut   trouver   le   juste   équilibre   entre   proposition   financière   accueillante   mais  
  22. 22.     Projet  Cambridge   Bertrand  Guézel   Confidentiel   22/33   rentable,   les   telcos   ne   surconsomment   pas   au   sein   de   la   Carrier   Room.   C’est   même   tout   le   contraire  puisqu’il  s’agit  surtout  d’y  concentrer  des  interconnexions  de  câbles.   D’ailleurs,  les  opérateurs  réseau  souhaitant  un  «  Pop  »  (Point  of  Presence,  point  d’accès)  en   Carrier  Room  souscrivent  généralement  deux  baies  :  un  emplacement  pour  les  cross-­‐connects   et   un   second   emplacement   pour   les   équipements   actifs   de   livraison   de   service.   Là   où   un   opérateur  disposerait  de  4  kW  minimum  (pour  deux  baies),  il  n’en  consommera  en  réalité  que   1   à   2,   compte   tenu   que   ses   équipements   n’occupent   qu’un   espace   minime   et   sont   surdimensionnés  afin  d’encaisser  le  potentiel  de  croissance  du  site.     Les   carriers   acceptent   généralement   cette   règle   du   jeu   et   ne   cherchent   à   renégocier   ces   conditions  qu’à  l’abord  de  nouvelles  échéances  contractuelles,  soit  quand  l’infrastructure  mise   à  sa  disposition  est  en  grande  partie  rentabilisée.  Ce  qui  rend  plus  facile  la  détente  sur  les  prix   si  l’exploitant  du  datacentre  souhaite  accorder  un  nouveau  barème.     Du  reste,  le  caractère  neutre  d’un  datacentre  est  le  critère  retenu  par  les  porteurs  de  projets   internationaux   au   cours   de   leur   recherche   pour   implanter   durablement   leur   infrastructure   réseau  et/ou  système.   L’aspect   multi   opérateur   d’un   datacentre   joue   alors   le   rôle   de   filtre   quasi   naturel   pour   les   benchmarkers,  qui  ne  souhaitent  pas  prendre  le  risque  de  se  lier  dans  la  durée  avec  un  site   non  évolutif,  et  se  transforme  en  aimant  à  projet  de  grande  ampleur.     Car  ce  qu’ont  compris  les  grands  groupes  d’abord,  puis  les  SSII  et  depuis  peu  les  PME  et  ETIs,   c’est  que  se  doter  de  sa  propre  infrastructure  d’hébergement  présente  un  coût  nominal  qui   cache   en   réalité   l’ensemble   des   coûts   liés   à   la   connectivité   (et   à   la   sécurisation   de   cette   connectivité   par   la   redondance   d’opérateurs)   puis   d’extension   de   salle   informatique   pour   suivre  la  demande  en  matière  d’informatique  de  production  comme  de  bureautique  ou  encore   de  mise  à  niveau  des  arrivées  électriques  ou  des  climatisations  spécifiques.         Dès   lors,   en   mutualisant   un   nombre   important   d’éléments   d’infrastructure,   le   centre   d’hébergement  et  de  traitement  de  données  neutre  présente  de  multiples  avantages.   Sur   un   seul   et   même   site,   le   datacentre   rassemble   plusieurs   carriers,   garantit   l’approvisionnement  en  énergie  et  son  secours  et  fait  de  même  pour  le  froid  et  la  sécurité.  

×