SlideShare une entreprise Scribd logo
1  sur  3
Télécharger pour lire hors ligne
Hitachi Content Platform
File & Content
Solutions
La solution Hitachi Content Platform (HCP, anciennement nommé Hitachi
Content Archive Platform - HCAP) a fortement évoluée depuis le
partenariat et l’acquisition de la société Archivas (2006). D’une solution
orientée principalement Archivage à Valeur Probatoire, HCP est devenu
une solution Cloud Storage, tout en conservant ses fonctionnels guidés
par l’intégrité, la conservation, la pérennité et la gestion des rétentions
sur les données et les métadonnées.
Hitachi Content Platform reste un produit embarquant un espace de
stockage de données, mais cette valeur passe au second plan au regard de
ses capacités avancées. Aujourd’hui, HCP se propose de répondre aux
nouvelles préoccupations de partages de fichiers et d’archivage (probant
ou non), dans un cadre moderne d’automatisation de gérance par
politiques.
Cette gouvernance contemporaine doit certes prendre en compte des aspects de volume sur disques
et du nombre de données brutes, mais aussi de simplicité d’utilisation, de mobilité, d’accès universel
multi-supports, d’indexation, de recherche et de partage de la multiplicité des connaissances. Au
travers de la solution HCP, Hitachi Data Systems s’adresse à de nouveaux acteurs de l’IT. Il ne s’agit
pas uniquement de répondre aux besoins de flexibilité de consolidation et de volume important avec
une intelligence d’infrastructure, mais bel et bien de toucher l’interopérabilité applicative, la gestion
du risque, la gestion de contenus et, surtout, le décisionnel sur l’information, son enrichissement et
l’amélioration de production et d’échange au plus près des utilisateurs.
Conception
Innovante
Avec Hitachi Content Platform, la représentation de stockage Objet vient
supplanter le concept classique de stockage de fichiers via un NAS. HCP propose
un système de fichiers Objet. Il s’agit du regroupement de la gestion classique de
fichiers et de répertoires, avec une gestion de métadonnées dite Métier.
A titre d’exemple, une photo de vacances est la donnée source inscrite dans un
fichier au format RAW ou JPEG ; les métadonnées sont la description du visuel, les
notes ou les coordonnées GPS associées. Ces métadonnées sont des
compléments d’information sur le contenu de la donnée et son environnement.
Elles sont créées avec la source, comme l’ajout des coordonnées GPS, ou à
posteriori, comme l’ajout d’annotation par l’utilisateur ou un traitement
numérique. L’association Donnée et Métadonnée forme donc la base de l’Objet.
A cette association, il est permis d’ajouter des Métadonnées dites de nature Politique. Une Politique est la
description, par exemple, du niveau de sécurisation, de l’historisation des versions, du type d’empreinte (SHA)
utilisée, pour garantir l’intégrité, etc. L’objet est entier et indépendant du support physique. Il porte donc
l’ensemble de ses informations quand il est dupliqué, contrôlé, répliqué, accédé ou supprimé. A ce fonctionnel
avancé, HCP intègre des optimisations sur l’espace de stockage (compression, SIS) et le placement intelligent
des fichiers jusqu’à un Cloud Public du marché ou des volumes externes disques ou bandes non Hitachi.
Ce sont ces valeurs que la solution Hitachi Content Platform porte, étend et délivre en respectant
l’indépendance des sources, via une neutralité fonctionnelle, favorisant la réversibilité et l’interopérabilité.
La solution HCP est aussi déclinée en offre verticale spécialisée, afin d’adresser des besoins
métier précis, telle que la corrélation et l’analyse de contenu, souvent adressé sous le label
Big Data. Avec sa capacité intégrée d’indexation, HCP propose un fonctionnel de traitement
quantitatif et qualitatif de contenus extrêmement puissant. Le support de Swift vient
compléter l’offre HCP sur le marché du Stockage Objet dans les solutions OpenStack.
Hitachi Content Platform, principales innovations
Multi Tenants & Namespaces – Topologie multi sites
Un Tenant est un Environnement Virtuel déterminé par un quota de stockage, des accès
privés et une gestion privée de ses Namespaces. Un Namespace est un Espace Virtuel
désigné par un quota de stockage, des accès privés et des politiques du Tenant propriétaire.
Ces deux désignations Tenant & Namespace sont dissociées de l’administration générale du
HCP. Il s’agit d’une sécurisation avancée. Un Tenant est disjoint des autres Tenants, mais
aussi de l’administration. Comme un Namespace est disjoint des autres Namespaces du
même Tenant, mais aussi des autres Tenants. Cette mécanique permet un cloisonnement
étanche entre les zones d’enregistrement et de consultation des Objets. La sécurisation
s’applique à tous les niveaux, même quand il s’agit de réaliser des recherches sur les
contenus. Elle se prolonge dans une architecture géographiquement répartie via des
topologies réparties Global Namespace.
Cloud Storage & Object Storage
Le Cloud est un concept et désigne une capacité de service IT à la demande, incluant un
paiement éventuel. Ce processus implique un échange sécurisé, simple, mesurable et, si
possible, indépendant de toute contrainte technique propriétaire. La solution HCP intègre
de base un échange standardisé via HTTPs (API RESTful, S3, WebDAV, Swift), afin de faciliter
un accès universel et non propriétaire. A cela est ajoutée une capacité de facturation, via
des métriques de consommation exprimées en nombre d’objets, bande passante, volume,
performance, SLA et service annexe (Versioning, indexation, réplication, etc.). L’accès Web
est privilégié, mais les accès CIFS, NFS et SMTP sont possibles sur une même destination.
Archivage Technique et Probatoire
L’archivage est dans la genèse de la solution HCP. Cette capacité est intégrée comme une
Politique sur la donnée. Par exemple, l’élément granulaire d’une rétention, qui caractérise
l’archive, est sur la donnée (fichier), mais il est permis de définir des Classes d’Archive, afin
d’automatiser des associations entre de multiples données et leur gestion au sein d’une
politique Write-Once-Read-Many (WORM) plus globale, orientée Coffre-fort Electronique.
Pour un HCP, la principale différence entre une valeur technique et une valeur probatoire
réside dans la modification possible de la Politique de conservation. Dans le cas du
probatoire, la Politique de base est stricte et ne supporte pas de modification ou de
suppression du contenu jusqu’à la fin de rétention. Les autres services sont communs.
Scale-Out, Scale-Up & Distributed-Scale
L’évolutivité du HCP s’applique principalement sur 3 classes : 2 matérielles et 1 logicielle.
Ces organisations distinctes permettent d’augmenter : la puissance de traitement, la
volumétrie de stockage physique et le fonctionnel embarqué. Les 80Po du HCP donnent un
accès au marché Big Data. Cette capacité est complétée par les Nodes HCP-S pour délivrer
jusqu’à 400Po, avec une protection bloc basée sur une technologie dite Erasure Coding.
La puissance de traitement est désignée par les CPU. Un HCP est un GRID physique en
Cluster haute disponibilité, c’est-à-dire composé de Nodes agrégés (Serveurs ou Blade
Serveurs Hitachi) et dédiés au traitement des flux et la gestion des données/métadonnées.
Les volumétries des données et des systèmes sont disposées sur une ou plusieurs baies de
stockage Hitachi liées aux serveurs Hitachi. La sécurisation des volumes est assurée via des
architectures en réplication 3DC, 4DC et 5DC, en Actif/Passif et Actif/Actif multiple.
Le fonctionnel embarqué est constitué de base du système d’Objets (jusqu’à 64 milliards),
de tous les services et du pilotage des ressources physiques (CPU et disques). Parmi ses
capacités, il y a, entre autres, la répartition automatique des données, leur déplacement
par classe de stockage, dont la technologie Spin Down, et leur sécurisation.
Hitachi Content Platform, caractéristiques
Protocole Réseau Service Protection
Données Données Système de Fichiers Système de Fichiers
CIFS & NFS.
HTTP/HTTPs & cURL.
Amazon S3 (HS3),
WebDAV.
SMTP.
OpenStack Swift.
8x 1 GbE (cuivre) de base (4
Nodes) en accès public.
Ports 10 GbE en option.
IPv4 & IPv6.
POSIX, Journal,
Quota, Versioning,
Multiple Metadata,
Metadata Query Engine,
Chargeback, SLA,
Classe de Rétention.
Hash (MD, SHA, RIPEMD),
Data Protection Level,
QoS Réplication,
Encryption AES,
Tenant/Namespace,
Shredding, Géo-Dispersion.
Administration Administration Optimisation Extension fonctionnelle
HTTPs, SSL, DNS, NTP,
Alertes e-mail,
RADIUS,
GUI & CLI,
SNMP (MIB), Syslog.
8x 1 GbE (cuivre) de base (4
Nodes) en réseau privé.
Compression,
Déduplication (fichier SIS),
Load Balancing,
Intelligent Object Placement.
Service Plan.
Erasure Coding avec HCP-S
HCP-Data Migration.
HDI, HDIM, HDDS, HSO-MS,
HCP-AW & HNAS.
Hitachi Command Director.
Accès Cloisonnement Norme & Conformité Support avancé
Object ACL,
Login/Password, Active
Directory, LDAP, Keystone.
Filtre IP (Allow/Deny),
Role Base Access (RBAC).
1°000 Tenants
10°000 Namespaces.
NF Z42-013/NF Z42-020, ISO
8601, ISO 14721 (OAIS), US
DoD 5520-M : Shredding, SEC
17a-4, Sarbanes-Oxley, OSHA,
HIPAA, FRCP, DISC PD0008,
NASD 2210/3210.
Arkivio & Seven10 StorFirst
(backup).
Mobilité via HCP-AW :
MacOS, iOS, Androïd &
Windows/Windows Phone.
Modèle Contrôleur /Node GRID Cluster Volumétrie (hors HCP-S)
HCP VM -
4 Nodes de base, évolutif
jusqu’à 40 Nodes.
4To à 4.7Po utiles, 1 à 4
réplicas (DPL).
HCP 300
10U de base
CR220S 32Go, 1x Quad Core
Intel Xeon E5-2620.
4 Nodes de base, évolutif
jusqu’à 20 Nodes.
4To à 85To utiles (DPL-2).
18To à 140To utiles (DPL-1).
HCP 500
8U de base
CR210H 32Go, 2x Quad Core
Intel Xeon E5-2620.
4 Nodes de base, évolutif
jusqu’à 80 Nodes.
21To à 5Po utiles, 1 à 4
réplicas (DPL).
HCP 500 XL-1G
8U de base
CR210H 32Go, 2x Quad Core
Intel Xeon E5-2620.
4 Nodes de base, évolutif
jusqu’à 80 Nodes.
21To à 80Po utiles, 1 à 4 DPL
+ disques internes Node.
HCP 500 XL-10G
8U de base
CR220S 32Go, 2x Quad Core
Intel Xeon E5-2620.
4 Nodes de base, évolutif
jusqu’à 80 Nodes.
21To à 80Po utiles, 1 à 4 DPL
+ disques internes Node.
HCP Anywhere
CR210H 32Go, 1x Quad Core
Intel Xeon E5-2620.
Cluster de 2 Nodes. 6x 300Go SAS 10K par Node.
File Tiering
HCP-to-NFS-to-Tape CrossRoad, QStar & Active Circle Bandes & VTL
HCP-to-HCP HCP-to-HCP S10 (Erasure Coding Data Protection).
Cloud Public Google Cloud Amazon S3 Microsoft Azure
Hitachi Data Systems Corporation
Hitachi est une marque déposée d'Hitachi, Ltd. aux États-Unis et dans d'autres pays. Hitachi Data Systems est une marque déposée et une
marque de service d'Hitachi, Ltd. aux États-Unis et dans d'autres pays. Toutes les autres marques de commerce, marques de service et noms de
sociétés mentionnés dans le présent document ou site Web appartiennent à leur propriétaire respectif.
Avis : Le présent document est à caractère informatif uniquement et ne stipule aucune garantie, expresse ou implicite, sur aucun équipement ou
service offert ou devant être offert par Hitachi Data Systems. Le présent document décrit des fonctionnalités dont les conditions sont définies sur
un contrat de maintenance effectif avec Hitachi Data Systems et pouvant dépendre de la configuration, ainsi que des fonctionnalités qui ne sont
peut-être pas disponibles actuellement.
Contactez votre revendeur Hitachi Data Systems local pour plus d'informations sur la disponibilité des fonctionnalités et des produits
© Hitachi Data Systems Corporation. Tous droits réservés. Septembre 2015. Bertrand.LeQuellec@hds.com.

Contenu connexe

Tendances

USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnels
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsUSI 2013 : 7 changements nécessaires pour sauver vos SI décisionnels
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
 
Présentation Big Data et REX Hadoop
Présentation Big Data et REX HadoopPrésentation Big Data et REX Hadoop
Présentation Big Data et REX HadoopJoseph Glorieux
 
NoSQL User Group Paris - 21 Juin 2011 - GigaSpaces
NoSQL User Group Paris - 21 Juin 2011 - GigaSpacesNoSQL User Group Paris - 21 Juin 2011 - GigaSpaces
NoSQL User Group Paris - 21 Juin 2011 - GigaSpacesFastConnect
 
Hadoop Hbase - Introduction
Hadoop Hbase - IntroductionHadoop Hbase - Introduction
Hadoop Hbase - IntroductionBlandine Larbret
 
Plate-forme Hitachi NAS : description et fonctionnel
Plate-forme Hitachi NAS : description et fonctionnelPlate-forme Hitachi NAS : description et fonctionnel
Plate-forme Hitachi NAS : description et fonctionnelBertrand LE QUELLEC
 
Presentation Hadoop Québec
Presentation Hadoop QuébecPresentation Hadoop Québec
Presentation Hadoop QuébecMathieu Dumoulin
 
GTUG Nantes (Dec 2011) - BigTable et NoSQL
GTUG Nantes (Dec 2011) - BigTable et NoSQLGTUG Nantes (Dec 2011) - BigTable et NoSQL
GTUG Nantes (Dec 2011) - BigTable et NoSQLMichaël Figuière
 
Tours JUG (oct 2010) - NoSQL, des grands du Web aux entreprises
Tours JUG (oct 2010) - NoSQL, des grands du Web aux entreprisesTours JUG (oct 2010) - NoSQL, des grands du Web aux entreprises
Tours JUG (oct 2010) - NoSQL, des grands du Web aux entreprisesMichaël Figuière
 
Aqui hadoop draft
Aqui hadoop draftAqui hadoop draft
Aqui hadoop draftEric Papet
 
Hitachi Hyper Scale-out Platform
Hitachi Hyper Scale-out PlatformHitachi Hyper Scale-out Platform
Hitachi Hyper Scale-out PlatformBertrand LE QUELLEC
 
Cartographie du big data
Cartographie du big dataCartographie du big data
Cartographie du big dataacogoluegnes
 
3 short big_data_oracle
3 short big_data_oracle3 short big_data_oracle
3 short big_data_oraclepour action !
 
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigData
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataPetit-déjeuner MapReduce-La révolution dans l’analyse des BigData
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataMarc Bojoly
 
Hadoop et son écosystème
Hadoop et son écosystèmeHadoop et son écosystème
Hadoop et son écosystèmeKhanh Maudoux
 
Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...
Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...
Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...Arnaud A.
 
BlueData EPIC datasheet (en Français)
BlueData EPIC datasheet (en Français)BlueData EPIC datasheet (en Français)
BlueData EPIC datasheet (en Français)BlueData, Inc.
 
Nosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -intro
Nosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -introNosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -intro
Nosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -introOlivier Mallassi
 
Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]
Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]
Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]IBM France PME-ETI
 

Tendances (20)

USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnels
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsUSI 2013 : 7 changements nécessaires pour sauver vos SI décisionnels
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnels
 
Présentation Big Data et REX Hadoop
Présentation Big Data et REX HadoopPrésentation Big Data et REX Hadoop
Présentation Big Data et REX Hadoop
 
NoSQL User Group Paris - 21 Juin 2011 - GigaSpaces
NoSQL User Group Paris - 21 Juin 2011 - GigaSpacesNoSQL User Group Paris - 21 Juin 2011 - GigaSpaces
NoSQL User Group Paris - 21 Juin 2011 - GigaSpaces
 
Hadoop Hbase - Introduction
Hadoop Hbase - IntroductionHadoop Hbase - Introduction
Hadoop Hbase - Introduction
 
Plate-forme Hitachi NAS : description et fonctionnel
Plate-forme Hitachi NAS : description et fonctionnelPlate-forme Hitachi NAS : description et fonctionnel
Plate-forme Hitachi NAS : description et fonctionnel
 
Introduction à Hadoop
Introduction à HadoopIntroduction à Hadoop
Introduction à Hadoop
 
Presentation Hadoop Québec
Presentation Hadoop QuébecPresentation Hadoop Québec
Presentation Hadoop Québec
 
GTUG Nantes (Dec 2011) - BigTable et NoSQL
GTUG Nantes (Dec 2011) - BigTable et NoSQLGTUG Nantes (Dec 2011) - BigTable et NoSQL
GTUG Nantes (Dec 2011) - BigTable et NoSQL
 
Tours JUG (oct 2010) - NoSQL, des grands du Web aux entreprises
Tours JUG (oct 2010) - NoSQL, des grands du Web aux entreprisesTours JUG (oct 2010) - NoSQL, des grands du Web aux entreprises
Tours JUG (oct 2010) - NoSQL, des grands du Web aux entreprises
 
Aqui hadoop draft
Aqui hadoop draftAqui hadoop draft
Aqui hadoop draft
 
Hitachi Hyper Scale-out Platform
Hitachi Hyper Scale-out PlatformHitachi Hyper Scale-out Platform
Hitachi Hyper Scale-out Platform
 
Cartographie du big data
Cartographie du big dataCartographie du big data
Cartographie du big data
 
3 short big_data_oracle
3 short big_data_oracle3 short big_data_oracle
3 short big_data_oracle
 
Tech day hadoop, Spark
Tech day hadoop, SparkTech day hadoop, Spark
Tech day hadoop, Spark
 
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigData
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataPetit-déjeuner MapReduce-La révolution dans l’analyse des BigData
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigData
 
Hadoop et son écosystème
Hadoop et son écosystèmeHadoop et son écosystème
Hadoop et son écosystème
 
Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...
Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...
Microsoft TechDays 2012 France - BPOS301 La réversibilité des données dans le...
 
BlueData EPIC datasheet (en Français)
BlueData EPIC datasheet (en Français)BlueData EPIC datasheet (en Français)
BlueData EPIC datasheet (en Français)
 
Nosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -intro
Nosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -introNosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -intro
Nosql, hadoop, map reduce, hbase, sqoop, voldemort, cassandra -intro
 
Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]
Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]
Stockage et Cloud [#CloudAccelerate 13/06/2014 @ IBM CC Paris]
 

Similaire à Hitachi Content Platform

Portail SEAL pour Hitachi Content Platform
Portail SEAL pour Hitachi Content PlatformPortail SEAL pour Hitachi Content Platform
Portail SEAL pour Hitachi Content PlatformBertrand LE QUELLEC
 
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !OCTO Technology
 
Big Data Visualization PowerPoint Templates.pptx
Big Data Visualization PowerPoint Templates.pptxBig Data Visualization PowerPoint Templates.pptx
Big Data Visualization PowerPoint Templates.pptxKhadijaHaddaoui
 
Alphorm.com Formation Elastic : Maitriser les fondamentaux
Alphorm.com Formation Elastic : Maitriser les fondamentauxAlphorm.com Formation Elastic : Maitriser les fondamentaux
Alphorm.com Formation Elastic : Maitriser les fondamentauxAlphorm
 
IT Future 2012 - Fujitsu France solutions NetApp
IT Future 2012 - Fujitsu France solutions NetAppIT Future 2012 - Fujitsu France solutions NetApp
IT Future 2012 - Fujitsu France solutions NetAppFujitsu France
 
Avenir des grilles - F. Desprez
Avenir des grilles - F. DesprezAvenir des grilles - F. Desprez
Avenir des grilles - F. DesprezFrederic Desprez
 
Technologies & Systèmes
Technologies & SystèmesTechnologies & Systèmes
Technologies & SystèmesPaulin CHOUDJA
 
Analyse fonctionnelle anmesty international
Analyse fonctionnelle   anmesty internationalAnalyse fonctionnelle   anmesty international
Analyse fonctionnelle anmesty internationalAnnik Ethier
 
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel ArkéaMathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel ArkéaModern Data Stack France
 
Tartine - Pixelle, Refonte de l’ingestion et présentation de l’architecture
Tartine - Pixelle, Refonte de l’ingestion et présentation de l’architectureTartine - Pixelle, Refonte de l’ingestion et présentation de l’architecture
Tartine - Pixelle, Refonte de l’ingestion et présentation de l’architectureconfluent
 
Big Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foinBig Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foinPALO IT
 
Sahara : Hadoop as Service avec OpenStack
Sahara : Hadoop as Service avec OpenStackSahara : Hadoop as Service avec OpenStack
Sahara : Hadoop as Service avec OpenStackALTIC Altic
 
Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Converteo
 
SAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSoft Computing
 

Similaire à Hitachi Content Platform (20)

Portail SEAL pour Hitachi Content Platform
Portail SEAL pour Hitachi Content PlatformPortail SEAL pour Hitachi Content Platform
Portail SEAL pour Hitachi Content Platform
 
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !
 
4 Solutions Linux Spar
4 Solutions Linux Spar4 Solutions Linux Spar
4 Solutions Linux Spar
 
HADOOP + R
HADOOP + RHADOOP + R
HADOOP + R
 
Big Data Visualization PowerPoint Templates.pptx
Big Data Visualization PowerPoint Templates.pptxBig Data Visualization PowerPoint Templates.pptx
Big Data Visualization PowerPoint Templates.pptx
 
case-study-arkena-fr
case-study-arkena-frcase-study-arkena-fr
case-study-arkena-fr
 
Alphorm.com Formation Elastic : Maitriser les fondamentaux
Alphorm.com Formation Elastic : Maitriser les fondamentauxAlphorm.com Formation Elastic : Maitriser les fondamentaux
Alphorm.com Formation Elastic : Maitriser les fondamentaux
 
Traitement distribue en BIg Data - KAFKA Broker and Kafka Streams
Traitement distribue en BIg Data - KAFKA Broker and Kafka StreamsTraitement distribue en BIg Data - KAFKA Broker and Kafka Streams
Traitement distribue en BIg Data - KAFKA Broker and Kafka Streams
 
Quel hadoop (#quelhadoop)
Quel hadoop (#quelhadoop)Quel hadoop (#quelhadoop)
Quel hadoop (#quelhadoop)
 
IT Future 2012 - Fujitsu France solutions NetApp
IT Future 2012 - Fujitsu France solutions NetAppIT Future 2012 - Fujitsu France solutions NetApp
IT Future 2012 - Fujitsu France solutions NetApp
 
Avenir des grilles - F. Desprez
Avenir des grilles - F. DesprezAvenir des grilles - F. Desprez
Avenir des grilles - F. Desprez
 
ANTIDOT - Antidot information factory
ANTIDOT - Antidot information factoryANTIDOT - Antidot information factory
ANTIDOT - Antidot information factory
 
Technologies & Systèmes
Technologies & SystèmesTechnologies & Systèmes
Technologies & Systèmes
 
Analyse fonctionnelle anmesty international
Analyse fonctionnelle   anmesty internationalAnalyse fonctionnelle   anmesty international
Analyse fonctionnelle anmesty international
 
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel ArkéaMathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
Mathias Herberts fait le retour d'expérience Hadoop au Crédit Mutuel Arkéa
 
Tartine - Pixelle, Refonte de l’ingestion et présentation de l’architecture
Tartine - Pixelle, Refonte de l’ingestion et présentation de l’architectureTartine - Pixelle, Refonte de l’ingestion et présentation de l’architecture
Tartine - Pixelle, Refonte de l’ingestion et présentation de l’architecture
 
Big Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foinBig Data ou comment retrouver une aiguille dans une botte de foin
Big Data ou comment retrouver une aiguille dans une botte de foin
 
Sahara : Hadoop as Service avec OpenStack
Sahara : Hadoop as Service avec OpenStackSahara : Hadoop as Service avec OpenStack
Sahara : Hadoop as Service avec OpenStack
 
Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018
 
SAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSAS Forum Soft Computing Théâtre
SAS Forum Soft Computing Théâtre
 

Hitachi Content Platform

  • 1. Hitachi Content Platform File & Content Solutions La solution Hitachi Content Platform (HCP, anciennement nommé Hitachi Content Archive Platform - HCAP) a fortement évoluée depuis le partenariat et l’acquisition de la société Archivas (2006). D’une solution orientée principalement Archivage à Valeur Probatoire, HCP est devenu une solution Cloud Storage, tout en conservant ses fonctionnels guidés par l’intégrité, la conservation, la pérennité et la gestion des rétentions sur les données et les métadonnées. Hitachi Content Platform reste un produit embarquant un espace de stockage de données, mais cette valeur passe au second plan au regard de ses capacités avancées. Aujourd’hui, HCP se propose de répondre aux nouvelles préoccupations de partages de fichiers et d’archivage (probant ou non), dans un cadre moderne d’automatisation de gérance par politiques. Cette gouvernance contemporaine doit certes prendre en compte des aspects de volume sur disques et du nombre de données brutes, mais aussi de simplicité d’utilisation, de mobilité, d’accès universel multi-supports, d’indexation, de recherche et de partage de la multiplicité des connaissances. Au travers de la solution HCP, Hitachi Data Systems s’adresse à de nouveaux acteurs de l’IT. Il ne s’agit pas uniquement de répondre aux besoins de flexibilité de consolidation et de volume important avec une intelligence d’infrastructure, mais bel et bien de toucher l’interopérabilité applicative, la gestion du risque, la gestion de contenus et, surtout, le décisionnel sur l’information, son enrichissement et l’amélioration de production et d’échange au plus près des utilisateurs. Conception Innovante Avec Hitachi Content Platform, la représentation de stockage Objet vient supplanter le concept classique de stockage de fichiers via un NAS. HCP propose un système de fichiers Objet. Il s’agit du regroupement de la gestion classique de fichiers et de répertoires, avec une gestion de métadonnées dite Métier. A titre d’exemple, une photo de vacances est la donnée source inscrite dans un fichier au format RAW ou JPEG ; les métadonnées sont la description du visuel, les notes ou les coordonnées GPS associées. Ces métadonnées sont des compléments d’information sur le contenu de la donnée et son environnement. Elles sont créées avec la source, comme l’ajout des coordonnées GPS, ou à posteriori, comme l’ajout d’annotation par l’utilisateur ou un traitement numérique. L’association Donnée et Métadonnée forme donc la base de l’Objet. A cette association, il est permis d’ajouter des Métadonnées dites de nature Politique. Une Politique est la description, par exemple, du niveau de sécurisation, de l’historisation des versions, du type d’empreinte (SHA) utilisée, pour garantir l’intégrité, etc. L’objet est entier et indépendant du support physique. Il porte donc l’ensemble de ses informations quand il est dupliqué, contrôlé, répliqué, accédé ou supprimé. A ce fonctionnel avancé, HCP intègre des optimisations sur l’espace de stockage (compression, SIS) et le placement intelligent des fichiers jusqu’à un Cloud Public du marché ou des volumes externes disques ou bandes non Hitachi. Ce sont ces valeurs que la solution Hitachi Content Platform porte, étend et délivre en respectant l’indépendance des sources, via une neutralité fonctionnelle, favorisant la réversibilité et l’interopérabilité. La solution HCP est aussi déclinée en offre verticale spécialisée, afin d’adresser des besoins métier précis, telle que la corrélation et l’analyse de contenu, souvent adressé sous le label Big Data. Avec sa capacité intégrée d’indexation, HCP propose un fonctionnel de traitement quantitatif et qualitatif de contenus extrêmement puissant. Le support de Swift vient compléter l’offre HCP sur le marché du Stockage Objet dans les solutions OpenStack.
  • 2. Hitachi Content Platform, principales innovations Multi Tenants & Namespaces – Topologie multi sites Un Tenant est un Environnement Virtuel déterminé par un quota de stockage, des accès privés et une gestion privée de ses Namespaces. Un Namespace est un Espace Virtuel désigné par un quota de stockage, des accès privés et des politiques du Tenant propriétaire. Ces deux désignations Tenant & Namespace sont dissociées de l’administration générale du HCP. Il s’agit d’une sécurisation avancée. Un Tenant est disjoint des autres Tenants, mais aussi de l’administration. Comme un Namespace est disjoint des autres Namespaces du même Tenant, mais aussi des autres Tenants. Cette mécanique permet un cloisonnement étanche entre les zones d’enregistrement et de consultation des Objets. La sécurisation s’applique à tous les niveaux, même quand il s’agit de réaliser des recherches sur les contenus. Elle se prolonge dans une architecture géographiquement répartie via des topologies réparties Global Namespace. Cloud Storage & Object Storage Le Cloud est un concept et désigne une capacité de service IT à la demande, incluant un paiement éventuel. Ce processus implique un échange sécurisé, simple, mesurable et, si possible, indépendant de toute contrainte technique propriétaire. La solution HCP intègre de base un échange standardisé via HTTPs (API RESTful, S3, WebDAV, Swift), afin de faciliter un accès universel et non propriétaire. A cela est ajoutée une capacité de facturation, via des métriques de consommation exprimées en nombre d’objets, bande passante, volume, performance, SLA et service annexe (Versioning, indexation, réplication, etc.). L’accès Web est privilégié, mais les accès CIFS, NFS et SMTP sont possibles sur une même destination. Archivage Technique et Probatoire L’archivage est dans la genèse de la solution HCP. Cette capacité est intégrée comme une Politique sur la donnée. Par exemple, l’élément granulaire d’une rétention, qui caractérise l’archive, est sur la donnée (fichier), mais il est permis de définir des Classes d’Archive, afin d’automatiser des associations entre de multiples données et leur gestion au sein d’une politique Write-Once-Read-Many (WORM) plus globale, orientée Coffre-fort Electronique. Pour un HCP, la principale différence entre une valeur technique et une valeur probatoire réside dans la modification possible de la Politique de conservation. Dans le cas du probatoire, la Politique de base est stricte et ne supporte pas de modification ou de suppression du contenu jusqu’à la fin de rétention. Les autres services sont communs. Scale-Out, Scale-Up & Distributed-Scale L’évolutivité du HCP s’applique principalement sur 3 classes : 2 matérielles et 1 logicielle. Ces organisations distinctes permettent d’augmenter : la puissance de traitement, la volumétrie de stockage physique et le fonctionnel embarqué. Les 80Po du HCP donnent un accès au marché Big Data. Cette capacité est complétée par les Nodes HCP-S pour délivrer jusqu’à 400Po, avec une protection bloc basée sur une technologie dite Erasure Coding. La puissance de traitement est désignée par les CPU. Un HCP est un GRID physique en Cluster haute disponibilité, c’est-à-dire composé de Nodes agrégés (Serveurs ou Blade Serveurs Hitachi) et dédiés au traitement des flux et la gestion des données/métadonnées. Les volumétries des données et des systèmes sont disposées sur une ou plusieurs baies de stockage Hitachi liées aux serveurs Hitachi. La sécurisation des volumes est assurée via des architectures en réplication 3DC, 4DC et 5DC, en Actif/Passif et Actif/Actif multiple. Le fonctionnel embarqué est constitué de base du système d’Objets (jusqu’à 64 milliards), de tous les services et du pilotage des ressources physiques (CPU et disques). Parmi ses capacités, il y a, entre autres, la répartition automatique des données, leur déplacement par classe de stockage, dont la technologie Spin Down, et leur sécurisation.
  • 3. Hitachi Content Platform, caractéristiques Protocole Réseau Service Protection Données Données Système de Fichiers Système de Fichiers CIFS & NFS. HTTP/HTTPs & cURL. Amazon S3 (HS3), WebDAV. SMTP. OpenStack Swift. 8x 1 GbE (cuivre) de base (4 Nodes) en accès public. Ports 10 GbE en option. IPv4 & IPv6. POSIX, Journal, Quota, Versioning, Multiple Metadata, Metadata Query Engine, Chargeback, SLA, Classe de Rétention. Hash (MD, SHA, RIPEMD), Data Protection Level, QoS Réplication, Encryption AES, Tenant/Namespace, Shredding, Géo-Dispersion. Administration Administration Optimisation Extension fonctionnelle HTTPs, SSL, DNS, NTP, Alertes e-mail, RADIUS, GUI & CLI, SNMP (MIB), Syslog. 8x 1 GbE (cuivre) de base (4 Nodes) en réseau privé. Compression, Déduplication (fichier SIS), Load Balancing, Intelligent Object Placement. Service Plan. Erasure Coding avec HCP-S HCP-Data Migration. HDI, HDIM, HDDS, HSO-MS, HCP-AW & HNAS. Hitachi Command Director. Accès Cloisonnement Norme & Conformité Support avancé Object ACL, Login/Password, Active Directory, LDAP, Keystone. Filtre IP (Allow/Deny), Role Base Access (RBAC). 1°000 Tenants 10°000 Namespaces. NF Z42-013/NF Z42-020, ISO 8601, ISO 14721 (OAIS), US DoD 5520-M : Shredding, SEC 17a-4, Sarbanes-Oxley, OSHA, HIPAA, FRCP, DISC PD0008, NASD 2210/3210. Arkivio & Seven10 StorFirst (backup). Mobilité via HCP-AW : MacOS, iOS, Androïd & Windows/Windows Phone. Modèle Contrôleur /Node GRID Cluster Volumétrie (hors HCP-S) HCP VM - 4 Nodes de base, évolutif jusqu’à 40 Nodes. 4To à 4.7Po utiles, 1 à 4 réplicas (DPL). HCP 300 10U de base CR220S 32Go, 1x Quad Core Intel Xeon E5-2620. 4 Nodes de base, évolutif jusqu’à 20 Nodes. 4To à 85To utiles (DPL-2). 18To à 140To utiles (DPL-1). HCP 500 8U de base CR210H 32Go, 2x Quad Core Intel Xeon E5-2620. 4 Nodes de base, évolutif jusqu’à 80 Nodes. 21To à 5Po utiles, 1 à 4 réplicas (DPL). HCP 500 XL-1G 8U de base CR210H 32Go, 2x Quad Core Intel Xeon E5-2620. 4 Nodes de base, évolutif jusqu’à 80 Nodes. 21To à 80Po utiles, 1 à 4 DPL + disques internes Node. HCP 500 XL-10G 8U de base CR220S 32Go, 2x Quad Core Intel Xeon E5-2620. 4 Nodes de base, évolutif jusqu’à 80 Nodes. 21To à 80Po utiles, 1 à 4 DPL + disques internes Node. HCP Anywhere CR210H 32Go, 1x Quad Core Intel Xeon E5-2620. Cluster de 2 Nodes. 6x 300Go SAS 10K par Node. File Tiering HCP-to-NFS-to-Tape CrossRoad, QStar & Active Circle Bandes & VTL HCP-to-HCP HCP-to-HCP S10 (Erasure Coding Data Protection). Cloud Public Google Cloud Amazon S3 Microsoft Azure Hitachi Data Systems Corporation Hitachi est une marque déposée d'Hitachi, Ltd. aux États-Unis et dans d'autres pays. Hitachi Data Systems est une marque déposée et une marque de service d'Hitachi, Ltd. aux États-Unis et dans d'autres pays. Toutes les autres marques de commerce, marques de service et noms de sociétés mentionnés dans le présent document ou site Web appartiennent à leur propriétaire respectif. Avis : Le présent document est à caractère informatif uniquement et ne stipule aucune garantie, expresse ou implicite, sur aucun équipement ou service offert ou devant être offert par Hitachi Data Systems. Le présent document décrit des fonctionnalités dont les conditions sont définies sur un contrat de maintenance effectif avec Hitachi Data Systems et pouvant dépendre de la configuration, ainsi que des fonctionnalités qui ne sont peut-être pas disponibles actuellement. Contactez votre revendeur Hitachi Data Systems local pour plus d'informations sur la disponibilité des fonctionnalités et des produits © Hitachi Data Systems Corporation. Tous droits réservés. Septembre 2015. Bertrand.LeQuellec@hds.com.