Hitachi Data Systems décline sa proposition pour le Big Data via une solution Software-Defined Data Center (SDDC), nommée Hyper Scale-out Platform (HSP). Elle assure une orchestration des Services de calcul, réseau et stockage, avec des technologies Open Source de machines virtuelles (KVM) et un système distribué Hadoop (HDFS).
Avec UCP pour SAP HANA, HSP est une autre réponse Hitachi dédiée à l’Analytique. L’acquisition de Pentaho par HDS accompagne cette stratégie de délivrer au-delà du simple matériel. La solution Pentaho est intégrée au HSP, afin de bâtir une solution logicielle et matérielle complète et d'accompagner la transformation digitale des entreprises au plus proche de leur Métier.
Déployer et valider un environnement de traitement orienté Big Data sur des solutions Open Source est une tâche complexe, longue, plus couteuse qu'on ne le croit et peu valorisante au regard du métier. HSP répond à cette problématique à travers des composants logiciels et matériels certifiés et maintenus, assurant une meilleure disponibilité vers la réalisation d’un projet piloté par les décisionnaires des projets et les propriétaires des données.
La finalité de la solution HSP est d’être au service des besoins de l’entreprise en traitements analytiques. Au sein de la solution, Hitachi développe et déploie des technologies pour assurer des services nécessitant de haute performance, en partant de l’ingestion multi flux jusqu'à la restitution visuelle des données. Cette gestion évoluée permet de construire des solutions basées sur la recherche, la corrélation et la mise en perspective de flux important d’information dans un cadre temps réel.
Les technologies big data avec speech commentaries
Hitachi Hyper Scale-out Platform
1. Hitachi Hyper Scale-Out Platform
D o n n é e s e t A p p l i c a t i o n s d a n s u n e a r c h i t e c t u r e S D D C
d é d i é e a u x T r a i t e m e n t s A n a l y t i q u e s e t a u D a t a L a k e .
Solution Software Defined Orientée Analyse de Données
Dans la vision Hitachi, la dimension Analytique est un élément très important et,
afin d’accompagner une production efficace sur des critères industrielles de
résilience et de performance, il convient de proposer une réponse adaptée à ce
nouvel enjeu nommé globalement le Big Data.
Hitachi décline sa proposition via une solution Software-Defined Data Center
(SDDC), nommée Hyper Scale-out Platform (HSP). Elle assure une orchestration des
Services de calcul, réseau et stockage, avec des technologies Open Source de
machines virtuelles (KVM) et un système distribué Hadoop (HDFS). Avec UCP pour
SAP HANA, HSP est une autre réponse Hitachi dédiée à l’Analytique. D’autres offres
Analytiques d’Hitachi adressent des métiers précis, comme Hitachi Live Insight for
Telecom et Hitachi Live Insight for IT Operations.
Avec HSP, les utilisateurs déploient leurs propres environnements analytiques associés à un Data Lake distribué
au sein même du HSP. HSP assure le socle commun au besoin d’une plate-forme de multi traitements à forts
volumes d’information, et le besoin d’un Data Lake : évolutif, sécurisé et multi environnements analytiques.
Ces besoins ne consistent pas uniquement à gérer et créer des tableaux de bords sur les données courantes (ce
qui s’est passé). L’ambition est plus grande. Il s’agit aussi d’embarquer les
notions de prédiction (ce qui pourrait se produire) et d’adaptation (comment
apprendre de ce qui s’est déjà produit) sur une échelle quasi temps réel, afin de
proposer et exécuter un décisionnel.
L’acquisition de Pentaho par HDS accompagne cette stratégie de délivrer au-delà
du simple matériel. Ainsi, un Workflow Analytique complet peut être orchestré,
par exemple, au sein de VMs du HSP et via un provisionnement et une sécurisation. Le produit Pentaho Data
Integration (PDI) absorbe les données de sources multiples depuis le système distribué HDFS, les traite et les
stocke à nouveau dans le système distribué, pour une mise à disposition orientée corrélation d’information et
visualisation.
Solution Logicielle et Matérielle Intégrée et Hyper-Convergée
HSP est une solution hyper-convergée SDDC, embarquant tous les
outils matériels et logiciels, pour une mise en production rapide,
simplifiée et maintenue. Ces outils sont basés sur des
développements internes, des partenariats et des intégrations.
L’utilisateur se concentre alors sur son métier et Hitachi assure la
disponibilité et l’évolutivité.
HSP est donc à la fois matérielle et logicielle, composée de serveurs
indépendants formant un double cluster Hadoop et KVM associés à
OpenStack. Le même serveur HSP (Nœud) sert à la fois au stockage
HDFS et au traitement analytique. Ce choix optimise les équipements
matériels et les échanges réseau entre le cluster Hadoop classique et
les applications Analytiques. HSP regroupe donc tout le fonctionnel
certifié et nécessaire à la création et la gestion de services en mode
Cloud Computing & HDFS pour le Big Data.
HSP embarque des technologies comme le système distribué eScaleFS, compatible POSIX/NFS et HDFS, et
propre à Hitachi. Elle délivre aux outils Hadoop (Hbase, Hive, Sqoop, Spark, etc.) des avantages sur : le temps
de déploiement et d’administration ; la suppression de SPOF/SPOC (Single Point of Failure/Contention) ; la
haute disponibilité ; le provisionnement automatique ; l’ingestion parallèle ; la protection de données ; les
performances de déplacement des données ; le support de l’exécution des VMs et la gestion du stockage.