Le concept de Big Data n’a rien de nouveau et les outils et technologiespermettant den tirer parti sont maintenant accessi...
Le Big Data fait la différenceLe Big Data apporte de nombreux avantages, mais impose aussides contraintes à sa mesure. En ...
LIVRE BLANC | BIG DATA, EXIGENCES HORS NORMES	 3Au vu de ces nouvelles exigences imposées par leBig Data et de l’importanc...
LIVRE BLANC | BIG DATA, EXIGENCES HORS NORMES	 4EMC Isilon offre des solutions de stockage scale-outextrêmement flexibles,...
Prochain SlideShare
Chargement dans…5
×

Big Data exigences hors normes

699 vues

Publié le

Face à la croissance du volume des données non structurées au sein des entreprises, la mise en place de nouvelles approches de gestion de ces données s’impose comme une nécessité. De même un système de stockage efficace et évolutif est indispensable pour gérer cette croissance. L’étude ESG a fait ressortir 3 grands avantages de l’implémentation du stockage scale-out : 1) évolutivité accrue 2) performances accrues et 3) disponibilité accrue des données.

Publié dans : Technologie, Business
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
699
Sur SlideShare
0
Issues des intégrations
0
Intégrations
212
Actions
Partages
0
Téléchargements
0
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Big Data exigences hors normes

  1. 1. Le concept de Big Data n’a rien de nouveau et les outils et technologiespermettant den tirer parti sont maintenant accessibles à toutes les entreprises,quelle que soit leur taille. Des secteurs comme les médias, le divertissement et larecherche et le développement manipulent depuis longtemps de gros volumesde données dans des formats non structurés, qui changent en temps quasi réel.Cependant, l’exploitation de ces données en vue d’en extraire des informations aun coût prohibitif et exige généralement des technologies sur mesure onéreuses.Désormais, grâce aux progrès des techniques de stockage et d’analyse prédictive,toutes les entreprises peuvent tirer le meilleur parti du Big Data pour identifier lestendances permettant de rendre leur modèle plus agile, novateur et compétitif.Plusieurs facteurs décisionnels importants expliquent l’intérêt croissant pour leBig Data :• La volonté de mieux comprendre les clients :les entreprises veulentidentifier les clients les plus rentables et trouver des solutions pour réduire letaux d’attrition et améliorer les niveaux de revenu par client.• La quête de l’efficacité opérationnelle : les entreprises souhaitent bénéficierd’une vue d’ensemble de leurs processus métiers, qu’il s’agisse du contrôle qualité,de la fabrication ou du service clients, afin d’en améliorer l’efficacité et la fluidité.• Les impératifs de gestion des risques : concrètement, les entreprisessouhaitent améliorer la sécurité informatique et réduire les fraudes, en détectantpar exemple les menaces réseau avancées et les anomalies dans les transactions.• L’identification de nouvelles possibilités d’innovation : la découvertede nouveaux produits, de nouveaux services et de nouvelles opportunitéscommerciales est un facteur déterminant.LE STOCKAGE SCALE-OUT RÉPOND AUXBESOINS DES ENTREPRISES EN CE QUICONCERNE LE BIG DATABIG DATA,EXIGENCESHORS NORMES
  2. 2. Le Big Data fait la différenceLe Big Data apporte de nombreux avantages, mais impose aussides contraintes à sa mesure. En effet, il présente plusieurs aspectsclés qui le différencient des données d’entreprise traditionnelles :• Il est volumineux : les entreprises génèrent etcollectent de gros volumes de données ordinaires, maisle Big Data est tout simplement à une autre échelle.• Il est principalement non structuré : le Big Datainclut des fichiers journaux Internet, des imagesnumérisées, des vidéos de surveillance, des commentairessur un site Web, des informations biométriques et dautrestypes d’informations numériques. Ces données sontdifficiles à ranger dans les lignes et les colonnes d’une basede données ; pourtant, elles représentent près de 80 % dela croissance des données aujourd’hui, selon les experts.• Il change constamment : le Big Data évolue souventen temps réel ou quasi réel. C’est le cas par exemple descommentaires des clients sur un site Web. Ces donnéesdoivent être collectées sur de longues périodes pour qu’ilsoit possible d’identifier des schémas et des tendances.Il est désormais admis que pour tirer pleinement partidu Big Data, il est indispensable d’analyser l’ensemble desdonnées numériques disponibles et de les soumettre à desitérations. De simples snapshots de données n’apportentque des éléments de réponse généralement insuffisantspour dresser un tableau complet ou résoudre un défi métierspécifique. D’autre part, la collecte et le stockage efficaces deces données pour les soumettre à une analyse itérative ont unimpact significatif sur les ressources de gestion informatiqueet de stockage d’une entreprise. Les professionnels dustockage se voient dans l’obligation de trouver des solutionsde Big Data qui répondent aux attentes, sans pour autantdépasser des budgets déjà très serrés ou imposer desinvestissements importants en personnel spécialisé.« Ces objectifs n’ont rien de nouveau, mais les avancéesen matière de stockage et d’analyse prédictive permettentdésormais aux entreprises de valoriser leurs données plusrapidement, plus facilement et de manière plus économique.Il est même possible d’inclure des sources de donnéesexternes, pour une analyse encore plus fine. » expliqueGenerosa Litton, Directrice marketing du Big Data chez EMC.Pour concrétiser ces objectifs métiers, les entreprisesdoivent repenser leur mode de gestion des données. Et parceque le Big Data est par définition volumineux, non structuréet en constante évolution, il implique une nouvelle approcheen rupture avec les techniques utilisées pour les donnéestraditionnelles. Pour tirer parti des opportunités offertespar le Big Data, les entreprises doivent se tourner vers dessolutions technologiques intégrant les composants suivants :• une infrastructure de stockage scale-out polyvalente,efficace et facile à gérer permettant d’obtenir rapidementet facilement des résultats ;• une plate-forme d’analyse prédictive unifiée et agile pourles données structurées et non structurées, avec unecouche de productivité autorisant la collaboration ;• des fonctions permettant de devenir plus prédictif,en déclenchant des actions concrètes à partir destendances identifiées et en favorisant la réactivité.Ces composants essentiels permettent de mettre en placedes infrastructures à la mesure des promesses du Big Data.« Dans notre cas, le Big Data est un atout pour les partiesprenantes de l’entreprise qui sont chargées d’effectuer uneanalyse prédictive critique à partir de Datasets volumineux. »constate Paul English, directeur informatique de 3TIER,une entreprise spécialisée dans l’analyse des risques liésaux énergies renouvelables.1« Nous avons mis en placeune plate-forme capable de prendre en charge les besoinsinformatiques de notre entreprise, ainsi que les calculshautes performances indispensables pour valoriser desDatasets volumineux et en faire bénéficier nos clients. Enrésumé, nous extrayons de la valeur et la monétisons. »« Dans notre cas, le Big Data est unatout pour les parties prenantesde l’entreprise qui sont chargéesd’effectuer une analyse critique àpartir de Datasets volumineux. »Paul EnglishDirecteur informatique de 3TIERLIVRE BLANC | BIG DATA, EXIGENCES HORS NORMES 21https://community.emc.com/community/events/live_events/theater_27  ÆLe Big Data transforme les énergies renouvelablesVoir comment 3TIER s’appuie sur EMC Isilon pour tirer parti duBig Data. Avec Isilon, 3TIER aide ses clients à trouver le justeéquilibre entre risques et opportunités afin d’exploiter au mieuxles projets d’énergie propre.http://youtu.be/iqSNXZL8GFk
  3. 3. LIVRE BLANC | BIG DATA, EXIGENCES HORS NORMES 3Au vu de ces nouvelles exigences imposées par leBig Data et de l’importance dun traitement correct desdonnées, la plupart des entreprises estiment que la gestionde la croissance des données, le provisionnement dustockage et l’exécution d’analyses prédictives rapides, fiableset itératives constituent des priorités absolues, selon uneétude récente menée par Enterprise Strategy Group (ESG).2Dans cette étude, réalisée en mars 2012, les 399 participantsont reconnu unanimement que le Big Data mettait leursinfrastructures informatiques actuelles à rude épreuve etqu’ils envisageaient de mettre en place des infrastructuresévolutives dans leurs datacenters. C’est précisément cettesurcharge qui dicte une nouvelle approche du stockage.« Les entreprises ont pris conscience de la valeur de leursdonnées et la plupart cherchent un moyen den tirer le meilleurparti afin doptimiser leurs résultats. Elles cherchent égalementà découvrir des éléments d’information leur permettantd’identifier de nouvelles opportunités commerciales, denouveaux services aux clients et de meilleures méthodesde réduction des coûts. » explique Mike Noble, Directeur dumarketing produits chez EMC. « Elles savent aussi qu’il leurfaut protéger ces données, les conserver en lieu sûr et seconformer aux exigences réglementaires. »unique, hautement évolutive. Elles ont également besoin defonctions automatisées de gestion, de provisionnement etde hiérarchisation pour faire face à la croissance rapide duBig Data. »Les architectures de stockage doivent être centrées surle Big Data et inclure les caractéristiques suivantes :• Évolutivité pour prendre en charge des datastorestoujours plus volumineux, y compris la possibilitéd’ajouter aisément des ressources de stockagesupplémentaires au gré des besoins.• Hautes performances pour assurer des temps deréponse et d’acquisition de données aussi courts quepossible afin de ne pas ralentir le rythme des activités.• Efficacité maximale afin de réduire les coûts destockage et dérivés du datacenter.• Simplicité opérationnelle pour rationaliser la gestiond’un environnement de données à grande échelle sansavoir à recruter des informaticiens.• Protection des données d’entreprise afind’assurer une haute disponibilité pour les utilisateursinternes et la continuité de l’activité en cas de sinistre.• Interopérabilité pour intégrer des environnements trèscomplexes et mettre en place une infrastructure agile quiprenne en charge une vaste gamme d’applications métierset de plates-formes d’analyse prédictive, telles que Hadoop.  ÆEMC Isilon : le système NAS le plus rapideau monde pour le Big DataLe système NAS scale-out EMC Isilon a été certifié par SPECsfscomme le système NAS le plus rapide au monde sur la base derésultats de test validés démontrant des performances de plusde 1,1 million d’E/S par seconde NFS et de plus de 1,6 milliond’E/S par seconde CIFS. Les performances exceptionnelles d’Isilonpermettent aux entreprises de générer de la valeur à partir duBig Data tout en respectant des contraintes de budget et de temps.http://youtu.be/B1OT06ooGhc« Les entreprises ont pris consciencede la valeur de leurs données et laplupart cherchent un moyen dentirer le meilleur parti afin doptimiserleurs résultats. »Mike NobleDirecteur du marketing produits, EMC2Rapport ESG Research, juillet 2012 : « The Convergence of Big Data Processing and Integrated Infrastructure »Repenser le stockageLe Big Data implique d’accroître la capacité, l’évolutivitéet d’assurer une accessibilité efficace sans augmenterles ressources nécessaires. Les architectures de stockageclassiques ont été conçues pour évoluer en fonction duvolume de données. Dans ce cas, l’évolution consiste àaugmenter la capacité en ajoutant du matériel de stockageet en créant des silos, ce qui ne résout pas le problème del’impact des données supplémentaires sur les performances.« Dans les architectures de stockage traditionnelles,les systèmes reposant sur un contrôleur RAID entraînentla prolifération des systèmes de stockage et créent unenvironnement organisé en silos. » explique Eric Seidman,Directeur du marketing produits chez EMC. « Pourtant,les entreprises doivent être en mesure de consoliderleurs ressources au sein d’une infrastructure de stockage
  4. 4. LIVRE BLANC | BIG DATA, EXIGENCES HORS NORMES 4EMC Isilon offre des solutions de stockage scale-outextrêmement flexibles, parfaitement adaptées aux besoinsde stockage et d’analyse prédictive du Big Data. Pilotéepar un système d’exploitation novateur, Isilon OneFS,la plate-forme Isilon de stockage scale-out rattaché auréseau (NAS) permet de mettre en place une infrastructureaussi efficace que fiable, capable d’évoluer facilementen termes de capacité et de performances. Elle simplifieet réduit la gestion du stockage à quelques heures parsemaine et optimise les ressources en implémentant unestratégie de stockage automatisée et hiérarchisée.Elle optimise également le retour surinvestissement, du fait de taux d’utilisation du stockageparticulièrement élevés, et réduit aussi bien lesdépenses d’investissement que les coûts opérationnels.Vous trouverez ci-dessous quelques-unes desprincipales caractéristiques de la plate-forme destockage scale-out EMC Isilon :4 Évolutivité à grande échelle : évolue facilementjusqu’à plus de 15 Po de stockage au sein d’un systèmede fichiers et d’un volume uniques simples à gérer.4 Performances exceptionnelles : assure undébit de plus de 100 Go et établit un recordSPECsfs, avec 1,6 million d’E/S par seconde dansun environnement CIFS/SMB.4 Efficacité optimale : renforce l’efficacité avecdes taux d’utilisation du stockage supérieursà 80 % en empêchant la formation de « pointssensibles » et en automatisant les fonctions degestion et de hiérarchisation du stockage.4 Sécurité et protection des données d’entreprise :assure une sauvegarde et une protection efficaces desdonnées, une reprise après sinistre fiable et la rétentiondes données de type WORM.4 Simplicité de gestion : permet de faire évoluerla capacité et les performances sans alourdir lesdépenses d’exploitation (OPEX), y compris dans unsystème de fichiers unique, un volume unique etespace de nommage global.4 Flexibilité opérationnelle : inclut la prise encharge intégrée d’une vaste gamme de protocolesstandard, tels que NFS, SMB, HTTP, FTP et iSCSI.4 Prise en charge native de Hadoop : assure la priseen charge native de Hadoop en intégrant le système defichiers HDFS (Hadoop Distributed File System) dans lesystème d’exploitation EMC Isilon OneFS afin de faciliterle déploiement d’une solution complète de stockage.L’approche EMCConclusionFace à la croissance du volume des données non structurées ausein des entreprises, la mise en place de nouvelles approchesde gestion de ces données s’impose comme une nécessité.De même, un système de stockage efficace et évolutif estindispensable pour gérer cette croissance. L’étude d’ESG a faitressortir trois grands avantages de l’implémentation d’un stockagescale-out : 1) évolutivité accrue, 2) performances accrues (entermes d’E/S comme de débit) et 3) disponibilité accrue desdonnées. Le stockage scale-out, associé à des outils puissantsd’analyse prédictive capables de mettre en lumière de précieusesinformations dans ce foisonnement de données, constitue laconfiguration idéale pour exploiter au mieux le Big Data.Reposant sur le système d’exploitation OneFS, les solutions destockage scale-out EMC Isilon proposent aux utilisateurs unelarge gamme d’options pour satisfaire leurs besoins en matièrede stockage du Big Data.Étapes suivantesPour en savoir plus sur les solutions Big Data d’EMC etdécouvrir comment elles peuvent contribuer à transformervotre entreprise, consultez les pages :http://france.emc.com/BigDatawww.isilon.comtwitter.com/emcbigdata

×