Big data

INGENIEUR DATA & DEVELOPPEUR BACK-END
18 Jun 2015
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
Big data
1 sur 30

Contenu connexe

Tendances

Introduction au BIG DATAIntroduction au BIG DATA
Introduction au BIG DATAZakariyaa AIT ELMOUDEN
La Big Data et ses applicationsLa Big Data et ses applications
La Big Data et ses applicationsAffinity Engine
Conception et Réalisation d'un Data WarehouseConception et Réalisation d'un Data Warehouse
Conception et Réalisation d'un Data WarehouseAbderrahmane Filali
Technologies pour le Big DataTechnologies pour le Big Data
Technologies pour le Big DataMinyar Sassi Hidri
Introduction au big dataIntroduction au big data
Introduction au big dataAbdelghani Azri
Big dataBig data
Big dataKarima GHALI

Similaire à Big data

Big dataBig data
Big dataSameh Mbm
Big dataBig data
Big dataIbn Tofail University
Introduction au BigData.pdfIntroduction au BigData.pdf
Introduction au BigData.pdfZkSadrati
Introduction au BigData.pdfIntroduction au BigData.pdf
Introduction au BigData.pdfZkSadrati
Big data: NoSQL comme solutionBig data: NoSQL comme solution
Big data: NoSQL comme solutionJEMLI Fathi
Big Data   Des méandres des outils au potentiel businessBig Data   Des méandres des outils au potentiel business
Big Data Des méandres des outils au potentiel businessMouhsine LAKHDISSI

Big data

Notes de l'éditeur

  1. 1.8 Zettaoctets ont été produits en 2011 (l’équivalent d’un milliard de disque durs de grande capacité récents), un chiffre qui continue à augmenter de 50% chaque année Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources. Ces données sont appeléesBig Data ou volumes massifs de données.
  2. DATA WAREHOUSE (BI traditionnelle) •Sources de données essentiellement internes, connues et structurées •Modèles de données stables •La majorité des données sont des données historiques •De nombreux rapports produits de manière récurrente BIG DATA •Nombreuses sources externes •Importants volumes de données non-structurées •Besoin d’itérations rapides pour expérimenter des hypothèses •L’analyse est faite sur des données qui restent dans leur état brut
  3. La spécialité d’Hadoop, ce serait plutôt le traitement à très grande échelle de grands volumes de données non structurées tels que des documents textuels, des images, des fichiers audio… même s’il est aussi possible de traiter des données semi-structurées ou structurées avec Hadoop.
  4. Au coeur du framework open source se trouve avant tout un système de fichiers en cluster, baptisé HDFS . HDFS a été conçu pour stocker de très gros volumes de données sur un grand nombre de machines équipées de disques durs banalisés. Le filesystem HDFS est conçu pour assurer la sécurité des données en répliquant de multiples fois l’ensemble des données écrites sur le cluster.
  5. C’est pourquoi quand on a besoin un task précis il suffit de poser question à NameData NameData il a connu lieu , contenue de tt DataNoeuds
  6. *Au lieu de parcourir le fichier séquentiellement , il est divisé en morceaux qui sont parcourus en parallèle. Moyen plus efficace et rapide de traiter ces données
  7. Chaque texte, chaque recherche, chaque appel téléphonique, chaque e-mail et chaque photo ou vidéo que vous téléchargez ou action est stocké.