Le document présente Hadoop et MapReduce, deux composants clés pour le stockage et le traitement de grandes quantités de données. Hadoop utilise un système de fichiers distribué (HDFS) pour le stockage, tandis que MapReduce divise les tâches de traitement entre plusieurs machines pour une exécution parallèle. L'écosystème Hadoop comprend divers outils tels que Pig, Hive et HBase pour simplifier l'interaction avec les données.