Collecting, collating and carrying out complex data analysis(weblogs & KPI). Also involved in reporting statistical findings to work colleagues and senior managers.
Business Intelligence Reporting Solution Imad ALILAT
This presentation will help you understand the basic building blocks of Business Intelligence. Learn how decisions are triggered, the complete decision process and who makes decisions in the corporate world.
More importantly, understand core components of a Business Intelligence architecture such as a data warehouse, data mining, ETL Process (Extract-Transform-Load) and data reporting. Each component plays an integral part which enables today's managers and decision makers collect, analyze and interpret data to make it actionable for decision making.
Business intelligence has become an integral part that needs to be incorporated to ensure business survival. It is a tool that helps analyze historical data and forecast future so that your are always one step ahead in your business.
Please feel free to like, share and comment as you please!
[devops REX 2016] Comment nous cultivons la philosophie DevOps grâce au Leandevops REX
Tristan Roussel, Theodo @ devops REX 2016
À Theodo, nous développons des applications pour nos clients. Ces applications n’apportent de la valeur que lorsqu’elles sont en production. La théorie Lean, signifiant la lutte contre le gaspillage, est pour nous la clé de l’accélération des déploiements de nos applications et de notre croissance. Je vous présenterai quels outils nous utilisons pour résoudre nos problèmes, nos pratiques quotidiennes pour stimuler notre progression et comment le Lean nous permet de cultiver la philosophie devops.
Au delà de ce buzz word :
Les grands concepts
Les étapes clés des projets Big Data et les technologies à utiliser (stockage, ingestion, …)
Les enjeux des architectures Big Data (architecture lambda, …)
L'intelligence artificielle (machine learning, deep learning, …)
Et un cas d'usage du big data sur AWS autour de l'utilisation des données gyroscopiques de vos internautes mobiles.
CNES - CCT SIL - Traitement et Manipulation de la donnée à l‘aide des technologies Big Data
Présentation du 30 Juin 2017
Les CCT sont des espaces d'échanges techniques mis en place par le CNES il y a 20 ans, dans le but de réunir différents acteurs industriels et public pour s'enrichir mutuellement.
Adoption de Hadoop : des Possibilités Illimitées - Hortonworks and TalendHortonworks
Hadoop has become unavoidable. Companies of all sizes are at different stages of their thoughts on Big Data. Whether you're just starting to explore the platform or you already have several existing clusters, everyone faces the same challenge - to develop its internal expertise.
Specialists of Big Data, Talend, and Hortonworks, watch this webinar to discover how to unify all your data in Hadoop, without specific skills Big Data.
Business Intelligence Reporting Solution Imad ALILAT
This presentation will help you understand the basic building blocks of Business Intelligence. Learn how decisions are triggered, the complete decision process and who makes decisions in the corporate world.
More importantly, understand core components of a Business Intelligence architecture such as a data warehouse, data mining, ETL Process (Extract-Transform-Load) and data reporting. Each component plays an integral part which enables today's managers and decision makers collect, analyze and interpret data to make it actionable for decision making.
Business intelligence has become an integral part that needs to be incorporated to ensure business survival. It is a tool that helps analyze historical data and forecast future so that your are always one step ahead in your business.
Please feel free to like, share and comment as you please!
[devops REX 2016] Comment nous cultivons la philosophie DevOps grâce au Leandevops REX
Tristan Roussel, Theodo @ devops REX 2016
À Theodo, nous développons des applications pour nos clients. Ces applications n’apportent de la valeur que lorsqu’elles sont en production. La théorie Lean, signifiant la lutte contre le gaspillage, est pour nous la clé de l’accélération des déploiements de nos applications et de notre croissance. Je vous présenterai quels outils nous utilisons pour résoudre nos problèmes, nos pratiques quotidiennes pour stimuler notre progression et comment le Lean nous permet de cultiver la philosophie devops.
Au delà de ce buzz word :
Les grands concepts
Les étapes clés des projets Big Data et les technologies à utiliser (stockage, ingestion, …)
Les enjeux des architectures Big Data (architecture lambda, …)
L'intelligence artificielle (machine learning, deep learning, …)
Et un cas d'usage du big data sur AWS autour de l'utilisation des données gyroscopiques de vos internautes mobiles.
CNES - CCT SIL - Traitement et Manipulation de la donnée à l‘aide des technologies Big Data
Présentation du 30 Juin 2017
Les CCT sont des espaces d'échanges techniques mis en place par le CNES il y a 20 ans, dans le but de réunir différents acteurs industriels et public pour s'enrichir mutuellement.
Adoption de Hadoop : des Possibilités Illimitées - Hortonworks and TalendHortonworks
Hadoop has become unavoidable. Companies of all sizes are at different stages of their thoughts on Big Data. Whether you're just starting to explore the platform or you already have several existing clusters, everyone faces the same challenge - to develop its internal expertise.
Specialists of Big Data, Talend, and Hortonworks, watch this webinar to discover how to unify all your data in Hadoop, without specific skills Big Data.
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/34EYBaE
Découvrez la Data Virtualization lors d'un atelier organisé à distance pour les professionnels de la donnée mardi 29 octobre. Quel que soit votre rôle, responsables IT, architectes, data scientists, analystes ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Track 2 - Atelier 1 - Big data analytics présenté avec IntelAmazon Web Services
En savoir plus sur les outils, techniques et technologies pour travailler de manière productive avec des données à n'importe quelle échelle. Vous découvrirez la gamme d'outils d'analyse des données disponible sur AWS et que vous pouvez utiliser pour collecter, stocker, analyser et partager vos données, pour des volumes allant du giga-octets au péta-octets (1024 tera-octets). Nous discuterons d’Amazon Elastic MapReduce, d’Hadoop, de données structurées et non structurées, et des types d'instances Amazon EC2 qui permettent des analyses hautes performances à coûts optimisés.
Le stockage des données a toujours été une des problématiques les plus difficiles à maitriser. L’augmentation massive de la quantités de données disponibles, le phénomène Big Data, incite les sociétés à moderniser leur environnement décisionnel. Dès lors, beaucoup se posent la question du choix entre SQL et NoSQL. Microsoft, avec son offre SQL Server Parallel Data Warehouse 2012 réconcilie le meilleur des technologies actuelles. Un seul moto ‘Insights on Any Data of Any Size’
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Modern Data Stack France
Hadoop User Group du lundi 6 oct 2014:
Talk #3: Administration Hadoop et retour d’expérience BI avec Impala, limites et recommandations par Abed Ajraou et Cherif Tifrani de Solocal (Pages Jaunes).
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationDenodo
Watch full webinar here: https://buff.ly/47gqTVV
Une session découverte de Denodo Platform pour les professionnels de la data
D'après la dernière étude du cabinet Forrester The Total Economic Impact™️ of Data Virtualization Using The Denodo Platform, l’impact de la Data Virtualization avec Denodo permet un ROI de 408% et inférieur à 6 mois, une réduction de 65 % des délais de livraison des données par rapport à l'ETL, de 83 % du time-to-revenue et de 67 % du temps alloué à la préparation des données.
Découvrez lors de cette session en ligne de 1h30 en quoi la Logical Data Fabric et la data virtualization révolutionnent l'approche métier & IT dans l’accès, la livraison, la consommation, la gouvernance et la sécurisation de vos données, quel que soit l'âge de votre technologie, le format de la donnée ou son emplacement.
Avec plus de 1000 clients à travers le monde, Denodo est heureux de vous inviter à cette session en ligne le 14 novembre 2023 de 9h30 à 11h. Si vous êtes un IT Manager, architecte, DSI, Data Scientist ou Data Analyst, cet atelier est pour vous!
CONTENU
Au programme : une introduction à ce qu'est la virtualisation des données, les cas d'usages, des études de cas clients réels et une démo guidée pas à pas des fonctionnalités de Denodo Platform avec notre version gratuite sur le cloud, Denodo Test Drive. Vous apprendrez comment:
- Intégrer et livrer vos données rapidement et facilement à l'aide de Denodo Platform
- L'optimiseur de requêtes de Denodo fournit des données en temps réel, à la demande, même lorsqu'il s'agit de jeux de données très volumineux
- Exposer les données en tant que «services de données» en vue d’être consommées par une variété d'utilisateurs et d'outils
- La virtualisation des données joue un rôle essentiel dans la gouvernance et la sécurité des données au sein de votre organisation
Oxalide MorningTech #1 - BigData
1er MorningTech @Oxalide, animé par Ludovic Piot (@lpiot), le 15 décembre 2016.
Pour cette 1ère édition du Morning Tech nous vous proposons une overview sur un des thèmes du moment : le Big Data.
Au delà de ce buzz word nous aborderons :
Les grands concepts
Les étapes clés des projets Big Data et les technologies à utiliser (stockage, ingestion, …)
Les enjeux des architectures Big Data (architecture lambda, …)
L'intelligence artificielle (machine learning, deep learning, …)
Et nous finirons par un cas d'usage du big data sur AWS autour de l'utilisation des données gyroscopiques de vos internautes mobiles
Subject: Oxalide's 1st MorningTech talk about BigData.
Date: 15-dec-2016
Speakers: Ludovic Piot (@lpiot, @oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morningtech-number-1-bigdata
Lien SlideShare : https://www.slideshare.net/LudovicPiot/oxalide-morningtech-1-bigdata
YouTube Video capture: https://youtu.be/7O85lRzvMY0
Main topics:
* Les grands enjeux du BigData
** les 3 V du Gartner : volume, variété, vélocité
* Le stockage des données
** datalake
** les technos
* L'ingestion des données
** ETL
** datastream
** les technos
* Les enjeux du compute
** map-reduce
** spark
** lambda architecture
* Démo d'une plateforme BigData sur AWS
* L'intelligence artificielle
** datascience exploratoire et notebooks,
** machine learning,
** deep learning,
** data pipeline
** les technos
* Pour aller plus loin
** La gouvernance des données
** La dataviz
La Duck Conf 2018 : "Superbe maison d'architecte avec vue sur le lac"OCTO Technology
Présentation du talk de Thomas Vial à La Duck Conf 2018.
"Le data lake Hadoop doit rationaliser la BI du Groupe et porter les use cases analytiques, grâce à une démarche agile centrée sur la gouvernance des données".
Stop au buzz : à quoi peut (vraiment) servir un data lake, comment s'y prendre pour le mettre en place et comment le faire évoluer. Vous repartirez avec une liste de sujets à instruire et d'écueils à éviter pour en faire des projets vivants, et pas seulement ronflants.
Converteo renouvelle son panorama sur les opportunités liées à une infrastructure Data-Lakes. Cette technologie a démontré ses capacités d’exploitation et de valorisation des datas des entreprises et, dans un contexte de mise en conformité RGPD, révèle encore plus son agilité.
Mieux comprendre le Data-Lake :
Littéralement traduit par lac de données, il s’agit d’un espace de stockage permettant le traitement d’informations de plusieurs sources et ce, de manière quasi illimitée et en un temps record.
Le Data-Lake est donc une réelle opportunité et doit être considéré en amont de toute démarche data-driven, que ce soit dans le domaine :
- Du marketing : pour alimenter des campagnes, choisir un lieu d’implantation d’un nouveau magasin ;
- De l’expérience client : pour personnaliser une offre, recommander les produits adéquats ;
- De la business Intelligence : pour créer une vision 360° de ses clients, piloter la pression publicitaire ;
- De la performance opérationnelle : pour réduire ses coûts informatiques, adapter ses ressources en fonction de l’activité.
Infrastructure flexible, elle permet donc un large champ d’analyse qualitative avec des données activables à tout moment en fonction des besoins business.
Le Big Data offre la capacité de traiter des volumes de données conséquents à l’aide d’architectures techniques nouvelles, comment les utilisateurs traditionnels (datamanager, datasteward, dataminers) accèderont et traiteront les données dans ces nouvelles architectures ?
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/34EYBaE
Découvrez la Data Virtualization lors d'un atelier organisé à distance pour les professionnels de la donnée mardi 29 octobre. Quel que soit votre rôle, responsables IT, architectes, data scientists, analystes ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Track 2 - Atelier 1 - Big data analytics présenté avec IntelAmazon Web Services
En savoir plus sur les outils, techniques et technologies pour travailler de manière productive avec des données à n'importe quelle échelle. Vous découvrirez la gamme d'outils d'analyse des données disponible sur AWS et que vous pouvez utiliser pour collecter, stocker, analyser et partager vos données, pour des volumes allant du giga-octets au péta-octets (1024 tera-octets). Nous discuterons d’Amazon Elastic MapReduce, d’Hadoop, de données structurées et non structurées, et des types d'instances Amazon EC2 qui permettent des analyses hautes performances à coûts optimisés.
Le stockage des données a toujours été une des problématiques les plus difficiles à maitriser. L’augmentation massive de la quantités de données disponibles, le phénomène Big Data, incite les sociétés à moderniser leur environnement décisionnel. Dès lors, beaucoup se posent la question du choix entre SQL et NoSQL. Microsoft, avec son offre SQL Server Parallel Data Warehouse 2012 réconcilie le meilleur des technologies actuelles. Un seul moto ‘Insights on Any Data of Any Size’
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Modern Data Stack France
Hadoop User Group du lundi 6 oct 2014:
Talk #3: Administration Hadoop et retour d’expérience BI avec Impala, limites et recommandations par Abed Ajraou et Cherif Tifrani de Solocal (Pages Jaunes).
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationDenodo
Watch full webinar here: https://buff.ly/47gqTVV
Une session découverte de Denodo Platform pour les professionnels de la data
D'après la dernière étude du cabinet Forrester The Total Economic Impact™️ of Data Virtualization Using The Denodo Platform, l’impact de la Data Virtualization avec Denodo permet un ROI de 408% et inférieur à 6 mois, une réduction de 65 % des délais de livraison des données par rapport à l'ETL, de 83 % du time-to-revenue et de 67 % du temps alloué à la préparation des données.
Découvrez lors de cette session en ligne de 1h30 en quoi la Logical Data Fabric et la data virtualization révolutionnent l'approche métier & IT dans l’accès, la livraison, la consommation, la gouvernance et la sécurisation de vos données, quel que soit l'âge de votre technologie, le format de la donnée ou son emplacement.
Avec plus de 1000 clients à travers le monde, Denodo est heureux de vous inviter à cette session en ligne le 14 novembre 2023 de 9h30 à 11h. Si vous êtes un IT Manager, architecte, DSI, Data Scientist ou Data Analyst, cet atelier est pour vous!
CONTENU
Au programme : une introduction à ce qu'est la virtualisation des données, les cas d'usages, des études de cas clients réels et une démo guidée pas à pas des fonctionnalités de Denodo Platform avec notre version gratuite sur le cloud, Denodo Test Drive. Vous apprendrez comment:
- Intégrer et livrer vos données rapidement et facilement à l'aide de Denodo Platform
- L'optimiseur de requêtes de Denodo fournit des données en temps réel, à la demande, même lorsqu'il s'agit de jeux de données très volumineux
- Exposer les données en tant que «services de données» en vue d’être consommées par une variété d'utilisateurs et d'outils
- La virtualisation des données joue un rôle essentiel dans la gouvernance et la sécurité des données au sein de votre organisation
Oxalide MorningTech #1 - BigData
1er MorningTech @Oxalide, animé par Ludovic Piot (@lpiot), le 15 décembre 2016.
Pour cette 1ère édition du Morning Tech nous vous proposons une overview sur un des thèmes du moment : le Big Data.
Au delà de ce buzz word nous aborderons :
Les grands concepts
Les étapes clés des projets Big Data et les technologies à utiliser (stockage, ingestion, …)
Les enjeux des architectures Big Data (architecture lambda, …)
L'intelligence artificielle (machine learning, deep learning, …)
Et nous finirons par un cas d'usage du big data sur AWS autour de l'utilisation des données gyroscopiques de vos internautes mobiles
Subject: Oxalide's 1st MorningTech talk about BigData.
Date: 15-dec-2016
Speakers: Ludovic Piot (@lpiot, @oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morningtech-number-1-bigdata
Lien SlideShare : https://www.slideshare.net/LudovicPiot/oxalide-morningtech-1-bigdata
YouTube Video capture: https://youtu.be/7O85lRzvMY0
Main topics:
* Les grands enjeux du BigData
** les 3 V du Gartner : volume, variété, vélocité
* Le stockage des données
** datalake
** les technos
* L'ingestion des données
** ETL
** datastream
** les technos
* Les enjeux du compute
** map-reduce
** spark
** lambda architecture
* Démo d'une plateforme BigData sur AWS
* L'intelligence artificielle
** datascience exploratoire et notebooks,
** machine learning,
** deep learning,
** data pipeline
** les technos
* Pour aller plus loin
** La gouvernance des données
** La dataviz
La Duck Conf 2018 : "Superbe maison d'architecte avec vue sur le lac"OCTO Technology
Présentation du talk de Thomas Vial à La Duck Conf 2018.
"Le data lake Hadoop doit rationaliser la BI du Groupe et porter les use cases analytiques, grâce à une démarche agile centrée sur la gouvernance des données".
Stop au buzz : à quoi peut (vraiment) servir un data lake, comment s'y prendre pour le mettre en place et comment le faire évoluer. Vous repartirez avec une liste de sujets à instruire et d'écueils à éviter pour en faire des projets vivants, et pas seulement ronflants.
Converteo renouvelle son panorama sur les opportunités liées à une infrastructure Data-Lakes. Cette technologie a démontré ses capacités d’exploitation et de valorisation des datas des entreprises et, dans un contexte de mise en conformité RGPD, révèle encore plus son agilité.
Mieux comprendre le Data-Lake :
Littéralement traduit par lac de données, il s’agit d’un espace de stockage permettant le traitement d’informations de plusieurs sources et ce, de manière quasi illimitée et en un temps record.
Le Data-Lake est donc une réelle opportunité et doit être considéré en amont de toute démarche data-driven, que ce soit dans le domaine :
- Du marketing : pour alimenter des campagnes, choisir un lieu d’implantation d’un nouveau magasin ;
- De l’expérience client : pour personnaliser une offre, recommander les produits adéquats ;
- De la business Intelligence : pour créer une vision 360° de ses clients, piloter la pression publicitaire ;
- De la performance opérationnelle : pour réduire ses coûts informatiques, adapter ses ressources en fonction de l’activité.
Infrastructure flexible, elle permet donc un large champ d’analyse qualitative avec des données activables à tout moment en fonction des besoins business.
Le Big Data offre la capacité de traiter des volumes de données conséquents à l’aide d’architectures techniques nouvelles, comment les utilisateurs traditionnels (datamanager, datasteward, dataminers) accèderont et traiteront les données dans ces nouvelles architectures ?
Social Network Analysis Utilizing Big Data Technology
1. PROJET DE FIN D’ETUDE
SOCIAL NETWORK ANALYSIS
UTILIZING BIG DATA TECHNOLOGY
Présenté par :
ALILAT IMAD
Sujet proposé par :
M. LAIDDOUDI
Devant le jury :
Mr. AYACHE Président
Mme. CHENAIT Membre
2016
-
2017
2. PLAN
• Introduction Générale
• Etude de l’existant
• Big Data et Hadoop
• Processus du travail
• Implémentation
• Conclusion générale
4. Introduction générale
Concurrence
Données
Comment
gagner en
productivité ?
Comment
favoriser la
prise de
décision?
• Traiter des données structurées
• Automatiser les différents traitements
• Représenter graphiquement les données.
1
Comment
permettre un
accès rapide aux
informations
?
Informatique décisionnelle
Comment
restituer c’est
données
Comment
lancer des
calcules
intensifs de
traitements
Comment gérer et
collecter les
nouvelles masse
de données
10. Le Big Data fait référence à l'explosion des données (Le
Volume, la Vitesse et la Variété) et aux nouvelles solutions
proposées pour gérer cette volumétrie par la capacité à
stocker, explorer, et analyser ces données .
BIG DATA
Définition 7
Big Data et Hadoop
11. VARIETE
VELOCITE
VOLUME
8
Variété des sources
• Données internes : ( les emails, les documents, les bases de données)
• Données comportementales clients (géolocalisation, réseaux sociaux, …)
• Données Machine-To-Machine.
La Variété
Variété des contenus
• Données structurées : informations que l’on trouve dans les base de données
• Données semi-structurées : contenu composé d’éléments s’adressant à un humain à
d’éléments s’adressant à une machine (emails, page web)
• Données non-structurées : audio, vidéo et enregistrement vocal
Le traitement intensif sur les données
• la vitesse d’analyse des données à été multipliée, grâce aux innovations dans les
infrastructures matériels et dans le domaine du traitement de données.
La Vélocité
Exemples d’utilisation
• Gestion du risque financier (banques, fonds d’investissement)
• Déclenchement d’action marketing en temps réel
• Optimisation des alertes sur les risques matériels
Quelques chiffres
• 45 milliards d'objets connectés en 2015.
• 4.4 millions de métiers liés au Big Data seront créées d'ici à 2017.
• 204 millions d'emails, 1.8 million de Likes et 278 000 Tweets sont générés chaque
minute.
Le Volume
BIG DATA
Les 3V
Big Data et Hadoop
12. Hadoop est capable de stocker et traiter de manière
efficace un grand nombre de donnés, en reliant plusieurs
serveurs entre eux pour travailler en parallèle.
HADOOP
Définition 9
Big Data et Hadoop
13. HADOOP
HDFS
Système de fichiers distribué :
C'est-à-dire que chaque machine composant le cluster Hadoop va héberger
une partie des fichiers. Il a été conçu pour stocker de très gros volumes de
données sur un grand nombre de machines.
Caractéristique :
• HDFS fournit un système de réplications des blocs
10
Big Data et Hadoop
14. HADOOP
MapReduce
MapReduce:
Map/Reduce permet de distribuer les algorithmes de traitements au cœur de
la donnée pour augmenter la vitesse de traitement des données. Il est conçu
pour le traitement parallèle des données massives par un cluster de serveurs
pas chers, non exigeant sur la cohérence de données.
11
Big Data et Hadoop
16. Démarche du Projet
Phase II
Phase III
ETL
La collecte des données sur HDFS
13
La transformation des données via HIVE
Chargement de données
Interface d'authentification
Interface de visualisation des rapports
Visualisation détaillée des rapports
Processus de travail
Phase I
Réalisation d’une plate-forme de
Démonstration distribuée
Installation de CentOS
Installation de Hortonworks Data Plate-forme
Déploiement d’un cluster (1maître et 3 nœuds)
Visualisation graphique
18. Nœuds esclaves
Définition des IP statiques
Mise à jour du Fichier hôtes
Nœud maître
Test de connections
Mise à jour du système
Définition du Hostname
cloner 3 machines virtuelles
Installation des composants Hadoop
15
Processus de travail
Préparation de l’environnement
Installation
19. Implémentation
Présentation de la partie Reporting
Outils et technologies utilisés
Présentation de la partie ETL
Architecture
20. schéma de fonctionnement
Données structurées
• Reporting
• Analyse
• Tableaux de
bord
Partie traitement
Prisededécisionparlestechniciens
Injecter
HORTONWORKS DATA PLATFORME
Production Environnement Décisionnel Distribué
HDFS Représenter
17Architecture
Collecter Intégrer Traitement parallèle
MAPREDEUCE
Restituer
• Raffiner
• Nettoyer
• Transformer
• Charger
Données
Semi-structurées
Reporting
Implémentation
22. Partie traitement
ETL
19
Les Journaux de navigation web : c'est une piste d'information laissée
par un utilisateur en visitant un site Web. Il est généralement capturé dans
des fichiers journaux semi-structurés.
- Quel est le chemin le plus efficace pour un visiteur du site à la
recherche d'un produit pour l'acheter ?
- Quels produits les visiteurs ont tendance à acheter ensemble, et quels
sont les produits susceptibles d'être acheté à l'avenir ?
- Où devrait dépenser l'entreprise de nouvelles ressources ?
Implémentation
27. 20
• Apprendre un nouveau métier .
• Familiarisation avec les outils Hadoop,
MapReduce, Hive, Pig et ZoomData
• Gestion et organisation de travail.
• domaine du décisionnel.
• Avoir une meilleure vision sur le monde de travail .
• Patience et détermination.
• Responsabilité.
• Communication.
• savoir-faire.
Conclusion