Big Data: Concepts, techniques et démonstration de Apache Hadoophajlaoui jaleleddine
C'est une initiation au Big Data, qui est présenté dans un workshop organisé en 12 Décembre 2015 par un club TB3C (Tunisian Big Data Cloud Computing Community) au sein de ISSAT de Sousse
1-Problématique
2-Définition du Big Data
3-Big Data et 3V
4-Data wahrehouse VS Big Data
5-Domaines d’utilisations
6-Les techniques de traitement
7-Big Data et Aspect Mobile
8-Conclusion
Big Data: Concepts, techniques et démonstration de Apache Hadoophajlaoui jaleleddine
C'est une initiation au Big Data, qui est présenté dans un workshop organisé en 12 Décembre 2015 par un club TB3C (Tunisian Big Data Cloud Computing Community) au sein de ISSAT de Sousse
1-Problématique
2-Définition du Big Data
3-Big Data et 3V
4-Data wahrehouse VS Big Data
5-Domaines d’utilisations
6-Les techniques de traitement
7-Big Data et Aspect Mobile
8-Conclusion
Valtech - Big Data : Détails d’une mise en œuvreValtech
Big Data : Détails d’une mise en œuvre
Construction d’une solution d’analyse d’e-reputation
Collecter et stocker les données : Quelle infrastructure ?
Corréler et agréger les données : Quelle analyse ?
Restituer et exploiter : Quels résultats ?
Présentation animée par Hervé Desaunois, Responsable Technique, Valtech
herve.desaunois@valtech.fr
Evénement - Big Data : ne dormez pas sur vos données !
Valtech - 29/11
Une introduction au Big Data, NoSQL et Open Data.
Il présente les avantages de NoSQL.
Une présentation des différents types des bases de données NoSQL.
Visite guidée au pays de la donnée - Traitement automatique des donnéesGautier Poupeau
Ce diaporama est le 2ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 2ème partie présente le traitement automatique des données : intelligence artificielle, fouille de textes et de données, Traitement automarique de la langue ou des images. Après avoir défini ces différents domaines, cette présentation s'attache à faire le tour des différents outils disponibles pour analyser les contenus audiovisuels.
BigData_TP2: Design Patterns dans HadoopLilia Sfaxi
Pour accéder aux fichiers nécessaires pour faire ce TP, visitez: https://drive.google.com/folderview?id=0Bz7DokLRQvx7M2JWZEt1VHdwSE0&usp=sharing
Pour plus de contenu, Visitez http://liliasfaxi.wix.com/liliasfaxi !
Data Science : Méthodologie, Outillage et Application - MS Cloud Summit Paris...Jean-Pierre Riehl
-- session présentée dans le cadre du MS Cloud Summit Paris 2017 avec Emmanuel Frenod --
L’approche Data Science des données révolutionne l’analyse traditionnelle. La façon d’appréhender les questions, la méthodologie à suivre ainsi que l’outillage à utiliser sont différents de la BI traditionnelle. Nous aborderons dans cette session ces différences et pointeront les bonnes pratiques de la Data Science avec les outils Microsoft au travers d’un cas d’utilisation concret. Ce « retour d’expérience » expliquera, en illustrant le propos à travers des applications réalisées pour des entreprises de transport, des réparateurs et des grossistes en bâtiment, comment la Data Science aide à la mise au point des prix pendant leur négociation
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
Valtech - Big Data : Détails d’une mise en œuvreValtech
Big Data : Détails d’une mise en œuvre
Construction d’une solution d’analyse d’e-reputation
Collecter et stocker les données : Quelle infrastructure ?
Corréler et agréger les données : Quelle analyse ?
Restituer et exploiter : Quels résultats ?
Présentation animée par Hervé Desaunois, Responsable Technique, Valtech
herve.desaunois@valtech.fr
Evénement - Big Data : ne dormez pas sur vos données !
Valtech - 29/11
Une introduction au Big Data, NoSQL et Open Data.
Il présente les avantages de NoSQL.
Une présentation des différents types des bases de données NoSQL.
Visite guidée au pays de la donnée - Traitement automatique des donnéesGautier Poupeau
Ce diaporama est le 2ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 2ème partie présente le traitement automatique des données : intelligence artificielle, fouille de textes et de données, Traitement automarique de la langue ou des images. Après avoir défini ces différents domaines, cette présentation s'attache à faire le tour des différents outils disponibles pour analyser les contenus audiovisuels.
BigData_TP2: Design Patterns dans HadoopLilia Sfaxi
Pour accéder aux fichiers nécessaires pour faire ce TP, visitez: https://drive.google.com/folderview?id=0Bz7DokLRQvx7M2JWZEt1VHdwSE0&usp=sharing
Pour plus de contenu, Visitez http://liliasfaxi.wix.com/liliasfaxi !
Data Science : Méthodologie, Outillage et Application - MS Cloud Summit Paris...Jean-Pierre Riehl
-- session présentée dans le cadre du MS Cloud Summit Paris 2017 avec Emmanuel Frenod --
L’approche Data Science des données révolutionne l’analyse traditionnelle. La façon d’appréhender les questions, la méthodologie à suivre ainsi que l’outillage à utiliser sont différents de la BI traditionnelle. Nous aborderons dans cette session ces différences et pointeront les bonnes pratiques de la Data Science avec les outils Microsoft au travers d’un cas d’utilisation concret. Ce « retour d’expérience » expliquera, en illustrant le propos à travers des applications réalisées pour des entreprises de transport, des réparateurs et des grossistes en bâtiment, comment la Data Science aide à la mise au point des prix pendant leur négociation
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
ADAPTATION NORMATIVE DES BIG DATA EN E-LEARNING,
Open data, Big Data : quelles valeurs, quels enjeux ?
5e conférence "Document numérique et Société"
4 et 5 mai 2015 - Rabat - Maroc
La data dans tous ses états - Aline DeschampsAline Deschamps
Conférence "La data dans tous ses états" du 5 juillet 2018 au salon "Connect Le Mans", par Aline Deschamps, Data Scientist et fondatrice de la société DACTA
L'éthique des mégadonnées implique l'adhésion aux concepts de bons et mauvais comportements concernant les données, en particulier les données personnelles. L'éthique des mégadonnées se concentre sur les collecteurs et diffuseurs des données structurés ou non structurés. L'éthique des mégadonnées est soutenue, au niveau de l'UE, par une documentation complète, qui cherche à trouver des solutions concrètes pour maximiser la valeur des mégadonnées sans sacrifier les droits humains fondamentaux. Le Contrôleur européen de la protection des données (CEPD) soutient le droit à la vie privée et le droit à la protection des données personnelles dans le respect de la dignité humaine.
DOI: 10.13140/RG.2.2.25877.96480
La chaire ESSEC Stratégie et gouvernance de l’information a eu l’honneur de recevoir David Fayon ce 17 novembre 2020 pour échanger sur le thème de la valorisation des données. Cet atelier s’est réalisé à distance pour une durée de 2 heures avec la présence de 60 participants.
Chaire ESSEC Stratégie et Gouvernance de l’information - https://chairestratgouvinfo.essec.edu/
High-level Meeting & Workshop on Environmental and Scientific Open Data for Sustainable Development Goals in Developing Countries. Madagascar, 4-6 December 2017
La première partie sur le cours Business Intelligence et Data warehouse.
Si vous avez des questions, des remarques ou des propositions, n' hésitez pas de me les envoyer via mon email:
pr.azizdarouichi@gmail.com.
Bonne lecture
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)
Data mining et data science
1. Université de Kairouan
Institut Supérieur d’Informatique
et de Gestion de Kairouan
Data Mining
&
Data Science
Réalisé par:
Khlfaoui Ichraf
Jamli Rim
Élaborée par :
Dr. Khlif Wiem
2. plan
Qu’est-ce que c’est le DATA SCIENCE
Qu’est-ce que c’est le DATA MINING
Comparaison entre l'exploration de données
et la science des données
Etudes de cas
1
2
3
4
1
4. 3
1
Qu’est-ce que c’est le DATA SCIENCE
1
Produire des connaissances en faisant parler les données
Data Sciences
Paramètres Mesures
Observations Informations
[outils & disciplines ]
Les data dans « data
sciences »
Terrain, labos,
entreprises…
Informations diverses.
Satellites, réseaux, web…
[Ordinateurs]
Approche multidisciplinaire dont les applications dépendent de la puissance des ordinateurs
Décisions.
Action.
Contrôles.
Prévisions
Automatisme
Base de données
Informatique
Mathématiques
Statistique
Algorithmique
Machine Learning
Précison et fiabilité
Modèles fiable précis
5. 4
1 Qu’est-ce que c’est le DATA SCIENCE
1
la science des données regroupe plusieurs techniques
utilisées pour extraire les informations et les aperçus
des données.
La science des données combine la programmation,
le raisonnement logique, les mathématiques et les
statistiques.
6. 5
1 Perspective historique
1
Enquête historique clarifiera la façon dont les termes sont actuellement utilisés:
Le mot «science des données» date des années 60, mais à l'époque, il était utilisé comme une alternative à
«l'informatique». Actuellement, cela a une signification complètement différente.
En 2008, DJ Patil et Jeff Hammerbacher sont devenus les premiers individus à s'appeler «Data Scientists» afin de
décrire respectivement leur rôle sur LinkedIn et Facebook.
En 2012, l'article de la Harvard Business Review citait le Data Scientist comme le travail le plus sexy du 21me siècle .
Le terme Data Mining a évolué parallèlement. Il est devenu répandu parmi les communautés de bases de données dans les
années 1990.
Le Data Mining doit son origine à KDD (Knowledge Discovery in Databases). KDD est un processus de recherche de
connaissances à partir d'informations présentes dans des bases de données.
Et l'exploration de données est un sous-processus majeur de KDD.
8. 7
Qu’est-ce que c’est le DATA MINING
2
Fichier avec un grand
nombre d’informations
Diverses
Données entrepôt
Fichier avec les
informations les
plus pertinentes
Connaissances
Analyser les informations d’une base de données
Trouver des informations utiles pour les actions Marketing
Des relations, des tendances et des caractéristiques identiques entre les données
Processus de filtrage
L'objectif principal du processus d'exploration de données est d'extraire des informations de divers ensembles
de données dans le but de les transformer en structures appropriées et compréhensibles pour une utilisation
éventuelle.
9. 8
Qu’est-ce que c’est le DATA MINING
2
Exploration de données dans:
Le secteur de la santé
L'intelligence
Les télécommunications
Le marketing et les ventes
Le commerce électronique
L'éducation
L'objectif principal du processus d'exploration de données est d'extraire des informations de divers ensembles
de données dans le but de les transformer en structures appropriées et compréhensibles pour une utilisation
éventuelle.
11. 10
Comparaison entre l'exploration de données
et la science des données
3
2019
2019
Sur quoi ils se concentrent:
La science des données peut se concentrer sur quatre éléments principaux:
Prédire les possibilités ou les événements futurs;
Suggérer différentes actions basées sur l'analyse et offrir des résultats potentiels;
Apprendre les tendances futures;
Découvrir différents modèles cachés dans les données avec
l'apprentissage automatique;
12. 11
Comparaison entre l'exploration de données
et la science des données
3
Sur quoi ils se concentrent:
L'exploration de données peut se concentrer sur ces cinq domaines:
Prédire automatiquement les modèles grâce à l'analyse des comportements et aux tendances;
Donner des prédictions à travers les résultats potentiels;
Fournir des informations orientées vers la décision;
Analyser des bases de données ou des ensembles de données massifs;
Informations de regroupement;
13. 12
Comparaison entre l'exploration de données
et la science des données
3
L'exploration de données peut être un sous-ensemble de la
science des données car les activités d'exploration de données
font partie du pipeline de la science des données
Multidisciplinaire - La science des données comprend les
visualisations de données, les sciences sociales
computationnelles, les statistiques, l'exploration de données, le
traitement du langage naturel,
14. 13
Comparaison entre l'exploration de données
et la science des données
3
Un processus utilisé pour transformer les données
brutes en informations utilisables
Un domaine multidisciplinaire.
Implique la capture et le stockage de données, l'analyse et
l'obtention d'informations précieuses à partir des données.
L'analyse statistique, l'écriture de flux de données et la
reconnaissance de formes peuvent recouper la science des données.
Par conséquent, l'exploration de données devient un sous-ensemble de
la science des données.
16. 15
Etudes de cas
4
2019
2019
La science des données a également changé la manière dont les élèves interagissent avec les
enseignants et évaluent leurs performances.
Les instructeurs peuvent utiliser la science des données pour analyser les commentaires reçus
des étudiants et les utiliser pour améliorer leur enseignement.
La science des données peut être utilisée pour créer une modélisation prédictive qui peut
prédire le taux d'abandon des étudiants en fonction de leurs performances et informer les
instructeurs de prendre les précautions nécessaires.
IBM analytics a créé un projet permettant aux
écoles d'évaluer les performances des élèves
en fonction de leurs performances.
Education
17. Les universités utilisent des données pour éviter que la rétention ne complète les performances de
leurs étudiants.
Par exemple:
l'Université de Floride utilise IBM Cognos Analytics pour suivre les performances des
étudiants et faire les prévisions nécessaires.
En outre, les MOOC et les plateformes d'enseignement en ligne utilisent la science des données
pour suivre les étudiants, pour automatiser l'évaluation des devoirs et pour améliorer le cours
en fonction des commentaires des étudiants.
16
Education
18. Exploration de données éducatives:
Découvre des connaissances à partir de données provenant d'environnements éducatifs les
objectifs de l‘EDM sont identifiés comme prédire le futur comportement d'apprentissage des
élèves, en étudiant.
Nous utilisons l'exploration des données par une institution pour prendre des décisions précises.
Et aussi pour prédire les résultats de l'élève. Avec les résultats, l'institution peut se concentrer
sur ce qu'il faut enseigner et comment enseigner.
Le modèle d'apprentissage des élèves peut être capturé . et utilisé pour développer des techniques
pour les enseigner.
Par exemple:
si l'utilisateur EDM est un étudiant / apprenant, il peut utiliser des méthodes d'exploration de
données pour :
Acquérir une méthode d'apprentissage en ligne afin d'améliorer ses compétences
d'apprentissage
Si l'utilisateur EDM est un enseignant ou un instructeur, il doit utiliser l'exploration de données
pour :
Détecter les performances d'apprentissage de ses élèves et d'autres compétences afin de pouvoir
analyser ce qui a besoin de plus d'attention
17
Education
20. Etudes de cas
4
2019
L'exploration de données est une forme de business intelligence et d'analyse de données.
C'est le processus d'analyse des données pour en tirer des conclusions ou des prédictions utiles.
C'est une technique fréquemment adoptée par les entreprises de commerce électronique à grande échelle
pour faciliter le marketing et le développement de produits.
Par exemple, Google Analytics d'un
site Web de vêtements pourrait
montrer que 82 visiteurs sur 100 sont
des femmes, 92 sur 100 vivent au
Royaume-Uni et 70 sur 100 sont âgés
de 18 à 34 ans, et 10% d'entre eux sont
indiqués comme " intéressé par le
sport »(défini par Google sur la base
de l'historique de recherche
précédent).
19
Commerce
21. Etudes de cas
4
2019
Applications et algorithmes de science des données:
Moteurs de recommandation.
Analyse du panier de consommation.
Gestion de l'inventaire
Analyse du sentiment des clients
Prédiction de la valeur à vie
Analyse de la garantie
Optimisation des prix
Emplacement des nouveaux magasins
Marchandising
20
Commerce
Je vais essayer de vous expliquer sur quoi reposent les datas science et a quoi il servent.
Les datas sciences mettre en œuvre un ensemble de disciplines complémentaires qui permettent de produire de la connaissance en faisant parler les données ces fameuses data qui peuvent êtres des mesures ou des observations acquis sur le terrain au laboratoires ou en entreprise .
Les traitements performants utilisé nécessite des ordinateurs possédant une importante puissance de calcule
Les informations produites vont nous aider a prendre une décision, réaliser des actions précise tel que piloter une voiture autonome ou de procéder a des contrôles très complexe d’infrastructures ou encore de prévoir la météo a plus au moi long terme et ça marche
Parmi les disciplines on peut citer la détection et l’acquisition automatise des données
La conception et l’interrogation de base de données
Le cryptage et la sécurité des données
L’informatique au sens large ,Statistique, Algorithmique ,Machine Learning
La précision et la fiabilité des données manipulées sont au centre qu’il faut produise des modèles fiable et précis
Les domaines d’application des datas sciences sont illimites
Le data mining comprend l’ensemble des technologies permettent d’analyser les informations d’une base de données
Le but est de trouver des informations utiles pour les actions marketing et pourquoi pas des relations des tendances et des caractéristiques identiques entre les données.
Pour faire plus simple il s’agit d’un processus de filtrage qui extrait les informations pertinentes depuis un grand nombre d’informations
Donc l’exploration des données s’applique a tous les domaines
Moteurs de recommandation.
les moteurs sont constitués de composants d'apprentissage automatique complexes et d'algorithmes d'apprentissage en profondeur . Ils sont conçus de manière à pouvoir garder une trace du comportement en ligne de chaque client et analyser les modèles pour suggérer des émissions basées sur ces données.
C'est pourquoi chaque fois que Netflix vous recommande des films ou des séries télévisées
La même chose fonctionne avec Amazon également, en fonction de vos recherches passées et de votre historique d'achat, Amazon fournit également des recommandations et des réductions.
Emplacement des nouveaux magasins il est essentiel d'analyser les emplacements commerciaux possibles pour choisir le meilleur. L'analyste analyse les données en accordant de l'importance à la démographie.
Marchandising Les algorithmes de merchandising parcourent des ensembles de données, collectent des informations et forment des ensembles de priorités de clients en tenant compte de la saisonnalité, de la pertinence et des tendances.