Cette présentation définit rapidement le Plan de gestion de données dans le cadre du Module Doctoral Cap sur les Données Environnement 2020 réalisé pour l'Université de Montpellier par la Commission Information Scientifique et Technique Agropolis.
Contenu d'un nouveau cours sur les Technologies sémantiquesGilbert Paquette
Le cours INF 6070 est un nouveau cours de la maîtrise en technologies de l'informations qui traite des applications du Web sémantique à la gestion des connaissances.
Analytics & Machine Learning avec la Data VirtualizationDenodo
Watch full webinar here: [https://buff.ly/2ZaQk8S]
La data science avancée, telle que le machine learning, se révèle être un outil extrêmement utile pour tirer des informations et de la valeur des données existantes. Cependant, une grande partie des ressources (comme les data scientists) se voit affectée à la recherche des bonnes données et à leur préparation.
Dans ce nouveau webinar en français, nous vous montrerons comment utiliser la virtualisation des données pour obtenir les informations souhaitées de manière plus efficace et plus agile.
Rejoignez ce webinar le 6 juin pour découvrir:
*Comment la data virtualisation accélère l’acquisition et le traitement des données
*Comment la plateforme Denodo pour la virtualisation des données s'intègre à des outils tels que Spark, Python, Zeppelin, etc.
*Comment la virtualisation des données permet de gérer plus efficacement de gros volumes de données
*Cas client & démo
Cette présentation définit rapidement le Plan de gestion de données dans le cadre du Module Doctoral Cap sur les Données Environnement 2020 réalisé pour l'Université de Montpellier par la Commission Information Scientifique et Technique Agropolis.
Contenu d'un nouveau cours sur les Technologies sémantiquesGilbert Paquette
Le cours INF 6070 est un nouveau cours de la maîtrise en technologies de l'informations qui traite des applications du Web sémantique à la gestion des connaissances.
Analytics & Machine Learning avec la Data VirtualizationDenodo
Watch full webinar here: [https://buff.ly/2ZaQk8S]
La data science avancée, telle que le machine learning, se révèle être un outil extrêmement utile pour tirer des informations et de la valeur des données existantes. Cependant, une grande partie des ressources (comme les data scientists) se voit affectée à la recherche des bonnes données et à leur préparation.
Dans ce nouveau webinar en français, nous vous montrerons comment utiliser la virtualisation des données pour obtenir les informations souhaitées de manière plus efficace et plus agile.
Rejoignez ce webinar le 6 juin pour découvrir:
*Comment la data virtualisation accélère l’acquisition et le traitement des données
*Comment la plateforme Denodo pour la virtualisation des données s'intègre à des outils tels que Spark, Python, Zeppelin, etc.
*Comment la virtualisation des données permet de gérer plus efficacement de gros volumes de données
*Cas client & démo
Fiche pratique IST Agropolis : Les Données de la Recherche : Questions-RéponsesAgropolis International
Foire aux questions - FAQ sur les donnnées de la recherche
Fiche créée en septembre 2015 et révisée en octobre 2016
Qu'est-ce que l'ouverture des données (Open Data) ?
Quelles données préserver ?
Où déposer mes données ?
Comment définir les conditions de réutilisation de mes données ?
Et si mes données sont déjà déposées dans les réseaux sociaux (ResearchGate, Academia...) ?
Qu'est-ce qu'un jeu de données ?
Où rechercher des jeux de données ?
Qu'est-ce qu'un DOI ?
Comment citer un jeu de données ?
Qu'est-ce qu'un PGD ?
A quelles questions répond un PGD ?
De quels outils je dispose pour rédiger un PGD ?
Avec qui interagir pour élaborer un PGD ?
L'éthique du partage et moi ?
Auteurs : Cécile Adamolle, Annabelle Filatre, Hanka Hensens, Isabelle Nault, Chantal Salson, Christine Silvy, Marie-Violaine Tatry
Fiche créée en septembre 2015 et révisée en octobre 2016
Naturopédia : Publication multi-supports et animation communautaire augmenté...SemWebPro
Ce projet consiste à réaliser une plate-forme technologique communautaire permettant la valorisation et l’exploitation d’un fonds documentaire construit autour d’un domaine d’expertise. Dans le cadre du projet Naturopédia, le corpus valorisé est dédié à la naturopathie et à l’agro-écologie. Il est composé d’une cinquantaine d’ouvrages soit théoriques soit techniques, ainsi que d’une large documentation annexe. L’objectif de ce projet est de s’appuyer sur ce corpus d’une richesse rare, pour fédérer une communauté de pratique aujourd’hui mal outillée, de favoriser la diffusion de ce savoir et le partage d’expérience entre les acteurs du domaine, professionnels ou amateurs. L’objectif des équipes rassemblées dans le projet Naturopedia est de mettre à disposition des pouvoirs publics, des multiples ONG du secteur, des entreprises de l’Economie Sociale et Solidaire, des technologies de diffusion innovantes, de nouveaux services de collecte et propagation de la connaissance, leur permettant d’amplifier leurs actions et d’œuvrer pour le bien public.
L’originalité de ce projet réside dans l’intégration de différentes approches, théoriques et techniques, issues de l’ingénierie documentaire (séparation fond-forme, publication multi-supports,...) et de l’ingénierie des connaissances (annotation sémantique des contenus par ontologie de domaine) pour la création d’une chaîne éditoriale hybride et innovante. Pour cela, Mnémotix, en partenariat avec Kelis, la société en charge du développement de la chaine éditoriale libre SCENARI, prendra à sa charge le processus d’annotation semi-automatique du corpus Naturopédia, ainsi que l’exploitation de ces annotations dans le processus de génération multi-supports SCENARI.
La souplesse des modèles documentaires conçus pour le projet, la granularité de la structuration des contenus ainsi que la pertinence des annotations sémantiques devront permettre à terme de publier à la volée des compilations de type “livre de recettes” destinés soit aux professionnels du domaine soit au grand public, sous la forme de modules pédagogiques compatibles SCORM, d’ebooks ou d’applications mobiles.
Dans le cadre de notre intervention, nous présenterons tout d’abord l’architecture globale du projet, telle qu’elle a été conçue. Nous détaillerons ensuite la phase de sémantisation et de transformation du corpus documentaire. Nous aborderons également les verrous technologiques que nous avons identifiés ainsi que les stratégies envisagées pour les lever, notamment dans l’intégration des technologies Mnémotix au sein de l'environnement d'édition open-source SCENARI. Enfin, nous parlerons des contraintes liées aux formats d’export : applications mobiles, livres électroniques ou bien formations en ligne et leur intégration avec la plate-forme collaborative destinée à fédérer les communautés Naturopathie
Séminaire BIG DATA, SYNTHÈSE - ORSYS FormationORSYS
Orsys est le premier Institut de formation aux Nouvelles Technologies de l'Informatique et l'un des acteurs les plus importants dans les domaines du Management et du Développement personnel.
Plus d’informations sur les séminaires ORSYS: http://www.seminaires-orsys.com/
Gestion des données scientifiques en imagerie in vivo – Journée scientifique organisée par PIV le 7 décembre 2017 au PARCC-HEGP
Marie-Christine Jacquemot
OPIDOR
Une révolution technologique à nos portes ; nos organisations sont-elles prêtes?IRSST
Présentation au Colloque IRSST 2017 de Geneviève Lefebvre, directrice de projet, Innovation et Transfert au CEFRIO.
http://www.irsst.qc.ca/colloque-2017
Big Data - Un domaine au carrefour de plusieurs disciplines et d'expertises
Vue globale de l'Architecture et des Processus Big Data
Démarche Big Data
Big Data – Paradigm Shift
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Volume - Big Data « data-intensive » Paradigm shift : Data Locality
Volume - Big Data Paradigm shift : Synchronous batch processing
Variété - Big Data : multitude des formats de données
Varieté - Big Data Paradigme shift : Schema on Run/Read (aka ELT)
Vélocité - Big Data paradigm shift : Real Time Analysis Processing (RTAP)
Prévision des évolution des épidémies
Anticiper les pics de la circulation
Prévision Catastrophes naturelles
Sécurité territoriale
Mesure de la Satisfaction du client
Sécurité du citoyen
Mesure de la Perception du citoyen
Traitement des échanges boursiers
Exemple pratique : Calcul de la carte du bonheur par pays
Big Data & visualisation « Dataviz »
Big Data – un écosystème de
nouveaux concepts et technologies
Big Data – Quels Profils et Compétences ?
Big Data – Eldorado pour la R&D et l'Innovation
Nuage des topics liés à 15 conférences sur le Big Data de 2016
Top 20 des topics liées à 10 études d'opportunités Big Data (282 pages, 115.623 mots)
Big Data Opportunité 1 - Services
Big Data Opportunité 2 - Security
Big Data Opportunité 3 - Smart Governement
Big Data Opportunité 4 - Health
Opportunités Big Data – Améliorer le quotidien du citoyen Marocain
Big Data – Sans oublier bien évidemment de Préparer le Maroc de demain
Big Data Des méandres des outils au potentiel businessMouhsine LAKHDISSI
Une présentation du Big Data faite dans le cadre des Open Source Days à l'ENSA de Khouribga. Elle traite du potentiel business et des opportunités qui peuvent être crées par le Big Data dans différents domaines métier avec un apperçu également sur les outils et les techniques associées
Présentation au Pôle Science de l’IRD , le 13 septembre 2018 du projet d'entrepôt de données ouvertes de l'IRD, du contexte de l'Open Science en France et en Europe et des avantages à disposer d'un entrepôt de données pour l'IRD et ses partenaires.
Projet TOXIN : Des graphes de connaissances pour la recherche en toxicologieChristophe Debruyne
Christophe Debruyne. Projet TOXIN : Des graphes de connaissances pour la recherche en toxicologie. INRS Symposium on "L'informatique au service de l'évaluation du risque chimique" (10 November 2022, Nancy, France)
Linked Enterprise Data ou comment disposer d'une vue consolidée des donnéesAntidot
Diaporama de la présentation faite le 12 juin 2012 par Gautier Poupeau à l'occasion de la keynote "Web sémantique et Big Data" organisée dans le cadre de l'événement Time2Marketing
The document presents an IM/DD-OFDM modem based on adaptive equalization that addresses chromatic dispersion and fiber nonlinearity in optical fiber transmission systems. It proposes using digital signal processing algorithms for compensation, including OFDM. The system description section outlines the conceptual diagram of a direct modulation laser-based IM/DD OFDM/FOFDM transmission system. The results and discussion section shows BER performance with and without Volterra equalization and at varying distances and OSNR levels.
Fiche pratique IST Agropolis : Les Données de la Recherche : Questions-RéponsesAgropolis International
Foire aux questions - FAQ sur les donnnées de la recherche
Fiche créée en septembre 2015 et révisée en octobre 2016
Qu'est-ce que l'ouverture des données (Open Data) ?
Quelles données préserver ?
Où déposer mes données ?
Comment définir les conditions de réutilisation de mes données ?
Et si mes données sont déjà déposées dans les réseaux sociaux (ResearchGate, Academia...) ?
Qu'est-ce qu'un jeu de données ?
Où rechercher des jeux de données ?
Qu'est-ce qu'un DOI ?
Comment citer un jeu de données ?
Qu'est-ce qu'un PGD ?
A quelles questions répond un PGD ?
De quels outils je dispose pour rédiger un PGD ?
Avec qui interagir pour élaborer un PGD ?
L'éthique du partage et moi ?
Auteurs : Cécile Adamolle, Annabelle Filatre, Hanka Hensens, Isabelle Nault, Chantal Salson, Christine Silvy, Marie-Violaine Tatry
Fiche créée en septembre 2015 et révisée en octobre 2016
Naturopédia : Publication multi-supports et animation communautaire augmenté...SemWebPro
Ce projet consiste à réaliser une plate-forme technologique communautaire permettant la valorisation et l’exploitation d’un fonds documentaire construit autour d’un domaine d’expertise. Dans le cadre du projet Naturopédia, le corpus valorisé est dédié à la naturopathie et à l’agro-écologie. Il est composé d’une cinquantaine d’ouvrages soit théoriques soit techniques, ainsi que d’une large documentation annexe. L’objectif de ce projet est de s’appuyer sur ce corpus d’une richesse rare, pour fédérer une communauté de pratique aujourd’hui mal outillée, de favoriser la diffusion de ce savoir et le partage d’expérience entre les acteurs du domaine, professionnels ou amateurs. L’objectif des équipes rassemblées dans le projet Naturopedia est de mettre à disposition des pouvoirs publics, des multiples ONG du secteur, des entreprises de l’Economie Sociale et Solidaire, des technologies de diffusion innovantes, de nouveaux services de collecte et propagation de la connaissance, leur permettant d’amplifier leurs actions et d’œuvrer pour le bien public.
L’originalité de ce projet réside dans l’intégration de différentes approches, théoriques et techniques, issues de l’ingénierie documentaire (séparation fond-forme, publication multi-supports,...) et de l’ingénierie des connaissances (annotation sémantique des contenus par ontologie de domaine) pour la création d’une chaîne éditoriale hybride et innovante. Pour cela, Mnémotix, en partenariat avec Kelis, la société en charge du développement de la chaine éditoriale libre SCENARI, prendra à sa charge le processus d’annotation semi-automatique du corpus Naturopédia, ainsi que l’exploitation de ces annotations dans le processus de génération multi-supports SCENARI.
La souplesse des modèles documentaires conçus pour le projet, la granularité de la structuration des contenus ainsi que la pertinence des annotations sémantiques devront permettre à terme de publier à la volée des compilations de type “livre de recettes” destinés soit aux professionnels du domaine soit au grand public, sous la forme de modules pédagogiques compatibles SCORM, d’ebooks ou d’applications mobiles.
Dans le cadre de notre intervention, nous présenterons tout d’abord l’architecture globale du projet, telle qu’elle a été conçue. Nous détaillerons ensuite la phase de sémantisation et de transformation du corpus documentaire. Nous aborderons également les verrous technologiques que nous avons identifiés ainsi que les stratégies envisagées pour les lever, notamment dans l’intégration des technologies Mnémotix au sein de l'environnement d'édition open-source SCENARI. Enfin, nous parlerons des contraintes liées aux formats d’export : applications mobiles, livres électroniques ou bien formations en ligne et leur intégration avec la plate-forme collaborative destinée à fédérer les communautés Naturopathie
Séminaire BIG DATA, SYNTHÈSE - ORSYS FormationORSYS
Orsys est le premier Institut de formation aux Nouvelles Technologies de l'Informatique et l'un des acteurs les plus importants dans les domaines du Management et du Développement personnel.
Plus d’informations sur les séminaires ORSYS: http://www.seminaires-orsys.com/
Gestion des données scientifiques en imagerie in vivo – Journée scientifique organisée par PIV le 7 décembre 2017 au PARCC-HEGP
Marie-Christine Jacquemot
OPIDOR
Une révolution technologique à nos portes ; nos organisations sont-elles prêtes?IRSST
Présentation au Colloque IRSST 2017 de Geneviève Lefebvre, directrice de projet, Innovation et Transfert au CEFRIO.
http://www.irsst.qc.ca/colloque-2017
Big Data - Un domaine au carrefour de plusieurs disciplines et d'expertises
Vue globale de l'Architecture et des Processus Big Data
Démarche Big Data
Big Data – Paradigm Shift
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Volume - Big Data « data-intensive » Paradigm shift : Data Locality
Volume - Big Data Paradigm shift : Synchronous batch processing
Variété - Big Data : multitude des formats de données
Varieté - Big Data Paradigme shift : Schema on Run/Read (aka ELT)
Vélocité - Big Data paradigm shift : Real Time Analysis Processing (RTAP)
Prévision des évolution des épidémies
Anticiper les pics de la circulation
Prévision Catastrophes naturelles
Sécurité territoriale
Mesure de la Satisfaction du client
Sécurité du citoyen
Mesure de la Perception du citoyen
Traitement des échanges boursiers
Exemple pratique : Calcul de la carte du bonheur par pays
Big Data & visualisation « Dataviz »
Big Data – un écosystème de
nouveaux concepts et technologies
Big Data – Quels Profils et Compétences ?
Big Data – Eldorado pour la R&D et l'Innovation
Nuage des topics liés à 15 conférences sur le Big Data de 2016
Top 20 des topics liées à 10 études d'opportunités Big Data (282 pages, 115.623 mots)
Big Data Opportunité 1 - Services
Big Data Opportunité 2 - Security
Big Data Opportunité 3 - Smart Governement
Big Data Opportunité 4 - Health
Opportunités Big Data – Améliorer le quotidien du citoyen Marocain
Big Data – Sans oublier bien évidemment de Préparer le Maroc de demain
Big Data Des méandres des outils au potentiel businessMouhsine LAKHDISSI
Une présentation du Big Data faite dans le cadre des Open Source Days à l'ENSA de Khouribga. Elle traite du potentiel business et des opportunités qui peuvent être crées par le Big Data dans différents domaines métier avec un apperçu également sur les outils et les techniques associées
Présentation au Pôle Science de l’IRD , le 13 septembre 2018 du projet d'entrepôt de données ouvertes de l'IRD, du contexte de l'Open Science en France et en Europe et des avantages à disposer d'un entrepôt de données pour l'IRD et ses partenaires.
Projet TOXIN : Des graphes de connaissances pour la recherche en toxicologieChristophe Debruyne
Christophe Debruyne. Projet TOXIN : Des graphes de connaissances pour la recherche en toxicologie. INRS Symposium on "L'informatique au service de l'évaluation du risque chimique" (10 November 2022, Nancy, France)
Linked Enterprise Data ou comment disposer d'une vue consolidée des donnéesAntidot
Diaporama de la présentation faite le 12 juin 2012 par Gautier Poupeau à l'occasion de la keynote "Web sémantique et Big Data" organisée dans le cadre de l'événement Time2Marketing
The document presents an IM/DD-OFDM modem based on adaptive equalization that addresses chromatic dispersion and fiber nonlinearity in optical fiber transmission systems. It proposes using digital signal processing algorithms for compensation, including OFDM. The system description section outlines the conceptual diagram of a direct modulation laser-based IM/DD OFDM/FOFDM transmission system. The results and discussion section shows BER performance with and without Volterra equalization and at varying distances and OSNR levels.
This document presents a numerical analysis of fast-OFDM in an SMF-based IM/DD optical link. It describes the system, which uses digital signal processing for chromatic dispersion compensation and nonlinearity compensation with OFDM. It proposes a waveform to enhance the spectral efficiency of the OFDM system. The results and discussion section analyzes the BER performance over transmission distances up to 100 km and compares the Q-factor performance of M-ASK-FOFDM and 16-QAM FOFDM after 80 km and 20 km. It concludes that FOFDM using real-valued IDCT/DCT was evaluated over SSMF and showed improved performance in terms of BER over transmission distances up to 55 km while maintaining
Design of hollow optical fiber for mode division multiplexingDr Sofien Mhatli
This document summarizes a study on the design of a hollow optical fiber (HOF) for 10-mode multiplexing transmission. The study proposes a HOF structure with three layers and optimized parameters to support propagation of 3 modes (LP01, LP11, LP21) with low differential mode delay and chromatic dispersion. Simulation results show the effective indices of the 10 modes can be separated by adjusting the air hole radius. The designed HOF maintains a mode effective index difference of over 0.002 and differential mode delay under 20 ns/km, making it suitable for weakly coupled mode-division multiplexing systems.
This document contains an agenda for Sofien Mhatli that includes topics such as WDM, ATM, SDH, IP, applications, Ethernet, FTTx, WAN, VOICE Over IP, WIFI OUTDOOR, mobile backhaul, and cybersecurity. It also includes Sofien Mhatli's contact information and affiliation with the University of Jandouba, ISI KEF and University of Carthage, Tunisia Polytechnic School, SERCom laboratory. Several slides are included on selective excitation of different modes in a few mode fiber, the evolution of access networks from copper to fiber, and potential technologies for 5G mobile backhaul using millimeter wave beams.
1. Projet de fin d’études pour l’obtention de diplôme Mastère en Multimédia Web
REPUBLIQUE TUNISIENNE
Ministère de l’Enseignement Supérieur, de la Recherche Scientifique
******
UNIVERSITÉ DE JENDOUBA
Institut Supérieur d'Informatique du Kef
Collection des données à partir d’un réseau social
Encadrant ISI: Elaboré par : Encadrant DevClic:
Dr. MHATLI Sofien TOUIL Ahlem M. SESSI Jema
Année Universitaire 2017-2018
2. Plan 1
4
3
5
6
7
Cadre du projet
Extraction et collection des données
Stockage et traitement des données
Analyse et Visualisation des données
Architecture globale
7
Conclusion et perspective
2
4. Présentation de la société
• Le développement de logiciels et la réingénierie des
applications existantes
• Le développement d'applications Web
• Le développement et le déploiement de solutions de
Web Marketing
6. Utilisation des méthode
classique dans la création
des publication
Affectation des recherche
manuelles sur tous les
produits
Absence des moyens d’
exploitation des données
8. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
Mauvaise étude de
marché
Perte de temps et des
ressources
Absence des moyens d’
exploitation des données
Absence d’une approche
de partage et des gestion
des données en streaming
13. Explosion des données
Chaque 60 secondes :
98,000 comptes Twitter sont crées.
695,000 statuts Facebook.
698,455 recherches sur Google.
11 millions messages instantanés.
168 millions mails envoyés .
Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
14. Explosion de volume des données
Evolution des systèmes d’information des entreprise
Variété et complexité des données
15. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
18. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
19. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
25. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
2éme cas:
Adidas vs
Nike
26. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
27. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
28. Architecture Physique
Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
30. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
32. Cadre du
projet
Extraction et
collection des
données
Stockage et
traitement des
données
Analyse et
visualisation
des données
Architectures
Globale
Conclusion
et
perspective
La découvert des
nouvelles
technologies et
connaissances.
Big Data ,
Virtualisation ,
Base de données
Nosql
Vécue une
expérience dans
la vie
professionnelle
et vie
d’entreprise
Autre cas d’usage
que le domaine
de marketing
Mes dames et monsieur les membre de jury , bonjour.
je me présente, je suis ahlem touil. J’ai le grand plaisir de vous présenter mon projet de fin d’étude en Master Multimédia web , intitulé sous le nom «Collection des données d'un reseau social» , et qu’il est effectué au sein de la société DevClic de Tunis, encadré par M. Jemaa SESSI mon encadreur de la société et M. Sofien MHATLI mon encadreur de l’ISI KEF , dans le cadre de l’obtention de diplôme Mastère en Multimédia Web.
On va commoncer ,Je vais essayer de synthétiser mon travail et vous le présenter selon le plan suivant : on faite notre presentation comporte six grande partie
On commence par la Cadre du projet
Puis je passe au déférente phase de réalisation de projet,
Extraction et collection des données
Stockage et traitement des données
Analyse et Visualisation des données
On va finir cette partie par une architecture globale
On va finir notre présentation par une conclusion générale et perspectives
On va commancer par Présentation de la société DevClick
C'est une start-up franco-tunisienne qui se consacre entièrement aux services
informatiques qui sont :
Service développement a paris
Service développemnt a tunis (Devclick)
Service web designe a tunis (Des-click)
Service Commercial Comptabilité
spécialisés dans les domaines suivants :
Le développement de logiciels et la réingénierie des applications existantes
Le développement d'applications Web
Le développement et le déploiement de solutions de Web Marketing
Notre projet se déroule au saint de dev-clic avec service développement Tunis,
l équipé agissant sur le secteur de vente en ligne et la création de publications des articles sur Internet
utilisent des méthodes classiques dans la création des publications et l’intégration de leurs produits sur internet.
En fait, leurs travailles ne contient aucune approche de distribution de données ni l’utilisation des outils d’analyse de donnée,
Après une analyse de l’existant nous avons tiré la problématique suivant qui consiste à….
Pour toute entreprise, l’un des éléments clés est la bonne connaissance de marché ainsi la réussite de gestion de temps et des ressources. Pour bien faire, il est indispensable de capitaliser sur la connaissance à travers des diverses informations dont on dispose pour fournir une analyse globale sur les chances de réussite d’un tel produit.
Pour faire face à ces anomalies nous avons proposé comme solution
L’implémenté une application de gestion et de traitement de flux de données accessible pour notre service afin de couvrir une partie plus importante de marchait , consiste a
La mise en place d’une architecture big data,
Alors , la première partie de la phase réalisation , quelles sont les différents sources disponible ?
L’Internet est bouleversé par l'arrivée des réseaux sociaux, En effet ces derniers sont devenus en quelques années un outil indispensable à notre quotidien. Présents dans notre vie sociale, ils modifient également notre comportement d’achat ainsi que nos perspectives professionnelles.
En faite on peut remarque leurs valeur a travers le volume important des données échangées ,
on appuient sur des recherche bien précises , on remarque l’explosion des flux de données dans les réseaux sociaux,
Se la peut nous permettre de les utiliser comme source de big data
La mise en place d’une architecture big nous permettre de résoudre ces problème, cette architecture est base sure le frame Works Hadoop destiné à faciliter la création d'applications distribue et travaillé avec des milliers des nœuds
On installa spark et utilise a la place de MapReduce
100 fois plus rapide que MapReduce
Traitement en temps réel
Stocker les données en mémoire
But Hadoop MapReduce
Stocker des données sur le disque
Écrit en scala (scalable langage en anglais) polyvalent (adaptable)
Mais l’autre est en java
Dans notre projet on a utilisé Twitter comme source pour collection de donnée,
Vue sa moyenne sécurité et au volume de donnée échange a partir ce réseau,
de plus Twitter se présente comme réseau social le plus populaire pour les clients cible de notre société,
Pour avoir l’accé au flux de données explosés sur twitter on va utilise l’api twitter pour l’authentification .
Connexion entre twiter and spark a traver scala
Extraction des données
Le stockage de données se divise en deux grandes parties, dans un premier temps nous avons utilisé un système de fichier distribuée pour assurer le stockage des données de n’importe quel format, puis dans un second temps nous avons utilisé des bases de données NoSql pour le stockage des données structurées et semi-structurées,
Dans ce diapo on vas donner une vision globale sur notre application,
en fait en utilisant une architecture big data notre projet comporte deux grande partie,
Collection des données a partir Twitter,
Analyse et affichage des données en temps réel, a l aide des technologie de traitement des flux de données,
J’aimerais vous présenter un graphique qui présente la Répartition Géographique des marques Samsung Galaxy
On constate tout d’abord que l’utilisation de ces articles est très importante dans USA et CANADA
Ensuite,
Enfin, on peut voir que
Le graphique nous montre donc que
Répartition des marques Samsung
L’affichage des tweets selon les sentiment des personnes pour la marque IPhone
Dans cette partie nous allons montrer l’architecture physique adopté pour notre projet, nous avons utilisé Hadoop Hdfs, MongoDb comme outils de stockage distribué des données, Apache Spark pour la collection des données par le langage Scala , Apache Streaming et pour le traitement et l’analyse des données en temps réel.
Enfin nous avons utilisé Tableau pour la visualisation et l’affichage ses données.
Finalement, nous allons vous montrer l’architecture globale de notre application dont nous avants présenté les différentes phases ainsi les différentes technologies adoptées dans la réalisation de notre application.
Pour conclure je dirai que le cahier de charge a été respecté et donc les objectifs sont atteints, en résultat on a obtenu une application complètement fonctionnelle,
Alors Nous finissons notre présentation par une conclusion
Alors ce projet est bénéfique pour la société , il permet d’optimiser le temps et l’effort lors du traitement des données,