Présentation pfe - Etude, conception et réalisation d'une application web de ...Ayoub Mkharbach
C'est la présentation de mon projet de fin d'études en licence génie informatique à la faculté des sciences et techniques de settat, le stage a été effectué au sein de l'entreprise Pluralis Consulting.
Présentation pfe - Etude, conception et réalisation d'une application web de ...Ayoub Mkharbach
C'est la présentation de mon projet de fin d'études en licence génie informatique à la faculté des sciences et techniques de settat, le stage a été effectué au sein de l'entreprise Pluralis Consulting.
Développement d’une application Web et mobile d’un annuaire médicallitayem bechir
Dans le cadre de l'élaboration de notre projet de fin d’année, nous avons suggéré à concevoir une Application web et mobile pour la gestion de médecin.
Présenté en vue de l’obtention du
Diplôme : Mastère Professionnel en Ingénierie des Logiciels et des Connaissance
Conception et Développement d’une Application web Pour le Service De Remorquage
Rapport de projet de fin d'étude licence informatique et multimédiaNazih Heni
Dans le cadre de notre projet de fin d’étude, nous nous intéressons à
développer une application qui sert à l’achat en ligne des produits de beauté,
reconnu dans le domaine informatique par le nom ” E-commerce ”, cette application
peut être développer sur plusieurs plate-forme notamment : An-
droïd , Mac OS et BlackBerry etc. Les supports de notre application Ecommerce
sont les téléphones portable mené, d’un système d’exploitation
Androïd.
--------------------------
http://nazihhenie.wordpress.com/
Lien du Blog:
Mise en place d'une plateforme SAP BI autour de SAP MM :
- Définition des processus métier logistique autour de SAP MM
- Définition des tableaux de bords pour la mesure de performance et contrôle
- Définition des cubes MM dans SAP BI pour l'élaboration des tableaux de bords et KPI
- Réalisation des requetes
- Réalisation des tableaux de bords et KPI
- Dataquality (données BI et données système source SAP)
- Mesure de l'éfficacité des résultats (tableaux de bords et KPI)
- Mise en production
contact :Salaheddine.bentalba@gmail.com
Développement d’une application Web et mobile d’un annuaire médicallitayem bechir
Dans le cadre de l'élaboration de notre projet de fin d’année, nous avons suggéré à concevoir une Application web et mobile pour la gestion de médecin.
Présenté en vue de l’obtention du
Diplôme : Mastère Professionnel en Ingénierie des Logiciels et des Connaissance
Conception et Développement d’une Application web Pour le Service De Remorquage
Rapport de projet de fin d'étude licence informatique et multimédiaNazih Heni
Dans le cadre de notre projet de fin d’étude, nous nous intéressons à
développer une application qui sert à l’achat en ligne des produits de beauté,
reconnu dans le domaine informatique par le nom ” E-commerce ”, cette application
peut être développer sur plusieurs plate-forme notamment : An-
droïd , Mac OS et BlackBerry etc. Les supports de notre application Ecommerce
sont les téléphones portable mené, d’un système d’exploitation
Androïd.
--------------------------
http://nazihhenie.wordpress.com/
Lien du Blog:
Mise en place d'une plateforme SAP BI autour de SAP MM :
- Définition des processus métier logistique autour de SAP MM
- Définition des tableaux de bords pour la mesure de performance et contrôle
- Définition des cubes MM dans SAP BI pour l'élaboration des tableaux de bords et KPI
- Réalisation des requetes
- Réalisation des tableaux de bords et KPI
- Dataquality (données BI et données système source SAP)
- Mesure de l'éfficacité des résultats (tableaux de bords et KPI)
- Mise en production
contact :Salaheddine.bentalba@gmail.com
Le Big Data, semble aujourd’hui la solution miraculeuse pour une gestion efficace des masses de donnée. Mais de quoi s’agit-il ? Un vrai levier pour améliorer son activité? ou simple poudre aux yeux ? Dans ce contexte, Nexialog s’intéresse de plus en plus à cette thématique porteuse, et a réalisé une première étude abordant le Big Data en lien avec les secteurs financiers et assurantiels.
Trois sujets de recherche ont également été lancés en interne :
-L’impact du Big data sur l’organisation de l’entreprise
-Les technologies Big Data
-Gestion de Risques dans l’environnement Big Data
Nuestro compañero Juan Carrasco del IES Ventura Morón de Algeciras, ha elaborado un documento muy interesante para compartir entre todos.
Este documento titulado "Salidas Profesionales". Tiene 544 diapositivas y un montón de enlace y vínculos.
Il existe différents scénarios possibles pour allier environnement local et cloud. Dans cette session, découvrez les avantages de passer à l’hybride. Les sujets de provisioning, fédération d’identité, messagerie avec Exchange ou encore collaboration avec SharePoint seront abordés.
Petit-déjeuner OCTO Technology : Calculez vos indicateurs en temps réel ave...OCTO Technology
Le Big Data touche le paroxysme de sa médiatisation. Tout est devenu Big Data, mélangeant nouvelles approches métiers, technologies et business models.
De vraies opportunités se présentent toutefois. Ainsi, la capacité à suivre en temps réel les indicateurs clés du business à partir d’un nombre croissant de sources de données est un challenge que le « Big Data » peut relever.
Découvrez, au travers d'un retour d'expérience commun EDF R&D/OCTO Technology, comment Storm peut vous permettre de relever ce défi.
Compte-rendu du petit-déjeuner : http://bit.ly/1dpbNgF
L'Internet des objets implique les appareils connectés à Internet que nous utilisons pour exécuter les processus et les services qui soutiennent notre mode de vie.
Un autre ensemble de composants pour aider l'IoT à réussir est le cloud computing, qui agit comme une sorte de frontal. Le cloud computing est un service de plus en plus populaire qui offre plusieurs avantages à l'IoT et repose sur le concept de permettre aux utilisateurs d'effectuer des tâches informatiques normales en utilisant des services entièrement fournis sur Internet.
Dans cette exposé , On va savoir les différentes approches qui peuvent être utilisées pour traiter et stocker des données (générées par des appareils IoT) sur le cloud.
Big Data - Un domaine au carrefour de plusieurs disciplines et d'expertises
Vue globale de l'Architecture et des Processus Big Data
Démarche Big Data
Big Data – Paradigm Shift
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Volume - Big Data « data-intensive » Paradigm shift : Data Locality
Volume - Big Data Paradigm shift : Synchronous batch processing
Variété - Big Data : multitude des formats de données
Varieté - Big Data Paradigme shift : Schema on Run/Read (aka ELT)
Vélocité - Big Data paradigm shift : Real Time Analysis Processing (RTAP)
Prévision des évolution des épidémies
Anticiper les pics de la circulation
Prévision Catastrophes naturelles
Sécurité territoriale
Mesure de la Satisfaction du client
Sécurité du citoyen
Mesure de la Perception du citoyen
Traitement des échanges boursiers
Exemple pratique : Calcul de la carte du bonheur par pays
Big Data & visualisation « Dataviz »
Big Data – un écosystème de
nouveaux concepts et technologies
Big Data – Quels Profils et Compétences ?
Big Data – Eldorado pour la R&D et l'Innovation
Nuage des topics liés à 15 conférences sur le Big Data de 2016
Top 20 des topics liées à 10 études d'opportunités Big Data (282 pages, 115.623 mots)
Big Data Opportunité 1 - Services
Big Data Opportunité 2 - Security
Big Data Opportunité 3 - Smart Governement
Big Data Opportunité 4 - Health
Opportunités Big Data – Améliorer le quotidien du citoyen Marocain
Big Data – Sans oublier bien évidemment de Préparer le Maroc de demain
Le Groupe Cyrès, accompagne la gestion du patrimoine numérique de plus de 1 000 entreprises autour de 3 pôles d’expertises :
Hosteam, expert dans le déploiement d’infrastructures matérielles hautement sécurisées, offre l’accès à un Cloud de proximité français et modulaire. Avec des équipes expertes, Hosteam assurent la sécurité de vos données et l’infogérance de vos services.
Vous bénéficiez d’infrastructures à la demande adossées à des services premiums pour externaliser votre SI dans le Cloud et réduire ainsi vos coûts d’exploitation.
Hébergez vos applications métiers, solutions Big Data, bases de données, solutions collaboratives ou solutions de virtualisation de poste de travail, dans le Cloud Hosteam.
http://www.hosteam.fr/
Ingensi est un des acteurs précurseurs français dans le traitement de hauts volumes de données, l’analyse et l’exploitation des Big Data. Ingensi est notamment à l’origine de CloudKeeper, premier socle technique entièrement managé permettant de connecter des applications Big Data au sein d’une infrastructure évolutive et sécurisée.
http://www.ingensi.com/fr/
Interactive est spécialisé dans le développement de solutions de visualisation de données interactives et ergonomiques (création sites Internet, sites SharePoint, intranet, extranet).
http://interactive.cyres.fr/
Nous contacter par téléphone : 02 47 68 48 50
Ce support présente le Cloud Computing et permet de répondre à plusieurs questions :
Quelle est l’origine du Cloud Computing, quelles sont ses racines dans l'histoire du marché IT ?
Quelle est la promesse apportée par le Cloud, les bénéfices associés ?
Qu'entends t-on par Cloud Computing, son modèle technique (IaaS, PaaS, SaaS), son modèle organisationnel, ses critères d'éligibilité ?
Le support est complété par les interrogations persistantes des entreprises face au phénomène, les freins et les leviers identifiés par les DSI, et une étude de cas du gouvernement fédéral américain.
Le support a été élaboré en Juin 2011 puis réactualisé en 2014. Les principaux points développés restent encore valable aujourd'hui.
La Data Virtualization par Orano : cas d'usage à la Hague et démo de DenodoDenodo
Watch full webinar here: https://buff.ly/48x0LqY
Pour le salon Big Data Paris qui s'est tenu les 28 et 29 septembre 2021, Christophe Leclerc, Directeur Data Science du Groupe Orano est revenu sur le déploiement de la solution Denodo sur son site de la Hague. Avec notre ingénieure avant-vente Emily Sergent, C. Leclerc a abordé les points-clés suivants :
- Qu’est-ce que la virtualisation des données et pourquoi la solution Denodo ?
- Le positionnement Denodo vs Data Lake
- Les cas d’usage actuels au sein de l’usine de la Hague
Le tout est suivi d'une démonstration technique.
Pourquoi un site web collaboratif communautaire inter-entreprises ?
- Présentation des besoins exprimés par les DSI - Approche ... de l'extranet au site communautaire - Introduction du Cloud avec visite du DATA Center (ASP Server) - Présentation plateforme solution avec étude de cas fictive : CG + Ville 2.0 + communauté urbaine + CCI + transport + énergie + organismes d’État
- Prise en compte de la mobilité (smartphone & tablettes) - Questions/réponses avec consultants Sogeti, Calinda et ASP SERVEUR
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/38mIuTp
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment Denodo Platform, la plateforme leader en data intégration, data management et livraison de données en temps réel permet d'accéder à tout type de source de données pour en tirer de la valeur.
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/34EYBaE
Découvrez la Data Virtualization lors d'un atelier organisé à distance pour les professionnels de la donnée mardi 29 octobre. Quel que soit votre rôle, responsables IT, architectes, data scientists, analystes ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Les clés de succès pour moderniser votre architecture de données en 2022Denodo
Watch full webinar here: https://bit.ly/3I0Hv8D
Aujourd’hui, avoir une gestion des données efficace est un élément essentiel pour la compétitivité de votre organisation. Les entreprises sont néanmoins souvent confrontées à des silos de données, ce qui rend leur exploitation longue et coûteuse. De plus, la vitesse, la diversité et le volume des données peuvent submerger les architectures de données traditionnelles. Enfin, la transformation digitale amène à s’appuyer sur de nouveaux socles hébergés chez des fournisseurs Cloud.
Dès lors, les questions suivantes peuvent se poser :
- Comment améliorer la livraison des données et extraire toute la valeur de vos données ? Comment accélérer la prise de décision ?
- Comment rendre les données disponibles et exploitables en temps réel ?
- Comment réduire les coûts informatiques ?
Denodo France vous propose d’aborder les clés de succès pour moderniser efficacement votre architecture de données en 2022. Rejoignez ce nouveau webinar pour comprendre comment la plateforme d’intégration et de gestion de données de Denodo peut vous aider à moderniser votre architecture dans un contexte de transformation digitale.
Les points clés abordés : -
Les bénéfices et défis liés à la modernisation d’une architecture data avec les aspects :
- Hybridation
- Data Mesh et Data Fabric
- Migration et sécurisation de données
- Agilité
- Maîtrise des risques et des coûts
- Cas d’usages et cas clients concrets
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3Eo0BU9
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Présentation PFE Hachem Selmi et Ahmed Dridi Big data
1. LOGO
Mise en place d’une
architecture BIG DATA basée
sur le Cloud computing
Société d’accueil : Innova-TUNISIA
Présentée par :
Hachem SELMI
Ahmed DRIDI
Sous l’encadrement de:
Houssem TAYARI(ISET)
Khaled MANSOURI(Innova)
Institut supérieur des études technologiques de
CHARGUIA
Année universitaire : 2014-2015
4. Présentation générale
2
98,000 comptes Twitter sont crées
695,000 statuts Facebook
11 millions messages instantanés
698,445 recherches sur Google
168 millions mails envoyés
Chaque
60
Secondes
6. Introduction
3
Explosion de volume de l’information
La nécessité d’une nouvelle
technologie qui peut traiter un
grand volume de données.
Evolution des systèmes d’information des
entreprises
variété et complexité des données
BIG DATA
8. Cadre du stage
Organisme d’accueil
4
INNOVA-TUNISIA est un acteur
dynamique dans les métiers du
conseil et l’études systèmes
informatiques et internet.
Son équipe se compose du responsable développement, du
coordinateur communication chargé d’affaires, des programmeurs de
logiciels, des chefs de projets et du directeur général.
Depuis 2010, Innova Tunisia s’est spécialisée dans la veille et le
monitoring Internet avec un premier produit WebJort, puis en 2012
avec la solution WebRadar introduite sur le marché Tunisien.
9. Cadre du stage
Web Radar
5
Toutes les données publiques
Produites par la presse électronique, les réseaux
sociaux, les blogs, les forums
en temps réel
…qui collecte
12. Cadre du stage
Critique de WebRadar
Des données …
Des données …
Des données…
DES DONNEES!!
8
13. Cadre du stage
Critique de WebRadar
Avec l’architecture actuelle de WebRadar avec la présence évolutive des
informations et données collectées, Innova rencontre plusieurs difficultés
pour stocker , traiter et analyser ces données!!!
9
14. Cadre du stage
Solution proposée
Des nouvelles approches
liées au concept de
l'informatique décisionnelle.
Une infrastructure dédiée à
l’analyse et le traitement
des données massives.
Architecture Big Data basée
sur le cloud computing.
10
16. Big data et cloud computing
C’est quoi la Big Data ?
Big Data
Vélocité
Volume
Variété
11
17. Big data et cloud computing
Décisionnel classique et big data
Décisionnel
classique
Volume limité
Données
structurés
Statistique
descriptive
Big Data
Volume
gigantesque
Données
structurés
Semi structurés
Hétérogènes
Statistique en
temps réel
12
18. Big data et cloud computing
C’est quoi le cloud computing ?
L’utilisation de la mémoire et des capacités de calcul et de
stockage d’ordinateurs et de serveurs répartis dans le monde, et
liés par un réseau ,tel Internet
13
19. Big data et cloud computing
Pourquoi ??????
Répartition
des
données
Récupération
des
données
14
25. Réalisation
L’infrastructure virtuelle
Création des machines virtuelles
Installation et configuration de
système d’exploitation Debian
Configuration d’un réseau LAN
Installation et configuration de
l’écosystème Hadoop
18
27. Réalisation
Migration Sql >>Sql
Importation des données de la base de données Mysql de WebRadar
vers la base de données Mysql existante dans notre cluster avec l’outil
Python.
20
36. Conclusion générale
Notre projet de fin d’étude est déroulé avec la découverte des nouvelles
technologies:
La Big Data
Cloud Computing
Les bases de données Nosql
Le stage a été une bonne occasion pour intégrer des nouveaux concepts et
connaitre des nouvelles sources fiables.
Bonjour, Nous tenons pour commencer à vous adresser, chers membres du jury, nos sincères remerciements pour votre lecture, votre présence aujourd’hui et les remarques qui viendront enrichir ce travail que nous aurons plaisir à partager et discuter avec vous.
Tout au long de cette présentation on va suivre le plan suivant, On va commencer par une présentation générale puis on va introduire notre projet
Ensuite on va présenter l’organisme d’accueil ainsi qu’une étude de cadre du stage
Puis on va définir le concept de big data et cloud computing
Apres ca on va entamer les parties Architecture et les technologies qu’on a choisi , et dans la partie qui suit on va mettre l’accent sur la réalisation de notre architecture et on va finir par une conlusion .
Aujourd’hui les données ouvrent de nouvelles perspectives de connaissances aux sciences économiques et sociales et fournissent une autre forme de création de valeur aux entreprise.
Les sources de données peuvent être de forme très diverse tel que media sociaux , image ,bases de données messageries journaux électrique aussi des capteurs et des caméra de surveillance et des saigneux GPS. cette diversité de source de données peut générer plusieurs type de données
-structurées
-semi structurées
-non structurées
Chaque 60 secondes :
98,000 comptes Twitter sont crées
695,000 statut Facebook
11 million messages instantanés
698,445 recherche sur Google
168 million mail envoyés
Avec une prévision d’une croissance de 800% des quantités de données à traiter d’ici à 5 ans.
Dans nos jours, on remarque une Explosion de volume de l’information et une
Evolution des systèmes d’information des entreprises ainsi que une variété et la complexité des données, tous ces facteurs nous poussent pour trouver une nouvelle technologie nommée: Big data afin de traiter toutes ces masses de volumes.
Nous sommes accueillis pendant notre projet de fin d’études chez Innova-tunisia, un acteur dynamique dans les métiers de conseils et des systemes informatiques et internet.
Dans ce cadre, webradar est une application de media-monitoring qui surveille en Tunisie près de 100 journaux électroniques, 1500 pages Facebook, 2000 utilisateurs Twitter, 500
Voila un exemple d’une analyse du web tunisien pour montrer les personnes les plus mentionnées par les utilisateurs de facebook En 2013.
Innova rencontre souvent des problèmes liés a son produit WebRadar qui est accablé par la masse très élevée des données collectées quotidiennement du web.
Nos recherches se sont donc dirigee vers l'etude
La big data est une nouvelle technologie libérée par le volume de donnée accessible, la capacité à exploiter la variété des données la vélocité de traitement
Voila une comparaison entre l’informatique décisionnel et le big data
L’architecture actuelle se compose essentiellement par trois serveurs connectés entre eux. Les outils logiciels nécessaires pour le fonctionnement du WebRadar sont également installés et configurés sur les trois serveurs de sorte que lorsque un service fonctionne tous les autres services seront non utilisés ou ils ne répondent pas convenablement. Ainsi, une modification dans une base de données de volume important peut interrompre le fonctionnement de toute l’architecture.
Afin de lutter contre les inconvénients de l’architecture actuelle on a proposé une nouvelle pour répondre aux besoin de l’outil WebRadar
Ce cluster est constitué de postes standards équipés de système d'exploitation Debian
ce qui nous a permis de tester la virtualisation du cluster, solution incontournable pour faire du Big Data sur le cloud. Ce schéma présente les différentes machines (maître et esclave) du cluster et les rôles qui leurs sont associés dans le cadre de notre architecture.
On a choisi des différentes technologies pour les utilisées dans notre architecture comme VmWare qu’il nous a permis de tester la virtualisation de cluster avec le système d ’exploitation debian 7,8
Et mongoDB qui est un SGBD orientée NoSql caractérisé par sa rapidité
Et MongiFy qui est un outil de migration des données de l’Sql vers le NoSql
Et Hadoop qui va jouer le rôle d’analyse des données collectées et qui va simuler toutes les machines virtuelles comme étant une seule machine.
La premiere étape dans la partie réalisation consiste a la …
Afin de préparer le processus que inova va le suivre pour la migration de la solution WebRadar on a installé et configuré l’écosystème hadoop qui va jouer le rôle d’analyse des données collectées et qui va simuler toutes les machines virtuelles comme étant une seule machine.
Comme vous connaissez Mysql ne supporte pas l’import d’une base de données qui possède une taille > à 2mo donc pour migré les données de la base de donnée de l’ancienne architecture du WebRadar vers notre nouvelle architecture on a utiliser l’outil Python et sql object pour qu’on puisse importer des bases de données de grande tailles
Et voila l’exemple de migration
Pour traduire notre base de données vers le NoSql nous aurons besoin de deux choses
Un fichier de configuration de bases de données utilisé par Mongify pour localiser les connexions à la base de donnée sql et mongoDb
Là on trouve que les connexions sont établies avec succées
Et un autre fichier de traduction des données utilisée pour traduire nos données SQL avant de les enregistrer dans MongoDB
Une fois que les données sont traduites dans le fichier de traduction de mongify on déplace les données vers MongoDB avec la commande process de mongify
Après la migration de données vers le noSql l’étape suivante consiste à répliquer les données sous la formes d’un instance master et des instance slave
Apres les configurations nécessaires pour l’instance master et l’instance Slave on a passer pour tester la réplication en ajoutant un enregistrement dans la base de données imdb dans la table aka_name, apres on lance l’instance slave et on affiche les enregistrement de aka_name on remarque l’ajout de l’enregistrement. Comme ça on a arrivé a dupliquer les données sur toutes les machines pour qu’on puisse les récupérer lors d’une perte.