Formation DataStudio - de débutant à avancé - français - 2019Bruno Guyot
Voyez en vidéo ici : https://www.youtube.com/watch?v=gGOrp8hx8og
Dans cette formation, vous allez apprendre à utiliser Google Data Studio, la solution de visualisation de données gratuite de Google.
Je vous explique en détail l'interface, les sources de données, le types de graph, les moyens de filtrage et de segmentation et même des utilisations avancées.
Je vous donne de nombreux exemples aussi, pour que ce soit le plus pratique et appliqué possible.
Après cette formation, vous serez capables de construire des rapports simples, des tableaux de bord et même de créer pour vous même ou pour d'autres de véritables outils d'analyse.
Cette formation a été filmée lors d'un atelier digital Google donné à l'EPFL Lausanne en juin 2019.
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
Formation DataStudio - de débutant à avancé - français - 2019Bruno Guyot
Voyez en vidéo ici : https://www.youtube.com/watch?v=gGOrp8hx8og
Dans cette formation, vous allez apprendre à utiliser Google Data Studio, la solution de visualisation de données gratuite de Google.
Je vous explique en détail l'interface, les sources de données, le types de graph, les moyens de filtrage et de segmentation et même des utilisations avancées.
Je vous donne de nombreux exemples aussi, pour que ce soit le plus pratique et appliqué possible.
Après cette formation, vous serez capables de construire des rapports simples, des tableaux de bord et même de créer pour vous même ou pour d'autres de véritables outils d'analyse.
Cette formation a été filmée lors d'un atelier digital Google donné à l'EPFL Lausanne en juin 2019.
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
SQLSaturday Toulouse 2017 - Azure Data Lake : SELECT people FROM data-lake WH...Jean-Pierre Riehl
--session donnée dans le cadre du SQLSaturday Toulouse 2017--
Discover Azure Date Lake through a complete demo : how to get insights from tons of text, photos and videos ? From different media files and raw data, we will analyze sentiment of characters and get valuable information in a Power BI dashboard, using Cognitive Services, CNTK, .NET and U-SQL.
This session will mainly showcase Azure Data Lake and U-SQL language. But demos will involve different tools like Azure Data Factory for data supply chain and orchestration, Azure SQL Datawarehouse for corporate data and also Azure Machine Learning and Power BI.
Even if this session is demo-driven, we won't omit to present you concepts and features of Azure Data Lake.
Le SQL est un standard pour accéder vos données, donc, dans un monde orienté flux, quoi de plus normal que de retrouver le SQL pour traiter vos streams. Dans ce talk, vous découvrirez les extensions apportées à SQL par Apache Calcite pour répondre à cette problématique. Présentation faite au JugSummerCamp 2018
Big Data, tout le monde en parle…
Soft Computing le pratique au quotidien : applications marketing, concepts, outils, retours d’expérience.
Big Data s’impose comme une réalité incontournable. Mais qu’en est-il réellement des retours sur investissements ? Quelles en sont les applications concrètes en marketing ? Par où et comment commencer ? Comment s’organiser entre le marketing et la DSI pour tirer profit des big data ? Comment exploiter les données des réseaux sociaux et les logs web ? Quelles sont les données légalement et techniquement exploitables ? Comment choisir entre internalisation et externalisation, entre « first party » et « third party » ? Quelles possibilités pour capter et exploiter les données issues de la mobilité ?
Notre expérience de plusieurs dizaines d’années hommes sur des projets concrets et nos investissements en R&D nous permettent aujourd’hui de vous apporter des réponses à ces multiples questions. Nous nous appuierons en particulier sur 3 cas concrets illustrant :
1. L’augmentation des ventes croisées grâce à un moteur de recommandations en ligne pour un site de e-Commerce ;
2. L’enrichissement de la connaissance et de l’interaction client et marché par une écoute active des réseaux sociaux ;
3. Une amélioration de l’expérience client grâce au monitoring et à l’analyse des parcours client.
Windows PowerShell est le langage de script incontournable pour l’automatisation des tâches simples ou complexes sur les environnements Windows. Cette session vous propose un retour d’expérience de l’utilisation de Windows PowerShell sur des cas concrets tirés de projets, accompagné de démonstrations.
Comment integrer les applications de votre Systeme Information entre elles ?Stéphane Traumat
Cette présentation détaille les solutions et les méthodes existantes pour améliorer votre système d'information en intégrant l'ensemble des applications que vous utilisez.
Les trois grands type d'intégration seront abordés :
• Intégration par les données: données stockées et données mobiles: XML et applications aux services.
• Intégration par la présentation: portails et agrégation de contenus.
• Intégration par les processus: modèles de processus, architectures de services (SOA).
Agenda :
Les enjeux de la performance d'un site Web
Les différents éléments de performance d'un site Web
Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
L'obsession de la mesure
Les outils
Les quickwins
Caches, upscaling, outscaling, sharding
La démarche de test de charge
Méthodologie, outils, types de test, données de test
La démarche PDCA
Intégrer les tests de charge au cycle de développement
Environnement éphémère
Oxalide MorningTech #2 - Démarche de performance
2ème MorningTech @Oxalide, animé par Adrien Le Priol (@Priolix) et Ludovic Piot (@lpiot), le 28 février 2017.
Une vue d'ensemble sur la démarche et les outils pour aborder et maîtriser la performance de son site Web.
En 2012, Amazon publiait une étude indiquant que chaque seconde de performance perdue sur son site de commerce lui coûtait $1.6 milliards de chiffre d'affaire.
Par delà ce chiffre colossal avancé par le géant du Web, il est une réalité business : plus un site est lent, et moins les utilisateurs sont enclin à naviguer dessus. Les smartphones et le SoLoMo exacerbent cette réalité avec encore plus depuis 10 ans maintenant.
Sur le terrain, l'architecture technique des sites Web, de plus en plus complexe, rendent ses performances impossibles à prédire : complexité des développements applicatifs, multitude des composants impliqués dans l'architecture technique, recours à des services tiers (issus du SI de votre entreprise, ou de services tiers), big data, machine learning…
Une seule façon de prédire les performances : tester… en situation réelle.
A travers les différentes étapes d'une démarche d'optimisation des performances d'un site Web, les enjeux et les écueils d'une telle démarche vous seront détaillés.
Subject: Oxalide's MorningTech talk about an overview of how to deal with performance in a Web site.
Date: 28-feb-2017
Speakers: Adrien Le Priol (@Priolix, @Oxalide) and Ludovic Piot (@lpiot, @Oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morning-tech-number-2-demarche-performance
Lien SlideShare : https://www.slideshare.net/LudovicPiot/morning-tech-2-demarche-performance-slides
YouTube Video capture: https://youtu.be/a8jSbvyBzYU
Main topics:
* Les enjeux de la performance d'un site Web
* Les différents éléments de performance d'un site Web
** Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
* L'obsession de la mesure
* Les outils
* Les quickwins
** Caches, upscaling, outscaling, sharding
* La démarche de test de charge
** Méthodologie, outils, types de test, données de test
* La démarche PDCA
** Intégrer les tests de charge au cycle de développement
** Environnement éphémère
* Questions / Réponses
Conception d’un outil décisionnel pour la gestion de la relation client dans ...usthbmilsded
Les entreprises soucieuses de leur progrès tentent à satisfaire continuellement leurs clients potentiels. L’utilisation du e-commerce, l’essor des technologies liées à l’internet fait naître de nouvelles attentes de la part des clients et des collaborateurs. Ceci oblige ces entreprises à prendre les décisions adéquates en vue de répondre aux exigences de leurs clients, en examinant leur comportement sur son site de e-commerce. L’analyse du marché pour une entreprise donnée repose sur la quantité importante d’informations provenant de son site web marchand. Cette analyse peut se faire en exploitant les entrepôts de données (ED) ou data warehouse (DW) d’une part et les outils de data mining ou de fouille de données pour une classification (profilage) des clients d’autre part, car l’aide à la décision peut nécessiter de comprendre plus profondément les chiffres et les faits de l’entreprise. Le présent article décrit la conception, l’architecture et quelques fonctionnalités d’un outil d’aide à la décision pour la gestion de la relation client sur un site de e-commerce.
Le travail présenté dans cet article consiste en la conception et la réalisation d’un outil d’aide à la décision dans la gestion de la relation client sur internet. L’intérêt principal d’un tel outil est d’offrir aux décideurs une meilleure vision de leurs clients leur permettant ainsi, une meilleure gestion de leurs entreprises. Comme perspective à ce travail, nous proposons un enrichissement du module data mining en intégrant d’autres techniques de classification telles que les réseaux de neurones.
On Wednesday 13th of November, we organized with the Node.js Paris group a new meetup in our office in Paris around Javascript! It was a real success with nearly 70 people who attended the event to exchange views on Micro Services, CPU Profiling WebSocket, TypeScript.
Conférence - Mettre en place une démarche UX au sein de vos équipesMedialibs
L'UX est un besoin grandissant chez les annonceurs. Aux États-Unis, il représente 20% du digital. Pour rester compétitif, on ne peut plus apporter de prestation digitale sans UX. C'est une attente des annonceurs... À travers une étude de cas concrète, je vous présenterai la démarche de conception à suivre pour obtenir des résultats certains pour vos clients.
Animé par Olivier Sauvage, Capitaine Commerce & Wexperience
L'ORM de Django est particulièrement efficace, il permet au développeur de complètement abstraire la couche de stockage de données au point de pouvoir utiliser le même code avec SQLite, PostgreSQL ou d'autres bases plus exotiques encore. Lorsque les problèmes de performance surviennent faire le chemin inverse depuis la base vers le code devient un véritable chemin de croix. On verra dans cette présentation comment se faciliter la vie avec quelques outils et méthodes.
Contenu connexe
Similaire à Datastudio : du basique au connecteur TEKNSEO 2018
SQLSaturday Toulouse 2017 - Azure Data Lake : SELECT people FROM data-lake WH...Jean-Pierre Riehl
--session donnée dans le cadre du SQLSaturday Toulouse 2017--
Discover Azure Date Lake through a complete demo : how to get insights from tons of text, photos and videos ? From different media files and raw data, we will analyze sentiment of characters and get valuable information in a Power BI dashboard, using Cognitive Services, CNTK, .NET and U-SQL.
This session will mainly showcase Azure Data Lake and U-SQL language. But demos will involve different tools like Azure Data Factory for data supply chain and orchestration, Azure SQL Datawarehouse for corporate data and also Azure Machine Learning and Power BI.
Even if this session is demo-driven, we won't omit to present you concepts and features of Azure Data Lake.
Le SQL est un standard pour accéder vos données, donc, dans un monde orienté flux, quoi de plus normal que de retrouver le SQL pour traiter vos streams. Dans ce talk, vous découvrirez les extensions apportées à SQL par Apache Calcite pour répondre à cette problématique. Présentation faite au JugSummerCamp 2018
Big Data, tout le monde en parle…
Soft Computing le pratique au quotidien : applications marketing, concepts, outils, retours d’expérience.
Big Data s’impose comme une réalité incontournable. Mais qu’en est-il réellement des retours sur investissements ? Quelles en sont les applications concrètes en marketing ? Par où et comment commencer ? Comment s’organiser entre le marketing et la DSI pour tirer profit des big data ? Comment exploiter les données des réseaux sociaux et les logs web ? Quelles sont les données légalement et techniquement exploitables ? Comment choisir entre internalisation et externalisation, entre « first party » et « third party » ? Quelles possibilités pour capter et exploiter les données issues de la mobilité ?
Notre expérience de plusieurs dizaines d’années hommes sur des projets concrets et nos investissements en R&D nous permettent aujourd’hui de vous apporter des réponses à ces multiples questions. Nous nous appuierons en particulier sur 3 cas concrets illustrant :
1. L’augmentation des ventes croisées grâce à un moteur de recommandations en ligne pour un site de e-Commerce ;
2. L’enrichissement de la connaissance et de l’interaction client et marché par une écoute active des réseaux sociaux ;
3. Une amélioration de l’expérience client grâce au monitoring et à l’analyse des parcours client.
Windows PowerShell est le langage de script incontournable pour l’automatisation des tâches simples ou complexes sur les environnements Windows. Cette session vous propose un retour d’expérience de l’utilisation de Windows PowerShell sur des cas concrets tirés de projets, accompagné de démonstrations.
Comment integrer les applications de votre Systeme Information entre elles ?Stéphane Traumat
Cette présentation détaille les solutions et les méthodes existantes pour améliorer votre système d'information en intégrant l'ensemble des applications que vous utilisez.
Les trois grands type d'intégration seront abordés :
• Intégration par les données: données stockées et données mobiles: XML et applications aux services.
• Intégration par la présentation: portails et agrégation de contenus.
• Intégration par les processus: modèles de processus, architectures de services (SOA).
Agenda :
Les enjeux de la performance d'un site Web
Les différents éléments de performance d'un site Web
Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
L'obsession de la mesure
Les outils
Les quickwins
Caches, upscaling, outscaling, sharding
La démarche de test de charge
Méthodologie, outils, types de test, données de test
La démarche PDCA
Intégrer les tests de charge au cycle de développement
Environnement éphémère
Oxalide MorningTech #2 - Démarche de performance
2ème MorningTech @Oxalide, animé par Adrien Le Priol (@Priolix) et Ludovic Piot (@lpiot), le 28 février 2017.
Une vue d'ensemble sur la démarche et les outils pour aborder et maîtriser la performance de son site Web.
En 2012, Amazon publiait une étude indiquant que chaque seconde de performance perdue sur son site de commerce lui coûtait $1.6 milliards de chiffre d'affaire.
Par delà ce chiffre colossal avancé par le géant du Web, il est une réalité business : plus un site est lent, et moins les utilisateurs sont enclin à naviguer dessus. Les smartphones et le SoLoMo exacerbent cette réalité avec encore plus depuis 10 ans maintenant.
Sur le terrain, l'architecture technique des sites Web, de plus en plus complexe, rendent ses performances impossibles à prédire : complexité des développements applicatifs, multitude des composants impliqués dans l'architecture technique, recours à des services tiers (issus du SI de votre entreprise, ou de services tiers), big data, machine learning…
Une seule façon de prédire les performances : tester… en situation réelle.
A travers les différentes étapes d'une démarche d'optimisation des performances d'un site Web, les enjeux et les écueils d'une telle démarche vous seront détaillés.
Subject: Oxalide's MorningTech talk about an overview of how to deal with performance in a Web site.
Date: 28-feb-2017
Speakers: Adrien Le Priol (@Priolix, @Oxalide) and Ludovic Piot (@lpiot, @Oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morning-tech-number-2-demarche-performance
Lien SlideShare : https://www.slideshare.net/LudovicPiot/morning-tech-2-demarche-performance-slides
YouTube Video capture: https://youtu.be/a8jSbvyBzYU
Main topics:
* Les enjeux de la performance d'un site Web
* Les différents éléments de performance d'un site Web
** Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
* L'obsession de la mesure
* Les outils
* Les quickwins
** Caches, upscaling, outscaling, sharding
* La démarche de test de charge
** Méthodologie, outils, types de test, données de test
* La démarche PDCA
** Intégrer les tests de charge au cycle de développement
** Environnement éphémère
* Questions / Réponses
Conception d’un outil décisionnel pour la gestion de la relation client dans ...usthbmilsded
Les entreprises soucieuses de leur progrès tentent à satisfaire continuellement leurs clients potentiels. L’utilisation du e-commerce, l’essor des technologies liées à l’internet fait naître de nouvelles attentes de la part des clients et des collaborateurs. Ceci oblige ces entreprises à prendre les décisions adéquates en vue de répondre aux exigences de leurs clients, en examinant leur comportement sur son site de e-commerce. L’analyse du marché pour une entreprise donnée repose sur la quantité importante d’informations provenant de son site web marchand. Cette analyse peut se faire en exploitant les entrepôts de données (ED) ou data warehouse (DW) d’une part et les outils de data mining ou de fouille de données pour une classification (profilage) des clients d’autre part, car l’aide à la décision peut nécessiter de comprendre plus profondément les chiffres et les faits de l’entreprise. Le présent article décrit la conception, l’architecture et quelques fonctionnalités d’un outil d’aide à la décision pour la gestion de la relation client sur un site de e-commerce.
Le travail présenté dans cet article consiste en la conception et la réalisation d’un outil d’aide à la décision dans la gestion de la relation client sur internet. L’intérêt principal d’un tel outil est d’offrir aux décideurs une meilleure vision de leurs clients leur permettant ainsi, une meilleure gestion de leurs entreprises. Comme perspective à ce travail, nous proposons un enrichissement du module data mining en intégrant d’autres techniques de classification telles que les réseaux de neurones.
On Wednesday 13th of November, we organized with the Node.js Paris group a new meetup in our office in Paris around Javascript! It was a real success with nearly 70 people who attended the event to exchange views on Micro Services, CPU Profiling WebSocket, TypeScript.
Conférence - Mettre en place une démarche UX au sein de vos équipesMedialibs
L'UX est un besoin grandissant chez les annonceurs. Aux États-Unis, il représente 20% du digital. Pour rester compétitif, on ne peut plus apporter de prestation digitale sans UX. C'est une attente des annonceurs... À travers une étude de cas concrète, je vous présenterai la démarche de conception à suivre pour obtenir des résultats certains pour vos clients.
Animé par Olivier Sauvage, Capitaine Commerce & Wexperience
L'ORM de Django est particulièrement efficace, il permet au développeur de complètement abstraire la couche de stockage de données au point de pouvoir utiliser le même code avec SQLite, PostgreSQL ou d'autres bases plus exotiques encore. Lorsque les problèmes de performance surviennent faire le chemin inverse depuis la base vers le code devient un véritable chemin de croix. On verra dans cette présentation comment se faciliter la vie avec quelques outils et méthodes.
Similaire à Datastudio : du basique au connecteur TEKNSEO 2018 (20)
2. HELLO!Je suis Vincent Lahaye
SEO chez Aseox
Nous allons parler de Data
Studio
Je sévis sur Twitter
@jambonbuzz
(compte sérieux à mi-temps)
2
3. Qu’allons-nous voir ?
Cet atelier a pour but de vous
familiariser avec DataStudio,
de la création d’un rapport
jusqu’à la création d’un
connecteur
3
4. “L'effet démo : un objet, un logiciel,
utilisé au quotidien sans incident
présentera nécessairement un
dysfonctionnement lors d'une
démonstration, surtout en public.”
4
10. Quelques concepts avant de commencer
Dimensions
Attributs des données
Exemples : Ville, Source, Canal,
Pages de destination
Statistiques
Mesures quantitatives
Exemples : Sessions, Utilisateurs,
Taux de rebond...
Modèles
Templates déjà créé sur des
connecteurs courants
10
Plage de date par
défaut
28 jours (démarre à j-1)
Filtres
Restrictions. Peut s’appliquer à un
élément ou à la page entière
Connecteurs
Connecteurs de Google ou de
sociétés privées. Peuvent être
payants
11. Comprendre le process
11
Partage
● Enregistrement sur
Google Drive
● Partageable comme
tout document Google
Drive
○ Par lien
○ Par mail
Connexion à une source de données
● Choisir parmi tous les
connecteurs disponible
● Créer des champs
calculés
Création du rapport
● Système de blocs
● Possibilité de créer des
filtres
○ De temps
○ De rapport
○ De dimension
12. Avantages
▫ Facile d’accès
▫ Partageable
▫ Evolutif
▫ Collaboratif
Pros / Cons
Inconvénients
▫ Demande du temps pour
connaître les fonctionnalités
avancées
▫ Encore quelques bugs
▫ Donner encore + à Google
12
20. Place your screenshot here
20
Modèles
▫ Galerie de
rapports existants
▫ De nombreux
modèles
accessibles en
ligne
▫ Exemple JDN
21. Place your screenshot here
21
Source de
données
▫ Actuellement 14
connecteurs Google
“officiels”
▫ Ouverture récente
des connecteurs aux
partenaires
(attention, certains
sont payants)
22. Place your screenshot here
22
Ajouts de
graphiques et
filtres
▫ Demonstration
(Gros espoir dans le
wi-fi Suisse)
23. Comprendre les données calculées
Compter le nombre d'occurrences :
COUNT_DISTINCT(Query)
Créer des champs de dates (via formule):
CONCAT(YEAR(Date, 'DEFAULT_SLASH'), '-', MONTH(Date, 'DEFAULT_SLASH'))
Compter le nombre de mots (longue traîne) :
LENGTH(REGEXP_REPLACE(Query,
'[a-zA-Z0-9áàâäãåçéèêëíìîïñóòôöõúùûüýÿæœÁÀÂÄÃÅÇÉÈÊËÍÌÎÏÑÓÒÔÖÕÚÙÛÜÝŸÆŒ._-]', '')) + 1
Catégoriser les mots clés par types (ex : marque) :
CASE WHEN Query IN ( "brand1" , "brand2" ) THEN "Requête marque" ELSE "Requête hors marque"
END
23
25. Connecteurs
▫ Les connecteurs sont des scripts de connexion à des API tierces
▫ Il existe de nombreux connecteurs payant
▫ Possibilité de créer son connecteur (nécessite de connaître Javascript)
▫ Ou d’utiliser un connecteur de la galerie
▫ Où commencer ?
- https://codelabs.developers.google.com/codelabs/community-connectors/
- https://developers.google.com/datastudio/connector/get-started
25
32. Conclusion
▫ Un bon rapport commence par une bonne source de données
▫ Attention à ne pas aller trop loin
▫ Bien vérifier ce que vous partagez
▫ Encore quelques améliorations nécessaires (cache)
▫ Créez vos connecteurs et partagez les !
32