Watch full webinar here: https://buff.ly/47gqTVV
Une session découverte de Denodo Platform pour les professionnels de la data
D'après la dernière étude du cabinet Forrester The Total Economic Impact™️ of Data Virtualization Using The Denodo Platform, l’impact de la Data Virtualization avec Denodo permet un ROI de 408% et inférieur à 6 mois, une réduction de 65 % des délais de livraison des données par rapport à l'ETL, de 83 % du time-to-revenue et de 67 % du temps alloué à la préparation des données.
Découvrez lors de cette session en ligne de 1h30 en quoi la Logical Data Fabric et la data virtualization révolutionnent l'approche métier & IT dans l’accès, la livraison, la consommation, la gouvernance et la sécurisation de vos données, quel que soit l'âge de votre technologie, le format de la donnée ou son emplacement.
Avec plus de 1000 clients à travers le monde, Denodo est heureux de vous inviter à cette session en ligne le 14 novembre 2023 de 9h30 à 11h. Si vous êtes un IT Manager, architecte, DSI, Data Scientist ou Data Analyst, cet atelier est pour vous!
CONTENU
Au programme : une introduction à ce qu'est la virtualisation des données, les cas d'usages, des études de cas clients réels et une démo guidée pas à pas des fonctionnalités de Denodo Platform avec notre version gratuite sur le cloud, Denodo Test Drive. Vous apprendrez comment:
- Intégrer et livrer vos données rapidement et facilement à l'aide de Denodo Platform
- L'optimiseur de requêtes de Denodo fournit des données en temps réel, à la demande, même lorsqu'il s'agit de jeux de données très volumineux
- Exposer les données en tant que «services de données» en vue d’être consommées par une variété d'utilisateurs et d'outils
- La virtualisation des données joue un rôle essentiel dans la gouvernance et la sécurité des données au sein de votre organisation
Montant moyen du droit d'allocation chômage versé aux demandeurs d'emploi ind...
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
1. Découverte du Logical
Data Fabric & Data
Virtualization
La plateforme Denodo au cœur de votre architecture data
Emily Sergent
Sales Engineer
esergent@denodo.com
2. AGENDA
1. Une introduction à la plateforme
Denodo
2. Architectures et cas d’usage
3. Démonstration
4. Introduction au Test Drive de Denodo
5. Conclusion et Q+A
4. 4
Des coûts plus élevés :
• Chaque projet gère l’intégration des données individuellement, ce qui
entraîne des coûts de mise en œuvre et de maintenance plus élevés
Opportunités manquées :
• L’utilisation systématique de processus lourds de réplication des
données peut ralentir considérablement les projets
d’intégration
• La visibilité est limitée aux données déjà organisées et disponibles
• La création de valeur est limitée par la capacité de l’informatique à
mettre à disposition de nouvelles données de qualité
Risque accru pour l’entreprise :
• L’intégration et la consommation des données sont étroitement liées
aux technologies sous-jacentes, ce qui laisse moins de flexibilité
pour migrer et s’adapter
• Les environnements hétérogènes complexes avec plusieurs copies des
mêmes données sont difficiles à gérer et à sécuriser
Les complexités cachées de
l’intégration des données DATA
SOURCE
DATA
CONSUMER
Data
Governance
Tools
DB, DW &
Data Lakes
Files
BI Dashboard
Report and Tools
Data Science &
Machine Learning
Apps
Mobile &
Enterprise Apps
Microservices
Apps
Cloud DB
& SaaS
Streaming
Data &
IoT
Cube
6. 6
DVD player
Streaming
Video Club
Video Club
Digital Delivery
Flexible Digital
Delivery
Stockage physique
Stockage physique
amélioré
Cloud-to-living
room
Livraison multi-
device
Les consommateurs de données ont des besoins similaires : un accès
permanent et à la demande aux données dans différents formats pour
répondre aux différents besoins de l’entreprise
VCR
Films à la maison
(avec
organisation
préalable)
+ plus petit
+ plus d’espace
de stockage
+ qualité supérieure
+ Dématérialisé
+ Recommandations
+ Compte famille
+ Catalogue amélioré
Comprendre l’approche virtuelle comme accélérateur numérique
VOD
7. 7
BI Tools Data Science Tools
Les fonctionnalités clés de la plateforme Denodo
CONSUMERS
DATA
INTEGRATION,
MANAGEMENT,
AND
DELIVERY
PLATFORM
SOURCES
200
+
data
adapters
Apps Streaming
DATA CATALOG
Discover - Explore - Document SQL
DATA AS A SERVICE
RESTful / OData
GraphQL / GeoJSON
Files
OLAP
Traditional
DB & DW
Data
Governance
Security
Roles &
Policies
Cloud DWH API Data Lake
Storage
Self-Service
AI/ML
integration
Query
Optimization
Denodo
MPP
Universal
Data Model
8. 8
BI Tools Data Science Tools
Une approche « produit de données »
CONSUMERS
DATA
INTEGRATION,
MANAGEMENT,
AND
DELIVERY
PLATFORM
SOURCES
200
+
data
adapters
Apps Streaming
DATA CATALOG
Discover - Explore - Document SQL
DATA AS A SERVICE
RESTful / OData
GraphQL / GeoJSON
Files
OLAP
Traditional
DB & DW
Data
Governance
Security
Roles &
Policies
Cloud DWH API Data Lake
Storage
Self-Service
AI/ML
integration
Query
Optimization
Denodo
MPP
Universal
Data Model
CRM Supply Chain Human Resources
Produc
t
Customer Employee
Produc
t Supplier
9. 9
BI Tools Data Science Tools
Le rôle du Denodo MPP
CONSUMERS
DATA
INTEGRATION,
MANAGEMENT,
AND
DELIVERY
PLATFORM
SOURCES
Apps Streaming
DATA CATALOG
Discover - Explore - Document SQL
DATA AS A SERVICE
RESTful / OData
GraphQL / GeoJSON
Files
OLAP
Traditional
DB & DW
Data
Governance
Security
Roles &
Policies
Cloud DWH API
Self-Service
AI/ML
integration
Query
Optimization
Universal
Data Model
200
+
data
adapters
Data Lake
Storage
S3/ADLS/GCS/HDFS
Parquet,
Delta,
Iceberg
Denodo
MPP
11. 11
De la gestion du stockage à la consommation des données, avec une gouvernance et une sécurité centralisées
REAL-TIME
DECISIONS
360 Views
(Customer,
Product…)
AGILE BI
(SELF-SERVICE)
DATA
SCIENCE
(ML & AI)
APPS
(MOBILE & WEB)
MERGERS &
ACQUISITIONS
DATA
MARKETPLACE
REGULATORY
(IFRS17, GRC)
SECURITY &
GOVERNANCE
APIFICATION
(& SQLIFICATION)
UNIVERSAL
SEMANTIC LAYER
AGILITY
& SIMPLICITY
REAL-TIME
DELIVERY
DATA
ABSTRACTION
ZERO
REPLICATION
DATA
CATALOG
OPTIMIZED
PERFORMANCE
LOGICAL DATA
WAREHOUSE/LAKE
BIG DATA
FABRIC
HYBRID
DATA FABRIC
DATA
INTEGRATION
DATA
MIGRATION
REFACTORING &
REPLATFORMING
CONSOMMATION DE DONNÉES
STOCKAGE ET GESTION DES DONNÉES
GOUVERNANCE ET ACCÈS AUX DONNÉES
Sales
HR
Executive
Marketing Apps/API
Data Science
AI/ML
API
Cas d’usage de Denodo
12. 12
De la gestion du stockage à la consommation des données, avec une gouvernance et une sécurité centralisées
REAL-TIME
DECISIONS
360 Views
(Customer,
Product…)
AGILE BI
(SELF-SERVICE)
DATA
SCIENCE
(ML & AI)
APPS
(MOBILE & WEB)
MERGERS &
ACQUISITIONS
DATA
MARKETPLACE
REGULATORY
(IFRS17, GRC)
SECURITY &
GOVERNANCE
APIFICATION
(& SQLIFICATION)
UNIVERSAL
SEMANTIC LAYER
AGILITY
& SIMPLICITY
REAL-TIME
DELIVERY
DATA
ABSTRACTION
ZERO
REPLICATION
DATA
CATALOG
OPTIMIZED
PERFORMANCE
LOGICAL DATA
WAREHOUSE/LAKE
BIG DATA
FABRIC
HYBRID
DATA FABRIC
DATA
INTEGRATION
DATA
MIGRATION
REFACTORING &
REPLATFORMING
CONSOMMATION DE DONNÉES
STOCKAGE ET GESTION DES DONNÉES
GOUVERNANCE ET ACCÈS AUX DONNÉES
Sales
HR
Executive
Marketing Apps/API
Data Science
AI/ML
API
Cas d’usage de Denodo
LOGICAL
DATA
WAREHOUSE
MIGRATION
ACCELERATION
API DATA
SERVICES
EXTENDED
DATA
LAKE
DATA MESH
&
DATA FABRIC
13. 13
Gartner’s Logical Data Warehouse Architecture
“Adopt the Logical Data Warehouse Architecture to Meet Your Modern Analytical Needs”. Henry Cook, Gartner
April 2018
DATA VIRTUALIZATION
METADATA
&
SECURITY
LOGICAL
DATA
WAREHOUSE
14. 14
Logical Data Warehouse/Enterprise Data Access Pattern LOGICAL
DATA
WAREHOUSE
BI & Analytics
Data Science &
Machine Learning
Mobile & Applications
Files EDW
Operational Data Lakes API SaaS
Cloud DWH
Internal API
SQL
(JDBC/ODBC)
MDX API
(REST/OData/GraphQL)
✓ Modèle sémantique universel
✓ Couche d’abstraction
✓ Protocoles de déploiement
multiples
✓ Modèle de sécurité unifié
Fonctionnalités clés
✓ Optimiseur intelligent
✓ Déplacement des données
✓ Cache + MPP
Optimisation
15. 15
✓ Vue omnicanale à 360° en temps réel des
données patients et production des documents
réglementaires
• Architecture Logical Data Warehouse
• Couche de connectivité pour prendre en
charge diverses technologies
• Plusieurs modes de livraison
✓ Réduire le temps de développement pour
les cas d’utilisation analytiques
• Réduction de l’empreinte ETL
• Développement rapide dans le cadre de
l’initiative DevOps
• Agilité métier : 6 cas d’usage en une seule
année et d’autres à venir
Cas d’usage : UCB
Data Sources
Netezza
MyAccess
SQL Server
DATA VIRTUALIZATION
Data Consumers
Data Access Layer
LOGICAL
DATA
WAREHOUSE
16. 16
Business Entity/
Data Access Layer
API Data Services Pattern
Files EDW
Operational Data Lakes SaaS APIs
Cloud DWH
✓ No code/Low code
✓ Indépendance technologique
✓ Couche d’abstraction
Fonctionnalités clés
✓ RBAC
✓ Tag-based
✓ ABAC
Autorisation
✓ Optimiseur intelligent
✓ Data Movement
✓ Cache + MPP
Optimisation
API Gateway (optionnel)
Internal APIs
REST GraphQL OData GeoJSON
Identity Provider
API DATA
SERVICES
17. 17
✓ Besoin de l’entreprise : un portail
centralisé pour les techniciens des
centres d’appels
✓ Accès aux données internes (CRM,
gestion des incidents, état du réseau,
etc.) et externes (fournisseurs
logistiques, etc.) à partir d’un seul outil
✓ Réduction de 50 % de la charge de
travail de l’équipe de back-office
✓ Amélioration de la satisfaction client de
94 %
Cas d’usage : Orange Jazztel API DATA
SERVICES
19. 19
Accélérer la migration vers le cloud :
✓ Migration flexible vers le cloud avec un
impact minimal sur les utilisateurs métier
• Combinez les données Snowflake avec
les données de Salesforce, Zendesk,
Google Analytics
• Soutenir les initiatives de BI et de data
science
✓ Augmentation de la vitesse
• Les prévisions hebdomadaires de la
demande sont passées de 3 jours à
quelques heures
✓ Réduction des coûts
• Gérer les coûts avec une infrastructure
de données dans le cloud
Cas d’usage : Logitech MIGRATION
ACCELERATION
20. 20
Extended Data Lake Pattern EXTENDED
DATA
LAKE
Files EDW
Legacy Object Storage
Denodo MPP
✓ Modélisation low-code/no code
✓ Optimiseur multi-sources à 2
niveaux
✓ Modèle de sécurité universel
Fonctionnalités clés
✓ Moteur SQL sur le stockage d’objets
✓ Traitement parallèle direct en mémoire
✓ Stratégies d’exécution intégrées
✓ Persistance ciblée
Denodo MPP Engine
21. 21
Construire des ponts au-delà les silos de
données
✓ Les données ont été cloisonnées dès la
conception chez Sicredi, la plus grande
coopérative de crédit du Brésil
✓ Composées de 108 coopératives de crédit
différentes, les données ont été gérées par des
tâches ETL et réparties dans data lakes et data
warehouses
✓ Fournir des données aux tableaux de bord, mais
aussi aux API et autres consommateurs de
données
✓ Activer le libre-service des données, via un
catalogue de données actif
✓ Gouvernance et traçabilité
Cas d’usage : Sicredi EXTENDED
DATA
LAKE
22. 22
Qu’est-ce qu’un Data Mesh ?
● Nouveau paradigme architectural proposé par Zhamak
Dehghani en 2019
● Passez d’une infrastructure de données centralisée gérée
par une seule équipe à une organisation distribuée
● Élimine la dépendance à l’égard d’une infrastructure de
données entièrement centralisée
▪ Élimine les goulots d’étranglement et facilite les
changements
▪ Donne la flexibilité aux domaines pour choisir la
meilleure stratégie de données
DATA MESH
&
DATA FABRIC
23. 23
Data Mesh Concepts
1. Data as a Product : éviter d’isoler les données dans silos
● Les produits de données doivent être facilement trouvables,
compréhensibles et accessibles au reste de l’organisation
2. Plateforme libre-service : Éviter la complexité et la
duplication des efforts
● Permet aux domaines de créer, déployer, publier et gérer des produits de
données en libre-service
● Exploité par une équipe centrale, mais l’équipe centrale ne développe pas les
produits
3. Federated Computational Governance : Assurer
l’interopérabilité et les politiques globales
● Sémantique et conventions communes pour les entités partagées
● Politiques globales de sécurité et de gouvernance
DATA MESH
&
DATA FABRIC
24. 24
The Components of a Data Fabric
Source: Forrester Enterprise Data Fabric Wave,
June 2020
Source: Demystifying the Data Fabric Gartner,,
September 2020
Gartner décrit la Data Fabric comme suit :“an architecture pattern that informs
and automates the design, integration, and deployment of data objects
regardless of deployment platforms and architectural approaches.”
DATA MESH
&
DATA FABRIC
25. 25
Data Mesh & Data Fabric Pattern
Files EDW
Legacy Data Lakes
Cloud DWH API SaaS
Produc
t
Produc
t
Customer Suppiier Employee
CRM Supply Chain Human Resources
Denodo Data Catalog
✓ Couche sémantique d’entreprise
✓ Low code/no code
✓ Sécurité basée sur les tags
✓ Couche d’abstraction
Fonctionnalités clés
✓ Place de marché de données en
libre-service
✓ Découverte et contextualisation des
données
✓ Lineage
Denodo Data Catalog
DATA MESH
&
DATA FABRIC
26. 26
Institution financière leader en Islande
• 40 % de part de marché Services bancaires
aux particuliers
• 33 % de part de marché Corporate Banking
• Meilleures notations de risque ESG parmi
les banques européennes(Sustainalytics
2021)
• Meilleure banque dans les classements de
satisfaction des consommateurs
islandais(Ánægjuvogin / Stjórnvísi 2021)
Cas d’usage : Landsbankinn DATA MESH
&
DATA FABRIC
27. 27
Première itération : un entrepôt de
données logique
✓ Point de requête unique
• « Besoin de données ? LDW a la
réponse ! »
• Pour les rapports, les analyses,
les API, …
✓ Point de vérité unique
• Référentiel de logique métier
• Lineage disponible
✓ Point de contrôle d’accès unique
• Accès unifié aux données
• Point unique d’audit
Cas d’usage : Landsbankinn DATA MESH
&
DATA FABRIC
28. 28
Vers un Data Mesh, avec les
avantages en plus:
✓ Déléguer la propriété des données
aux domaines
• Les données sont entre les mains
de leur créateur
✓ Donner une meilleure vue
d’ensemble du pipeline
• Afficher le cycle de vie géré par le
développeur source
✓ Réduire les pipelines de données
• Moins de tâches ETL
Cas d’usage : Landsbankinn DATA MESH
&
DATA FABRIC
30. 30
Le protocole GHG et l’intégration de la donnée
Un cas d’usage : l’analyse de l’impacte carbone d’une entreprise
Scope 1 : Emissions directes (usines, mines, véhicules sur site…)
La donnée est généralement interne et bien maîtrisée ;
collecte par capteurs et stockage data lake ou time series
Scope 2 : Emissions provenant
de l’acquisition de l'énergie
La donnée est en partie
externe mais le scope est
limité.
Scope 3 : Emissions provenant de toute la
chaîne de valeur (fournisseurs, déplacements
professionnels, cycle de vie et transportation
des produits…)
La donnée est très variée et une grande
partie est externe à l’organisation. La
collecte et le stockage sont très
complexes et évoluent rapidement.
Source: WRI/WBCSD Corporate Value Chain (Scope 3) Accounting and Reporting Standard (PDF), page 5.
31. 31
Scénario de la démonstration : un reporting carbone agile avec
Denodo
Répondre aux questions métier clés…
• Quel coût carbone suite à la consommation en électricité
de mes bureaux internationaux ?
• Quel est l’impact des déplacements professionnels ?
• Quels moyens de transport domicile-travail sont
plébiscités par nos collaborateurs et comment mesurer
l’impact de leurs choix ?
…tout en maîtrisant les questions IT
• Comment intégrer les données de nos fournisseurs
dont les formats et les méthodes de livraison sont divers ?
• Comment partager les données RH avec les analystes
externes tout en protégeant les données
personnelles ?
• Comment partager les données carbone avec nos
partenaires via une API facile à créer et à maintenir ?
• Comment accompagner une migration vers le cloud ?
API
Data Catalog
Visualisation
Consommation électricité RH + Voyages
Données
fournisseurs
Data Lake
S3-compatible
Object Storage
Denodo MPP
33. 33
Denodo Test Drives
• Agile BI et Analytiques
• Data Science
• Agile BI et Analytiques
(avec Power BI)
• Data-as-a-Service/APIs
https://www.denodo.com/en/denodo-platform/test-drives
35. 35
Depuis 1999, nous nous concentrons sur l'intégration, la gestion et la livraison des données
Denodo: Leader en Gestion de Data
DENODO
Présence mondiale - 25 bureaux dans
20 pays ; plus de 680 employés.
Nouveaux bureaux en 2021 - Pays-
Bas, Belgique, Suède, Corée du Sud.
CLIENTS et PARTENAIRES
+ 1000 clients, dont de nombreuses sociétés
F500 et G2000 dans tous les grands secteurs
d'activité.
+ 300 partenaires actifs et engagés, dans le
monde entier
.
FINANCES
+35% de croissance annuelle depuis 8 ans
0 $ de dette ; rentable
Leader : Quadrant magique de Gartner
pour les outils d'intégration de données,
2020, 2021, et 2022
Leader : Vague 2020 de Forrester -
Enterprise Data Fabric, Q2 2020
Leader : Forrester 2017 Wave -
Data Virtualization, quatrième
trimestre 2017.
LEADERSHIP
Customers’ Choice: 2023 Gartner Peer
Insights for Data Integration Tools (3ème
année consécutive)
36. 36
Denodo Reconnu Comme Leader 2022, pour la troisième année consécutive
Denodo fournit à ses clients les capacités
nécessaires pour automatiser la conception d’une
Data Fabric avec ses composants - un catalogue
sémantique des données unifié, un moteur
d'optimisation des requêtes et des algorithmes de
ML basés sur les métadonnées.
La conception de son modèle de données repose
sur la Virtualisation des Données pour fournir
rapidement des données intégrées aux utilisateurs
afin d'obtenir des résultats plus rapides”
37. 37
Gartner Peer Insights "La voix du client" : Outils d'intégration de données ; Publié - 22 novembre 2022
Denodo - Choix des clients 2023, pour la troisième année
consécutive
▪ Denodo est l'un des trois seuls leaders MQ à avoir été désigné comme le
choix des clients parmi les 18 fournisseurs figurant dans le rapport.
▪ Avec une note globale de 4,4 sur 5,0, Denodo est le troisième fournisseur
d'intégration de données le mieux noté de tous les temps.
Gartner Peer Insights "La voix du client" : Data Integration Tools,
22 Novembre 2022
« Très bonne expérience. Le logiciel fournit les
fonctionnalités qui sont décrites sur la fiche produit
avec un très haut niveau de professionnalisme. Il
contribuera à la création d'une culture des données
plus forte en facilitant l'accès aux données pour les
utilisateurs métiers. »
- Directeur des données, industrie de l'énergie, 30 milliards de dollars
de revenus annuels
38. 38
Data Virtualization pour Architectes
12 décembre 2023 | (2 créneaux de 3h) | Paris
Découvrez ou approfondissez vos connaissances de cette technologie
devenue un "must-have" dans toute architecture data moderne. Dans cette
session nous allons explorer :
• Typologies des cas d’usage
• Performance et montée en charge
• Optimisation, Machine Parallel Processing (MPP) et stratégie de mise en cache
• Gouvernance, sécurité et monitoring
• Architectures de déploiement
Inscrivez-vous !