SlideShare une entreprise Scribd logo
1  sur  53
Télécharger pour lire hors ligne
WEBINAR
Les clés de succès pour
moderniser votre architecture
de données en 2022
Tarik Zaakour
Ingénieur avant-vente
Denodo
Agenda
1. Les défis rencontrés dans les architectures traditionnelles
2. Les caractéristiques d’une architecture de données dites moderne
3. La virtualisation des données, socle d’une architecture de données
moderne
4. Cas d’usages
5. Questions/Réponses
Les défis rencontrés dans les
architectures traditionnelles
4
Architectures monolithiques
▪ Centralisée : toutes/la plupart des données dans un
seul système
▪ Toutes les données doivent être copiées sur le système cible
▪ Les données doivent être répliquées pour les adapter à chaque
nouveau cas d'utilisation (data marts)
▪ Géré par une équipe de données informatiques centrale
▪ Physique : les consommateurs doivent savoir :
▪ Emplacement des données
▪ Comment les données sont représentées dans ce système
▪ Quelles méthodes d'accès sont prises en charge dans ce
système
▪ Exemples : Entrepôt de données, Data Lake, Data
LakeHouse
Architectures monolithiques : One Size Never Fits All
“L'architecture LDW reconnaît qu'un seul niveau de persistance des données et un
seul type de traitement sont inadéquats pour répondre à l'ensemble des exigences
modernes en matière de données et d'analyse.”
The Practical Logical Data Warehouse (Dec 2020) by Henry Cook, Rick Greenwald and Adam Ronthal
6
Architectures monolithiques
▪ Besoin d'ingérer toutes les données dans un nouveau
système
▪ Les systèmes d'analyse existants ne peuvent pas être
réutilisés
▪ Les données sont répliquées pour chaque objectif /
cas d'utilisation différent
▪ Les changements nécessitent de modifier les pipelines
et les ensembles de données à plusieurs étapes
Verrouillage
Lentes et rigides
▪ Les applications et les rapports dépendent du système central
▪ Impossible de déplacer facilement les charges de travail vers
d'autres systèmes
Les caractéristiques d’une architecture
de données dite moderne
8
Une architecture moderne
Les caractéristiques
•Une architecture moderne répond à des exigences métiers :
• Permettre de trouver et d'unifier rapidement leurs données sur diverses
technologies de stockage,
• Réduire le temps de livraison de la donnée,
• Augmenter la flexibilité et l'agilité
9
Une architecture moderne
Les caractéristiques
•… et répond à des exigences opérationnelles
• Elimination des silos de données
• Partage des données
• Sécurisation des données
• Partage d'une documentation commune
• Cloud-native
• Interface API
• Vitesse et Volume
• Agilité
10
Architectures distribuées et logiques
▪ Distribuée: Les données résident dans plusieurs
systèmes/emplacements
▪ Les données d'aujourd'hui sont trop volumineuses et
distribuées
▪ Les besoins analytiques modernes sont trop divers : une
taille unique ne convient jamais à tous
▪ Hybride et multicloud
▪ Logique: Les consommateurs accèdent aux données via
des modèles sémantiques, découplés de l'emplacement
des données et des schémas physiques
▪ Les modèles sémantiques s'adaptent aux besoins des
consommateurs et appliquent des politiques communes
▪ Accès pas nécessairement virtuel/fédéré : tout style de
livraison, y compris la réplication si nécessaire
▪ Permet l'évolution de la technologie et les changements
d'infrastructure (par exemple, la transition vers le cloud)
11
La fabrique des données : Soutenue par les principaux analystes
Source: Forrester Enterprise Data Fabric Wave,
June 2020
Source: Demystifying the Data Fabric Gartner,,
September 2020
12
Les défis rencontrés dans le cloud
• Visibilité des données pour des
informations précises
• Accessibilité des données pour
une portée plus rapide
• Agilité des données – via des
architectures modernisées
• Échelle de données – Comment
faire face à des données à
croissance rapide
• Services de données – Exposer
les données pour une
consommation intelligente
• Volume et type de données :
quel pourcentage de données est
interrogé et son type
• Emplacement du Cloud : à
proximité entre le Cloud public
(choix) et le centre de données
• Bande passante : transfert de
données à travers les nuages (y
compris sur site)
• Mise en cache (possibilité de
stocker des données pour un
accès plus rapide)
• Mouvement de données
(actualisation des données)
• Donner trop d'accès (manque de sécurité
centralisée)
• Ne pas utiliser les contrôles intégrés (par
exemple, le cryptage des données)
• Échec de la surveillance de l'activité
d'utilisation du cloud (contrôles et
contrepoids)
• Autoriser la dérive de la configuration (par
exemple, image de référence, gestion des
modifications)
La sécurité La performance
L’intégration de données
13
Qu’est ce que le Data Mesh ?
▪ Le Data Mesh est un nouveau paradigme architectural pour la
gestion des données
▪ Proposé par le consultant Zhamak Dehghani en 2019
▪ Il passe d'une infrastructure de données centralisée par une seule
équipe à une organisation distribuée
▪ Plusieurs unités autonomes (domaines) sont chargées de gérer et
d'exposer leurs propres « produits de données » au reste de
l'organisation
▪ Les produits de données doivent être facilement détectables,
compréhensibles et accessibles au reste de l'organisation
14
Quels défis le Data Mesh essaie-t-il de relever?
1. Manque d'expertise du domaine dans les équipes de données
centralisées
▪ Les équipes de données centralisées sont déconnectées de l'entreprise
▪ Ils doivent gérer des données et des besoins métiers qu'ils ne comprennent
pas toujours
2. Manque de flexibilité des référentiels de données centralisés
▪ L'infrastructure de données des grandes organisations est très diversifiée et
change fréquemment
▪ Les besoins analytiques modernes peuvent être trop divers pour être satisfaits
par une seule plate-forme : une taille unique ne convient jamais.
3. Approvisionnement des données et réponse aux changements lents
▪ Nécessite d'extraire, d'ingérer et de synchroniser des données dans la
plate-forme centralisée
▪ L'informatique centralisée devient un goulot d'étranglement
La virtualisation des données, socle d’une
architecture de données moderne
16
Acteurs et données de nos écosystèmes actuels
Situation actuelle simplifiée :
Sales
HR
Apps/API
Executive
75% de la donnée stockée
jamais utilisée
90% des demandes nécessitent
du temps-réel
Marketing
Problèmes les plus communs:
× Collaboration et partage limitées
× Vues métiers inconsistantes et limitées
× Gouvernance complexe
× Environnement fragmenté
× Beaucoup (trop) de réplication
× Synchronisations en cascade, longues et coûteuses
Data Science
AI/ML
17
Qu’est ce que la virtualisation de données ?
▪ La virtualisation des données est une technologie qui extrait
les consommateurs de données de l'emplacement des
données et de la manière dont elles sont représentées dans
les systèmes sources.
▪ Il permet de créer une couche sémantique métier au-dessus
de plusieurs sources de données distribuées de tout type
sans avoir à répliquer les données dans un référentiel
central.
▪ Cette couche sémantique est accessible de manière
sécurisée et gouvernée par les consommateurs utilisant une
variété de méthodes d'accès telles que SQL, REST, OData,
GraphQL ou MDX.
▪ C'est la base des architectures distribuées et logiques
18
Qu’est ce que la virtualisation de données ?
1. La virtualisation des données vous permet de vous
connecter à vos sources de données
2. Vous pouvez combiner et transformer ces données
dans le format requis par le consommateur
3. Les données peuvent être exposées aux
consommateurs dans un format et une interface
utilisables par eux
• Généralement, les consommateurs utilisent les outils qu'ils
utilisent déjà - ils n'ont pas besoin d'apprendre de nouveaux
outils et compétences pour accéder aux données
4. Tout cela peut être fait sans copier ou déplacer les
données
• Les données restent dans les sources d'origine (bases de
données, applications, fichiers, etc.) et sont récupérées, en
temps réel, à la demande
19
Qu’est ce que la virtualisation de données ?
Consommez
Dans les applications
métiers
Combinez
les données liées en
vues
Connectez
À des sources de données
disparates
2
3
1
La plateforme de virtualisation de données
20
Denodo fait parti des 5 fournisseurs à recevoir la
distinction "Customer’s choice" pour 2022, parmi les 18
éditeurs inclus dans ce rapport, avec une note globale
moyenne de 4,4 sur 5,0 au 30 novembre 2021, sur la base
de 68 avis reçus.
"Voice of the Customer" 2022 : Outils d'intégration de données
Denodo reçoit la distinction "Choix des Clients" dans le Gartner Peer
Insights
Gartner attribue à DV et LDW sa cote de maturité la plus élevée
“La
virtualisation
des données et
l'entrepôt de
données
logique ont mis
moins de 2 ans
pour atteindre
le plateau de la
productivité”
21
22
Couches de connectivité
Couche d’intégration
Couches des entités métiers
Couche applicative
Couches des services web
Les couches dans Denodo
Elimination des silos de données
23
Organisation de la base de données virtuelle
Les bases de données virtuelles
peuvent être utilisées pour regrouper
des éléments dans des domaines
(sémantiques ou organisationnels)
▪ Base virtuelle pour les départements
ou les domaines
▪ Ex finance, hr
▪ Base virtuelle pour des projets
spécifiques
▪ Ex: Projet Bison
Les vues peuvent être construites
avec des éléments d'autres bases de
données virtuelles
finance
bison hr
Le partage des données
24
La virtualisation de données, socle d’une architecture moderne
Combiner
Transformer
Livrer
Application
Source
RDBMS
Source
Big Data
Source
Web Service 2) Toutes les données
concernées sont remontées
des systèmes sources
Sans la virtualisation de
données … 1) L’utilisateur demande la donnée
à travers une application
3) Les données sont ensuite
combinées et transformées
directement dans l’application
et livrées à l’utilisateur
Tout le travail est
exclusivement
réalisé dans
l’application
La performance
25
La virtualisation de données, socle d’une architecture moderne
Combiner
Transformer
Livrer
Application
Source
RDBMS
Source
Big Data
Source
Web Service
Avec la virtualisation de
données …
1) L’utilisateur demande la donnée
à travers une application. Denodo
analyse la requête et envoie des
requêtes ciblées aux sources
2) Le traitement des données à
la source est maximisé via
la délégation, selon leurs
capacités techniques
3) Les données sont ensuite
combinées et transformées
par Denodo, livrées à
l’application
et l’utilisateur
Le travail
est partagé par
les sources et par
Denodo
La performance
26
La virtualisation de données, socle d’une architecture moderne
▪ Réduire la quantité de données copiées dans l'ensemble de l'organisation
▪ Minimiser le risque de violation de données
▪ Eviter de créer plusieurs versions de la vérité
▪ Tracer toutes les activités sur l’accès aux données
La gouvernance des données
27
La virtualisation de données, socle d’une architecture moderne
Catalogue de données dans la virtualisation des données pour intégrer de
manière transparente le catalogue de données et la livraison des données
Le catalogue dynamique d'actifs d'information et de services de
données organisés, opportuns, contextuels et réutilisables.
Gouverne – Privilège précis qui régit l'accès au catalogue ; à la fois des
métadonnées et des actifs d'information.
Décris– Capacité à décrire les actifs de données avec catégorisation,
balisage, annotations, lignage et autres métadonnées orientées métier.
Métadonnées basées sur l'utilisation – qui, quand, quoi, pourquoi et
comment de la consommation de données.
Préparation légère des données – Capacité à transformer, affiner et
personnaliser les actifs de données pour une utilisation professionnelle.
Interface utilisateur améliorée – Interface utilisateur conviviale adaptée
à des rôles tels que les gestionnaires de données, les analystes de
données et les analystes citoyens
Le catalogue de données
28
La virtualisation de données, socle d’une architecture moderne
• Contrôle centralisé
▪ Autoriser l'accès en fonction des besoins de
l'entreprise, indépendamment de la localisation des
données ou de la méthode d'accès
▪ Définir un contrôle d'accès fin sur toutes les sources
de données (fichiers, services web, ...)
▪ Configuration centralisée
• Intégré à votre environnement
▪ SSO, Kerberos
▪ Authentification locale ou LDAP
▪ Comptes de pass-though ou de service
nom pays téléphone SSN
John Smith USA 555-1212
Alain Durand France
Mary White USA 555-2212
Contrôler l'accès aux colonnes,
aux lignes ou même aux
valeurs individuelles
La sécurisation des données
29
La virtualisation de données, socle d’une architecture moderne
• Contrôle centralisé
Denodo gère la sécurité comme sur une DB :
▪ S’intègre avec votre Active Directory & SSO
▪ Masquage dynamique, restrictions sur les
colonnes et les lignes selon les Roles & Privileges
des utilisateurs
• Intégré à votre environnement
Centralise la sécurité - basée sur comment les
utilisateurs utilisent la donnée et non
comment elle est stockée
IT Semantic Layer
JOIN
GROUP
BY
GROUP
BY
1. Requête métier
2. Authentification avec
une corporate identity
3. Application des règles
d’autorisation .
Par exemple, masque SSN
et restriction locale
4. Requête envoyée à la
source avec les filtres de
conditions correspondants
5. Résultat sécurisé
est généré et envoyé
à l’utilisateur
DISPARATE DATA SOURCESLess Structured
More Structured
DATA CONSUMERS
DATA CONSUMERS
Analytica
l
Operational
La sécurisation des données
30
La virtualisation de données, socle d’une architecture moderne
Cloud-Native
• Architecture recommandée chaque fois qu'il existe des
sources de données avec une quantité importante de
données à la fois sur site et dans le cloud
Cloud
(AWS)
• Denodo peut être configuré dans une architecture en
couches
• Les applications de chaque zone (sur site et cloud)
accèdent aux données de l'autre zone via Denodo.
• Les applications sur site ont accès aux données externes
via l'instance locale de Denodo en tirant parti des
optimisations de performances fournies par Denodo
dans les deux zones.
• Garantit que seules les données agrégées des
applications externes sont transférées sur le réseau dans
les deux sens, en réponse aux demandes des
consommateurs.
• En supposant que des quantités importantes de
données et d'applications sont hébergées à la fois sur
site et dans le cloud, cela minimise la surcharge du
réseau entre les installations sur site et dans le cloud
• Prise en compte de l'augmentation des coûts de
maintenance matérielle/logicielle physique et de
l'évolutivité par rapport au cloud.
Sources de données
Applications (e.g.
Microstrategy)
Cache
Sources de données
Cache
Applications (e.g.
Microstrategy)
Réseau
haut
débit
On-premise
31
La virtualisation de données, socle d’une architecture moderne
Cloud-Native
32
La virtualisation de données, socle d’une architecture moderne
Denodo en tant que fournisseur de services de données
CONNECTER: connecter des données
disparates de n'importe quelle source
(entreprise, Big Data, cloud, Excel,…) ou
emplacement.
COMBINER: définissez les
transformations et les combinaisons de
données qui répondent aux besoins de
votre entreprise, sans code.
PUBLIER: déploiement de services Web
REST et SOAP en un clic.
33
La virtualisation de données, socle d’une architecture moderne
Denodo comme couche d'intégration pour les microservices
• Tirez parti des services de gestion de
données de Denodo
• Mise en cache, sécurité, audit,
nettoyage des données, gestion des
ressources,…
• Combiner les données
• Transformer et combiner des
données provenant de différentes
sources
34
La virtualisation de données, socle d’une architecture moderne
Opérationnel and Transactionnel
Metadata Management, Data Governance, Data Security
Data
Warehouse
Web,
Cloud,
Saas
Enterprise
Applications
Enterprise
Application
Web
Mobile
Data Sources Service Consumers
Data Abstraction &
Delivery
Data Search & Discovery
Federation
Transformation
Abstraction
Data
Services
Federation
Transformation
Abstraction
Optimization
Security
Governance
Data Caching
Enterpri
se
Service
Bus
SOA
Service Providers • Génération automatique de
documents Swagger
• Prise en charge de tous les
formats
A
P
I
M
a
n
a
g
e
m
e
n
t
P
l
a
t
f
o
r
m
35
La virtualisation de données, socle d’une architecture moderne
L'application client envoie une requête à Denodo chaque fois
que des données sont nécessaires
Une requête est exécutée en fonction de la requête envoyée par
l'application cliente et des décisions de l'optimiseur de requête
❶
❷
Interfaces API
36
Avantages pour les utilisateurs finaux
▪ Agilité accrue et meilleur Time To Market
▪ Un seul endroit pour accéder à toutes les données
▪ Masque la complexité des back-ends
▪ Sur site vs Cloud
▪ Formats et protocoles
▪ Confiance
▪ Cohérence des résultats quelle que soit la méthode d'accès
▪ Documentation, lignage, gouvernance, etc.
▪ Réutilisabilité
▪ Accès aux mêmes données et métriques de n'importe où
car la logique n'est pas codée dans un outil de BI
▪ Toutes les données disponibles dans plusieurs formats
standardisés : SQL, REST, OData, GraphQL, etc.
37
Avantages pour les architectes informatiques et de données
▪ Sécurité centralisée
▪ Livraison sécurisée et contrôlée de toutes les données
▪ Intégration avec les IdP, SSO et AD
▪ Contrôle supérieur
▪ Dissocier le traitement et le stockage de la livraison des
données
▪ Fournit la flexibilité de modifier le back-end sans impact sur
l'entreprise
▪ Migration vers le cloud
▪ Moindre coût
▪ Réduit le besoin de créer et de gérer des copies de données
inutiles
▪ Permet de réutiliser facilement la logique et les politiques
de transformation dans plusieurs cas d'utilisation
38
Création facile de produits de données
▪ Un outil DV moderne comme Denodo permet d'accéder à n'importe
quel système de données sous-jacent et fournit des capacités
avancées de modélisation de données
▪ Cela permet aux domaines de créer rapidement des produits
de données à partir de n'importe quelle source de données
ou de combiner plusieurs sources de données, et de les
exposer sous une forme conviviale.
▪ Aucun codage n'est requis pour définir et faire évoluer les
produits de données
▪ L'itération à travers plusieurs versions des produits de données est
également beaucoup plus rapide grâce à une réplication réduite des
données
▪ Les produits de données sont automatiquement accessibles via
plusieurs technologies
▪ SQL, REST, OData, GraphQL et MDX.
39
Maintient l'autonomie des domaines
▪ Les domaines ne sont pas conditionnés par des sources de données centralisées à l'échelle de
l'entreprise (lac de données, entrepôt de données). Au lieu de cela, ils sont autorisés à tirer parti de
leurs propres sources de données
▪ Par exemple: Applications SaaS ou magasins de données spécifiques à un domaine
▪ Ils peuvent également tirer parti des magasins centralisés lorsqu'ils constituent la meilleure option :
▪ Par exemple: utiliser un lac de données centralisé pour les cas d'utilisation de ML
▪ Les domaines peuvent également décider de manière autonome de faire évoluer leur infrastructure
de données en fonction de leurs besoins spécifiques
▪ Par exemple: migrer certaines fonctions vers une application SaaS
40
Fournit des capacités de libre-service
▪ Découvrabilité et documentation
▪ Comprend un catalogue de données qui permet aux utilisateurs métiers et autres consommateurs de
données de découvrir, de comprendre et d'accéder rapidement aux produits de données.
▪ Génère automatiquement la documentation pour les produits de données à l'aide de formats standard tels
que l'API ouverte
▪ Inclut des fonctionnalités de lignage des données et d'analyse d'impact des changements pour tous les
produits de données
▪ Performances et flexibilité
▪ Comprend des capacités de mise en cache et d'accélération des requêtes OOB, de sorte que même les
sources de données non optimisées pour l'analyse peuvent être utilisées pour créer des produits de
données.
▪ Approvisionnement
▪ Autoscaling automatique à l'aide des technologies cloud/conteneur. Cela signifie que, si nécessaire,
l'infrastructure prenant en charge certains produits de données peut être agrandie/réduite tout en
partageant des métadonnées communes entre les domaines.
41
Permet une gouvernance informatique fédérée
▪ Les couches sémantiques construites dans la couche virtuelle peuvent appliquer des modèles de données
standardisés pour représenter les entités fédérées qui doivent être cohérentes entre les domaines (par exemple,
client, produits).
▪ Peut importer des modèles à partir d'outils de modélisation pour définir un contrat que le développeur du
produit de données doit respecter
▪ Applique automatiquement des politiques de sécurité unifiées, y compris le masquage/la rédaction des données
▪ Par exemple: masque automatiquement le SSN avec *** à l'exception des 4 derniers chiffres, dans tous les
produits de données, à l'exception des utilisateurs du rôle RH
▪ Les produits de données peuvent également être facilement combinés et peuvent être utilisés comme base pour
créer de nouveaux produits de données.
▪ La structure en couches des modèles virtuels permet de créer des composants qui peuvent être réutilisés
par plusieurs domaines pour créer leurs produits de données.
▪ Par exemple, il peut y avoir des vues virtuelles pour des informations génériques sur les emplacements de
l'entreprise, les produits, ...
▪ Avoir une couche de livraison de données unifiée facilite également la vérification et l'application automatique
d'autres politiques telles que les conventions de nommage ou les normes de sécurité des API
42
Implémentation du Data Mesh avec Denodo
SQL
Opérationnel Entrepôt de données
Lacs de données Fichiers
SaaS APIs
REST GraphQL OData
Event
Product
Customer Location Employee
Common Domain Event Management Human Resources
Chaque domaine se voit attribuer un schéma virtuel distinct.
Un domaine commun peut être utile pour les produits de données
centralisés communs à tous les domaines.
1
1 Les domaines connectent leurs sources de données.
2
Les métadonnées sont mappées sur des vues relationnelles.
Aucune donnée n'est répliquée.
3
3
2
Les domaines peuvent modéliser leurs produits de données.
Les produits peuvent être utilisés pour définir d'autres produits.
4
4
Pour l'exécution, les produits peuvent être servis directement à
partir de leurs sources ou répliqués vers un emplacement central,
comme un lac.
5
5
Une équipe centrale peut définir des directives et une
gouvernance pour assurer l'interopérabilité.
6
6
Les produits peuvent être accessibles via SQL ou exposés
en tant qu'API. Aucun codage n'est requis.
7
7
L'infrastructure peut facilement évoluer dans un cluster.
8
8
Les cas d’usage
Les cas d’usage de la virtualisation de données
Du stockage & Management, à la consommation, en passant par la gouvernance et la sécurité
DÉCISION
(REAL TIME)
Extended MDM
BI AGILE
(SELF-SERVICE)
DATA
SCIENCE
(ML & AI)
APPS
(MOBILE & WEB)
FUSIONS &
ACQUISITIONS
DATA
MARKETPLACE
RÉGLEMENTATIONS
(IFRS17, GRC)
GOUVERNANCE
& SÉCURITÉ
APIFICATION
(& SQLIFICATION)
COUCHE DONNÉE
UNIFIÉE
AGILITÉ
& SIMPLICITÉ
LIVRAISON
TEMPS-RÉELLE
ABSTRACTION
DONNÉES
ZÉRO
RÉPLICATION
DATA
CATALOG
PERFORMANCES
OPTIMISÉES
LOGICAL DATA
WAREHOUSE/LAKE
BIG DATA
FABRIC
HYBRID
DATA FABRIC
DATA
INTEGRATION
DATA
MIGRATION
REFACTORING &
REPLATFORMING
DATA CONSUMPTION
DATA STORAGE & MANAGEMENT
DATA GOVERNANCE, MANIPULATION & ACCESS
Sales
HR
Executive
Marketing Apps/API
Data Science
AI/ML
LOGIC
AL
DATA
WARE
HOUS
E
APIsat
ion
des
donné
es
MIGRA
TION
Cloud/
Soluti
on/
Techn
ologiq
ue
DATA
FABRI
C
DATA
GOVE
RNAN
CE
DATA
CATAL
OG
45
Cas client : Prologis
Usage
analytique
Boîte à outils de science des
données
46
Cas client : Prologis
47
Cas client : Prologis
48
Modernisation des applications
Architectures de données cloud
distribuées
• Cloud pur ("Cloud natif")
• Fournisseur de cloud unique
• Cloud privé ou public
• Hybride
• Cloud et sur site
• Cloud pur… mais plusieurs
fournisseurs de Cloud
• Données dans plusieurs magasins
de données, plusieurs
emplacements.
• Applications (SaaS) stockant des
données dans le Cloud.
49
Modernisation des applications
Besoin métier
• Nécessité de passer au cloud pour augmenter les
performances via une analyse de données plus fiable,
efficace et rentable
• Les problèmes de performances et de délai/rapidité de
livraison devaient être résolus ; l'entrepôt de données ne
pouvait plus être étendu
• Les exigences de sécurité de plusieurs outils analytiques
devaient être centralisées
Bénéfices
• Efficacité et fiabilité – La transition vers le cloud a été adoptée
comme un modèle d'innovation et d'agilité
• Sécurité cohérente – Sécurité synchronisée sur plusieurs outils
analytiques
• Agilité - Prototypage rapide de nouvelles sources de données
avec une structure de gouvernance appropriée
Solution
Présence Denodo
• Palo Alto (USA) & A Coruña (Espagne)
• Présence mondiale
Leadership
• A l’origine et « Pure Player » de la data virtualization
(leader & pionnier) – depuis 1999
• Reconnaissance des analystes et du marché en tant que
leader (Forrester, Gartner, Clients depuis 6+ ans)
• Nombreux prix
Denodo Technologies
Leader & Pionnier dans la Data Virtualization
Technologie
Industrie
Service financier
Assurance
Santé
Secteur public
Télécommunication
Distribution
Pharma / Bio-Tech
Energie
Clients
• 850+ actifs
• F500, G2000 & Start-ups
Santé financière
• $4B+ Fond privé (HGGC).
• 60+% croissance annuelle; Zéro dette; Rentable.
Denodo Technologies
Leader & Pionnier dans la Data Virtualization
AUTO ÉVALUATION
ÉVALUATION COLLABORATIVE
Téléchargez Denodo Express
Contactez-nous !
Évaluez (1h) avec le Test Drive:
Denodo Platform
for AWS, Azure ou GCP
Présence Denodo
• Palo Alto (USA) & A Coruña (Espagne)
• Présence mondiale
Leadership
• A l’origine et « Pure Player » de la data virtualization
(leader & pionnier) – depuis 1999
• Reconnaissance des analystes et du marché en tant que
leader (Forrester, Gartner, Clients depuis 6+ ans)
• Nombreux prix
Clients
• 1000+ actifs
• F500, G2000 & Start-ups
Santé financière
• $4B+ Fond privé (HGGC).
• 60+% croissance annuelle; Zéro dette; Rentable.
DES
QUESTIONS?
Merci!
www.denodo.com info@denodo.com
© Copyright Denodo Technologies. All rights reserved
Unless otherwise specified, no part of this PDF file may be reproduced or utilized in any for or by any means, electronic or mechanical, including photocopying and microfilm,
without prior the written authorization from Denodo Technologies.

Contenu connexe

Similaire à Les clés de succès pour moderniser votre architecture de données en 2022

Réussir sa migration vers le Cloud grâce à la virtualisation des données
Réussir sa migration vers le Cloud grâce à la virtualisation des donnéesRéussir sa migration vers le Cloud grâce à la virtualisation des données
Réussir sa migration vers le Cloud grâce à la virtualisation des donnéesDenodo
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
 
Session découverte de la Data Virtualization
Session découverte de la Data VirtualizationSession découverte de la Data Virtualization
Session découverte de la Data VirtualizationDenodo
 
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...Denodo
 
Quel est l'avenir des stratégies de données?
Quel est l'avenir des stratégies de données?Quel est l'avenir des stratégies de données?
Quel est l'avenir des stratégies de données?Denodo
 
Réinventez votre stratégie de données en 2021 avec la Data Virtualization
Réinventez votre stratégie de données en 2021 avec la Data VirtualizationRéinventez votre stratégie de données en 2021 avec la Data Virtualization
Réinventez votre stratégie de données en 2021 avec la Data VirtualizationDenodo
 
Ecosystème Big Data
Ecosystème Big DataEcosystème Big Data
Ecosystème Big DataIdriss22
 
Session découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationSession découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationDenodo
 
Optimiser l’intégration globale des données grâce à la Data Virtualization
Optimiser l’intégration globale des données grâce à la Data VirtualizationOptimiser l’intégration globale des données grâce à la Data Virtualization
Optimiser l’intégration globale des données grâce à la Data VirtualizationDenodo
 
Session découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationSession découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationDenodo
 
Point de vue expert: la stratégie “ comptoir des données”
Point de vue expert: la stratégie “ comptoir des données”Point de vue expert: la stratégie “ comptoir des données”
Point de vue expert: la stratégie “ comptoir des données”Denodo
 
Virtualisation? Convergence? Cloud? Soyons pragmatique
Virtualisation? Convergence? Cloud? Soyons pragmatique Virtualisation? Convergence? Cloud? Soyons pragmatique
Virtualisation? Convergence? Cloud? Soyons pragmatique Microsoft Ideas
 
Réussissez vos projets d’analytique self-service avec une couche de services ...
Réussissez vos projets d’analytique self-service avec une couche de services ...Réussissez vos projets d’analytique self-service avec une couche de services ...
Réussissez vos projets d’analytique self-service avec une couche de services ...Denodo
 
Synthèse du livre blanc sur les suites bureautiques et messagerie
Synthèse du livre blanc sur les suites bureautiques et messagerieSynthèse du livre blanc sur les suites bureautiques et messagerie
Synthèse du livre blanc sur les suites bureautiques et messagerielabdesusages
 
Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Converteo
 
Neo4j - Cas d'usages pour votre métier
Neo4j - Cas d'usages pour votre métierNeo4j - Cas d'usages pour votre métier
Neo4j - Cas d'usages pour votre métierNeo4j
 
Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...
Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...
Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...Excelerate Systems
 

Similaire à Les clés de succès pour moderniser votre architecture de données en 2022 (20)

Réussir sa migration vers le Cloud grâce à la virtualisation des données
Réussir sa migration vers le Cloud grâce à la virtualisation des donnéesRéussir sa migration vers le Cloud grâce à la virtualisation des données
Réussir sa migration vers le Cloud grâce à la virtualisation des données
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data Virtualization
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data Virtualization
 
Session découverte de la Data Virtualization
Session découverte de la Data VirtualizationSession découverte de la Data Virtualization
Session découverte de la Data Virtualization
 
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...
 
Quel est l'avenir des stratégies de données?
Quel est l'avenir des stratégies de données?Quel est l'avenir des stratégies de données?
Quel est l'avenir des stratégies de données?
 
Réinventez votre stratégie de données en 2021 avec la Data Virtualization
Réinventez votre stratégie de données en 2021 avec la Data VirtualizationRéinventez votre stratégie de données en 2021 avec la Data Virtualization
Réinventez votre stratégie de données en 2021 avec la Data Virtualization
 
Ecosystème Big Data
Ecosystème Big DataEcosystème Big Data
Ecosystème Big Data
 
Session découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationSession découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data Virtualization
 
Optimiser l’intégration globale des données grâce à la Data Virtualization
Optimiser l’intégration globale des données grâce à la Data VirtualizationOptimiser l’intégration globale des données grâce à la Data Virtualization
Optimiser l’intégration globale des données grâce à la Data Virtualization
 
Session découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data VirtualizationSession découverte de la Logical Data Fabric soutenue par la Data Virtualization
Session découverte de la Logical Data Fabric soutenue par la Data Virtualization
 
Point de vue expert: la stratégie “ comptoir des données”
Point de vue expert: la stratégie “ comptoir des données”Point de vue expert: la stratégie “ comptoir des données”
Point de vue expert: la stratégie “ comptoir des données”
 
Virtualisation? Convergence? Cloud? Soyons pragmatique
Virtualisation? Convergence? Cloud? Soyons pragmatique Virtualisation? Convergence? Cloud? Soyons pragmatique
Virtualisation? Convergence? Cloud? Soyons pragmatique
 
Réussissez vos projets d’analytique self-service avec une couche de services ...
Réussissez vos projets d’analytique self-service avec une couche de services ...Réussissez vos projets d’analytique self-service avec une couche de services ...
Réussissez vos projets d’analytique self-service avec une couche de services ...
 
Cloud Computing
Cloud ComputingCloud Computing
Cloud Computing
 
Synthèse du livre blanc sur les suites bureautiques et messagerie
Synthèse du livre blanc sur les suites bureautiques et messagerieSynthèse du livre blanc sur les suites bureautiques et messagerie
Synthèse du livre blanc sur les suites bureautiques et messagerie
 
Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018
 
Neo4j - Cas d'usages pour votre métier
Neo4j - Cas d'usages pour votre métierNeo4j - Cas d'usages pour votre métier
Neo4j - Cas d'usages pour votre métier
 
Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...
Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...
Enterprise Data Hub - La Clé de la Transformation de la Gestion de Données d'...
 
Module 02_FR.pdf
Module 02_FR.pdfModule 02_FR.pdf
Module 02_FR.pdf
 

Plus de Denodo

Enterprise Monitoring and Auditing in Denodo
Enterprise Monitoring and Auditing in DenodoEnterprise Monitoring and Auditing in Denodo
Enterprise Monitoring and Auditing in DenodoDenodo
 
Lunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps Approach
Lunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps ApproachLunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps Approach
Lunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps ApproachDenodo
 
Achieving Self-Service Analytics with a Governed Data Services Layer
Achieving Self-Service Analytics with a Governed Data Services LayerAchieving Self-Service Analytics with a Governed Data Services Layer
Achieving Self-Service Analytics with a Governed Data Services LayerDenodo
 
What you need to know about Generative AI and Data Management?
What you need to know about Generative AI and Data Management?What you need to know about Generative AI and Data Management?
What you need to know about Generative AI and Data Management?Denodo
 
Mastering Data Compliance in a Dynamic Business Landscape
Mastering Data Compliance in a Dynamic Business LandscapeMastering Data Compliance in a Dynamic Business Landscape
Mastering Data Compliance in a Dynamic Business LandscapeDenodo
 
Denodo Partner Connect: Business Value Demo with Denodo Demo Lite
Denodo Partner Connect: Business Value Demo with Denodo Demo LiteDenodo Partner Connect: Business Value Demo with Denodo Demo Lite
Denodo Partner Connect: Business Value Demo with Denodo Demo LiteDenodo
 
Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...
Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...
Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...Denodo
 
Drive Data Privacy Regulatory Compliance
Drive Data Privacy Regulatory ComplianceDrive Data Privacy Regulatory Compliance
Drive Data Privacy Regulatory ComplianceDenodo
 
Знакомство с виртуализацией данных для профессионалов в области данных
Знакомство с виртуализацией данных для профессионалов в области данныхЗнакомство с виртуализацией данных для профессионалов в области данных
Знакомство с виртуализацией данных для профессионалов в области данныхDenodo
 
Data Democratization: A Secret Sauce to Say Goodbye to Data Fragmentation
Data Democratization: A Secret Sauce to Say Goodbye to Data FragmentationData Democratization: A Secret Sauce to Say Goodbye to Data Fragmentation
Data Democratization: A Secret Sauce to Say Goodbye to Data FragmentationDenodo
 
Denodo Partner Connect - Technical Webinar - Ask Me Anything
Denodo Partner Connect - Technical Webinar - Ask Me AnythingDenodo Partner Connect - Technical Webinar - Ask Me Anything
Denodo Partner Connect - Technical Webinar - Ask Me AnythingDenodo
 
Lunch and Learn ANZ: Key Takeaways for 2023!
Lunch and Learn ANZ: Key Takeaways for 2023!Lunch and Learn ANZ: Key Takeaways for 2023!
Lunch and Learn ANZ: Key Takeaways for 2023!Denodo
 
It’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way Forward
It’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way ForwardIt’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way Forward
It’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way ForwardDenodo
 
Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...
Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...
Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...Denodo
 
Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...
Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...
Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...Denodo
 
How to Build Your Data Marketplace with Data Virtualization?
How to Build Your Data Marketplace with Data Virtualization?How to Build Your Data Marketplace with Data Virtualization?
How to Build Your Data Marketplace with Data Virtualization?Denodo
 
Webinar #2 - Transforming Challenges into Opportunities for Credit Unions
Webinar #2 - Transforming Challenges into Opportunities for Credit UnionsWebinar #2 - Transforming Challenges into Opportunities for Credit Unions
Webinar #2 - Transforming Challenges into Opportunities for Credit UnionsDenodo
 
Enabling Data Catalog users with advanced usability
Enabling Data Catalog users with advanced usabilityEnabling Data Catalog users with advanced usability
Enabling Data Catalog users with advanced usabilityDenodo
 
Denodo Partner Connect: Technical Webinar - Architect Associate Certification...
Denodo Partner Connect: Technical Webinar - Architect Associate Certification...Denodo Partner Connect: Technical Webinar - Architect Associate Certification...
Denodo Partner Connect: Technical Webinar - Architect Associate Certification...Denodo
 
GenAI y el futuro de la gestión de datos: mitos y realidades
GenAI y el futuro de la gestión de datos: mitos y realidadesGenAI y el futuro de la gestión de datos: mitos y realidades
GenAI y el futuro de la gestión de datos: mitos y realidadesDenodo
 

Plus de Denodo (20)

Enterprise Monitoring and Auditing in Denodo
Enterprise Monitoring and Auditing in DenodoEnterprise Monitoring and Auditing in Denodo
Enterprise Monitoring and Auditing in Denodo
 
Lunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps Approach
Lunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps ApproachLunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps Approach
Lunch and Learn ANZ: Mastering Cloud Data Cost Control: A FinOps Approach
 
Achieving Self-Service Analytics with a Governed Data Services Layer
Achieving Self-Service Analytics with a Governed Data Services LayerAchieving Self-Service Analytics with a Governed Data Services Layer
Achieving Self-Service Analytics with a Governed Data Services Layer
 
What you need to know about Generative AI and Data Management?
What you need to know about Generative AI and Data Management?What you need to know about Generative AI and Data Management?
What you need to know about Generative AI and Data Management?
 
Mastering Data Compliance in a Dynamic Business Landscape
Mastering Data Compliance in a Dynamic Business LandscapeMastering Data Compliance in a Dynamic Business Landscape
Mastering Data Compliance in a Dynamic Business Landscape
 
Denodo Partner Connect: Business Value Demo with Denodo Demo Lite
Denodo Partner Connect: Business Value Demo with Denodo Demo LiteDenodo Partner Connect: Business Value Demo with Denodo Demo Lite
Denodo Partner Connect: Business Value Demo with Denodo Demo Lite
 
Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...
Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...
Expert Panel: Overcoming Challenges with Distributed Data to Maximize Busines...
 
Drive Data Privacy Regulatory Compliance
Drive Data Privacy Regulatory ComplianceDrive Data Privacy Regulatory Compliance
Drive Data Privacy Regulatory Compliance
 
Знакомство с виртуализацией данных для профессионалов в области данных
Знакомство с виртуализацией данных для профессионалов в области данныхЗнакомство с виртуализацией данных для профессионалов в области данных
Знакомство с виртуализацией данных для профессионалов в области данных
 
Data Democratization: A Secret Sauce to Say Goodbye to Data Fragmentation
Data Democratization: A Secret Sauce to Say Goodbye to Data FragmentationData Democratization: A Secret Sauce to Say Goodbye to Data Fragmentation
Data Democratization: A Secret Sauce to Say Goodbye to Data Fragmentation
 
Denodo Partner Connect - Technical Webinar - Ask Me Anything
Denodo Partner Connect - Technical Webinar - Ask Me AnythingDenodo Partner Connect - Technical Webinar - Ask Me Anything
Denodo Partner Connect - Technical Webinar - Ask Me Anything
 
Lunch and Learn ANZ: Key Takeaways for 2023!
Lunch and Learn ANZ: Key Takeaways for 2023!Lunch and Learn ANZ: Key Takeaways for 2023!
Lunch and Learn ANZ: Key Takeaways for 2023!
 
It’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way Forward
It’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way ForwardIt’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way Forward
It’s a Wrap! 2023 – A Groundbreaking Year for AI and The Way Forward
 
Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...
Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...
Quels sont les facteurs-clés de succès pour appliquer au mieux le RGPD à votr...
 
Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...
Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...
Lunch and Learn ANZ: Achieving Self-Service Analytics with a Governed Data Se...
 
How to Build Your Data Marketplace with Data Virtualization?
How to Build Your Data Marketplace with Data Virtualization?How to Build Your Data Marketplace with Data Virtualization?
How to Build Your Data Marketplace with Data Virtualization?
 
Webinar #2 - Transforming Challenges into Opportunities for Credit Unions
Webinar #2 - Transforming Challenges into Opportunities for Credit UnionsWebinar #2 - Transforming Challenges into Opportunities for Credit Unions
Webinar #2 - Transforming Challenges into Opportunities for Credit Unions
 
Enabling Data Catalog users with advanced usability
Enabling Data Catalog users with advanced usabilityEnabling Data Catalog users with advanced usability
Enabling Data Catalog users with advanced usability
 
Denodo Partner Connect: Technical Webinar - Architect Associate Certification...
Denodo Partner Connect: Technical Webinar - Architect Associate Certification...Denodo Partner Connect: Technical Webinar - Architect Associate Certification...
Denodo Partner Connect: Technical Webinar - Architect Associate Certification...
 
GenAI y el futuro de la gestión de datos: mitos y realidades
GenAI y el futuro de la gestión de datos: mitos y realidadesGenAI y el futuro de la gestión de datos: mitos y realidades
GenAI y el futuro de la gestión de datos: mitos y realidades
 

Les clés de succès pour moderniser votre architecture de données en 2022

  • 1. WEBINAR Les clés de succès pour moderniser votre architecture de données en 2022 Tarik Zaakour Ingénieur avant-vente Denodo
  • 2. Agenda 1. Les défis rencontrés dans les architectures traditionnelles 2. Les caractéristiques d’une architecture de données dites moderne 3. La virtualisation des données, socle d’une architecture de données moderne 4. Cas d’usages 5. Questions/Réponses
  • 3. Les défis rencontrés dans les architectures traditionnelles
  • 4. 4 Architectures monolithiques ▪ Centralisée : toutes/la plupart des données dans un seul système ▪ Toutes les données doivent être copiées sur le système cible ▪ Les données doivent être répliquées pour les adapter à chaque nouveau cas d'utilisation (data marts) ▪ Géré par une équipe de données informatiques centrale ▪ Physique : les consommateurs doivent savoir : ▪ Emplacement des données ▪ Comment les données sont représentées dans ce système ▪ Quelles méthodes d'accès sont prises en charge dans ce système ▪ Exemples : Entrepôt de données, Data Lake, Data LakeHouse
  • 5. Architectures monolithiques : One Size Never Fits All “L'architecture LDW reconnaît qu'un seul niveau de persistance des données et un seul type de traitement sont inadéquats pour répondre à l'ensemble des exigences modernes en matière de données et d'analyse.” The Practical Logical Data Warehouse (Dec 2020) by Henry Cook, Rick Greenwald and Adam Ronthal
  • 6. 6 Architectures monolithiques ▪ Besoin d'ingérer toutes les données dans un nouveau système ▪ Les systèmes d'analyse existants ne peuvent pas être réutilisés ▪ Les données sont répliquées pour chaque objectif / cas d'utilisation différent ▪ Les changements nécessitent de modifier les pipelines et les ensembles de données à plusieurs étapes Verrouillage Lentes et rigides ▪ Les applications et les rapports dépendent du système central ▪ Impossible de déplacer facilement les charges de travail vers d'autres systèmes
  • 7. Les caractéristiques d’une architecture de données dite moderne
  • 8. 8 Une architecture moderne Les caractéristiques •Une architecture moderne répond à des exigences métiers : • Permettre de trouver et d'unifier rapidement leurs données sur diverses technologies de stockage, • Réduire le temps de livraison de la donnée, • Augmenter la flexibilité et l'agilité
  • 9. 9 Une architecture moderne Les caractéristiques •… et répond à des exigences opérationnelles • Elimination des silos de données • Partage des données • Sécurisation des données • Partage d'une documentation commune • Cloud-native • Interface API • Vitesse et Volume • Agilité
  • 10. 10 Architectures distribuées et logiques ▪ Distribuée: Les données résident dans plusieurs systèmes/emplacements ▪ Les données d'aujourd'hui sont trop volumineuses et distribuées ▪ Les besoins analytiques modernes sont trop divers : une taille unique ne convient jamais à tous ▪ Hybride et multicloud ▪ Logique: Les consommateurs accèdent aux données via des modèles sémantiques, découplés de l'emplacement des données et des schémas physiques ▪ Les modèles sémantiques s'adaptent aux besoins des consommateurs et appliquent des politiques communes ▪ Accès pas nécessairement virtuel/fédéré : tout style de livraison, y compris la réplication si nécessaire ▪ Permet l'évolution de la technologie et les changements d'infrastructure (par exemple, la transition vers le cloud)
  • 11. 11 La fabrique des données : Soutenue par les principaux analystes Source: Forrester Enterprise Data Fabric Wave, June 2020 Source: Demystifying the Data Fabric Gartner,, September 2020
  • 12. 12 Les défis rencontrés dans le cloud • Visibilité des données pour des informations précises • Accessibilité des données pour une portée plus rapide • Agilité des données – via des architectures modernisées • Échelle de données – Comment faire face à des données à croissance rapide • Services de données – Exposer les données pour une consommation intelligente • Volume et type de données : quel pourcentage de données est interrogé et son type • Emplacement du Cloud : à proximité entre le Cloud public (choix) et le centre de données • Bande passante : transfert de données à travers les nuages (y compris sur site) • Mise en cache (possibilité de stocker des données pour un accès plus rapide) • Mouvement de données (actualisation des données) • Donner trop d'accès (manque de sécurité centralisée) • Ne pas utiliser les contrôles intégrés (par exemple, le cryptage des données) • Échec de la surveillance de l'activité d'utilisation du cloud (contrôles et contrepoids) • Autoriser la dérive de la configuration (par exemple, image de référence, gestion des modifications) La sécurité La performance L’intégration de données
  • 13. 13 Qu’est ce que le Data Mesh ? ▪ Le Data Mesh est un nouveau paradigme architectural pour la gestion des données ▪ Proposé par le consultant Zhamak Dehghani en 2019 ▪ Il passe d'une infrastructure de données centralisée par une seule équipe à une organisation distribuée ▪ Plusieurs unités autonomes (domaines) sont chargées de gérer et d'exposer leurs propres « produits de données » au reste de l'organisation ▪ Les produits de données doivent être facilement détectables, compréhensibles et accessibles au reste de l'organisation
  • 14. 14 Quels défis le Data Mesh essaie-t-il de relever? 1. Manque d'expertise du domaine dans les équipes de données centralisées ▪ Les équipes de données centralisées sont déconnectées de l'entreprise ▪ Ils doivent gérer des données et des besoins métiers qu'ils ne comprennent pas toujours 2. Manque de flexibilité des référentiels de données centralisés ▪ L'infrastructure de données des grandes organisations est très diversifiée et change fréquemment ▪ Les besoins analytiques modernes peuvent être trop divers pour être satisfaits par une seule plate-forme : une taille unique ne convient jamais. 3. Approvisionnement des données et réponse aux changements lents ▪ Nécessite d'extraire, d'ingérer et de synchroniser des données dans la plate-forme centralisée ▪ L'informatique centralisée devient un goulot d'étranglement
  • 15. La virtualisation des données, socle d’une architecture de données moderne
  • 16. 16 Acteurs et données de nos écosystèmes actuels Situation actuelle simplifiée : Sales HR Apps/API Executive 75% de la donnée stockée jamais utilisée 90% des demandes nécessitent du temps-réel Marketing Problèmes les plus communs: × Collaboration et partage limitées × Vues métiers inconsistantes et limitées × Gouvernance complexe × Environnement fragmenté × Beaucoup (trop) de réplication × Synchronisations en cascade, longues et coûteuses Data Science AI/ML
  • 17. 17 Qu’est ce que la virtualisation de données ? ▪ La virtualisation des données est une technologie qui extrait les consommateurs de données de l'emplacement des données et de la manière dont elles sont représentées dans les systèmes sources. ▪ Il permet de créer une couche sémantique métier au-dessus de plusieurs sources de données distribuées de tout type sans avoir à répliquer les données dans un référentiel central. ▪ Cette couche sémantique est accessible de manière sécurisée et gouvernée par les consommateurs utilisant une variété de méthodes d'accès telles que SQL, REST, OData, GraphQL ou MDX. ▪ C'est la base des architectures distribuées et logiques
  • 18. 18 Qu’est ce que la virtualisation de données ? 1. La virtualisation des données vous permet de vous connecter à vos sources de données 2. Vous pouvez combiner et transformer ces données dans le format requis par le consommateur 3. Les données peuvent être exposées aux consommateurs dans un format et une interface utilisables par eux • Généralement, les consommateurs utilisent les outils qu'ils utilisent déjà - ils n'ont pas besoin d'apprendre de nouveaux outils et compétences pour accéder aux données 4. Tout cela peut être fait sans copier ou déplacer les données • Les données restent dans les sources d'origine (bases de données, applications, fichiers, etc.) et sont récupérées, en temps réel, à la demande
  • 19. 19 Qu’est ce que la virtualisation de données ? Consommez Dans les applications métiers Combinez les données liées en vues Connectez À des sources de données disparates 2 3 1 La plateforme de virtualisation de données
  • 20. 20 Denodo fait parti des 5 fournisseurs à recevoir la distinction "Customer’s choice" pour 2022, parmi les 18 éditeurs inclus dans ce rapport, avec une note globale moyenne de 4,4 sur 5,0 au 30 novembre 2021, sur la base de 68 avis reçus. "Voice of the Customer" 2022 : Outils d'intégration de données Denodo reçoit la distinction "Choix des Clients" dans le Gartner Peer Insights
  • 21. Gartner attribue à DV et LDW sa cote de maturité la plus élevée “La virtualisation des données et l'entrepôt de données logique ont mis moins de 2 ans pour atteindre le plateau de la productivité” 21
  • 22. 22 Couches de connectivité Couche d’intégration Couches des entités métiers Couche applicative Couches des services web Les couches dans Denodo Elimination des silos de données
  • 23. 23 Organisation de la base de données virtuelle Les bases de données virtuelles peuvent être utilisées pour regrouper des éléments dans des domaines (sémantiques ou organisationnels) ▪ Base virtuelle pour les départements ou les domaines ▪ Ex finance, hr ▪ Base virtuelle pour des projets spécifiques ▪ Ex: Projet Bison Les vues peuvent être construites avec des éléments d'autres bases de données virtuelles finance bison hr Le partage des données
  • 24. 24 La virtualisation de données, socle d’une architecture moderne Combiner Transformer Livrer Application Source RDBMS Source Big Data Source Web Service 2) Toutes les données concernées sont remontées des systèmes sources Sans la virtualisation de données … 1) L’utilisateur demande la donnée à travers une application 3) Les données sont ensuite combinées et transformées directement dans l’application et livrées à l’utilisateur Tout le travail est exclusivement réalisé dans l’application La performance
  • 25. 25 La virtualisation de données, socle d’une architecture moderne Combiner Transformer Livrer Application Source RDBMS Source Big Data Source Web Service Avec la virtualisation de données … 1) L’utilisateur demande la donnée à travers une application. Denodo analyse la requête et envoie des requêtes ciblées aux sources 2) Le traitement des données à la source est maximisé via la délégation, selon leurs capacités techniques 3) Les données sont ensuite combinées et transformées par Denodo, livrées à l’application et l’utilisateur Le travail est partagé par les sources et par Denodo La performance
  • 26. 26 La virtualisation de données, socle d’une architecture moderne ▪ Réduire la quantité de données copiées dans l'ensemble de l'organisation ▪ Minimiser le risque de violation de données ▪ Eviter de créer plusieurs versions de la vérité ▪ Tracer toutes les activités sur l’accès aux données La gouvernance des données
  • 27. 27 La virtualisation de données, socle d’une architecture moderne Catalogue de données dans la virtualisation des données pour intégrer de manière transparente le catalogue de données et la livraison des données Le catalogue dynamique d'actifs d'information et de services de données organisés, opportuns, contextuels et réutilisables. Gouverne – Privilège précis qui régit l'accès au catalogue ; à la fois des métadonnées et des actifs d'information. Décris– Capacité à décrire les actifs de données avec catégorisation, balisage, annotations, lignage et autres métadonnées orientées métier. Métadonnées basées sur l'utilisation – qui, quand, quoi, pourquoi et comment de la consommation de données. Préparation légère des données – Capacité à transformer, affiner et personnaliser les actifs de données pour une utilisation professionnelle. Interface utilisateur améliorée – Interface utilisateur conviviale adaptée à des rôles tels que les gestionnaires de données, les analystes de données et les analystes citoyens Le catalogue de données
  • 28. 28 La virtualisation de données, socle d’une architecture moderne • Contrôle centralisé ▪ Autoriser l'accès en fonction des besoins de l'entreprise, indépendamment de la localisation des données ou de la méthode d'accès ▪ Définir un contrôle d'accès fin sur toutes les sources de données (fichiers, services web, ...) ▪ Configuration centralisée • Intégré à votre environnement ▪ SSO, Kerberos ▪ Authentification locale ou LDAP ▪ Comptes de pass-though ou de service nom pays téléphone SSN John Smith USA 555-1212 Alain Durand France Mary White USA 555-2212 Contrôler l'accès aux colonnes, aux lignes ou même aux valeurs individuelles La sécurisation des données
  • 29. 29 La virtualisation de données, socle d’une architecture moderne • Contrôle centralisé Denodo gère la sécurité comme sur une DB : ▪ S’intègre avec votre Active Directory & SSO ▪ Masquage dynamique, restrictions sur les colonnes et les lignes selon les Roles & Privileges des utilisateurs • Intégré à votre environnement Centralise la sécurité - basée sur comment les utilisateurs utilisent la donnée et non comment elle est stockée IT Semantic Layer JOIN GROUP BY GROUP BY 1. Requête métier 2. Authentification avec une corporate identity 3. Application des règles d’autorisation . Par exemple, masque SSN et restriction locale 4. Requête envoyée à la source avec les filtres de conditions correspondants 5. Résultat sécurisé est généré et envoyé à l’utilisateur DISPARATE DATA SOURCESLess Structured More Structured DATA CONSUMERS DATA CONSUMERS Analytica l Operational La sécurisation des données
  • 30. 30 La virtualisation de données, socle d’une architecture moderne Cloud-Native • Architecture recommandée chaque fois qu'il existe des sources de données avec une quantité importante de données à la fois sur site et dans le cloud Cloud (AWS) • Denodo peut être configuré dans une architecture en couches • Les applications de chaque zone (sur site et cloud) accèdent aux données de l'autre zone via Denodo. • Les applications sur site ont accès aux données externes via l'instance locale de Denodo en tirant parti des optimisations de performances fournies par Denodo dans les deux zones. • Garantit que seules les données agrégées des applications externes sont transférées sur le réseau dans les deux sens, en réponse aux demandes des consommateurs. • En supposant que des quantités importantes de données et d'applications sont hébergées à la fois sur site et dans le cloud, cela minimise la surcharge du réseau entre les installations sur site et dans le cloud • Prise en compte de l'augmentation des coûts de maintenance matérielle/logicielle physique et de l'évolutivité par rapport au cloud. Sources de données Applications (e.g. Microstrategy) Cache Sources de données Cache Applications (e.g. Microstrategy) Réseau haut débit On-premise
  • 31. 31 La virtualisation de données, socle d’une architecture moderne Cloud-Native
  • 32. 32 La virtualisation de données, socle d’une architecture moderne Denodo en tant que fournisseur de services de données CONNECTER: connecter des données disparates de n'importe quelle source (entreprise, Big Data, cloud, Excel,…) ou emplacement. COMBINER: définissez les transformations et les combinaisons de données qui répondent aux besoins de votre entreprise, sans code. PUBLIER: déploiement de services Web REST et SOAP en un clic.
  • 33. 33 La virtualisation de données, socle d’une architecture moderne Denodo comme couche d'intégration pour les microservices • Tirez parti des services de gestion de données de Denodo • Mise en cache, sécurité, audit, nettoyage des données, gestion des ressources,… • Combiner les données • Transformer et combiner des données provenant de différentes sources
  • 34. 34 La virtualisation de données, socle d’une architecture moderne Opérationnel and Transactionnel Metadata Management, Data Governance, Data Security Data Warehouse Web, Cloud, Saas Enterprise Applications Enterprise Application Web Mobile Data Sources Service Consumers Data Abstraction & Delivery Data Search & Discovery Federation Transformation Abstraction Data Services Federation Transformation Abstraction Optimization Security Governance Data Caching Enterpri se Service Bus SOA Service Providers • Génération automatique de documents Swagger • Prise en charge de tous les formats A P I M a n a g e m e n t P l a t f o r m
  • 35. 35 La virtualisation de données, socle d’une architecture moderne L'application client envoie une requête à Denodo chaque fois que des données sont nécessaires Une requête est exécutée en fonction de la requête envoyée par l'application cliente et des décisions de l'optimiseur de requête ❶ ❷ Interfaces API
  • 36. 36 Avantages pour les utilisateurs finaux ▪ Agilité accrue et meilleur Time To Market ▪ Un seul endroit pour accéder à toutes les données ▪ Masque la complexité des back-ends ▪ Sur site vs Cloud ▪ Formats et protocoles ▪ Confiance ▪ Cohérence des résultats quelle que soit la méthode d'accès ▪ Documentation, lignage, gouvernance, etc. ▪ Réutilisabilité ▪ Accès aux mêmes données et métriques de n'importe où car la logique n'est pas codée dans un outil de BI ▪ Toutes les données disponibles dans plusieurs formats standardisés : SQL, REST, OData, GraphQL, etc.
  • 37. 37 Avantages pour les architectes informatiques et de données ▪ Sécurité centralisée ▪ Livraison sécurisée et contrôlée de toutes les données ▪ Intégration avec les IdP, SSO et AD ▪ Contrôle supérieur ▪ Dissocier le traitement et le stockage de la livraison des données ▪ Fournit la flexibilité de modifier le back-end sans impact sur l'entreprise ▪ Migration vers le cloud ▪ Moindre coût ▪ Réduit le besoin de créer et de gérer des copies de données inutiles ▪ Permet de réutiliser facilement la logique et les politiques de transformation dans plusieurs cas d'utilisation
  • 38. 38 Création facile de produits de données ▪ Un outil DV moderne comme Denodo permet d'accéder à n'importe quel système de données sous-jacent et fournit des capacités avancées de modélisation de données ▪ Cela permet aux domaines de créer rapidement des produits de données à partir de n'importe quelle source de données ou de combiner plusieurs sources de données, et de les exposer sous une forme conviviale. ▪ Aucun codage n'est requis pour définir et faire évoluer les produits de données ▪ L'itération à travers plusieurs versions des produits de données est également beaucoup plus rapide grâce à une réplication réduite des données ▪ Les produits de données sont automatiquement accessibles via plusieurs technologies ▪ SQL, REST, OData, GraphQL et MDX.
  • 39. 39 Maintient l'autonomie des domaines ▪ Les domaines ne sont pas conditionnés par des sources de données centralisées à l'échelle de l'entreprise (lac de données, entrepôt de données). Au lieu de cela, ils sont autorisés à tirer parti de leurs propres sources de données ▪ Par exemple: Applications SaaS ou magasins de données spécifiques à un domaine ▪ Ils peuvent également tirer parti des magasins centralisés lorsqu'ils constituent la meilleure option : ▪ Par exemple: utiliser un lac de données centralisé pour les cas d'utilisation de ML ▪ Les domaines peuvent également décider de manière autonome de faire évoluer leur infrastructure de données en fonction de leurs besoins spécifiques ▪ Par exemple: migrer certaines fonctions vers une application SaaS
  • 40. 40 Fournit des capacités de libre-service ▪ Découvrabilité et documentation ▪ Comprend un catalogue de données qui permet aux utilisateurs métiers et autres consommateurs de données de découvrir, de comprendre et d'accéder rapidement aux produits de données. ▪ Génère automatiquement la documentation pour les produits de données à l'aide de formats standard tels que l'API ouverte ▪ Inclut des fonctionnalités de lignage des données et d'analyse d'impact des changements pour tous les produits de données ▪ Performances et flexibilité ▪ Comprend des capacités de mise en cache et d'accélération des requêtes OOB, de sorte que même les sources de données non optimisées pour l'analyse peuvent être utilisées pour créer des produits de données. ▪ Approvisionnement ▪ Autoscaling automatique à l'aide des technologies cloud/conteneur. Cela signifie que, si nécessaire, l'infrastructure prenant en charge certains produits de données peut être agrandie/réduite tout en partageant des métadonnées communes entre les domaines.
  • 41. 41 Permet une gouvernance informatique fédérée ▪ Les couches sémantiques construites dans la couche virtuelle peuvent appliquer des modèles de données standardisés pour représenter les entités fédérées qui doivent être cohérentes entre les domaines (par exemple, client, produits). ▪ Peut importer des modèles à partir d'outils de modélisation pour définir un contrat que le développeur du produit de données doit respecter ▪ Applique automatiquement des politiques de sécurité unifiées, y compris le masquage/la rédaction des données ▪ Par exemple: masque automatiquement le SSN avec *** à l'exception des 4 derniers chiffres, dans tous les produits de données, à l'exception des utilisateurs du rôle RH ▪ Les produits de données peuvent également être facilement combinés et peuvent être utilisés comme base pour créer de nouveaux produits de données. ▪ La structure en couches des modèles virtuels permet de créer des composants qui peuvent être réutilisés par plusieurs domaines pour créer leurs produits de données. ▪ Par exemple, il peut y avoir des vues virtuelles pour des informations génériques sur les emplacements de l'entreprise, les produits, ... ▪ Avoir une couche de livraison de données unifiée facilite également la vérification et l'application automatique d'autres politiques telles que les conventions de nommage ou les normes de sécurité des API
  • 42. 42 Implémentation du Data Mesh avec Denodo SQL Opérationnel Entrepôt de données Lacs de données Fichiers SaaS APIs REST GraphQL OData Event Product Customer Location Employee Common Domain Event Management Human Resources Chaque domaine se voit attribuer un schéma virtuel distinct. Un domaine commun peut être utile pour les produits de données centralisés communs à tous les domaines. 1 1 Les domaines connectent leurs sources de données. 2 Les métadonnées sont mappées sur des vues relationnelles. Aucune donnée n'est répliquée. 3 3 2 Les domaines peuvent modéliser leurs produits de données. Les produits peuvent être utilisés pour définir d'autres produits. 4 4 Pour l'exécution, les produits peuvent être servis directement à partir de leurs sources ou répliqués vers un emplacement central, comme un lac. 5 5 Une équipe centrale peut définir des directives et une gouvernance pour assurer l'interopérabilité. 6 6 Les produits peuvent être accessibles via SQL ou exposés en tant qu'API. Aucun codage n'est requis. 7 7 L'infrastructure peut facilement évoluer dans un cluster. 8 8
  • 44. Les cas d’usage de la virtualisation de données Du stockage & Management, à la consommation, en passant par la gouvernance et la sécurité DÉCISION (REAL TIME) Extended MDM BI AGILE (SELF-SERVICE) DATA SCIENCE (ML & AI) APPS (MOBILE & WEB) FUSIONS & ACQUISITIONS DATA MARKETPLACE RÉGLEMENTATIONS (IFRS17, GRC) GOUVERNANCE & SÉCURITÉ APIFICATION (& SQLIFICATION) COUCHE DONNÉE UNIFIÉE AGILITÉ & SIMPLICITÉ LIVRAISON TEMPS-RÉELLE ABSTRACTION DONNÉES ZÉRO RÉPLICATION DATA CATALOG PERFORMANCES OPTIMISÉES LOGICAL DATA WAREHOUSE/LAKE BIG DATA FABRIC HYBRID DATA FABRIC DATA INTEGRATION DATA MIGRATION REFACTORING & REPLATFORMING DATA CONSUMPTION DATA STORAGE & MANAGEMENT DATA GOVERNANCE, MANIPULATION & ACCESS Sales HR Executive Marketing Apps/API Data Science AI/ML LOGIC AL DATA WARE HOUS E APIsat ion des donné es MIGRA TION Cloud/ Soluti on/ Techn ologiq ue DATA FABRI C DATA GOVE RNAN CE DATA CATAL OG
  • 45. 45 Cas client : Prologis Usage analytique Boîte à outils de science des données
  • 46. 46 Cas client : Prologis
  • 47. 47 Cas client : Prologis
  • 48. 48 Modernisation des applications Architectures de données cloud distribuées • Cloud pur ("Cloud natif") • Fournisseur de cloud unique • Cloud privé ou public • Hybride • Cloud et sur site • Cloud pur… mais plusieurs fournisseurs de Cloud • Données dans plusieurs magasins de données, plusieurs emplacements. • Applications (SaaS) stockant des données dans le Cloud.
  • 49. 49 Modernisation des applications Besoin métier • Nécessité de passer au cloud pour augmenter les performances via une analyse de données plus fiable, efficace et rentable • Les problèmes de performances et de délai/rapidité de livraison devaient être résolus ; l'entrepôt de données ne pouvait plus être étendu • Les exigences de sécurité de plusieurs outils analytiques devaient être centralisées Bénéfices • Efficacité et fiabilité – La transition vers le cloud a été adoptée comme un modèle d'innovation et d'agilité • Sécurité cohérente – Sécurité synchronisée sur plusieurs outils analytiques • Agilité - Prototypage rapide de nouvelles sources de données avec une structure de gouvernance appropriée Solution
  • 50. Présence Denodo • Palo Alto (USA) & A Coruña (Espagne) • Présence mondiale Leadership • A l’origine et « Pure Player » de la data virtualization (leader & pionnier) – depuis 1999 • Reconnaissance des analystes et du marché en tant que leader (Forrester, Gartner, Clients depuis 6+ ans) • Nombreux prix Denodo Technologies Leader & Pionnier dans la Data Virtualization Technologie Industrie Service financier Assurance Santé Secteur public Télécommunication Distribution Pharma / Bio-Tech Energie Clients • 850+ actifs • F500, G2000 & Start-ups Santé financière • $4B+ Fond privé (HGGC). • 60+% croissance annuelle; Zéro dette; Rentable.
  • 51. Denodo Technologies Leader & Pionnier dans la Data Virtualization AUTO ÉVALUATION ÉVALUATION COLLABORATIVE Téléchargez Denodo Express Contactez-nous ! Évaluez (1h) avec le Test Drive: Denodo Platform for AWS, Azure ou GCP Présence Denodo • Palo Alto (USA) & A Coruña (Espagne) • Présence mondiale Leadership • A l’origine et « Pure Player » de la data virtualization (leader & pionnier) – depuis 1999 • Reconnaissance des analystes et du marché en tant que leader (Forrester, Gartner, Clients depuis 6+ ans) • Nombreux prix Clients • 1000+ actifs • F500, G2000 & Start-ups Santé financière • $4B+ Fond privé (HGGC). • 60+% croissance annuelle; Zéro dette; Rentable.
  • 53. Merci! www.denodo.com info@denodo.com © Copyright Denodo Technologies. All rights reserved Unless otherwise specified, no part of this PDF file may be reproduced or utilized in any for or by any means, electronic or mechanical, including photocopying and microfilm, without prior the written authorization from Denodo Technologies.