Watch full webinar here: https://bit.ly/3I0Hv8D
Aujourd’hui, avoir une gestion des données efficace est un élément essentiel pour la compétitivité de votre organisation. Les entreprises sont néanmoins souvent confrontées à des silos de données, ce qui rend leur exploitation longue et coûteuse. De plus, la vitesse, la diversité et le volume des données peuvent submerger les architectures de données traditionnelles. Enfin, la transformation digitale amène à s’appuyer sur de nouveaux socles hébergés chez des fournisseurs Cloud.
Dès lors, les questions suivantes peuvent se poser :
- Comment améliorer la livraison des données et extraire toute la valeur de vos données ? Comment accélérer la prise de décision ?
- Comment rendre les données disponibles et exploitables en temps réel ?
- Comment réduire les coûts informatiques ?
Denodo France vous propose d’aborder les clés de succès pour moderniser efficacement votre architecture de données en 2022. Rejoignez ce nouveau webinar pour comprendre comment la plateforme d’intégration et de gestion de données de Denodo peut vous aider à moderniser votre architecture dans un contexte de transformation digitale.
Les points clés abordés : -
Les bénéfices et défis liés à la modernisation d’une architecture data avec les aspects :
- Hybridation
- Data Mesh et Data Fabric
- Migration et sécurisation de données
- Agilité
- Maîtrise des risques et des coûts
- Cas d’usages et cas clients concrets
GenAI y el futuro de la gestión de datos: mitos y realidades
Les clés de succès pour moderniser votre architecture de données en 2022
1. WEBINAR
Les clés de succès pour
moderniser votre architecture
de données en 2022
Tarik Zaakour
Ingénieur avant-vente
Denodo
2. Agenda
1. Les défis rencontrés dans les architectures traditionnelles
2. Les caractéristiques d’une architecture de données dites moderne
3. La virtualisation des données, socle d’une architecture de données
moderne
4. Cas d’usages
5. Questions/Réponses
4. 4
Architectures monolithiques
▪ Centralisée : toutes/la plupart des données dans un
seul système
▪ Toutes les données doivent être copiées sur le système cible
▪ Les données doivent être répliquées pour les adapter à chaque
nouveau cas d'utilisation (data marts)
▪ Géré par une équipe de données informatiques centrale
▪ Physique : les consommateurs doivent savoir :
▪ Emplacement des données
▪ Comment les données sont représentées dans ce système
▪ Quelles méthodes d'accès sont prises en charge dans ce
système
▪ Exemples : Entrepôt de données, Data Lake, Data
LakeHouse
5. Architectures monolithiques : One Size Never Fits All
“L'architecture LDW reconnaît qu'un seul niveau de persistance des données et un
seul type de traitement sont inadéquats pour répondre à l'ensemble des exigences
modernes en matière de données et d'analyse.”
The Practical Logical Data Warehouse (Dec 2020) by Henry Cook, Rick Greenwald and Adam Ronthal
6. 6
Architectures monolithiques
▪ Besoin d'ingérer toutes les données dans un nouveau
système
▪ Les systèmes d'analyse existants ne peuvent pas être
réutilisés
▪ Les données sont répliquées pour chaque objectif /
cas d'utilisation différent
▪ Les changements nécessitent de modifier les pipelines
et les ensembles de données à plusieurs étapes
Verrouillage
Lentes et rigides
▪ Les applications et les rapports dépendent du système central
▪ Impossible de déplacer facilement les charges de travail vers
d'autres systèmes
8. 8
Une architecture moderne
Les caractéristiques
•Une architecture moderne répond à des exigences métiers :
• Permettre de trouver et d'unifier rapidement leurs données sur diverses
technologies de stockage,
• Réduire le temps de livraison de la donnée,
• Augmenter la flexibilité et l'agilité
9. 9
Une architecture moderne
Les caractéristiques
•… et répond à des exigences opérationnelles
• Elimination des silos de données
• Partage des données
• Sécurisation des données
• Partage d'une documentation commune
• Cloud-native
• Interface API
• Vitesse et Volume
• Agilité
10. 10
Architectures distribuées et logiques
▪ Distribuée: Les données résident dans plusieurs
systèmes/emplacements
▪ Les données d'aujourd'hui sont trop volumineuses et
distribuées
▪ Les besoins analytiques modernes sont trop divers : une
taille unique ne convient jamais à tous
▪ Hybride et multicloud
▪ Logique: Les consommateurs accèdent aux données via
des modèles sémantiques, découplés de l'emplacement
des données et des schémas physiques
▪ Les modèles sémantiques s'adaptent aux besoins des
consommateurs et appliquent des politiques communes
▪ Accès pas nécessairement virtuel/fédéré : tout style de
livraison, y compris la réplication si nécessaire
▪ Permet l'évolution de la technologie et les changements
d'infrastructure (par exemple, la transition vers le cloud)
11. 11
La fabrique des données : Soutenue par les principaux analystes
Source: Forrester Enterprise Data Fabric Wave,
June 2020
Source: Demystifying the Data Fabric Gartner,,
September 2020
12. 12
Les défis rencontrés dans le cloud
• Visibilité des données pour des
informations précises
• Accessibilité des données pour
une portée plus rapide
• Agilité des données – via des
architectures modernisées
• Échelle de données – Comment
faire face à des données à
croissance rapide
• Services de données – Exposer
les données pour une
consommation intelligente
• Volume et type de données :
quel pourcentage de données est
interrogé et son type
• Emplacement du Cloud : à
proximité entre le Cloud public
(choix) et le centre de données
• Bande passante : transfert de
données à travers les nuages (y
compris sur site)
• Mise en cache (possibilité de
stocker des données pour un
accès plus rapide)
• Mouvement de données
(actualisation des données)
• Donner trop d'accès (manque de sécurité
centralisée)
• Ne pas utiliser les contrôles intégrés (par
exemple, le cryptage des données)
• Échec de la surveillance de l'activité
d'utilisation du cloud (contrôles et
contrepoids)
• Autoriser la dérive de la configuration (par
exemple, image de référence, gestion des
modifications)
La sécurité La performance
L’intégration de données
13. 13
Qu’est ce que le Data Mesh ?
▪ Le Data Mesh est un nouveau paradigme architectural pour la
gestion des données
▪ Proposé par le consultant Zhamak Dehghani en 2019
▪ Il passe d'une infrastructure de données centralisée par une seule
équipe à une organisation distribuée
▪ Plusieurs unités autonomes (domaines) sont chargées de gérer et
d'exposer leurs propres « produits de données » au reste de
l'organisation
▪ Les produits de données doivent être facilement détectables,
compréhensibles et accessibles au reste de l'organisation
14. 14
Quels défis le Data Mesh essaie-t-il de relever?
1. Manque d'expertise du domaine dans les équipes de données
centralisées
▪ Les équipes de données centralisées sont déconnectées de l'entreprise
▪ Ils doivent gérer des données et des besoins métiers qu'ils ne comprennent
pas toujours
2. Manque de flexibilité des référentiels de données centralisés
▪ L'infrastructure de données des grandes organisations est très diversifiée et
change fréquemment
▪ Les besoins analytiques modernes peuvent être trop divers pour être satisfaits
par une seule plate-forme : une taille unique ne convient jamais.
3. Approvisionnement des données et réponse aux changements lents
▪ Nécessite d'extraire, d'ingérer et de synchroniser des données dans la
plate-forme centralisée
▪ L'informatique centralisée devient un goulot d'étranglement
16. 16
Acteurs et données de nos écosystèmes actuels
Situation actuelle simplifiée :
Sales
HR
Apps/API
Executive
75% de la donnée stockée
jamais utilisée
90% des demandes nécessitent
du temps-réel
Marketing
Problèmes les plus communs:
× Collaboration et partage limitées
× Vues métiers inconsistantes et limitées
× Gouvernance complexe
× Environnement fragmenté
× Beaucoup (trop) de réplication
× Synchronisations en cascade, longues et coûteuses
Data Science
AI/ML
17. 17
Qu’est ce que la virtualisation de données ?
▪ La virtualisation des données est une technologie qui extrait
les consommateurs de données de l'emplacement des
données et de la manière dont elles sont représentées dans
les systèmes sources.
▪ Il permet de créer une couche sémantique métier au-dessus
de plusieurs sources de données distribuées de tout type
sans avoir à répliquer les données dans un référentiel
central.
▪ Cette couche sémantique est accessible de manière
sécurisée et gouvernée par les consommateurs utilisant une
variété de méthodes d'accès telles que SQL, REST, OData,
GraphQL ou MDX.
▪ C'est la base des architectures distribuées et logiques
18. 18
Qu’est ce que la virtualisation de données ?
1. La virtualisation des données vous permet de vous
connecter à vos sources de données
2. Vous pouvez combiner et transformer ces données
dans le format requis par le consommateur
3. Les données peuvent être exposées aux
consommateurs dans un format et une interface
utilisables par eux
• Généralement, les consommateurs utilisent les outils qu'ils
utilisent déjà - ils n'ont pas besoin d'apprendre de nouveaux
outils et compétences pour accéder aux données
4. Tout cela peut être fait sans copier ou déplacer les
données
• Les données restent dans les sources d'origine (bases de
données, applications, fichiers, etc.) et sont récupérées, en
temps réel, à la demande
19. 19
Qu’est ce que la virtualisation de données ?
Consommez
Dans les applications
métiers
Combinez
les données liées en
vues
Connectez
À des sources de données
disparates
2
3
1
La plateforme de virtualisation de données
20. 20
Denodo fait parti des 5 fournisseurs à recevoir la
distinction "Customer’s choice" pour 2022, parmi les 18
éditeurs inclus dans ce rapport, avec une note globale
moyenne de 4,4 sur 5,0 au 30 novembre 2021, sur la base
de 68 avis reçus.
"Voice of the Customer" 2022 : Outils d'intégration de données
Denodo reçoit la distinction "Choix des Clients" dans le Gartner Peer
Insights
21. Gartner attribue à DV et LDW sa cote de maturité la plus élevée
“La
virtualisation
des données et
l'entrepôt de
données
logique ont mis
moins de 2 ans
pour atteindre
le plateau de la
productivité”
21
22. 22
Couches de connectivité
Couche d’intégration
Couches des entités métiers
Couche applicative
Couches des services web
Les couches dans Denodo
Elimination des silos de données
23. 23
Organisation de la base de données virtuelle
Les bases de données virtuelles
peuvent être utilisées pour regrouper
des éléments dans des domaines
(sémantiques ou organisationnels)
▪ Base virtuelle pour les départements
ou les domaines
▪ Ex finance, hr
▪ Base virtuelle pour des projets
spécifiques
▪ Ex: Projet Bison
Les vues peuvent être construites
avec des éléments d'autres bases de
données virtuelles
finance
bison hr
Le partage des données
24. 24
La virtualisation de données, socle d’une architecture moderne
Combiner
Transformer
Livrer
Application
Source
RDBMS
Source
Big Data
Source
Web Service 2) Toutes les données
concernées sont remontées
des systèmes sources
Sans la virtualisation de
données … 1) L’utilisateur demande la donnée
à travers une application
3) Les données sont ensuite
combinées et transformées
directement dans l’application
et livrées à l’utilisateur
Tout le travail est
exclusivement
réalisé dans
l’application
La performance
25. 25
La virtualisation de données, socle d’une architecture moderne
Combiner
Transformer
Livrer
Application
Source
RDBMS
Source
Big Data
Source
Web Service
Avec la virtualisation de
données …
1) L’utilisateur demande la donnée
à travers une application. Denodo
analyse la requête et envoie des
requêtes ciblées aux sources
2) Le traitement des données à
la source est maximisé via
la délégation, selon leurs
capacités techniques
3) Les données sont ensuite
combinées et transformées
par Denodo, livrées à
l’application
et l’utilisateur
Le travail
est partagé par
les sources et par
Denodo
La performance
26. 26
La virtualisation de données, socle d’une architecture moderne
▪ Réduire la quantité de données copiées dans l'ensemble de l'organisation
▪ Minimiser le risque de violation de données
▪ Eviter de créer plusieurs versions de la vérité
▪ Tracer toutes les activités sur l’accès aux données
La gouvernance des données
27. 27
La virtualisation de données, socle d’une architecture moderne
Catalogue de données dans la virtualisation des données pour intégrer de
manière transparente le catalogue de données et la livraison des données
Le catalogue dynamique d'actifs d'information et de services de
données organisés, opportuns, contextuels et réutilisables.
Gouverne – Privilège précis qui régit l'accès au catalogue ; à la fois des
métadonnées et des actifs d'information.
Décris– Capacité à décrire les actifs de données avec catégorisation,
balisage, annotations, lignage et autres métadonnées orientées métier.
Métadonnées basées sur l'utilisation – qui, quand, quoi, pourquoi et
comment de la consommation de données.
Préparation légère des données – Capacité à transformer, affiner et
personnaliser les actifs de données pour une utilisation professionnelle.
Interface utilisateur améliorée – Interface utilisateur conviviale adaptée
à des rôles tels que les gestionnaires de données, les analystes de
données et les analystes citoyens
Le catalogue de données
28. 28
La virtualisation de données, socle d’une architecture moderne
• Contrôle centralisé
▪ Autoriser l'accès en fonction des besoins de
l'entreprise, indépendamment de la localisation des
données ou de la méthode d'accès
▪ Définir un contrôle d'accès fin sur toutes les sources
de données (fichiers, services web, ...)
▪ Configuration centralisée
• Intégré à votre environnement
▪ SSO, Kerberos
▪ Authentification locale ou LDAP
▪ Comptes de pass-though ou de service
nom pays téléphone SSN
John Smith USA 555-1212
Alain Durand France
Mary White USA 555-2212
Contrôler l'accès aux colonnes,
aux lignes ou même aux
valeurs individuelles
La sécurisation des données
29. 29
La virtualisation de données, socle d’une architecture moderne
• Contrôle centralisé
Denodo gère la sécurité comme sur une DB :
▪ S’intègre avec votre Active Directory & SSO
▪ Masquage dynamique, restrictions sur les
colonnes et les lignes selon les Roles & Privileges
des utilisateurs
• Intégré à votre environnement
Centralise la sécurité - basée sur comment les
utilisateurs utilisent la donnée et non
comment elle est stockée
IT Semantic Layer
JOIN
GROUP
BY
GROUP
BY
1. Requête métier
2. Authentification avec
une corporate identity
3. Application des règles
d’autorisation .
Par exemple, masque SSN
et restriction locale
4. Requête envoyée à la
source avec les filtres de
conditions correspondants
5. Résultat sécurisé
est généré et envoyé
à l’utilisateur
DISPARATE DATA SOURCESLess Structured
More Structured
DATA CONSUMERS
DATA CONSUMERS
Analytica
l
Operational
La sécurisation des données
30. 30
La virtualisation de données, socle d’une architecture moderne
Cloud-Native
• Architecture recommandée chaque fois qu'il existe des
sources de données avec une quantité importante de
données à la fois sur site et dans le cloud
Cloud
(AWS)
• Denodo peut être configuré dans une architecture en
couches
• Les applications de chaque zone (sur site et cloud)
accèdent aux données de l'autre zone via Denodo.
• Les applications sur site ont accès aux données externes
via l'instance locale de Denodo en tirant parti des
optimisations de performances fournies par Denodo
dans les deux zones.
• Garantit que seules les données agrégées des
applications externes sont transférées sur le réseau dans
les deux sens, en réponse aux demandes des
consommateurs.
• En supposant que des quantités importantes de
données et d'applications sont hébergées à la fois sur
site et dans le cloud, cela minimise la surcharge du
réseau entre les installations sur site et dans le cloud
• Prise en compte de l'augmentation des coûts de
maintenance matérielle/logicielle physique et de
l'évolutivité par rapport au cloud.
Sources de données
Applications (e.g.
Microstrategy)
Cache
Sources de données
Cache
Applications (e.g.
Microstrategy)
Réseau
haut
débit
On-premise
32. 32
La virtualisation de données, socle d’une architecture moderne
Denodo en tant que fournisseur de services de données
CONNECTER: connecter des données
disparates de n'importe quelle source
(entreprise, Big Data, cloud, Excel,…) ou
emplacement.
COMBINER: définissez les
transformations et les combinaisons de
données qui répondent aux besoins de
votre entreprise, sans code.
PUBLIER: déploiement de services Web
REST et SOAP en un clic.
33. 33
La virtualisation de données, socle d’une architecture moderne
Denodo comme couche d'intégration pour les microservices
• Tirez parti des services de gestion de
données de Denodo
• Mise en cache, sécurité, audit,
nettoyage des données, gestion des
ressources,…
• Combiner les données
• Transformer et combiner des
données provenant de différentes
sources
34. 34
La virtualisation de données, socle d’une architecture moderne
Opérationnel and Transactionnel
Metadata Management, Data Governance, Data Security
Data
Warehouse
Web,
Cloud,
Saas
Enterprise
Applications
Enterprise
Application
Web
Mobile
Data Sources Service Consumers
Data Abstraction &
Delivery
Data Search & Discovery
Federation
Transformation
Abstraction
Data
Services
Federation
Transformation
Abstraction
Optimization
Security
Governance
Data Caching
Enterpri
se
Service
Bus
SOA
Service Providers • Génération automatique de
documents Swagger
• Prise en charge de tous les
formats
A
P
I
M
a
n
a
g
e
m
e
n
t
P
l
a
t
f
o
r
m
35. 35
La virtualisation de données, socle d’une architecture moderne
L'application client envoie une requête à Denodo chaque fois
que des données sont nécessaires
Une requête est exécutée en fonction de la requête envoyée par
l'application cliente et des décisions de l'optimiseur de requête
❶
❷
Interfaces API
36. 36
Avantages pour les utilisateurs finaux
▪ Agilité accrue et meilleur Time To Market
▪ Un seul endroit pour accéder à toutes les données
▪ Masque la complexité des back-ends
▪ Sur site vs Cloud
▪ Formats et protocoles
▪ Confiance
▪ Cohérence des résultats quelle que soit la méthode d'accès
▪ Documentation, lignage, gouvernance, etc.
▪ Réutilisabilité
▪ Accès aux mêmes données et métriques de n'importe où
car la logique n'est pas codée dans un outil de BI
▪ Toutes les données disponibles dans plusieurs formats
standardisés : SQL, REST, OData, GraphQL, etc.
37. 37
Avantages pour les architectes informatiques et de données
▪ Sécurité centralisée
▪ Livraison sécurisée et contrôlée de toutes les données
▪ Intégration avec les IdP, SSO et AD
▪ Contrôle supérieur
▪ Dissocier le traitement et le stockage de la livraison des
données
▪ Fournit la flexibilité de modifier le back-end sans impact sur
l'entreprise
▪ Migration vers le cloud
▪ Moindre coût
▪ Réduit le besoin de créer et de gérer des copies de données
inutiles
▪ Permet de réutiliser facilement la logique et les politiques
de transformation dans plusieurs cas d'utilisation
38. 38
Création facile de produits de données
▪ Un outil DV moderne comme Denodo permet d'accéder à n'importe
quel système de données sous-jacent et fournit des capacités
avancées de modélisation de données
▪ Cela permet aux domaines de créer rapidement des produits
de données à partir de n'importe quelle source de données
ou de combiner plusieurs sources de données, et de les
exposer sous une forme conviviale.
▪ Aucun codage n'est requis pour définir et faire évoluer les
produits de données
▪ L'itération à travers plusieurs versions des produits de données est
également beaucoup plus rapide grâce à une réplication réduite des
données
▪ Les produits de données sont automatiquement accessibles via
plusieurs technologies
▪ SQL, REST, OData, GraphQL et MDX.
39. 39
Maintient l'autonomie des domaines
▪ Les domaines ne sont pas conditionnés par des sources de données centralisées à l'échelle de
l'entreprise (lac de données, entrepôt de données). Au lieu de cela, ils sont autorisés à tirer parti de
leurs propres sources de données
▪ Par exemple: Applications SaaS ou magasins de données spécifiques à un domaine
▪ Ils peuvent également tirer parti des magasins centralisés lorsqu'ils constituent la meilleure option :
▪ Par exemple: utiliser un lac de données centralisé pour les cas d'utilisation de ML
▪ Les domaines peuvent également décider de manière autonome de faire évoluer leur infrastructure
de données en fonction de leurs besoins spécifiques
▪ Par exemple: migrer certaines fonctions vers une application SaaS
40. 40
Fournit des capacités de libre-service
▪ Découvrabilité et documentation
▪ Comprend un catalogue de données qui permet aux utilisateurs métiers et autres consommateurs de
données de découvrir, de comprendre et d'accéder rapidement aux produits de données.
▪ Génère automatiquement la documentation pour les produits de données à l'aide de formats standard tels
que l'API ouverte
▪ Inclut des fonctionnalités de lignage des données et d'analyse d'impact des changements pour tous les
produits de données
▪ Performances et flexibilité
▪ Comprend des capacités de mise en cache et d'accélération des requêtes OOB, de sorte que même les
sources de données non optimisées pour l'analyse peuvent être utilisées pour créer des produits de
données.
▪ Approvisionnement
▪ Autoscaling automatique à l'aide des technologies cloud/conteneur. Cela signifie que, si nécessaire,
l'infrastructure prenant en charge certains produits de données peut être agrandie/réduite tout en
partageant des métadonnées communes entre les domaines.
41. 41
Permet une gouvernance informatique fédérée
▪ Les couches sémantiques construites dans la couche virtuelle peuvent appliquer des modèles de données
standardisés pour représenter les entités fédérées qui doivent être cohérentes entre les domaines (par exemple,
client, produits).
▪ Peut importer des modèles à partir d'outils de modélisation pour définir un contrat que le développeur du
produit de données doit respecter
▪ Applique automatiquement des politiques de sécurité unifiées, y compris le masquage/la rédaction des données
▪ Par exemple: masque automatiquement le SSN avec *** à l'exception des 4 derniers chiffres, dans tous les
produits de données, à l'exception des utilisateurs du rôle RH
▪ Les produits de données peuvent également être facilement combinés et peuvent être utilisés comme base pour
créer de nouveaux produits de données.
▪ La structure en couches des modèles virtuels permet de créer des composants qui peuvent être réutilisés
par plusieurs domaines pour créer leurs produits de données.
▪ Par exemple, il peut y avoir des vues virtuelles pour des informations génériques sur les emplacements de
l'entreprise, les produits, ...
▪ Avoir une couche de livraison de données unifiée facilite également la vérification et l'application automatique
d'autres politiques telles que les conventions de nommage ou les normes de sécurité des API
42. 42
Implémentation du Data Mesh avec Denodo
SQL
Opérationnel Entrepôt de données
Lacs de données Fichiers
SaaS APIs
REST GraphQL OData
Event
Product
Customer Location Employee
Common Domain Event Management Human Resources
Chaque domaine se voit attribuer un schéma virtuel distinct.
Un domaine commun peut être utile pour les produits de données
centralisés communs à tous les domaines.
1
1 Les domaines connectent leurs sources de données.
2
Les métadonnées sont mappées sur des vues relationnelles.
Aucune donnée n'est répliquée.
3
3
2
Les domaines peuvent modéliser leurs produits de données.
Les produits peuvent être utilisés pour définir d'autres produits.
4
4
Pour l'exécution, les produits peuvent être servis directement à
partir de leurs sources ou répliqués vers un emplacement central,
comme un lac.
5
5
Une équipe centrale peut définir des directives et une
gouvernance pour assurer l'interopérabilité.
6
6
Les produits peuvent être accessibles via SQL ou exposés
en tant qu'API. Aucun codage n'est requis.
7
7
L'infrastructure peut facilement évoluer dans un cluster.
8
8
44. Les cas d’usage de la virtualisation de données
Du stockage & Management, à la consommation, en passant par la gouvernance et la sécurité
DÉCISION
(REAL TIME)
Extended MDM
BI AGILE
(SELF-SERVICE)
DATA
SCIENCE
(ML & AI)
APPS
(MOBILE & WEB)
FUSIONS &
ACQUISITIONS
DATA
MARKETPLACE
RÉGLEMENTATIONS
(IFRS17, GRC)
GOUVERNANCE
& SÉCURITÉ
APIFICATION
(& SQLIFICATION)
COUCHE DONNÉE
UNIFIÉE
AGILITÉ
& SIMPLICITÉ
LIVRAISON
TEMPS-RÉELLE
ABSTRACTION
DONNÉES
ZÉRO
RÉPLICATION
DATA
CATALOG
PERFORMANCES
OPTIMISÉES
LOGICAL DATA
WAREHOUSE/LAKE
BIG DATA
FABRIC
HYBRID
DATA FABRIC
DATA
INTEGRATION
DATA
MIGRATION
REFACTORING &
REPLATFORMING
DATA CONSUMPTION
DATA STORAGE & MANAGEMENT
DATA GOVERNANCE, MANIPULATION & ACCESS
Sales
HR
Executive
Marketing Apps/API
Data Science
AI/ML
LOGIC
AL
DATA
WARE
HOUS
E
APIsat
ion
des
donné
es
MIGRA
TION
Cloud/
Soluti
on/
Techn
ologiq
ue
DATA
FABRI
C
DATA
GOVE
RNAN
CE
DATA
CATAL
OG
45. 45
Cas client : Prologis
Usage
analytique
Boîte à outils de science des
données
48. 48
Modernisation des applications
Architectures de données cloud
distribuées
• Cloud pur ("Cloud natif")
• Fournisseur de cloud unique
• Cloud privé ou public
• Hybride
• Cloud et sur site
• Cloud pur… mais plusieurs
fournisseurs de Cloud
• Données dans plusieurs magasins
de données, plusieurs
emplacements.
• Applications (SaaS) stockant des
données dans le Cloud.
49. 49
Modernisation des applications
Besoin métier
• Nécessité de passer au cloud pour augmenter les
performances via une analyse de données plus fiable,
efficace et rentable
• Les problèmes de performances et de délai/rapidité de
livraison devaient être résolus ; l'entrepôt de données ne
pouvait plus être étendu
• Les exigences de sécurité de plusieurs outils analytiques
devaient être centralisées
Bénéfices
• Efficacité et fiabilité – La transition vers le cloud a été adoptée
comme un modèle d'innovation et d'agilité
• Sécurité cohérente – Sécurité synchronisée sur plusieurs outils
analytiques
• Agilité - Prototypage rapide de nouvelles sources de données
avec une structure de gouvernance appropriée
Solution
50. Présence Denodo
• Palo Alto (USA) & A Coruña (Espagne)
• Présence mondiale
Leadership
• A l’origine et « Pure Player » de la data virtualization
(leader & pionnier) – depuis 1999
• Reconnaissance des analystes et du marché en tant que
leader (Forrester, Gartner, Clients depuis 6+ ans)
• Nombreux prix
Denodo Technologies
Leader & Pionnier dans la Data Virtualization
Technologie
Industrie
Service financier
Assurance
Santé
Secteur public
Télécommunication
Distribution
Pharma / Bio-Tech
Energie
Clients
• 850+ actifs
• F500, G2000 & Start-ups
Santé financière
• $4B+ Fond privé (HGGC).
• 60+% croissance annuelle; Zéro dette; Rentable.
51. Denodo Technologies
Leader & Pionnier dans la Data Virtualization
AUTO ÉVALUATION
ÉVALUATION COLLABORATIVE
Téléchargez Denodo Express
Contactez-nous !
Évaluez (1h) avec le Test Drive:
Denodo Platform
for AWS, Azure ou GCP
Présence Denodo
• Palo Alto (USA) & A Coruña (Espagne)
• Présence mondiale
Leadership
• A l’origine et « Pure Player » de la data virtualization
(leader & pionnier) – depuis 1999
• Reconnaissance des analystes et du marché en tant que
leader (Forrester, Gartner, Clients depuis 6+ ans)
• Nombreux prix
Clients
• 1000+ actifs
• F500, G2000 & Start-ups
Santé financière
• $4B+ Fond privé (HGGC).
• 60+% croissance annuelle; Zéro dette; Rentable.