• Architecture informatique : les supports
• Pour qui ? Professionnels/Clients/Partenaires
• Pour quels besoins ?
• Saisie des données
• Restitution des données
Un moyen d’assurer la persistance de connaissances plus ou moins volatiles consiste à utiliser un langage comme XML; toutefois, les utilisateurs courants ou tout au moins ceux qui ne souhaitent pas particulièrement s’investir dans l’apprentissage de procédures plus ou moins ésotériques et être freinés dans leur spontanéité de pensée chercheront à continuer à pratiquer leur traitement de texte familier tout en générant des documents XML de manière totalement transparente.
Un Système de Gestion de Bases de Données Réparties est constitué d'un ensemble de processeurs autonomes «appelés sites » (stations de travail, micro-ordinateurs, …) reliés par un réseau de communication qui leur permet d'échanger des données. Un SGBDRé suppose que les données soient stockées sur au moins deux sites. Chaque site est doté de son propre SGBD.
Ce support de cours propose une vue d’ensemble sur les avantages et inconvénients de répartition de données. Aussi, il présente les différentes techniques de répartition
• Architecture informatique : les supports
• Pour qui ? Professionnels/Clients/Partenaires
• Pour quels besoins ?
• Saisie des données
• Restitution des données
Un moyen d’assurer la persistance de connaissances plus ou moins volatiles consiste à utiliser un langage comme XML; toutefois, les utilisateurs courants ou tout au moins ceux qui ne souhaitent pas particulièrement s’investir dans l’apprentissage de procédures plus ou moins ésotériques et être freinés dans leur spontanéité de pensée chercheront à continuer à pratiquer leur traitement de texte familier tout en générant des documents XML de manière totalement transparente.
Un Système de Gestion de Bases de Données Réparties est constitué d'un ensemble de processeurs autonomes «appelés sites » (stations de travail, micro-ordinateurs, …) reliés par un réseau de communication qui leur permet d'échanger des données. Un SGBDRé suppose que les données soient stockées sur au moins deux sites. Chaque site est doté de son propre SGBD.
Ce support de cours propose une vue d’ensemble sur les avantages et inconvénients de répartition de données. Aussi, il présente les différentes techniques de répartition
Posicionamiento Google durante elecciones. Carlos Gonzalo Penela - Taula de N...Carlos Gonzalo
“Posicionamiento Web y Dinámicas de Información en motores de búsqueda: propuestas de análisis y estudio comparativo de visibilidad de contenidos digitales en el caso de procesos electorales”
La bibliothèque numérique de l'Institut national d'histoire de l'artLesticetlart Invisu
Présentation accompagnant la conférence donnée par Anne Weber et Elodie Desserle le 13 septembre 2012 dans le cadre de l'Action régionale de formation "Pratiques des images numériques en sciences humaines".
Féerie de Noël, un joli message d'espoir.
Musique : « Berceau de vie » de Michel Pépé
Texte tiré de « La petite voix » d’Eileen Caddy
Vous pouvez écouter la musique sur cette vidéo :
http://www.youtube.com/watch?v=9oQ9znIYkk8
Merci à Virginie pour le partage !
Simplifier la mise en place d'une stratégie Data Mesh avec DenodoDenodo
Watch full webinar here: https://bit.ly/3EbMWSe
Le Data Mesh est un nouveau paradigme, essentiel pour la gestion des données aujourd’hui, par une approche distribuée et décentralisée, dans lequel des domaines autonomes exposent leurs propres données en tant que "produits" au reste de l'organisation. Pourquoi mettre en place un Data Mesh ? Le Data Mesh tente de réduire les goulots d'étranglement dus à une dépendance excessive des utilisateurs à des équipes informatiques centralisées, et tire parti des connaissances spécialisées en matière de données que possèdent déjà les experts métier du domaine.
La littérature sur le Data Mesh laisse la mise en œuvre de ces idées très ouverte à chaque organisation ; plus qu'une architecture figée ou une technologie attitrée, c'est une méthode d'organisation pragmatique. Le Data Mesh peut être considéré comme la face organisationnelle des architectures techniques du Data Fabric.
Participez à ce webinar pour en savoir plus sur :
- Les idées clés du Data Mesh et du Data Fabric
- Comment Denodo peut vous aider à mettre en œuvre un Data Mesh
- Comment nos clients utilisent Denodo pour passer de la théorie à la pratique
La Data Virtualization au coeur de l’architecture “Data Mesh”Denodo
Watch full webinar here: https://bit.ly/3wEQpnK
Denodo vous propose un webinar exclusivement consacré au data mesh, et sa complémentarité avec la data virtualization.
Les organisations s'appuient sur un data mesh lorsqu'elles sont confrontées aux limitations des architectures hautement centralisées, telles que le manque d'expertise métier dans les équipes IT, le manque de flexibilité des référentiels centralisés à répondre aux besoins, et la lenteur des infrastructures centralisées à fournir et répondre aux changements.
Inscrivez-vous pour apprendre :
- comment l'architecture de “Data Mesh” permet non seulement de meilleures performances et une plus grande agilité, mais aussi un accès aux données en libre-service
- qu’est-ce que c’est un “produit de donnée” et comment la data virtualization vous permet de les définir
- comment la data virtualization facilite l’autonomie des acteurs dans les domaines métiers
- pourquoi un data lake n'est pas automatiquement un “Data Mesh”
- comment mettre en œuvre une architecture de “Data Mesh” simple et fonctionnelle, bâtie sur votre architecture de données actuelle
Posicionamiento Google durante elecciones. Carlos Gonzalo Penela - Taula de N...Carlos Gonzalo
“Posicionamiento Web y Dinámicas de Información en motores de búsqueda: propuestas de análisis y estudio comparativo de visibilidad de contenidos digitales en el caso de procesos electorales”
La bibliothèque numérique de l'Institut national d'histoire de l'artLesticetlart Invisu
Présentation accompagnant la conférence donnée par Anne Weber et Elodie Desserle le 13 septembre 2012 dans le cadre de l'Action régionale de formation "Pratiques des images numériques en sciences humaines".
Féerie de Noël, un joli message d'espoir.
Musique : « Berceau de vie » de Michel Pépé
Texte tiré de « La petite voix » d’Eileen Caddy
Vous pouvez écouter la musique sur cette vidéo :
http://www.youtube.com/watch?v=9oQ9znIYkk8
Merci à Virginie pour le partage !
Simplifier la mise en place d'une stratégie Data Mesh avec DenodoDenodo
Watch full webinar here: https://bit.ly/3EbMWSe
Le Data Mesh est un nouveau paradigme, essentiel pour la gestion des données aujourd’hui, par une approche distribuée et décentralisée, dans lequel des domaines autonomes exposent leurs propres données en tant que "produits" au reste de l'organisation. Pourquoi mettre en place un Data Mesh ? Le Data Mesh tente de réduire les goulots d'étranglement dus à une dépendance excessive des utilisateurs à des équipes informatiques centralisées, et tire parti des connaissances spécialisées en matière de données que possèdent déjà les experts métier du domaine.
La littérature sur le Data Mesh laisse la mise en œuvre de ces idées très ouverte à chaque organisation ; plus qu'une architecture figée ou une technologie attitrée, c'est une méthode d'organisation pragmatique. Le Data Mesh peut être considéré comme la face organisationnelle des architectures techniques du Data Fabric.
Participez à ce webinar pour en savoir plus sur :
- Les idées clés du Data Mesh et du Data Fabric
- Comment Denodo peut vous aider à mettre en œuvre un Data Mesh
- Comment nos clients utilisent Denodo pour passer de la théorie à la pratique
La Data Virtualization au coeur de l’architecture “Data Mesh”Denodo
Watch full webinar here: https://bit.ly/3wEQpnK
Denodo vous propose un webinar exclusivement consacré au data mesh, et sa complémentarité avec la data virtualization.
Les organisations s'appuient sur un data mesh lorsqu'elles sont confrontées aux limitations des architectures hautement centralisées, telles que le manque d'expertise métier dans les équipes IT, le manque de flexibilité des référentiels centralisés à répondre aux besoins, et la lenteur des infrastructures centralisées à fournir et répondre aux changements.
Inscrivez-vous pour apprendre :
- comment l'architecture de “Data Mesh” permet non seulement de meilleures performances et une plus grande agilité, mais aussi un accès aux données en libre-service
- qu’est-ce que c’est un “produit de donnée” et comment la data virtualization vous permet de les définir
- comment la data virtualization facilite l’autonomie des acteurs dans les domaines métiers
- pourquoi un data lake n'est pas automatiquement un “Data Mesh”
- comment mettre en œuvre une architecture de “Data Mesh” simple et fonctionnelle, bâtie sur votre architecture de données actuelle
Implantée à Bordeaux depuis 15 ans, Dotic est un éditeur de logiciels, spécialisé dans la gestion de données géographiques. L’entreprise à conçu et commercialise des logiciels – ConnectField® et ConnectControl® - et développe des applications sur-mesure permettant de collecter, de traiter et de partager des données liées à la construction et la maintenance des infrastructures de distribution dans les secteurs des télécoms, son cœur d’expertise, du gaz ou de l’électricité. En quelques années, cette PME française en forte croissance qui emploie 30 personnes, s’est imposée comme un partenaire de référence auprès des acteurs majeurs du secteur et des organismes institutionnels
Hitachi File & Content Solutions - HCP est le portail Cloud Storage de vos données partagées primaires et d’archivage. Information produit sur le fonctionnel et les capacités de gestion d'un Stockage Objet ou Object Storage.
Points forts :
• Temps de réponse <1s
• Requêtes complexes sur données hétérogènes
• Règles de pondération flexibles, prend en compte les profils / droits utilisateurs
Search - Moteur de Recherche d'ArmadilloGabrielHardy
Points forts :
• Temps de réponse <1s
• Requêtes complexes sur données hétérogènes
• Règles de pondération flexibles, prend en compte les profils / droits utilisateurs
L’explosion des objets connectés dans notre quotidien oblige le modèle de l’intégration à s’adapter. Les problématiques ne sont plus les mêmes, on passe d’une intégration déclarative à prescriptive, capable d’observer des comportements selon différentes facettes. Quelles sont les réponses de Microsoft ?
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?Denodo
Watch full webinar here: https://bit.ly/3LL1IRM
Vous vous trouvez confronté à des architectures de données de plus en plus complexes, avec des sources de données allant des sources legacy aux nouveaux systèmes de stockage cloud. Pour adresser cette complexité croissante, votre réflexe est peut-être de s'appuyer sur un outil unique : l'ETL. Mais le processus lourd de réplication que cela implique est-il nécessaire ou souhaitable pour toute problématique d'intégration de la donnée?
Lors de ce webinar, nous vous proposons de découvrir comment la data virtualization fournit un accès rapide et facile à des données qui ne nécessite pas la création de pipelines et de tâches de réplication. Nous parlerons des avantages et des pièges de l'ETL et montrerons en quoi la data virtualization est une meilleure alternative à l'ETL dans de nombreuses circonstances : pour simplifier et accélérer une migration, renforcer la sécurité, promouvoir les initiatives de self-service, ou livrer les données à des projets de digitalisation.
Les points clés abordés :
- La data virtualization et les outils d’ETL peuvent-ils fonctionner ensemble ?
- La data virtualization peut-elle vous faire gagner du temps et de l'argent sur le stockage des données ?
- Vos outils ETL sont-ils capables de gérer les volumes et les types de données complexes d'aujourd'hui ?
Réussir sa migration vers le Cloud grâce à la virtualisation des donnéesDenodo
Watch full webinar here: https://buff.ly/35Kpcl2
Selon une récente étude*, à l’heure où 36% des entreprises déclarent avoir amorcé leur migration vers le Cloud, 20% seulement estiment avoir atteint les phases avancées de leur implémentation. Si l'adoption du Cloud continue de prendre de la vitesse, elle reste soumise à un certain nombre de défis comme la sécurité, la gestion et le suivi des dépenses liées au Cloud, ou encore le manque de compétences dans le Cloud. Les entreprises éprouvent en effet des difficultés à migrer leurs ressources d’information critique compte tenu de la complexité du paysage Big Data.
Pourtant, la virtualisation des données peut permettre aux entreprises de surmonter cet obstacle. En associant différents types et sources de données hébergées dans le Cloud et sur site, de nombreuses organisations optent pour des solutions de virtualisation des données pour bénéficier de l'agilité et de la flexibilité caractéristiques du cloud tout en permettant à leurs équipes d'exploiter les données issues de ces environnements hybrides.
Les points clés abordés:
Comment l’architecture multi-sites de la virtualisation peut simplifier et accélérer la migration vers le Cloud.
Les meilleures pratiques pour déployer la virtualisation des données dans le Cloud.
Comment exploiter la couche de données virtuelles de Denodo pour tirer profit des solutions Cloud, comme la modernisation du data warehouse, la data science et le data lake gouverné dans le Cloud.
Une démo live pour voir la data virtualization en action, et notamment pour l'analyse de données dans le Cloud.
* Denodo Global Cloud Survey 2019
Espace collaboratif - Gestion de projetGabrielHardy
Points forts :
• Indexation des documents en texte intégral
• Création de workflows entièrement paramétrable et illimité
• Flexibilité de la structure projet en fonction du type de projet/de tâche
L’outil de gestion collaborative d’Armadillo est un système de partage et d’échange pour la réalisation de projets.
Cette plateforme est accessible entre les collaborateurs internes et externes en mode multilingue. Elle intègre un espace de dialogue simplifié entre les intervenants (type forum). L’outil propose un agenda partagé entre les participants du projet (connexion Outlook possible) et gère le versioning de documents ainsi que historique des modifications des utilisateurs. Chaque participant peut déposer et télécharger des fichiers hétérogènes dans l’espace projet, pour les modifier ou les valider. Toutes les tâches associées aux projets peuvent bénéficier d’un système de workflows pour facilités les échanges.
Les droits d’accès à cet espace sont contrôlés par profils utilisateurs. L’espace utilisateur permet d’enregistrer des recherches dans un historique et de créer des alertes thématiques en choisissant la fréquence d’exécution de la requête.
La structure est entièrement personnalisable et modulable. Les types de projets et d’actions de l’espace collaboratif peuvent être modifiés à tout moment selon le besoin. La création de projets et de tâches est illimitée.
Ce système de partage à distance d’informations et de fichiers documentaires et multimédia, permet d’optimiser le travail collaboratif des équipes projets.
http://armadillo.fr/app/photopro.sk/web/publi/PRODUITS/PRODUIT-PLATEFORME-TRAVAIL-COLLABORATIVE
Points forts :
• Indexation des documents en texte intégral
• Création de workflows entièrement paramétrable et illimité
• Flexibilité de la structure projet en fonction du type de projet/de tâche
L’outil de gestion collaborative d’Armadillo est un système de partage et d’échange pour la réalisation de projets.
Cette plateforme est accessible entre les collaborateurs internes et externes en mode multilingue. Elle intègre un espace de dialogue simplifié entre les intervenants (type forum). L’outil propose un agenda partagé entre les participants du projet (connexion Outlook possible) et gère le versioning de documents ainsi que historique des modifications des utilisateurs. Chaque participant peut déposer et télécharger des fichiers hétérogènes dans l’espace projet, pour les modifier ou les valider. Toutes les tâches associées aux projets peuvent bénéficier d’un système de workflows pour facilités les échanges.
Les droits d’accès à cet espace sont contrôlés par profils utilisateurs. L’espace utilisateur permet d’enregistrer des recherches dans un historique et de créer des alertes thématiques en choisissant la fréquence d’exécution de la requête.
La structure est entièrement personnalisable et modulable. Les types de projets et d’actions de l’espace collaboratif peuvent être modifiés à tout moment selon le besoin. La création de projets et de tâches est illimitée.
Ce système de partage à distance d’informations et de fichiers documentaires et multimédia, permet d’optimiser le travail collaboratif des équipes projets.
http://armadillo.fr/app/photopro.sk/web/publi/PRODUITS/PRODUIT-PLATEFORME-TRAVAIL-COLLABORATIVE
La solution Hitachi Data Ingestor (HDI) propose un accès normalisé CIFS, NFS et FTP intégrée aux annuaires Active Directory (AD) et Lightweight Directory Access Protocol (LDAP). HDI se présente comme un serveur de fichiers standard, c’est-à-dire une solution NAS Fichier, mais avec une spécificité, puisque HDI synchronise les fichiers vers la solution Hitachi Content Platform (HCP). HDI se comporte comme un périphérique réseau (LAN et WAN) du HCP dans une architecture Remote Office Branch Office (ROBO), favorisant la protection automatisée et le partage multi-sites intégré Cloud Storage.
Similaire à Conférence no2: L'I.D.S Midi-Pyrénées en avant première (20)
SP1-1: Les bonnes pratiques d’utilisation de l’information géographique pou…teleparc
Le projet GRISI PLUS. Présentation des bonnes pratiques des 14 partenaires du projet
Une bonne pratique exemplaire visant le développement d’une marque territoriale pour la promotion des produits locaux : le cas du Galway de l’Ouest en Irlande
SP2-1: Créer les bonnes passerelles entre information géographique et OPEN DA...
Conférence no2: L'I.D.S Midi-Pyrénées en avant première
1. L'Infrastructure de Données Spatiales (I.D.S.)
Animateur du Groupe de Travail IDS
Laurent Plainecassagne, Directeur de l'APEM
Thomas Portier et Clément Brunet, Ingénieurs à l'APEM
Raphael Moreno-Peralto, consultant CRIGEOS
2. Sommaire de la présentation
1. Le cadre du projet d'IDS au sein de Crigeos
La DCE Inspire et le réseau national CRIGE
La feuille de route du groupe de travail GT3
2. Les résultats obtenus
Outils / Géoservices /Architecture
3. Définition d'une I.D.S.
Une Infrastructure de Données Spatiales,
c'est un ensemble d'éléments structurants
interconnectés qui fournissent le cadre pour
supporter la totalité de la structure.
Ce n'est pas un « entrepôt de données »
mais plutôt une « gare de triage »
4. L'I.D.S. un vecteur de partage, normalisé
C'est un ensemble de services qui permettent
le dialogue entre des serveurs distants (du
local à l'international).
Elle organise, via une porte d'entrée
commune, l'information sur les données
existantes (catalogue), la sécurisation des
accès (proxy), le transit des données (flux) et
la supervision du réseau (monitoring).
5. Une coordination nationale
Une initiative de la
CCI du Gers animé
aujourd'hui par
l'association nationale
AFIGEO.
http:/criges.afigeo.asso.fr/
L'APEM coordonne
les travaux sur
l'interopérabilité des
plateformes régionales
6. Les attentes formulés par CRIGEOS
(en janvier 2011)
• Diffuser de façon aisée et fiable les référentiels
régionaux acquis en commun ;
• Assurer l'identification et la diffusion des données
produites dans notre région par les adhérents du
CRIGEOS ;
• Proposer un support technique participatif (hotline,
banque de connaissances, forum) autour de solutions
IDS fiables et transférables
7. Les paramétres de départ
Résultats attendus : Une fusion des services de l'IDS
avec l'extranet utilisé par CRIGEOS
Calendrier : Durée 8 mois, livraison en novembre 2011
Compétences disponibles : Les membres du GT3
Choix stratégique : Une solution connue par le GT3
Budget : 50.000 euros pour développer, héberger,
graphisme et mise en production.
10. Catalogue de données
Basé sur le modèle du
géocatalogue National
(Norme ISO 19.139)
Renseigné en partie par
moissonnage bi-
directionnel et filtrés sur l'
emprise territoriale
Cartouche de recherche
avancée et accès au fiches
avec présentation ajustable
11. Fonctionnalités du catalogue
Recherche avancée →
← Consultation de la fiche
Format d'affichage html avec
étendue géographique
Impression de la fiche en pdf
Affichage de contenu en XML
13. Fonctionnalités du catalogue
Accès à la donnée :
Téléchargement dans le cas d'une donnée
hébergée.
Prévisualisation de la donnée décrite.
14.
15. Contribution au catalogue
Gestion de profil utilisateurs.
Gestion des données.
Saisie des métadonnées via le formulaire
conforme ISO 19139.
Gestion de la publication des fichiers.
16.
17. Visualisateur
- Intègre des flux WMS, WMTS, WFS.
- Palette d'outils de navigation.
- Agrégation de couches cartographiques
18. Exemple de composition
cartographique
Fond Orthophoto de l'IGN avec couche des bâtiments et
parcelles cadastrales via des flux WMTS.
19.
20. Le PROXY, composant clé de l'IDS
Le proxy permet de paramétrer, centraliser, travailler et sécuriser
les flux de données.
Paramétrer : A travers des types de configuration liés aux type de
flux (WMS, WMTS, CSW, WFS)
Centraliser : Il diffuse via des services les flux paramétrés.
Travailler : Il offre un service de pochoir GML des couches
cartographiques entrantes.
Sécuriser : Permet de gérer des droits d’accès aux flux emis
21. Le MONITOR, superviseur de l'IDS
Le monitor est un module qui teste l'accessibilité et la performance
des services OGC (WMS, WFS, CSW...) de l'IDS.
Le talon d’Achille d'une architecture distribuée est la dépendance
à des services externes et autonome.
Il propose des rapports concernant les performances des
différents services testés en continu
Alerte par mail ou flux RSS selon un seuil de temps de réponse
défini par l'utilisateur ou lors d'erreurs (erreurs HTTP ou exception
OGC)
24. Conclusions
Sur les aspects projets
1) Une IDS est un projet complexe.
2) Cela ne se résume pas à la DCE inspire
3) C'est une culture réseau et Internet (≠ hiérarchique)
Sur les résultats disponibles
1) Interopérabilité de la structure
2) Sécurité et intégrité des données
3) Subsidiarité des services
25. Adresse du site Internet :
http://www.crigeos.org/
Et l'IDS en 2012 ….
Merci à tous pour votre attention