Etude de l’accessibilité numérique des portails de bibliothèque en France : a...Franck Letrouvé
Jusqu'à présent, aucune donnée quantitative ou qualitative n’existe qui permette aux citoyens, aux élus et aux responsables de bibliothèque d’avoir une idée précise des progrès réalisés et des efforts encore nécessaires dans ce domaine.
Sur proposition de Tosca consultants et de pixFL, en coopération avec l'association BrailleNet, le Ministère de la culture et de la communication a donc décidé de conduire une étude de l’accessibilité numérique des portails de bibliothèque en France.
Cette étude comprend deux volets : une analyse quantitative suivie d’une analyse qualitative.
L'analyse quantitative
L’objectif de cette phase de travail est d’évaluer le niveau de prise en compte des exigences réglementaires de l'accessibilité numérique par les bibliothèques de lecture publique françaises et de suivre régulièrement les évolutions de cette prise en compte.
L’analyse quantitative porte sur la vérification de la publication de l'attestation de conformité au RGAA (Référentiel Général d’Accessibilité pour les Administrations). Elle traite un échantillon de 130 sites composé de :
- 80 bibliothèques municipales,
- 40 bibliothèques intercommunales,
- 10 bibliothèques départementales de prêt.
Cet échantillon est constitué par tirage au sort. Par ailleurs, il a été décidé d'étudier les portails de la B.n.F., de la B.P.I. et de la ville de Paris.
Les résultats de l’analyse quantitative ont été publiés après validation par le comité de suivi de l'étude.
Tayssir : Programme des transferts monétaires conditionnelsUnicefMaroc
Présentation de Youssef Belqasmi, Secrétaire Général du Ministère de l’Education Nationale, Maroc, à la Conférence Internationale d'Experts sur la mesure et les approches politiques pour améliorer l'équité pour les nouvelles générations dans la région MENA à Rabat, Maroc du 22 au 23 mai 2012.
Achat groupé d'électricité, de gaz, de mazout et de pellets de CharleroiWikipower
Présentation de la conférence de presse relative à l'achat groupé d'électricité, de gaz, de mazout et de pellets de la Ville de Charleroi. Cette présentation a été réalisée par Wikipower, société spécialisée dans les achats groupés d'énergies.
Una década del repositorio institucional temático del Consejo Latinoamericano de Ciencias Sociales (CLACSO): se describen las principales motivaciones y tensiones de los grupos sociales involucrados en el desarrollo y mantenimiento del repositorio institucional: autores, bibliotecas, editores de revistas, área publicaciones, área académica, informática, legales, etc.
Low code, lean et agilité sur les projets SHarePoint - SPS DakarSébastien Paulet
Comment faire rapide, bien et pas cher sur O365 et SharePOint.
Méthodologie maison à base de low code, lean et Scrum.
SLide de présentation du SPS Dakar en Juillet 2018
Etude de l’accessibilité numérique des portails de bibliothèque en France : a...Franck Letrouvé
Jusqu'à présent, aucune donnée quantitative ou qualitative n’existe qui permette aux citoyens, aux élus et aux responsables de bibliothèque d’avoir une idée précise des progrès réalisés et des efforts encore nécessaires dans ce domaine.
Sur proposition de Tosca consultants et de pixFL, en coopération avec l'association BrailleNet, le Ministère de la culture et de la communication a donc décidé de conduire une étude de l’accessibilité numérique des portails de bibliothèque en France.
Cette étude comprend deux volets : une analyse quantitative suivie d’une analyse qualitative.
L'analyse quantitative
L’objectif de cette phase de travail est d’évaluer le niveau de prise en compte des exigences réglementaires de l'accessibilité numérique par les bibliothèques de lecture publique françaises et de suivre régulièrement les évolutions de cette prise en compte.
L’analyse quantitative porte sur la vérification de la publication de l'attestation de conformité au RGAA (Référentiel Général d’Accessibilité pour les Administrations). Elle traite un échantillon de 130 sites composé de :
- 80 bibliothèques municipales,
- 40 bibliothèques intercommunales,
- 10 bibliothèques départementales de prêt.
Cet échantillon est constitué par tirage au sort. Par ailleurs, il a été décidé d'étudier les portails de la B.n.F., de la B.P.I. et de la ville de Paris.
Les résultats de l’analyse quantitative ont été publiés après validation par le comité de suivi de l'étude.
Tayssir : Programme des transferts monétaires conditionnelsUnicefMaroc
Présentation de Youssef Belqasmi, Secrétaire Général du Ministère de l’Education Nationale, Maroc, à la Conférence Internationale d'Experts sur la mesure et les approches politiques pour améliorer l'équité pour les nouvelles générations dans la région MENA à Rabat, Maroc du 22 au 23 mai 2012.
Achat groupé d'électricité, de gaz, de mazout et de pellets de CharleroiWikipower
Présentation de la conférence de presse relative à l'achat groupé d'électricité, de gaz, de mazout et de pellets de la Ville de Charleroi. Cette présentation a été réalisée par Wikipower, société spécialisée dans les achats groupés d'énergies.
Una década del repositorio institucional temático del Consejo Latinoamericano de Ciencias Sociales (CLACSO): se describen las principales motivaciones y tensiones de los grupos sociales involucrados en el desarrollo y mantenimiento del repositorio institucional: autores, bibliotecas, editores de revistas, área publicaciones, área académica, informática, legales, etc.
Low code, lean et agilité sur les projets SHarePoint - SPS DakarSébastien Paulet
Comment faire rapide, bien et pas cher sur O365 et SharePOint.
Méthodologie maison à base de low code, lean et Scrum.
SLide de présentation du SPS Dakar en Juillet 2018
5 bonnes raisons pour des projets analytiques en agileagileDSS
Vous souhaitez délivrer plus rapidement de la valeur grâce à vos projets analytiques?
Vous gérez des besoins et des périmètres mouvants?
Vous devez briser les silos au sein de votre organisation et faire communiquer des départements qui se parlent rarement?
Vous devez intégrer le travail de plusieurs équipes?
Venez découvrir pourquoi et comment l'agilité apporte une réelle plus-value à la gestion de vos projets Business Intelligence, Big Data et Data Science.
Au cours de cette rencontre, venez bénéficier des retours d'expérience de nos speakers et découvrir comment ils ont surmonté ces défis grâce à l'agilité.
Retour d'expérience Devops Eurovision / EBU lors du Meetup DevOps Genève sponsorisé par Hidora et AdExcel le 15.06.2017 par Laurent Pythoud et Frédéric Deniger
Au delà de ce buzz word :
Les grands concepts
Les étapes clés des projets Big Data et les technologies à utiliser (stockage, ingestion, …)
Les enjeux des architectures Big Data (architecture lambda, …)
L'intelligence artificielle (machine learning, deep learning, …)
Et un cas d'usage du big data sur AWS autour de l'utilisation des données gyroscopiques de vos internautes mobiles.
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/34EYBaE
Découvrez la Data Virtualization lors d'un atelier organisé à distance pour les professionnels de la donnée mardi 29 octobre. Quel que soit votre rôle, responsables IT, architectes, data scientists, analystes ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Oxalide MorningTech #1 - BigData
1er MorningTech @Oxalide, animé par Ludovic Piot (@lpiot), le 15 décembre 2016.
Pour cette 1ère édition du Morning Tech nous vous proposons une overview sur un des thèmes du moment : le Big Data.
Au delà de ce buzz word nous aborderons :
Les grands concepts
Les étapes clés des projets Big Data et les technologies à utiliser (stockage, ingestion, …)
Les enjeux des architectures Big Data (architecture lambda, …)
L'intelligence artificielle (machine learning, deep learning, …)
Et nous finirons par un cas d'usage du big data sur AWS autour de l'utilisation des données gyroscopiques de vos internautes mobiles
Subject: Oxalide's 1st MorningTech talk about BigData.
Date: 15-dec-2016
Speakers: Ludovic Piot (@lpiot, @oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morningtech-number-1-bigdata
Lien SlideShare : https://www.slideshare.net/LudovicPiot/oxalide-morningtech-1-bigdata
YouTube Video capture: https://youtu.be/7O85lRzvMY0
Main topics:
* Les grands enjeux du BigData
** les 3 V du Gartner : volume, variété, vélocité
* Le stockage des données
** datalake
** les technos
* L'ingestion des données
** ETL
** datastream
** les technos
* Les enjeux du compute
** map-reduce
** spark
** lambda architecture
* Démo d'une plateforme BigData sur AWS
* L'intelligence artificielle
** datascience exploratoire et notebooks,
** machine learning,
** deep learning,
** data pipeline
** les technos
* Pour aller plus loin
** La gouvernance des données
** La dataviz
Dans cette session, venez découvrir comment moderniser une application base de données en mettant à jour la version de SQL Server ou en migrant vers SQL. Nous aborderons les processus et outils de mise à niveaux ainsi que la démarche de migration depuis Sybase, Oracle, MySQL vers SQL Server. Une attention particulière sera posée sur la migration depuis Oracle. Vous ressortirez de cette session avec un passeport tamponné, prêt pour le voyage Oracle vers SQL Server.
Gab17 lyon-rex build dev ops sur une infra iaas-paas multisite-by-matthieupetiteAZUG FR
Dans cette session, nous aborderons les différentes actions qui nous ont permis de mener à bien ce projet ainsi que les contraintes et comment nous les avons contourner afin d'arriver à une infrastructure et garantir un PCA sur cette application.
Customer Show case : Mise en place d’une solution de gestion de projet avec l...Microsoft Ideas
Retour d’expérience et témoignage d’un client qui a souhaité industrialiser et homogénéiser ses processus et outils de gestion de projets. Nous détaillerons ensemble les prérequis et les éléments à prendre en considération. Nous reviendrons sur la phase d’upgrade du projet pilote lancé un an plus tôt sur Project Server et SharePoint.
Speakers : Giampaolo Battaglia (Microsoft France), Charbel Abdo (Avanade)
Exemple de mise en place d'une solution EPM 2013Charbel Abdo
Mettre en place une solution EPM 2013 avec le couple SharePoint et Project Server 2013 pour garantir le succès de tous vos projets métier et IT. Cette présentation couvre également la bonne démarche à adopter pour mettre votre solution EPM 201 vers la version 2013
[Café techno] Optimiser le coût de vos données avec DB2 distribuéGroupe D.FI
DB2 Advanced Entreprise Server Edition intègre nativement des fonctionnalités additionnelles pour optimiser le coût de vos données. Vous pourrez :
- Économiser des ressources grâce à la compression de données,
- Faciliter les tâches d'administration, de gestion de performance et de tuning,
- Bénéficier des dispositifs de haute disponibilité et de site de secours,
- Optimiser le développement avec les outils dédiés,
- et intégrer facilement des environnements hétérogènes DB2 et Oracle.
Présentation des Méthodes Agiles pour l'association AnnexEthiqueDavid Brocard
- Présentation des Méthodes Agiles
- Comment se situent les projets web ?
- Le cycle de la "valeur"
- Présentation très succinte de Scrum
- Aspects contractuels
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationDenodo
Watch full webinar here: https://buff.ly/47gqTVV
Une session découverte de Denodo Platform pour les professionnels de la data
D'après la dernière étude du cabinet Forrester The Total Economic Impact™️ of Data Virtualization Using The Denodo Platform, l’impact de la Data Virtualization avec Denodo permet un ROI de 408% et inférieur à 6 mois, une réduction de 65 % des délais de livraison des données par rapport à l'ETL, de 83 % du time-to-revenue et de 67 % du temps alloué à la préparation des données.
Découvrez lors de cette session en ligne de 1h30 en quoi la Logical Data Fabric et la data virtualization révolutionnent l'approche métier & IT dans l’accès, la livraison, la consommation, la gouvernance et la sécurisation de vos données, quel que soit l'âge de votre technologie, le format de la donnée ou son emplacement.
Avec plus de 1000 clients à travers le monde, Denodo est heureux de vous inviter à cette session en ligne le 14 novembre 2023 de 9h30 à 11h. Si vous êtes un IT Manager, architecte, DSI, Data Scientist ou Data Analyst, cet atelier est pour vous!
CONTENU
Au programme : une introduction à ce qu'est la virtualisation des données, les cas d'usages, des études de cas clients réels et une démo guidée pas à pas des fonctionnalités de Denodo Platform avec notre version gratuite sur le cloud, Denodo Test Drive. Vous apprendrez comment:
- Intégrer et livrer vos données rapidement et facilement à l'aide de Denodo Platform
- L'optimiseur de requêtes de Denodo fournit des données en temps réel, à la demande, même lorsqu'il s'agit de jeux de données très volumineux
- Exposer les données en tant que «services de données» en vue d’être consommées par une variété d'utilisateurs et d'outils
- La virtualisation des données joue un rôle essentiel dans la gouvernance et la sécurité des données au sein de votre organisation
ASFA - Organisation et Méthodologie du projet COLSAFrédéric Sagez
Suite au nouveau schéma directeur pour 2016 du comité de direction, l’Association Nationale pour la Formation Automobile (OPCA basée à Sèvres qui organisme et finance les formations pour les entreprises situées dans le secteur automobile) a demandé à son service support, l’ASFA de veiller à la mise en œuvre et à la cohérence du SI pour les prochaines opérations de collecte de taxe d’apprentissage et de formation continue.
J’interviens dans le cadre de la mise en place du projet de refonte des applicatifs du SI en y apportant de la méthodologie, de l’organisation avec comme première mission d’unifier le Back Office avec les différentes entités. (ASFA, ANFA et le GNFA)
Cette présentation à pour but de décrire la futur organisation pour le développement de nouvelles applications dans le SI tout en privilégiant le Métier.
3. Les 6 piliers permettant l’agilité
Ces éléments sont
facilitants afin d‟appliquer
Scrum/XP à
un projet DW/BI
avec succès
• La technologie
• L’assurance qualité
•L’estimation
• L’adaptation des sprints
• L’équipe
• L’interfacte à
l’organisation
5. Rôles sur une équipe Scrum DW/BI
–Product Owner: à lui le résultat, il décide
–Scrum Master: à lui le processus, pas un PM
–Architecte de projet: gère les besoins et les solutions
–Analyste/Modélisateur de données
Définie tables, profilage, définie modules ETL
–Développeurs: front-end & back-end
–Ingénieur de tests: organisation des tests, automatisation, gestion
des jeux de test
6-9 joueurs
7. Le Pipeline : adaptation Scrum au BI
– Donne à chaque
métier un sprint
complet pour
exécuter son travail
– Les rencontres
quotidiennes et de
planification sont
nécessaires pour
assurer la continuité
de la livraison d'un
package
Iteration Solution
Architect
Data Modeler
/ Sys Analyst
Coders Sys Test
Solution Reqts Technical Reqts Potentially Shippable Shippable Code
-1
0
1
2
3
4
A
B
B
B
B
A
A
A
C
C
C
C
D
D
D
9. Le problème avec l'estimation
– Distribution des estimés traditionnels
– Pour avoir 95% de certitude, on doit multiplier les estimés des
développeurs par 4
(Étude de 400 projets chez Haliburton)
1x 2x 3x 4x
Ratio des estimés réels
95% degré de confiance
Moyenne
Fréquence
10. Estimation fondée sur la taille
– Agile utilise une méthode en
pair fondée sur la taille
comparative
– L'estimation de ce qui peut être
livré dans un sprint ne se fait
pas en heures
– Le cerveau humain compare
très bien
– Facilité à comparer un nouveau
module à un déjà livré
Qu'est-ce qui est plus facile à soulever?
Formes différentes, mais intuitivement nous
savons que la pomme et la banane pèsent
environ la même chose
11. Carte de base d'estimation (CBE)
– Consensus d'équipe sur tâches
requises pour chaque objet DW/BI
majeur
– Estimés pro forma
– Heures d'efforts
– Utilisé comme guide
– Évite de repenser chaque fois
– Permets la conception et l'estimation
par exception
– Revisité lors des rétrospectives &
peut-être ajusté
Type 2 Slowly Changing Dimension
• High-level design conference 2hr
• Low-Level design conference 3hr
• Finalize table DDL 3hr
• Create table & indexes 1hr
• Create view for incremental source 1hr
• Create incremental load mapping
- Row-level meta data columns 6hr
- Straight through columns 3hr
- Derived columns ?
• Create view for initial source 1hr
• Adapt for initial load mapping 6hr
• Create session 3hr
• Add to workflow 2hr
• Move to nightly build folder 2hr
• Create parm setting script 2hr
• Update tar ball & version control 1hr
• Code walk through 3hr
• Document per dept stds 3hr
13. Deux éléments souhaitables
– Tests automatisés
• Découverte immédiate d'erreurs de code
• Plus facile de cibler les erreurs
• Définition implicite de "complété" (pas d'extras)
• Démontre au client que le DW est correct
• Permets de réaliser des tests quotidiennement
• Moins d'erreurs opérationnelles
– Référentiel de jeux de données de test
• On doit vraiment penser aux besoins pour créer ceci
• Permets de rouvrir le code pour maintenance
14. Maintenir la vitesse des développeurs
– Développeurs doivent travailler indépendamment
• leur procurer un sandbox
• contrôle de versions efficace
– Ont besoin de tests unitaires rapides et utiles
• gestion de petits jeux de données statiques
– Doivent répéter les tests unitaires souvent
• gestion des jeux de données "attendus" pour comparaison
– Doivent détecter les modules problèmes rapidement
• validations automatisées
• build chaque soir et exécution des chargements staging-marts
– Doivent simuler les deltas
• plusieurs échantillons de temps dans les jeux de données
15. Toute l'équipe a un rôle à jouer
– Architecte de projet
• Requêtes-utilisateur pour chaque étoile, sujet
• Scripts de démo
• Récupère les tests d'acceptation formels
– Analyste
• Cas de tests unitaires source-cible
• Valide les métadonnées au niveau des rangées
– Modélisateur de données
• Cas de tests d'intégration à partir du modèle
• Assure la cohérence inter-table
– Ingénieur de Test
• Compile tous les tests, organise
• Assure les exécutions tous les soirs
17. Gestion des besoins agile BI 80/20
Phase d‟initiation
Concept du
système
(Analyste Aff.)
Demande
client
(Analyste Aff.)
Document de
Vision
(Architecte
projet)
Phase
de Création
Cas d’util. de solution
(Architecte Projet)
Phase
d‟Élaboration
Cas d’util. applicatif
(Analyste BI/TI)
“Comment
nous allons
créer de la
valeur”
“Voici ce qui ne
marche pas et
comment nous
ferions pour y
remédier”
“Voici les
problèmes que
nous comprenons
et une ébauche
de solution ”
“Voici un schéma en étoile
que nous allons construire
pour vous”
“Voici un module ETL que
nous allons construire pour
eux”
Besoins
d‟affaires
Besoins
fonctionnels
Spécifications TI
Sprint -1 Débute avec sprint 0
18. S'intégrer à l'organisation
Phases typiques Réponse Agile DW
80/20, 25% du temps
Phase gérée en
Identification ou
Bonne idée
N/A Traditionnel
Étude préliminaire ou faisabilité Concept & Demande
(2 page)
Traditionnel
Architecture ou Conception Document de vision
(10-20 pages)
Sprint -1
Traditionnel
Réalisation Cas utilisation solutions
Cas utilisation applicatifs
Sprints 0, 1, ...
Scrum
Gouvernance traditionnelle
Transition production N/A Traditionnel
20. Deux points importants
– Un environnement technologique complexe freine l'agilité
• Viser à simplifier
• Viser à standardiser
– S'outiller pour mieux tirer avantage de l'agilité
•
• Outils de réplication de sources
• Automatisations de tests
• Collaboration agile
• Etc.
22. History
Founded in 1998 by Michael Whitehead & Wayne Richmond as a
Data Warehouse Consultancy in New Zealand
RED released to market - 2003
US market investment in earnest - 2008
EU market investment - 2010
3D released to market - 2012
WhereScape India established - 2013
23. Our Business
Global – all types and sizes of customers
650 in total; 350 in USA
Target DB‟s = Teradata, Oracle, SQL Server, Green Plum, Netezza, DB2
Led by data warehouse automation software that is native to the
target database(s) in the customer environment.
3D for Planning
RED for Building
Professional Services are offered to insure customer success
Architects, Developers, and Solution Managers on-shore
Developers in Pune India add cost effective bandwidth under adult supervision
25. What We Believe
Getting the data right is critically important.
Business users/consumers of data must be served at their pace.
Automate as much of the process as possible.
Standards matter.
Document everything; later changes demand it.
The historical record that “data warehouses take too long to build
and are too hard to change” is unacceptable. IT must deliver
value continuously, manage ongoing changes cost effectively, and
mitigate risk throughout.
26. ETL Is Not The Same Thing as DW Development
Move Data
Transform Data
Load Data
From Sources including
OLTP, files, Hadoop, etc.
Create Dimensions, Facts,
Models, Views, Cubes,
Indexes, Keys
Documentation
27. Our Value Proposition
We empower IT organizations to build, deploy, and manage their
data in a timeframe and manner that creates utter enthusiasm in
the business community
Time to results dramatically decreases - faster
Costs decrease: license and human capital - cheaper
Quality is higher: documentation & transparency - better
Risk is mitigated: automation & methodology – with confidence
The Promise of BI…for the sake of managing the business… is realized
28. Our Flagship Product: RED
RED is an Automated Data
Warehouse Development
Platform That Builds Native
Database Objects,
Documents Them, And
Schedules Data To Be
Loaded.
29. Automation Use Cases
End-to-End
Data Warehouse
Development
Tool
Including All ETL
Complement to
Enterprise ETL, Used
For Rapid/Agile
Build Out of a View
or Semantic Layer
Green
Field
Clean Up
Hand-Written
Code and Scripts
Manage
Deployments
Rewrite & Recast
Heterogeneous
Database
Solutions
Big Data
Integration
ELT 2.0
Configuration
Management
Semantic
Layer
30. 3D: A New Tool For Planning
Data
Profiling
Warehouses
Databases
Files
XML
JDBC
ODBC
Source Model HTML
Word
Profile Design
Physical
Existing DW
Dimensional
Document
Embeds
Profiling
Results
Team Enabled
Scheduler
Write queries in the
model before building
Massively
Configurable
3D designed to integrate with RED
31. “WhereScape RED’s tight integration with Teradata and built-in best
practices are empowering our resource-constrained development team to
tackle a large implementation that will enable us to quickly deliver
value to our institution and members.”
Su Rayburn, Director of Business Intelligence Services
32. “We estimate the development lifecycle is 20-25% of what it
was previously when we were hand coding.”
– Dan Mosher,
Director of Enterprise Data Warehousing
And. . .
33. Independent Analysts Say . . .
“WhereScape provides an attractive alternative
for quickly prototyping, building and deploying
data warehouses as well as dependent data
marts for targeted BI solutions that can be
quickly adapted as the business dictates.”
– Claudia Imhoff, President, Intelligent Solutions, Inc.
34. And. . .
“WhereScape can assist IT organizations not
only with building out a data warehouse, but
also keeping it updated and refreshed after
deployment, an „Achilles heel‟ for organizations
that often run out of budget and reallocate
resources once the warehouse is deployed.”
– Mark Madsen, President, Third Nature, Inc.
35. Summary
WhereScape‟s approach with data warehouse automation yields
customer results that are stunning: faster, cheaper, better, with
confidence
RED: A proven product used by 650 customers anchors our value
proposition
3D: A new product used by an emerging set of customers as a
complement to RED for aligning models with real data in a
number of usage cases