Dans le cadre de la gestion de son rôle d'évaluation, la Ville de Trois-Rivières utilise la géomatique afin d'automatiser un certain nombre de processus. Dans le passé, l'entrée des données dans le rôle d'évaluation s'effectuait en passant directement par les tables descriptives du logiciel expert (PG Mega Eval). La cartographie était ensuite mise à jour. Dorénavant le point d'entrée pour l'ajout ou la modification des données du rôle d'évaluation se situe au niveau du Système d'Information Géographique du Service. De cette façon, nous pouvons aller puiser un maximum d'informations spatiales par rapport à la propriété (Servitudes, Zonage municipal, Pentes fortes, etc...). Un certain nombre d'informations sont donc emmagasinées à partir de la carte et sont envoyées vers les tables descriptives du logiciel expert PG Mega Eval.
Dans le cadre de la gestion de son rôle d'évaluation, la Ville de Trois-Rivières utilise la géomatique afin d'automatiser un certain nombre de processus. Dans le passé, l'entrée des données dans le rôle d'évaluation s'effectuait en passant directement par les tables descriptives du logiciel expert (PG Mega Eval). La cartographie était ensuite mise à jour. Dorénavant le point d'entrée pour l'ajout ou la modification des données du rôle d'évaluation se situe au niveau du Système d'Information Géographique du Service. De cette façon, nous pouvons aller puiser un maximum d'informations spatiales par rapport à la propriété (Servitudes, Zonage municipal, Pentes fortes, etc...). Un certain nombre d'informations sont donc emmagasinées à partir de la carte et sont envoyées vers les tables descriptives du logiciel expert PG Mega Eval.
Je précise que j'utilise un logiciel Apple qui s'appelle Keynote. Ce qui est mis sur Slideshare est un format .ppt qui est le résultat de l'"exportation" du format initial. C'est ce qui explique qu'il n'y a pas toutes les animations et qu'il subsiste quelques problèmes résiduels de conversion.
Synthèse de la méthode Prince2
PRINCE2™ est une marque déposée de l‘OGC (Office of Government Commerce)
Joseph SZCZYGIEL
7 PRINCIPES
1. Gérer par exception
2. Focus sur produits
3. Justification business
4. Définir rôles & responsabilités
5. Etapes gérables
6. Adapter à l’environnement
7. Apprendre des expériences
7 THEMES
1.Business Case
2.Organisation
3.Qualité
4.Planification
5.Progression
6.Gestion des
risques
7.Gestion des changements
7 PROCESSUS
1.Elaborer un projet
2.Initialiser un projet
3.Diriger un projet
4.Contrôler une étape
5.Gérer les livraisons des produits
6.Gérer une limite de phase
7.Clôturer un projet
7 CRITERES DE PERFORMANCE
1. Périmètre
2. Coûts
3. Délais
4. Risques
5. Qualité
6. Produits
7. Bénéfices
Merci
N’hésitez pas à me contacter et à me faire part de vos commentaires et suggestions :
joseph.szczygiel@gmail.com
Présenté par Claude Barrau, Orange et Jean-François Fresi, Ausy
Qu’est ce que le built in quality induit dans un projet ou un train?
Comment l’agilité à l’échelle et le framework SAFE transforment les organisations de tests existantes ?
Une réalité du Framework SAFe est que le test, processus incontournable de l’évaluation de la qualité d’un produit applicatif, n’est présent que de façon parcellaire dans les objectifs d’équipe. Cela peut être très perturbant pour une organisation « Legacy » avec des équipes de test dédiées dans une organisation rodée avec des responsabilités hiérarchiques et un positionnement managérial fort.
Pour les équipes agiles, se retrouver dans un environnement grand et interdépendant questionnent sur l’organisation des tests, quels tests?, et quand les exécuter et par qui ?, devons-nous faire une énorme campagne de tests de bout en bout ? Qui gère la stratégie de tests globale ou détaillée ? Doit-on uniformiser les outils ?
Certains vous diront que si vous performez les tests au plus tôt avec des TU nombreux et efficients et une chaîne de CI efficace vous aurez peu de bugs de niveau acceptance ou de bout en bout. C’est vrai ! Hélas il n’y a pas de baguette magique, vous devez transformer vos équipes, le devops vous y aide bien mais ces personnes ont une histoire, des habitudes, des peurs... A partir de ce constat nous allons vous présenter ce que nous avons mis en place avec ce qui a bien fonctionné et ce qui a moins bien fonctionné, et comment le rôle du testeur évolue dans ce contexte.
Venez aussi découvrir comment nous avons élaboré une approche permettant d’évaluer la maturité des tests dans SAFe et comment accompagner les trains et les équipes dans l'amélioration de la qualité.
PERICLES, un outil d'évaluation qualité - 20160416FFFOD
Présentation de l'outil d'évaluation pour la démarche qualité des formations, PERICLES, lors de la web-conférence du FFFOD du 19 avril 2016, par Anne-Marie Husson, Jacques DANG et Gérard CASANOVA
MOOC DD animation evaluation par les pairs MOODLE retour expérienceFlorence Labord
Retour d'expérience par Florence Labord,
Evaluation par les pairs sous MOODLE pour Centrale Paris.
Innovation pédagogique, innovation technique, avec la création libre de groupes par les étudiants de Centrale Paris, avant d'utiliser l'activité atelier évaluation par les pairs avec le LMS MOODLE. Mise en oeuvre à travers un parcours en mode page avec des éléments éditoriaux avancés pour une présentation ergonomique et homogène des contenus formatifs.
Cette évaluation est le fruit d'une collboration R&D entre EDUNAO et ACTIVEPROLEARN.
Vous pouvez également lire le jeu des questions et réponses supplémentaires sur viadéo, Linked'in ou sur mon blog.
http://www.expertweb.fr/dotclear/index.php/2015/06/16/62-evaluation-par-les-pairs-a-centrale-paris-avec-le-lms-moodle-pour-le-mooc-developpement-durable-pascal-da-costa
Les portfolios électroniques et la mise-en-œuvre des approches programmes : o...Raynauld Jacques
Cette présentation revoit plusieurs exemples de portfolios électroniques construits à l'aide de Karuta OSP et offre des conseils pratiques aux designers pédagogiques intéressés par le sujet.
Centrale pédagogique : les saé dans la démarche portfolio et leur évaluation ...Eric Giraudin
Présentation à la Centrale Pédagogique des IUT, le 1er juillet 2021.
Les situations d'apprentissages et d'évaluation au cœur de la démarche portfolio et leurs évaluations, par cohortes d'étudiants facilitées par un ePortfolio Karuta Open Source (KAPC+).
ATMTL23 - La QA a-t-elle reussi à prendre le virage agile? Et saura-t-elle f...Agile Montréal
"L'industrie du développement de logiciels a beaucoup progressé ces dernières années et a dû s'adapter aux innovations rapides dans un environnement agile impliquant la mise en place d’une démarche structurée et dynamique des activités entre le métier, TI et QA dans le cycle de vie du projet pour maîtriser les risques métiers, techniques, accroître l'efficacité de la qualification logicielle.
Dans notre conférence vous découvrirez où en est la place de la collaboration par un retour d'expérience: Les 3 amigos au coeur des activités. Le QA a réussi le virage du projet traditionnel au projet agile, quels sont les outils qui le permettront de réussir le virage vers l'IA. L’IA suffira-t-elle pour clarifier les user stories, obtenir une bonne couverture des requis par les essais et garantir une livraison de qualité par les essais automatisés ?"
Je précise que j'utilise un logiciel Apple qui s'appelle Keynote. Ce qui est mis sur Slideshare est un format .ppt qui est le résultat de l'"exportation" du format initial. C'est ce qui explique qu'il n'y a pas toutes les animations et qu'il subsiste quelques problèmes résiduels de conversion.
Synthèse de la méthode Prince2
PRINCE2™ est une marque déposée de l‘OGC (Office of Government Commerce)
Joseph SZCZYGIEL
7 PRINCIPES
1. Gérer par exception
2. Focus sur produits
3. Justification business
4. Définir rôles & responsabilités
5. Etapes gérables
6. Adapter à l’environnement
7. Apprendre des expériences
7 THEMES
1.Business Case
2.Organisation
3.Qualité
4.Planification
5.Progression
6.Gestion des
risques
7.Gestion des changements
7 PROCESSUS
1.Elaborer un projet
2.Initialiser un projet
3.Diriger un projet
4.Contrôler une étape
5.Gérer les livraisons des produits
6.Gérer une limite de phase
7.Clôturer un projet
7 CRITERES DE PERFORMANCE
1. Périmètre
2. Coûts
3. Délais
4. Risques
5. Qualité
6. Produits
7. Bénéfices
Merci
N’hésitez pas à me contacter et à me faire part de vos commentaires et suggestions :
joseph.szczygiel@gmail.com
Présenté par Claude Barrau, Orange et Jean-François Fresi, Ausy
Qu’est ce que le built in quality induit dans un projet ou un train?
Comment l’agilité à l’échelle et le framework SAFE transforment les organisations de tests existantes ?
Une réalité du Framework SAFe est que le test, processus incontournable de l’évaluation de la qualité d’un produit applicatif, n’est présent que de façon parcellaire dans les objectifs d’équipe. Cela peut être très perturbant pour une organisation « Legacy » avec des équipes de test dédiées dans une organisation rodée avec des responsabilités hiérarchiques et un positionnement managérial fort.
Pour les équipes agiles, se retrouver dans un environnement grand et interdépendant questionnent sur l’organisation des tests, quels tests?, et quand les exécuter et par qui ?, devons-nous faire une énorme campagne de tests de bout en bout ? Qui gère la stratégie de tests globale ou détaillée ? Doit-on uniformiser les outils ?
Certains vous diront que si vous performez les tests au plus tôt avec des TU nombreux et efficients et une chaîne de CI efficace vous aurez peu de bugs de niveau acceptance ou de bout en bout. C’est vrai ! Hélas il n’y a pas de baguette magique, vous devez transformer vos équipes, le devops vous y aide bien mais ces personnes ont une histoire, des habitudes, des peurs... A partir de ce constat nous allons vous présenter ce que nous avons mis en place avec ce qui a bien fonctionné et ce qui a moins bien fonctionné, et comment le rôle du testeur évolue dans ce contexte.
Venez aussi découvrir comment nous avons élaboré une approche permettant d’évaluer la maturité des tests dans SAFe et comment accompagner les trains et les équipes dans l'amélioration de la qualité.
PERICLES, un outil d'évaluation qualité - 20160416FFFOD
Présentation de l'outil d'évaluation pour la démarche qualité des formations, PERICLES, lors de la web-conférence du FFFOD du 19 avril 2016, par Anne-Marie Husson, Jacques DANG et Gérard CASANOVA
MOOC DD animation evaluation par les pairs MOODLE retour expérienceFlorence Labord
Retour d'expérience par Florence Labord,
Evaluation par les pairs sous MOODLE pour Centrale Paris.
Innovation pédagogique, innovation technique, avec la création libre de groupes par les étudiants de Centrale Paris, avant d'utiliser l'activité atelier évaluation par les pairs avec le LMS MOODLE. Mise en oeuvre à travers un parcours en mode page avec des éléments éditoriaux avancés pour une présentation ergonomique et homogène des contenus formatifs.
Cette évaluation est le fruit d'une collboration R&D entre EDUNAO et ACTIVEPROLEARN.
Vous pouvez également lire le jeu des questions et réponses supplémentaires sur viadéo, Linked'in ou sur mon blog.
http://www.expertweb.fr/dotclear/index.php/2015/06/16/62-evaluation-par-les-pairs-a-centrale-paris-avec-le-lms-moodle-pour-le-mooc-developpement-durable-pascal-da-costa
Les portfolios électroniques et la mise-en-œuvre des approches programmes : o...Raynauld Jacques
Cette présentation revoit plusieurs exemples de portfolios électroniques construits à l'aide de Karuta OSP et offre des conseils pratiques aux designers pédagogiques intéressés par le sujet.
Centrale pédagogique : les saé dans la démarche portfolio et leur évaluation ...Eric Giraudin
Présentation à la Centrale Pédagogique des IUT, le 1er juillet 2021.
Les situations d'apprentissages et d'évaluation au cœur de la démarche portfolio et leurs évaluations, par cohortes d'étudiants facilitées par un ePortfolio Karuta Open Source (KAPC+).
ATMTL23 - La QA a-t-elle reussi à prendre le virage agile? Et saura-t-elle f...Agile Montréal
"L'industrie du développement de logiciels a beaucoup progressé ces dernières années et a dû s'adapter aux innovations rapides dans un environnement agile impliquant la mise en place d’une démarche structurée et dynamique des activités entre le métier, TI et QA dans le cycle de vie du projet pour maîtriser les risques métiers, techniques, accroître l'efficacité de la qualification logicielle.
Dans notre conférence vous découvrirez où en est la place de la collaboration par un retour d'expérience: Les 3 amigos au coeur des activités. Le QA a réussi le virage du projet traditionnel au projet agile, quels sont les outils qui le permettront de réussir le virage vers l'IA. L’IA suffira-t-elle pour clarifier les user stories, obtenir une bonne couverture des requis par les essais et garantir une livraison de qualité par les essais automatisés ?"
Learning Analytics : entre Promesses et RéalitéSerge Garlatti
Université Bretagne Pays de Loire, UTICE : LES LEARNING ANALYTICS : QUAND LE BIG DATA S’INTÉRESSE À L’ÉDUCATION.
https://utice.u-bretagneloire.fr/evenement/les-learning-analytics-quand-le-big-data-sinteresse-leducation
L’usage du numérique dans l’éducation permet d’accéder aujourd’hui à une multitude de données sur le comportement des étudiants : identité, interactions entre apprenants, interactions avec les plateformes et outils d’apprentissage, résultats aux évaluations... La collecte et l’exploitation de ces données permettent de mieux comprendre les processus d’apprentissage et ainsi d’adapter les parcours pédagogiques proposés pour en renforcer l’efficacité, mais aussi de personnaliser les apprentissages ou de développer des outils de pilotage des formations. Une communauté de chercheurs et d’enseignants se développe autour de ce que l’on appelle les learning analytics, ou l’analyse des données d’apprentissage. Ce séminaire basé sur les recherches et des retours d’expérience d’enseignants-chercheurs et de jeunes entreprises permettra de cerner les enjeux et les perspectives des learning analytics.
La législation se renforce notamment autour des entretiens professionnels et des entretiens de seconde partie de carrière.
C’est l’opportunité pour vous de :
Gagner du temps par la dématérialisation et l’automatisation des entretiens,
Faire les bons choix grâce à un outil fiable d’aide à la décision consolidant vos données,
Maitriser la cohérence entre votre gestion des entretiens et votre démarche de GPEC.
Le cycle de vie de l'objet pédagogique et de ses métadonnées - PhD presentati...Olivier CATTEAU
Pour permettre à de multiples acteurs de concevoir, réaliser, partager et améliorer un objet pédagogique (OP) spécifique en utilisant un vivier de connaissances qui stocke et indexe ses évolutions successives, une représentation des différentes étapes suivies par un OP et ses métadonnées au cours de son cycle de vie doit être établie. Différentes initiatives internationales traitant de ce problème sont étudiées et permettent de relever des différences significatives dans la terminologie utilisée et le séquencement des étapes. Nous en déduisons une représentation générique qui peut être appliquée dans nimporte quelle situation. Létude des standards de la formation en ligne qui traitent de la description des OP permettent de suggérer des éléments de métadonnées et des vocabulaires complémentaires pour une prise en compte de notre représentation générique. Des mécanismes de propagation, dextraction et de génération de métadonnées sont mis en place pour faciliter lindexation. Plusieurs services sont proposés pour suivre le cycle de vie : - une représentation des relations qui utilise des techniques de visualisation de linformation pour rechercher des OP et fournir aux utilisateurs une vue générale de la progression de la production ; - un service de gestion des commentaires qui offre aux enseignants et aux apprenants lopportunité dexploiter, dexprimer et de partager des évaluations et des suggestions dutilisation dOP dans le système adéquat au moment où elles sont pertinentes ; - un service de gestion des évolutions qui sensibilise les enseignants et les responsables de cours aux divergences qui apparaissent entre les OP importés dans les plates-formes pédagogiques et leurs évolutions et dépendances qui sont stockées dans des viviers hétérogènes. Cette approche, basée sur des objets pédagogiques de forte granularité, a été expérimentée au sein du campus numérique International E-Mi@ge.
Olivier Catteau. Le cycle de vie de l'objet pédagogique et de ses métadonnées. Thèse de doctorat, Université Paul Sabatier, décembre 2008.
http://tel.archives-ouvertes.fr/tel-00344701/fr/
1. EE--QUALITE ETQUALITE ET
FORMATIONFORMATION
A DISTANCEA DISTANCEA DISTANCEA DISTANCE
Devoir SP3 du module Normes et
Standards
Dispensé par Mokhtar Ben Henda
Master 2 Pro AIGEME
Université Sorbonne Nouvelle-Paris3
Dorothée Danedjo Fouba
Etudiante IEM
2012-2013
3. Cette présentation a été conçue dans le cadre
du module « Normes et Standards ».
PREAMBULEPREAMBULE
La situation-problème (3) que nous présentons
ici à pour objectif de permettre de connaître
quelques référentiel et mode d’évaluation d’e-
qualité en formation à distance
5. Qualité signifie: Ensemble de caractères,
qui font que quelque chose correspond
bien ou mal à sa nature, à ce qu’on attend
Aptitude d’un produit ou d’un service à
satisfaire au moindre coût et dans les
EE--QUALITE :QUALITE :DEFINITIONDEFINITION
satisfaire au moindre coût et dans les
moindre délais à des besoins des
utilisateurs
E-qualité en rapport avec la nature du
produit ou service uniquement proposé en
ligne
6. EE--QUALITE :QUALITE :EXEMPLE D’ETUDEEXEMPLE D’ETUDE
Dans la suite de la
présentation nous
tenterons d’expliquer
comment une étude d’e-
qualité en FAD se passequalité en FAD se passe
en utilisant les
paramètres d’une étude
conduite par le PREAU
OBJET DE L’ETUDE: QUEL MODELE QUALITE POUR
L’E-FORMATION?
Les normes qualité existantes répondent-elles aux
besoins des acteurs de l’e-formation?
8. EE--QUALITE: LE SCHEMA DE L’ANGLEQUALITE: LE SCHEMA DE L’ANGLE
D’APPROCHE DE L’ETUDE EN FADD’APPROCHE DE L’ETUDE EN FAD
9. EE--QUALITE: RESULTATSQUALITE: RESULTATS
OBTENUS PAR L’APPROCHEOBTENUS PAR L’APPROCHE
Les résultats de l’approche utilisée dans l’étude
conduite par le PREAU, ont permis de déterminer
le parcours modélisé des clients de l’e-formation.
8 étapes parcourues par l’apprenant
24 supports et processus
associés
116 rubriques de description des
modules
Près de 1200 items
constitutifs des
rubriques
12. VERSION 1.1 DUVERSION 1.1 DU
REFERENTIEL DE AERESREFERENTIEL DE AERES
L’exemple de
référentiel que nous
vous présentons a
été développé parété développé par
AERES: L’agence
d’évaluation de la
recherche de
l’enseignement
supérieur en France
13. STATUT DU REFERENTIEL 1.1STATUT DU REFERENTIEL 1.1
DE AERESDE AERES
Les identifications : Institution-Date de création
AERES
3 grands
1- S’assurer de
l’adéquation des
activités de l’e-
formation avec les
parties prenantes
16/12
/2009
3 grands
Objectifs
du
référentiel
parties prenantes
2- S’assurer de
l’efficacité de
l’organisation de l’e-
formation
3- Veiller à
l’amélioration
continue des
évaluations
14. STATUT DU REFERENTIEL 1.1STATUT DU REFERENTIEL 1.1
DE AERESDE AERES
Les normes et standards dans ce référentiel
• ISO 9001
NORMES
• Elaboration d’un reférentiel
spécifique utilisant les
standards and guidelines for
quality assurance in european
higher education area ESG
STANDARDS
Référentiel réalisé sous forme de références et de critères
permettant de fournir un outil d’autoévaluation adapté
15. STATUT DU REFERENTIEL 1.1STATUT DU REFERENTIEL 1.1
DE AERESDE AERES
Les spécifications: ce référentiel prend appui
sur 3 référents de management qualité
Le référentiel
d’autoévaluation de la
fonction publiquefonction publique
La norme NF EN
ISO/CEI 17021
La norme NF X50 110
16. STATUT DU REFERENTIEL 1.1STATUT DU REFERENTIEL 1.1
DE AERESDE AERES
Les recommandations
•Rassembler les caractéristiques du système de
management de qualité de l’AERS: Guide de mise
en œuvre d’évaluation et d’amélioration continue
du systèmedu système
•Rassembler des critères utilisés lors de
l’évaluation du management de qualité des
établissements par AERES: Appui de conduite des
évaluations externes
•Rassembler les caractéristiques du système de
management de qualité des établissement à
évaluer par AERES: Utiliser comme document
ressource par les établissement pour la
réalisation de leur autorisation
17. RESUME ET IMPACT DURESUME ET IMPACT DU
REFERENTIEL 1.1 DE AERESREFERENTIEL 1.1 DE AERES
Les rapports ont des recommandation sur
lesquelles les établissements d’e-formation
peuvent s’appuyer pour améliorer leur offre
Les évaluations prennent appui sur les
conclusions de l’évaluation précédenteconclusions de l’évaluation précédente
Le suivi prend en compte les résultats
obtenus et la dynamique d’amélioration
continue
L’efficacité des recommandations mise en
œuvre est analysée
18. FICHE SIGNALETIQUE DUFICHE SIGNALETIQUE DU
REFERENTIEL 1.1 DE AERESREFERENTIEL 1.1 DE AERES
En bref:
• Crée le 16 décembre 2009 par AERES
• Norme: ISO 9001
• Standard: Standards and guidelines for• Standard: Standards and guidelines for
quality assurance in european higher
education area ESG
• Fonctionne sous forme de références et
critères permettant de fournir un outil
d’évaluation adapté à l’e-formation
20. LE MODELE D’EVALUATIONLE MODELE D’EVALUATION
DE ORDIPUDE ORDIPU
Le modèle d’évaluation que nous
vous présentons a été proposé
par ORDPU: l’observatoire de
recherche en didactique etrecherche en didactique et
pédagogie universitaire au Maroc
21. ORIGINE DU MODELEORIGINE DU MODELE
D’EVALUATION ORDIPUD’EVALUATION ORDIPU
• Existe depuis décembre 2009
• Elaboré par Ahmed Lablidi, Abdelmjid
Abourrich et Mohammed Talbi du Laboratoire
Interdisciplinaire de recherches LIRADE-TIE
• L'intérêt de la démarche consiste à mettre
en place les balises de l'exploration de la
plate-forme en ligne Collab.
22. LES DOMAINES D’APPLICATION DULES DOMAINES D’APPLICATION DU
MODELE D’EVALUATION ORDIPUMODELE D’EVALUATION ORDIPU
• Le modèle d’évaluation ici c’est
l’organisation d’une formation intitulée
« pédagogie de projet »
• Expérimentation sur la plateforme Collab
sur un échantillon réduit d'enseignants (50sur un échantillon réduit d'enseignants (50
personnes).
•Le modèle d’évaluation vise le
développement d'une compétence
transversale favorisant l'interdisciplinarité et
le décloisonnement des matières scolaires.
25. POINTS FORTS DU MODELEPOINTS FORTS DU MODELE
D’EVALUATION ORDIPUD’EVALUATION ORDIPU
• L'intérêt de ce modèle consiste à mettre en
place les balises de l'exploration de la plate-
forme Collab.
• Elle prépare le terrain à l'expérimentation• Elle prépare le terrain à l'expérimentation
que à mener à l'aide d'un échantillon
d'enseignants volontaires afin de vivre
l'expérience de la formation à distance via
cette plate-forme in situ dont les résultats
nous permettront de juger de sa pertinence
et de voir dans quelle mesure les outils mis à
disposition satisfont à la plupart des attentes.
26. POINTS FAIBLESPOINTS FAIBLES DU MODELEDU MODELE
D’EVALUATION ORDIPUD’EVALUATION ORDIPU
• C'est sur la base des travaux réalisés par
les apprenants, des interactions entre les
apprenants et les tuteurs qu'il sera possible
d'apprécier le degré d'atteinte des objectifs
de formation.
•Méthode très expérimentale
27. FICHE SIGNALETIQUE DUFICHE SIGNALETIQUE DU
MODULE ORDIPUMODULE ORDIPU
En bref:
• Crée en décembre 2009 sous l’ ORDIPU
• Elaborée par: Ahmed Lablidi, Abdelmjid
Abourrich et Mohammed Talbi duAbourrich et Mohammed Talbi du
Laboratoire Interdisciplinaire de
recherches LIRADE-TIE
• L'intérêt de la démarche consiste à
mettre en place les balises de
l'exploration de la plate-forme en ligne
Collab.
28. SOURCES BIBLIOGRAPSOURCES BIBLIOGRAPHIQUESHIQUES
Cours « Normes et
Standards » - master II Pro
AIGEME – Paris 3
http://www.aeres-
evaluation.fr/Actualites/Commevaluation.fr/Actualites/Comm
uniques-dossiers-de-presse/L-
AERES-publie-son-referentiel-
des-criteres-d-evaluation-des-
entites-de-recherche
http://www.epi.asso.fr/revue
/articles/a0912b.htm