SlideShare une entreprise Scribd logo
1  sur  47
Télécharger pour lire hors ligne
KIT DE FORMATION
MODULE 7
GESTION AXÉE SUR LES
RÉSULTATS: SUIVI-ÉVALUATION
ET SYSTÈME D'INFORMATION
Sommaire
● Concepts de suivi et d'évaluation dans la GAR
● Différences et complémentarité entre suivi et évaluation
● Mise en œuvre du suivi
● Notions générales sur l'évaluation
● Système d'information en appui au S&E
Le Cadre Logique peut être utilisé comme base pour le
système de Suivi-Évaluation (S&E) d'un programme ou
projet.
Les 2ème et 3ème colonnes de la Matrice de Cadre Logique
(MCL) fournissent les éléments de fondation d'un
système de S&E: elles définissent les indicateurs de
performance, fixent les paramètres-cibles à atteindre, et
décrivent les sources d'information du système.
Basé sur The Logical Framework Handbook
de la Banque Mondiale
Lien entre le Cadre Logique et le S&E (1/2)
Source:
FIDA,
2002
Lien entre le Cadre Logique et le S&E (2/2)
Suivi de performance en GAR
 Suivi = un processus systématique de vérification de l'
efficacité [effets] et l'efficience [produits/extrants] de la mise en
œuvre d'une intervention de développement (programme,
projet) en vue de:
– Apprécier l'avancement des résultats et identifier des
insuffisances (ou des écarts); et,
– Recommander des mesures correctives pour optimiser les
résultats désirés.
 Dans le cycle de vie d'un programme, le suivi ne prend place
que pendant la phase de mise en œuvre.
 Il est basé sur des indicateurs spécifiés durant la phase de
formulation du programme.
Qu'est-ce que le Suivi?
 Gestion Axée sur les Résultats = Stratégie de gestion d'un
projet/ programme orientée vers la performance, la réalisation
d'extrants et l'accomplissement d'effets directs.
 Dans le cas d'une approche GAR, le "bon suivi" équivaut à:
 Un suivi continu et systématique;
 Une participation des concernés clés d'une intervention de
développement; et,
 Une attention particulière vis-à-vis de l'atteinte des résultats
escomptés.
 Dans certains programmes, les concernés clés incluraient les
bénéficiaires, l'agence d'exécution, le chargé et les cadres du
programme, le ministère de tutelle, etc.
Particularité du Suivi en GAR
 Impacts: Améliorations générales
à moyen et long termes qu'une
intervention de développement
(politique, programme, projet)
apportent à la société.
 Effets: Effets initiaux et
intermédiaires engendrés par
l'intervention de développement
en raison de l'utilisation par les
bénéficiaires des produits/extrants
générés par cette intervention.
 Produits/Extrants: Biens et
services produits et livrés par
l'intervention de développement.
Intérêt du Suivi en GAR
 Suivi = processus continu de collecte systématique
d'information sur les indicateurs choisis d'une
intervention de développement en cours.
 Évaluation = appréciation systématique de la
formulation, de la mise en œuvre, de l'efficience, de
l'efficacité, des processus, et des résultats d'un
programme/projet en cours ou complétée.
 Le suivi est continu, l'évaluation est épisodique ou
périodique (effectuée à un moment donné).
 L'évaluation peut avoir lieu à différents moments du
cycle d'un programme et fait appel le plus souvent à
des spécialistes externes, non impliquées dans la
mise en œuvre du programme à évaluer.
Différence entre Suivi et Évaluation
Complémentarité entre Suivi et Évaluation (1/2)
Critères Suivi Évaluation
Fréquence Régulière, continue Épisodique, périodique
Couverture Tous les programmes Certains programmes et aspects
Objet Lier les activités et les ressources du
programme aux objectifs/résultats
Identifier des contributions causales
des activités aux objectifs/résultats
Positionnement Activité interne Interne, externe, participative
Données Générales aux bénéficiaires Basées sur un échantillon
Profondeur de
l'information
Compare les résultats aux cibles
Intérêt: QUOI
Explore les résultats inattendus
Intérêt: POURQUOI
Coût Échelonné sur toute la durée Peut être élevé
Utilité Gestion et amélioration constante du
programme et de la performance
Prise de décisions majeures sur un
programme
Diffusion Rapporte l'avancement et alerte sur
des problèmes
Fournit leçons et recommandations et
signale des réalisations significatives
Responsabilité Gestionnaire du programme Évaluateur de concert avec le
gestionnaire et le personnel
Complémentarité entre Suivi et Évaluation (2/2)
 Pour améliorer la performance du
programme et la qualité des
réalisations.
 Pour apprendre des expériences du
terrain.
 Pour deviser des mesures correctives
éclairées et prendre de bonnes
décisions.
 Enfin, pour s'assurer d' obtenir les
résultats escomptés et planifiés lors
de la formulation.
Pourquoi intervient le Suivi?
 Sur tous les sites où intervient le
programme.
 En impliquant les communautés et les
bénéficiaires.
 Avec des outils appropriés de collecte
de données.
 Selon les indicateurs fixés lors de la
formulation du programme.
 En appréciant quantitativement,
qualitativement et en temps réel toutes
les réalisations du programme…
Où et comment intervient le Suivi?
Attention à la résistance!!!
 Réfléchir au et planifier le S&E à partir du
moment où le programme n'est qu'au stade
d'idée (1ère étape du cycle de vie) et durant la
phase de formulation.
 Impliquer les concernés clés dans le
montage du Plan de S&E du programme
(promotion d'un accord sur les résultats
escomptés et la performance requise,
renforcement de l'engagement et de la
confiance, etc.).
 Faire preuve de fermeté et de rigueur dans la
mise en œuvre du Plan de S&E d'un
programme.
Comment réussir le Suivi?
 Fortement recommandé de clarifier les
intervenants dans le suivi et de préciser
leurs rôles et responsabilités ("Qui fait quoi
et quand?")
 Fortement recommandé d'impliquer les
intervenants identifiés dans le montage du
Plan de S&E du programme dès le départ.
 Nécessaire de former ces intervenants sur
les concepts de S&E, selon les rôles et
responsabilités assignés.
Qui intervient dans le Suivi?
Évaluation des programmes
L'évaluation aide à répondre à des questions telles que:
 Quels sont les effets et impacts du programme?
 Est-ce que le programme évolue tel qu'escompté?
 Est-ce que les activités réalisées ont été exécutées telles que
planifiées (quantité, qualité, temps)?
 Qu'est-ce qui cause les changements relevés par le suivi?
 Est-ce que les différences relevées entre les divers sites du
programme sont dues à la manière d'opérer du programme?
 Qui bénéficie réellement du programme et de ses retombées?
Définition de l'évaluation
Appréciation systématique et objective d'un projet, d'un programme ou
d'une politique, en cours ou terminé, de sa conception, de sa mise en
œuvre et de ses résultats, afin de déterminer la pertinence et
l'accomplissement des objectifs, l'efficience en matière de
développement, l'efficacité, l'impact et la durabilité.
Définition et questions de l'évaluation
1. Questions descriptives: montrer ce qui se passe (décrire les
processus, les conditions prévalentes, les relations
organisationnelles, et les points de vue des divers concernés
par le programme).
2. Questions normatives: comparer ce qui se passe avec ce qui
était planifié (activités réalisées, objectifs atteints ou non).
Peuvent concerner les ressources/intrants, les activités, et les
produits/ extrants.
3. Questions de cause à effet: se concentrer sur les résultats et
chercher à déterminer dans quelle mesure le programme
entraine des changements.
Évaluation: 3 questions fondamentales
Projet Action de développement unique exécutée sur un seul ou
plusieurs sites.
Programmes Intervention incluant divers projets contribuant à un objectif
commun.
Politiques Normes, instructions ou règlements établis par un organisme
pour réguler, organiser ou mettre en œuvre des décisions de
développement.
Organismes Multitude de programmes d'intervention mis en œuvre par un
organisme.
Secteurs Interventions dans un même secteur tel que l'éducation, la
santé, la foresterie, l'agriculture.
Thèmes Aspects particuliers transversaux tels que l'équité et
l'approche genre, les biens publics globaux.
Assistance à un
pays
Avancement dans le plan national de développement, l'effet
de l'aide au développement, et les enseignements tirés.
Source: Morra Imas & Rist (2009).
Que peut-on évaluer?
Que peut-on évaluer?
1. Besoin de preuves évidentes sur ce qui fonctionne (les
mauvaises performances et les restrictions budgétaires
peuvent nuire!!!).
2. Besoin d'améliorer l'exécution d'un programme et la
performance d'un organisme public (améliorer la conception
des programmes sociaux et des méthodes de ciblage des
bénéficiaires, par exemple).
3. Besoin d'avoir une information fiable sur la durabilité des
résultats obtenus par un programme (est-ce que le programme
apporte des solutions durables à une problématique en
s'attaquant aux causes?).
Pourquoi doit-on évaluer une intervention?
Évaluation formative: vise à améliorer les performances, le plus souvent
effectuée en cours de mise en œuvre d'un programme. S'appelle parfois
évaluation de processus pour l'étude des dynamiques internes
d'organismes. Exemple: Évaluation à mi-parcours.
Sources: OCDE (2002); Morra Imas & Rist (2009).
Évaluation sommative: conduite en fin de programme (ou à la fin d'une
phase de ce programme), vise à déterminer le niveau d'atteinte des
résultats escomptés. S'appelle parfois évaluation ex-post. Exemple:
Évaluation d'impact.
Évaluation prospective: apprécie les résultats potentiels et objectifs
d'un programme avant son démarrage et leur probabilité d'être atteints.
Conduite avant le lancement, s'appelle aussi évaluation ex-ante.
Exemple: Analyse coûts-avantages.
Types d'évaluation et cycle d'un programme (1/2)
Types d'évaluation et cycle d'un programme (1/2)
Évaluation de programme: évaluation d'un ensemble structuré d'actions
de développement pour atteindre des objectifs de développement
spécifiques à l'échelle d'un secteur, d'un pays, d'une région, ou global.
Évaluation de projet: évaluation d'une action de développement
individuelle conçue pour atteindre des objectifs spécifiques avec des
ressources et un plan de travail déterminés, souvent dans le cadre d'un
programme plus large.
L'évaluation peut être:
• Interne: par des évaluateurs dépendants du bailleur ou de l'organisme.
• Externe: par évaluateurs externes au bailleur et à l'organisme.
• Indépendante: par des évaluateurs non liés aux responsables de la
conception et de l'exécution.
Évaluation de projet ou de programme
Pertinence
(Relevance)
Mesure selon laquelle les objectifs d'un programme correspondent
aux attentes des bénéficiaires, aux besoins du pays, aux priorités
globales, aux politiques des partenaires et des bailleurs de fonds.
Efficacité
(Effectiveness)
Mesure des résultats atteints - ou en voie de l'être - d'un
programme, compte tenu de leur importance relative.
Efficience
(Efficiency)
Mesure selon laquelle les ressources d'un programme sont
converties en produits/extrants au meilleur coût. Nécessite parfois
une analyse économique de différentes alternatives.
Impact
(Impact)
Appréciation des effets à long terme, positifs et négatifs, primaires
et secondaires, induits par un programme, directement ou non,
intentionnellement ou non.
Durabilité
(Sustainability)
Appréciation de la continuation des bénéfices résultant
d'une action de développement après la fin d'un programme.
Probabilité d'obtenir des bénéfices à long terme.
Source: OCDE (2002)
Quoi évaluer: les 5 grands critères
Source: Adapté de Rodriquez-Garcia & Kusek (2007). Traduit par MM
Évaluation dans une perspective GAR
En règle générale, une évaluation devient nécessaire quand les
données des mesures régulières de l'unité de suivi montrent que
la performance en cours est clairement et significativement
différente de celle planifiée.
Source: Adapté de Kusek & Rist (2004) par MM
Planifié
Réalisé
EMP
EI
EMP
EI
EMP
EI
Évaluation à mi-parcours
Évaluation d'impact
Quand l'évaluation devient-elle nécessaire?
Une théorie du changement décrit un plan de changement social qui va
de la formulation des hypothèses avant la conception à la définition des
objectifs à long terme. Cette théorie est souvent présentée sous forme
de schéma (modèle logique) qui analyse les liens entre les ressources et
les résultats. Il est souvent présenté sous forme de tableau énumérant
les étapes, des données ou ressources jusqu'à la réalisation de l'objectif
visé par le programme (cadre logique).
Source: Grantcraft (2006)
Construire une théorie du changement permet à l'évaluateur de:
 Comprendre la philosophie sur laquelle est basée le programme.
 Examiner l'évidence existante à travers une synthèse de recherche.
 Voir un programme complexe comme un ensemble de chaines
d'intervention visant des changements de comportement.
Théorie de changement et Évaluation
Méthodes quantitatives: apprécier de manière chiffrée certains aspects de
l'objet évalué. Conviennent mieux pour formuler statistiquement une
conclusion généralisable. Exemple: Enquête-questionnaire. Défi:
Échantillonnage (question de validité externe).
Méthodes qualitatives: très souvent utilisées pour aller en profondeur des
aspects qualitatifs de l'objet évalué. Conviennent bien pour leur flexibilité et
leur utilisation rapide. Exemple: Focus groupe. Défi: Rôle de facilitateur pour
l'évaluateur.
Méthodes mixtes: combinaison complémentaire de méthodes quantitatives et
qualitatives afin de collecter des données quantifiables et des appréciations
qualitatives. Exemple: Observation directe pendant une entrevue d'enquête-
questionnaire. Défi: Bonne combinaison méthodologique et souci de
triangulation.
Évaluation et méthodes de collecte (1/2)
Entretien
avec des
individus
concernés
Forum
communautaire
Méthodes informelles / peu structurées
Visites
terrain
Revue de registres
officielles (SIG et
données admin.)
Observation
participative
Entrevue avec des
personnes bien
informées
Focus
Groupe
Enquête
Questionnaire
Sondage de
panel
Expérimentation
au champ
Recensement
Méthodes formelles / plus structurées
Observation
directe
Sources: Kusek & Rist (2004); Morra Imas & Rist (2009). Traduction de l'anglais par MM
30
Évaluation et méthodes de collecte (2/2)
Évaluation participative: Méthode collective d'évaluation selon laquelle
concernés et bénéficiaires collaborent pour concevoir et conduire une
évaluation et en tirer les conclusions. Ses principes de base sont:
Sources: OCDE (2002); Morra Imas & Rist (2009)
 Implication des bénéficiaires dans la fixation d'objectifs et des
priorités, la sélection des questions et la prise de décisions.
 Appropriation par les participants de l'évaluation.
 Assurance que l'évaluation se concentre sur les méthodes et
résultats qui sont importants aux participants.
 Participants travaillant ensemble, facilitant et promouvant l'unité du
groupe.
 Tous les aspects de l'évaluation sont compréhensibles et pertinents
à tous les participants.
 Évaluateurs agissant comme des facilitateurs; participants agissant
comme preneurs de décision et évaluateurs.
Évaluation participative et programmes sociaux
 Fait partie des méthodes contribuant à
l'apprentissage des spécialistes du développement et
à l'amélioration de la conception des politiques et
programmes.
 S'intéresse spécialement aux relations de cause à
effet dans les programmes (structuré autour d'une
question-clé: quel est l'impact – ou l'effet causal –
d'un programme sur un résultat donné?). Cette
dimension causale est primordiale.
 Vise à déterminer quels changements peuvent être
attribués directement et exclusivement au
programme.
Évaluation d'impact: causalité et attribution
 L'impact d'un programme est la différence entre les effets
observables engendrés par ce programme et ceux observés
lorsque celui-ci n'intervient pas.
 Défi: il est difficile d'observer simultanément la situation des
bénéficiaires…
Avec le
programme…
… et sans le
programme!
Qu'est-ce que l'impact en GAR?
 Pour estimer l'impact (ou effet causal) d'un
programme, besoin d'un contrefactuel, i.e.
le résultat obtenu par les bénéficiaires si le
programme n'était pas là.
 Pour estimer le contrefactuel, on a besoin
de trouver un groupe témoin (ou groupe de
comparaison) conforme à ces critères:
 Le groupe témoin doit avoir les mêmes
caractéristiques que le groupe des
bénéficiaires du programme;
 La seule différence entre les deux
groupes est que les membres du groupe
témoin n'ont pas bénéficié du programme.
Évaluation d'impact: nécessité d'un contrefactuel
 Avant-après (ou pré-post): Comparer simplement les
résultats dans le groupe de bénéficiaires avant et
après la mise en œuvre du programme.
Il y a plusieurs d'autres facteurs variables dans
le temps susceptibles d'avoir aussi influencé les
résultats observés.
!
 Avec-sans: Comparer simplement des éléments
ayant accepté de participer au programme avec des
éléments ne participant pas au programme.
Ceux qui ne participent pas au programme
peuvent différer systématiquement de ceux qui
y participent.
Évaluation d'impact: 2 erreurs souvent commises
!
Dispositifs expérimentaux: aléatoires, généralement
considérés comme les plus robustes des dispositifs
d'évaluation. Avec un groupe témoin, présentent une
parfaite comparaison contrefactuelle libre des
différents biais et distorsions. Avec une comparaison
avant-après, permettent d'apprécier la contribution
réelle d'un programme.
Dispositifs quasi-expérimentaux: utilisés quand une
composition aléatoire des groupes à comparer n'est
pas possible. Moins robustes que les dispositifs
expérimentaux, sont utilisés selon le contexte et les
ressources disponibles.
Évaluation d'impact: dispositifs d'étude
Mise en œuvre d'une évaluation
Conclusions d'une évaluation
 Fournir des réponses claires et précises aux questions d'évaluation
posées dans les TdR (montrer des liens de causalité).
 Très souvent, présence de jugements de valeur (conflits potentiels).
 Par éthique, une conclusion doit être liée aux données et analyses.
 Toute question doit trouver réponse dans les conclusions. Sinon…
 Limites méthodologiques et contextuelles: montrer la robustesse du lien
entre données et conclusions et si les constats sont généralisables.
Recommandations d'une évaluation
 Représentent des suggestions pour améliorer, réformer ou renouveler le
programme.
 Dérivent d'une ou plusieurs conclusions vis-à-vis de problèmes.
 Sont priorisées et hiérarchisées avec des destinataires précisés.
Source: Euréval(2010)
Conclusions et recommandations d'évaluation
Diffusion des résultats d'évaluation
 Étape à part entière du processus évaluatif, après la production et
validation du rapport d'évaluation, mais prévue dès le départ.
 Étape indispensable pour l'utilisation de l'évaluation par des utilisateurs
potentiels (impératif de transparence).
 Selon les différents utilisateurs, différents supports de communication
utilisés.
Utilisation des résultats d'une évaluation
 Préparer des décisions, aider à formuler des jugements, à connaître les
effets d'un programme.
 Peut être de différente façon pour différents utilisateurs.
 Doit être anticipée et guider la démarche d'évaluation depuis le début.
Source: Euréval(2010)
Diffusion/utilisation des résultats d'évaluation
Système d'information en appui au S&E
Source: FIDA, 2002
S&E et Rapportage: utilité d'un système d'info
1. Élaboration de la matrice du
cadre logique de l'intervention
Indicateurs Sources de vérification
2. Développement de la matrice de
suivi-évaluation
Indicateurs Données de départ
Conception
de
l’intervention
Démarrage
de
l’intervention
Paramètres
Formulaire
d’enregistrement
Formulaire de
regroupement
Entité 1
Entité 2
Entité 3
25%
25%
3. Enregistrement et
regroupement des données
Regroupement dans une base
de données ou un tableur
4. Analyse visant à dégager des conclusions
5. Communication des résultats
25%
25%
Implémentation
et
concrétisation
de
l’intervention
Conception
d'un
système
d'information
de
gestion
en
appui
au
S&E
Après finalisation du cadre logique du programme, il s'agira
d'élaborer un plan de suivi-évaluation du programme incluant:
 La définition de la méthodologie de collecte des données du
suivi (sources, périodicité, mode de transmission, etc.);
 La définition de la méthodologie de traitement et d’analyse
des données collectées;
 Le désignation des formats des supports de diffusion de
l'information du suivi;
 La définition de la méthodologie des différentes évaluations
du programme et l'élaboration de leurs termes de référence;
 La définition de la méthodologie de conduite des différents
audits (institutionnels et techniques), si besoin, et
l’élaboration des termes de référence y afférent…
Après le Cadre Logique, le Plan de S&E…
Après l'élaboration d'un plan de suivi-évaluation du programme ,
il s'agira de concevoir et de mettre en place du Système
d’information de Gestion en appui au suivi-évaluation du
programme, incluant:
 L'élaboration d'un état des lieux en matière de système
d'information (infrastructures, protocoles, liaisons, etc.);
 L'analyse conceptuelle et fonctionnelle du système
d'information existant et la détection des gaps par rapport
aux besoins du suivi-évaluation du programme en question;
 La mise en forme de la base de données du S&E;
 La programmation de l'application devant gérer la base de
données du S&E;
 La finalisation de l'implantation du système d'information;
 La formation des utilisateurs du système d'information.
Après le Plan de S&E, le Système d'Information…
Définition d'une base de données
En général, une base de données est un ensemble organisé de
documents, généralement structuré en colonnes et sous forme
tabulaire.
Pour ce qui est des bases de données électroniques, les
spécialistes des sciences informatiques parlent d'un ensemble
de données structuré et organisé afin qu'une application
informatique puisse sélectionner rapidement les éléments
désirés dans cet ensemble.
La forme de base de données la plus courante dans le monde
est la base de données relationnelle. Dans une telle base de
données, toutes les données ne sont pas stockées dans le
même tableau mais dans de différents tableaux liés entre eux.
Système d'Info: centralité des bases de données
 Rendre les données immédiatement disponibles en cas de besoin;
 S'assurer toujours de la disponibilité des données dans un format
facilitant différentes analyses sans effectuer des calculs manuels;
 Être plus efficace et précis dans la gestion et l'utilisation des
données;
 Permettre la comparaison de différents ensembles de données;
 Traiter de grandes quantités de données rapidement et avec
précision;
 Réduire le temps passé dans la gestion des données en réduisant
les processus d'analyse des données;
 Transformer des données disparates en information consolidée;
 Améliorer la qualité, la rapidité et la cohérence de l'information;
 Soutenir l'analyse spatiale à l'aide d'un système d'informations
géographiques (SIG) et la représentation des données sur les
cartes pour une compréhension facile par les décideurs…
Avantages d'une base de données de S&E
 Ne jamais compter sur la technologie pour "apporter toutes les
réponses" à elle seule en matière de S&E.
 Prendre en considération la politique gouvernementale en matière
de TIC dans le cas de bases de données des entités publiques.
 Veiller quotidiennement à la fonctionnalité et la sécurité d'une base
de données afin d'assurer l'intégrité, la disponibilité et la qualité
des données.
 Identifier quelles données doit contenir la base de données.
 Déterminer quel logiciel ou application utiliser pour l'analyse.
 Savoir que la disponibilité d'un logiciel d'analyse spatiale est utile.
 Prendre toutes les mesure nécessaires pour relier une nouvelle
base de données à d'autres bases existantes (transfert de données)
 Identifier dès le départ les besoins en renforcement de capacités en
matière de conception et de gestion pour améliorer l'utilisation de
la base de données et l'accès à l'information.
Usage de bases de données: ce qu'il faut retenir!!!
Merci pour votre attention.
Site de l'AfCoP: http://cop-mfdr-africa-fr.ning.com/

Contenu connexe

Similaire à module-7.pdf

Suivi et Evaluation des Programmes Budgetaires
Suivi et Evaluation des Programmes BudgetairesSuivi et Evaluation des Programmes Budgetaires
Suivi et Evaluation des Programmes BudgetairesJean-Marc Lepain
 
Acquisition, Conception et Implantation des SI
Acquisition, Conception et Implantation des SIAcquisition, Conception et Implantation des SI
Acquisition, Conception et Implantation des SIArsène Ngato
 
module performance globale punlique enf .pptx
module performance globale punlique enf .pptxmodule performance globale punlique enf .pptx
module performance globale punlique enf .pptxJabirArif
 
Montage de projets pour les associations
Montage de projets pour les associationsMontage de projets pour les associations
Montage de projets pour les associationszohair maazi
 
TPM Cours4 gestion des projets.ppt
TPM Cours4 gestion des projets.pptTPM Cours4 gestion des projets.ppt
TPM Cours4 gestion des projets.pptROUMAISSAFATIMAZOHRA
 
Final outline plan for webinar evaluation and impact assessment mof 2004 ...
Final outline plan for webinar evaluation and impact assessment mof 2004     ...Final outline plan for webinar evaluation and impact assessment mof 2004     ...
Final outline plan for webinar evaluation and impact assessment mof 2004 ...EricaPackingtonIOD
 
Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...
Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...
Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...RBFHealth
 
2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion
2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion
2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestionPMI Lévis-Québec
 
Utss banque mondiale
Utss banque mondialeUtss banque mondiale
Utss banque mondialeBéch Ir
 
Manuel de gestion participative de proj 176 p
Manuel de gestion participative de proj 176 pManuel de gestion participative de proj 176 p
Manuel de gestion participative de proj 176 pIdi Assifa
 
module1_Microsoft PowerPoint - CIPE Module 1_ M&E_.pdf
module1_Microsoft PowerPoint - CIPE Module  1_ M&E_.pdfmodule1_Microsoft PowerPoint - CIPE Module  1_ M&E_.pdf
module1_Microsoft PowerPoint - CIPE Module 1_ M&E_.pdfOkouJosephAgr1
 
L'impact ta priorité
L'impact ta prioritéL'impact ta priorité
L'impact ta prioritéEnactusFrance
 
Atelier de l'evaluation qualité
Atelier de l'evaluation qualitéAtelier de l'evaluation qualité
Atelier de l'evaluation qualitéIreps
 
Gp 08 La Finalisation Du Projet
Gp 08   La Finalisation Du ProjetGp 08   La Finalisation Du Projet
Gp 08 La Finalisation Du ProjetClaude Michaud
 
outil glossaire
outil glossaire outil glossaire
outil glossaire Jamaity
 
350992916-Tableau-SE.pptx lololooooooooooooooooooooo
350992916-Tableau-SE.pptx lololooooooooooooooooooooo350992916-Tableau-SE.pptx lololooooooooooooooooooooo
350992916-Tableau-SE.pptx lololoooooooooooooooooooooazizabhaj
 

Similaire à module-7.pdf (20)

La gestion du cycle de projet
La gestion du cycle de projetLa gestion du cycle de projet
La gestion du cycle de projet
 
Suivi et Evaluation des Programmes Budgetaires
Suivi et Evaluation des Programmes BudgetairesSuivi et Evaluation des Programmes Budgetaires
Suivi et Evaluation des Programmes Budgetaires
 
Acquisition, Conception et Implantation des SI
Acquisition, Conception et Implantation des SIAcquisition, Conception et Implantation des SI
Acquisition, Conception et Implantation des SI
 
module performance globale punlique enf .pptx
module performance globale punlique enf .pptxmodule performance globale punlique enf .pptx
module performance globale punlique enf .pptx
 
Présentation Valer Jobbagy
Présentation Valer JobbagyPrésentation Valer Jobbagy
Présentation Valer Jobbagy
 
Montage de projets pour les associations
Montage de projets pour les associationsMontage de projets pour les associations
Montage de projets pour les associations
 
TPM Cours4 gestion des projets.ppt
TPM Cours4 gestion des projets.pptTPM Cours4 gestion des projets.ppt
TPM Cours4 gestion des projets.ppt
 
Final outline plan for webinar evaluation and impact assessment mof 2004 ...
Final outline plan for webinar evaluation and impact assessment mof 2004     ...Final outline plan for webinar evaluation and impact assessment mof 2004     ...
Final outline plan for webinar evaluation and impact assessment mof 2004 ...
 
Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...
Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...
Annual Results and Impact Evaluation Workshop for RBF - Day Two - Outil d’Eva...
 
2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion
2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion
2008-11-04 Jean-Gynse Bolivar Cadre logique comme outil de gestion
 
Utss banque mondiale
Utss banque mondialeUtss banque mondiale
Utss banque mondiale
 
Manuel de gestion participative de proj 176 p
Manuel de gestion participative de proj 176 pManuel de gestion participative de proj 176 p
Manuel de gestion participative de proj 176 p
 
module1_Microsoft PowerPoint - CIPE Module 1_ M&E_.pdf
module1_Microsoft PowerPoint - CIPE Module  1_ M&E_.pdfmodule1_Microsoft PowerPoint - CIPE Module  1_ M&E_.pdf
module1_Microsoft PowerPoint - CIPE Module 1_ M&E_.pdf
 
L'impact ta priorité
L'impact ta prioritéL'impact ta priorité
L'impact ta priorité
 
Atelier de l'evaluation qualité
Atelier de l'evaluation qualitéAtelier de l'evaluation qualité
Atelier de l'evaluation qualité
 
Gp 08 La Finalisation Du Projet
Gp 08   La Finalisation Du ProjetGp 08   La Finalisation Du Projet
Gp 08 La Finalisation Du Projet
 
outil glossaire
outil glossaire outil glossaire
outil glossaire
 
La Conduite de projet
La Conduite de projetLa Conduite de projet
La Conduite de projet
 
350992916-Tableau-SE.pptx lololooooooooooooooooooooo
350992916-Tableau-SE.pptx lololooooooooooooooooooooo350992916-Tableau-SE.pptx lololooooooooooooooooooooo
350992916-Tableau-SE.pptx lololooooooooooooooooooooo
 
Up1
Up1Up1
Up1
 

Plus de OkouJosephAgr1

Rediger_une_problematique_de_recherche_e.pptx
Rediger_une_problematique_de_recherche_e.pptxRediger_une_problematique_de_recherche_e.pptx
Rediger_une_problematique_de_recherche_e.pptxOkouJosephAgr1
 
306419095-Ms-Project-en-Pratique-ppt.pdf
306419095-Ms-Project-en-Pratique-ppt.pdf306419095-Ms-Project-en-Pratique-ppt.pdf
306419095-Ms-Project-en-Pratique-ppt.pdfOkouJosephAgr1
 
F1_Presentation_FR_2017.pdf
F1_Presentation_FR_2017.pdfF1_Presentation_FR_2017.pdf
F1_Presentation_FR_2017.pdfOkouJosephAgr1
 
THEORIE-CONCEPT-SUIVI-EVALUATION-1.pdf
THEORIE-CONCEPT-SUIVI-EVALUATION-1.pdfTHEORIE-CONCEPT-SUIVI-EVALUATION-1.pdf
THEORIE-CONCEPT-SUIVI-EVALUATION-1.pdfOkouJosephAgr1
 
MOOC GdP - Synthèse Module 3.pdf
MOOC GdP - Synthèse Module 3.pdfMOOC GdP - Synthèse Module 3.pdf
MOOC GdP - Synthèse Module 3.pdfOkouJosephAgr1
 
MOOC GdP - Synthèse Module 1.pdf
MOOC GdP - Synthèse Module 1.pdfMOOC GdP - Synthèse Module 1.pdf
MOOC GdP - Synthèse Module 1.pdfOkouJosephAgr1
 
MOOC GdP - Synthèse Module 4.pdf
MOOC GdP - Synthèse Module 4.pdfMOOC GdP - Synthèse Module 4.pdf
MOOC GdP - Synthèse Module 4.pdfOkouJosephAgr1
 
MOOC GdP - Synthèse Module 2.pdf
MOOC GdP - Synthèse Module 2.pdfMOOC GdP - Synthèse Module 2.pdf
MOOC GdP - Synthèse Module 2.pdfOkouJosephAgr1
 

Plus de OkouJosephAgr1 (8)

Rediger_une_problematique_de_recherche_e.pptx
Rediger_une_problematique_de_recherche_e.pptxRediger_une_problematique_de_recherche_e.pptx
Rediger_une_problematique_de_recherche_e.pptx
 
306419095-Ms-Project-en-Pratique-ppt.pdf
306419095-Ms-Project-en-Pratique-ppt.pdf306419095-Ms-Project-en-Pratique-ppt.pdf
306419095-Ms-Project-en-Pratique-ppt.pdf
 
F1_Presentation_FR_2017.pdf
F1_Presentation_FR_2017.pdfF1_Presentation_FR_2017.pdf
F1_Presentation_FR_2017.pdf
 
THEORIE-CONCEPT-SUIVI-EVALUATION-1.pdf
THEORIE-CONCEPT-SUIVI-EVALUATION-1.pdfTHEORIE-CONCEPT-SUIVI-EVALUATION-1.pdf
THEORIE-CONCEPT-SUIVI-EVALUATION-1.pdf
 
MOOC GdP - Synthèse Module 3.pdf
MOOC GdP - Synthèse Module 3.pdfMOOC GdP - Synthèse Module 3.pdf
MOOC GdP - Synthèse Module 3.pdf
 
MOOC GdP - Synthèse Module 1.pdf
MOOC GdP - Synthèse Module 1.pdfMOOC GdP - Synthèse Module 1.pdf
MOOC GdP - Synthèse Module 1.pdf
 
MOOC GdP - Synthèse Module 4.pdf
MOOC GdP - Synthèse Module 4.pdfMOOC GdP - Synthèse Module 4.pdf
MOOC GdP - Synthèse Module 4.pdf
 
MOOC GdP - Synthèse Module 2.pdf
MOOC GdP - Synthèse Module 2.pdfMOOC GdP - Synthèse Module 2.pdf
MOOC GdP - Synthèse Module 2.pdf
 

Dernier

SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdfSKennel
 
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdfSciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdfSKennel
 
Bibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdfBibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdfBibdoc 37
 
Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024Gilles Le Page
 
Cours de Management des Systèmes d'information
Cours de Management des Systèmes d'informationCours de Management des Systèmes d'information
Cours de Management des Systèmes d'informationpapediallo3
 
PIE-A2-P4-support stagiaires sept 22-validé.pdf
PIE-A2-P4-support stagiaires sept 22-validé.pdfPIE-A2-P4-support stagiaires sept 22-validé.pdf
PIE-A2-P4-support stagiaires sept 22-validé.pdfRiDaHAziz
 
Bernard Réquichot.pptx Peintre français
Bernard Réquichot.pptx   Peintre françaisBernard Réquichot.pptx   Peintre français
Bernard Réquichot.pptx Peintre françaisTxaruka
 
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdfSKennel
 
PIE-A2-P 5- Supports stagiaires.pptx.pdf
PIE-A2-P 5- Supports stagiaires.pptx.pdfPIE-A2-P 5- Supports stagiaires.pptx.pdf
PIE-A2-P 5- Supports stagiaires.pptx.pdfRiDaHAziz
 
SciencesPo_Aix_InnovationPédagogique_Bilan.pdf
SciencesPo_Aix_InnovationPédagogique_Bilan.pdfSciencesPo_Aix_InnovationPédagogique_Bilan.pdf
SciencesPo_Aix_InnovationPédagogique_Bilan.pdfSKennel
 
Pas de vagues. pptx Film français
Pas de vagues.  pptx      Film   françaisPas de vagues.  pptx      Film   français
Pas de vagues. pptx Film françaisTxaruka
 
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...Faga1939
 
Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024Alain Marois
 
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdfSKennel
 
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdfBibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdfBibdoc 37
 
Pharmacologie des cardiotoniques pour Pharmacie
Pharmacologie des cardiotoniques pour PharmaciePharmacologie des cardiotoniques pour Pharmacie
Pharmacologie des cardiotoniques pour PharmacieLoloshka
 
Le Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directeLe Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directeXL Groupe
 

Dernier (18)

DO PALÁCIO À ASSEMBLEIA .
DO PALÁCIO À ASSEMBLEIA                 .DO PALÁCIO À ASSEMBLEIA                 .
DO PALÁCIO À ASSEMBLEIA .
 
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_FormationRecherche.pdf
 
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdfSciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
SciencesPo_Aix_InnovationPédagogique_Conférence_SK.pdf
 
Bibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdfBibdoc 2024 - Ecologie du livre et creation de badge.pdf
Bibdoc 2024 - Ecologie du livre et creation de badge.pdf
 
Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024Presentation de la plateforme Moodle - avril 2024
Presentation de la plateforme Moodle - avril 2024
 
Cours de Management des Systèmes d'information
Cours de Management des Systèmes d'informationCours de Management des Systèmes d'information
Cours de Management des Systèmes d'information
 
PIE-A2-P4-support stagiaires sept 22-validé.pdf
PIE-A2-P4-support stagiaires sept 22-validé.pdfPIE-A2-P4-support stagiaires sept 22-validé.pdf
PIE-A2-P4-support stagiaires sept 22-validé.pdf
 
Bernard Réquichot.pptx Peintre français
Bernard Réquichot.pptx   Peintre françaisBernard Réquichot.pptx   Peintre français
Bernard Réquichot.pptx Peintre français
 
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_IA.pdf
 
PIE-A2-P 5- Supports stagiaires.pptx.pdf
PIE-A2-P 5- Supports stagiaires.pptx.pdfPIE-A2-P 5- Supports stagiaires.pptx.pdf
PIE-A2-P 5- Supports stagiaires.pptx.pdf
 
SciencesPo_Aix_InnovationPédagogique_Bilan.pdf
SciencesPo_Aix_InnovationPédagogique_Bilan.pdfSciencesPo_Aix_InnovationPédagogique_Bilan.pdf
SciencesPo_Aix_InnovationPédagogique_Bilan.pdf
 
Pas de vagues. pptx Film français
Pas de vagues.  pptx      Film   françaisPas de vagues.  pptx      Film   français
Pas de vagues. pptx Film français
 
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
LA MONTÉE DE L'ÉDUCATION DANS LE MONDE DE LA PRÉHISTOIRE À L'ÈRE CONTEMPORAIN...
 
Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024Zotero avancé - support de formation doctorants SHS 2024
Zotero avancé - support de formation doctorants SHS 2024
 
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdfSciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
SciencesPo_Aix_InnovationPédagogique_Atelier_EtudiantActeur.pdf
 
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdfBibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
Bibdoc 2024 - Les maillons de la chaine du livre face aux enjeux écologiques.pdf
 
Pharmacologie des cardiotoniques pour Pharmacie
Pharmacologie des cardiotoniques pour PharmaciePharmacologie des cardiotoniques pour Pharmacie
Pharmacologie des cardiotoniques pour Pharmacie
 
Le Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directeLe Lean sur une ligne de production : Formation et mise en application directe
Le Lean sur une ligne de production : Formation et mise en application directe
 

module-7.pdf

  • 1. KIT DE FORMATION MODULE 7 GESTION AXÉE SUR LES RÉSULTATS: SUIVI-ÉVALUATION ET SYSTÈME D'INFORMATION
  • 2. Sommaire ● Concepts de suivi et d'évaluation dans la GAR ● Différences et complémentarité entre suivi et évaluation ● Mise en œuvre du suivi ● Notions générales sur l'évaluation ● Système d'information en appui au S&E
  • 3. Le Cadre Logique peut être utilisé comme base pour le système de Suivi-Évaluation (S&E) d'un programme ou projet. Les 2ème et 3ème colonnes de la Matrice de Cadre Logique (MCL) fournissent les éléments de fondation d'un système de S&E: elles définissent les indicateurs de performance, fixent les paramètres-cibles à atteindre, et décrivent les sources d'information du système. Basé sur The Logical Framework Handbook de la Banque Mondiale Lien entre le Cadre Logique et le S&E (1/2)
  • 4. Source: FIDA, 2002 Lien entre le Cadre Logique et le S&E (2/2)
  • 6.  Suivi = un processus systématique de vérification de l' efficacité [effets] et l'efficience [produits/extrants] de la mise en œuvre d'une intervention de développement (programme, projet) en vue de: – Apprécier l'avancement des résultats et identifier des insuffisances (ou des écarts); et, – Recommander des mesures correctives pour optimiser les résultats désirés.  Dans le cycle de vie d'un programme, le suivi ne prend place que pendant la phase de mise en œuvre.  Il est basé sur des indicateurs spécifiés durant la phase de formulation du programme. Qu'est-ce que le Suivi?
  • 7.  Gestion Axée sur les Résultats = Stratégie de gestion d'un projet/ programme orientée vers la performance, la réalisation d'extrants et l'accomplissement d'effets directs.  Dans le cas d'une approche GAR, le "bon suivi" équivaut à:  Un suivi continu et systématique;  Une participation des concernés clés d'une intervention de développement; et,  Une attention particulière vis-à-vis de l'atteinte des résultats escomptés.  Dans certains programmes, les concernés clés incluraient les bénéficiaires, l'agence d'exécution, le chargé et les cadres du programme, le ministère de tutelle, etc. Particularité du Suivi en GAR
  • 8.  Impacts: Améliorations générales à moyen et long termes qu'une intervention de développement (politique, programme, projet) apportent à la société.  Effets: Effets initiaux et intermédiaires engendrés par l'intervention de développement en raison de l'utilisation par les bénéficiaires des produits/extrants générés par cette intervention.  Produits/Extrants: Biens et services produits et livrés par l'intervention de développement. Intérêt du Suivi en GAR
  • 9.  Suivi = processus continu de collecte systématique d'information sur les indicateurs choisis d'une intervention de développement en cours.  Évaluation = appréciation systématique de la formulation, de la mise en œuvre, de l'efficience, de l'efficacité, des processus, et des résultats d'un programme/projet en cours ou complétée.  Le suivi est continu, l'évaluation est épisodique ou périodique (effectuée à un moment donné).  L'évaluation peut avoir lieu à différents moments du cycle d'un programme et fait appel le plus souvent à des spécialistes externes, non impliquées dans la mise en œuvre du programme à évaluer. Différence entre Suivi et Évaluation
  • 10. Complémentarité entre Suivi et Évaluation (1/2)
  • 11. Critères Suivi Évaluation Fréquence Régulière, continue Épisodique, périodique Couverture Tous les programmes Certains programmes et aspects Objet Lier les activités et les ressources du programme aux objectifs/résultats Identifier des contributions causales des activités aux objectifs/résultats Positionnement Activité interne Interne, externe, participative Données Générales aux bénéficiaires Basées sur un échantillon Profondeur de l'information Compare les résultats aux cibles Intérêt: QUOI Explore les résultats inattendus Intérêt: POURQUOI Coût Échelonné sur toute la durée Peut être élevé Utilité Gestion et amélioration constante du programme et de la performance Prise de décisions majeures sur un programme Diffusion Rapporte l'avancement et alerte sur des problèmes Fournit leçons et recommandations et signale des réalisations significatives Responsabilité Gestionnaire du programme Évaluateur de concert avec le gestionnaire et le personnel Complémentarité entre Suivi et Évaluation (2/2)
  • 12.  Pour améliorer la performance du programme et la qualité des réalisations.  Pour apprendre des expériences du terrain.  Pour deviser des mesures correctives éclairées et prendre de bonnes décisions.  Enfin, pour s'assurer d' obtenir les résultats escomptés et planifiés lors de la formulation. Pourquoi intervient le Suivi?
  • 13.  Sur tous les sites où intervient le programme.  En impliquant les communautés et les bénéficiaires.  Avec des outils appropriés de collecte de données.  Selon les indicateurs fixés lors de la formulation du programme.  En appréciant quantitativement, qualitativement et en temps réel toutes les réalisations du programme… Où et comment intervient le Suivi?
  • 14. Attention à la résistance!!!
  • 15.  Réfléchir au et planifier le S&E à partir du moment où le programme n'est qu'au stade d'idée (1ère étape du cycle de vie) et durant la phase de formulation.  Impliquer les concernés clés dans le montage du Plan de S&E du programme (promotion d'un accord sur les résultats escomptés et la performance requise, renforcement de l'engagement et de la confiance, etc.).  Faire preuve de fermeté et de rigueur dans la mise en œuvre du Plan de S&E d'un programme. Comment réussir le Suivi?
  • 16.  Fortement recommandé de clarifier les intervenants dans le suivi et de préciser leurs rôles et responsabilités ("Qui fait quoi et quand?")  Fortement recommandé d'impliquer les intervenants identifiés dans le montage du Plan de S&E du programme dès le départ.  Nécessaire de former ces intervenants sur les concepts de S&E, selon les rôles et responsabilités assignés. Qui intervient dans le Suivi?
  • 18. L'évaluation aide à répondre à des questions telles que:  Quels sont les effets et impacts du programme?  Est-ce que le programme évolue tel qu'escompté?  Est-ce que les activités réalisées ont été exécutées telles que planifiées (quantité, qualité, temps)?  Qu'est-ce qui cause les changements relevés par le suivi?  Est-ce que les différences relevées entre les divers sites du programme sont dues à la manière d'opérer du programme?  Qui bénéficie réellement du programme et de ses retombées? Définition de l'évaluation Appréciation systématique et objective d'un projet, d'un programme ou d'une politique, en cours ou terminé, de sa conception, de sa mise en œuvre et de ses résultats, afin de déterminer la pertinence et l'accomplissement des objectifs, l'efficience en matière de développement, l'efficacité, l'impact et la durabilité. Définition et questions de l'évaluation
  • 19. 1. Questions descriptives: montrer ce qui se passe (décrire les processus, les conditions prévalentes, les relations organisationnelles, et les points de vue des divers concernés par le programme). 2. Questions normatives: comparer ce qui se passe avec ce qui était planifié (activités réalisées, objectifs atteints ou non). Peuvent concerner les ressources/intrants, les activités, et les produits/ extrants. 3. Questions de cause à effet: se concentrer sur les résultats et chercher à déterminer dans quelle mesure le programme entraine des changements. Évaluation: 3 questions fondamentales
  • 20. Projet Action de développement unique exécutée sur un seul ou plusieurs sites. Programmes Intervention incluant divers projets contribuant à un objectif commun. Politiques Normes, instructions ou règlements établis par un organisme pour réguler, organiser ou mettre en œuvre des décisions de développement. Organismes Multitude de programmes d'intervention mis en œuvre par un organisme. Secteurs Interventions dans un même secteur tel que l'éducation, la santé, la foresterie, l'agriculture. Thèmes Aspects particuliers transversaux tels que l'équité et l'approche genre, les biens publics globaux. Assistance à un pays Avancement dans le plan national de développement, l'effet de l'aide au développement, et les enseignements tirés. Source: Morra Imas & Rist (2009). Que peut-on évaluer? Que peut-on évaluer?
  • 21. 1. Besoin de preuves évidentes sur ce qui fonctionne (les mauvaises performances et les restrictions budgétaires peuvent nuire!!!). 2. Besoin d'améliorer l'exécution d'un programme et la performance d'un organisme public (améliorer la conception des programmes sociaux et des méthodes de ciblage des bénéficiaires, par exemple). 3. Besoin d'avoir une information fiable sur la durabilité des résultats obtenus par un programme (est-ce que le programme apporte des solutions durables à une problématique en s'attaquant aux causes?). Pourquoi doit-on évaluer une intervention?
  • 22. Évaluation formative: vise à améliorer les performances, le plus souvent effectuée en cours de mise en œuvre d'un programme. S'appelle parfois évaluation de processus pour l'étude des dynamiques internes d'organismes. Exemple: Évaluation à mi-parcours. Sources: OCDE (2002); Morra Imas & Rist (2009). Évaluation sommative: conduite en fin de programme (ou à la fin d'une phase de ce programme), vise à déterminer le niveau d'atteinte des résultats escomptés. S'appelle parfois évaluation ex-post. Exemple: Évaluation d'impact. Évaluation prospective: apprécie les résultats potentiels et objectifs d'un programme avant son démarrage et leur probabilité d'être atteints. Conduite avant le lancement, s'appelle aussi évaluation ex-ante. Exemple: Analyse coûts-avantages. Types d'évaluation et cycle d'un programme (1/2)
  • 23. Types d'évaluation et cycle d'un programme (1/2)
  • 24. Évaluation de programme: évaluation d'un ensemble structuré d'actions de développement pour atteindre des objectifs de développement spécifiques à l'échelle d'un secteur, d'un pays, d'une région, ou global. Évaluation de projet: évaluation d'une action de développement individuelle conçue pour atteindre des objectifs spécifiques avec des ressources et un plan de travail déterminés, souvent dans le cadre d'un programme plus large. L'évaluation peut être: • Interne: par des évaluateurs dépendants du bailleur ou de l'organisme. • Externe: par évaluateurs externes au bailleur et à l'organisme. • Indépendante: par des évaluateurs non liés aux responsables de la conception et de l'exécution. Évaluation de projet ou de programme
  • 25. Pertinence (Relevance) Mesure selon laquelle les objectifs d'un programme correspondent aux attentes des bénéficiaires, aux besoins du pays, aux priorités globales, aux politiques des partenaires et des bailleurs de fonds. Efficacité (Effectiveness) Mesure des résultats atteints - ou en voie de l'être - d'un programme, compte tenu de leur importance relative. Efficience (Efficiency) Mesure selon laquelle les ressources d'un programme sont converties en produits/extrants au meilleur coût. Nécessite parfois une analyse économique de différentes alternatives. Impact (Impact) Appréciation des effets à long terme, positifs et négatifs, primaires et secondaires, induits par un programme, directement ou non, intentionnellement ou non. Durabilité (Sustainability) Appréciation de la continuation des bénéfices résultant d'une action de développement après la fin d'un programme. Probabilité d'obtenir des bénéfices à long terme. Source: OCDE (2002) Quoi évaluer: les 5 grands critères
  • 26. Source: Adapté de Rodriquez-Garcia & Kusek (2007). Traduit par MM Évaluation dans une perspective GAR
  • 27. En règle générale, une évaluation devient nécessaire quand les données des mesures régulières de l'unité de suivi montrent que la performance en cours est clairement et significativement différente de celle planifiée. Source: Adapté de Kusek & Rist (2004) par MM Planifié Réalisé EMP EI EMP EI EMP EI Évaluation à mi-parcours Évaluation d'impact Quand l'évaluation devient-elle nécessaire?
  • 28. Une théorie du changement décrit un plan de changement social qui va de la formulation des hypothèses avant la conception à la définition des objectifs à long terme. Cette théorie est souvent présentée sous forme de schéma (modèle logique) qui analyse les liens entre les ressources et les résultats. Il est souvent présenté sous forme de tableau énumérant les étapes, des données ou ressources jusqu'à la réalisation de l'objectif visé par le programme (cadre logique). Source: Grantcraft (2006) Construire une théorie du changement permet à l'évaluateur de:  Comprendre la philosophie sur laquelle est basée le programme.  Examiner l'évidence existante à travers une synthèse de recherche.  Voir un programme complexe comme un ensemble de chaines d'intervention visant des changements de comportement. Théorie de changement et Évaluation
  • 29. Méthodes quantitatives: apprécier de manière chiffrée certains aspects de l'objet évalué. Conviennent mieux pour formuler statistiquement une conclusion généralisable. Exemple: Enquête-questionnaire. Défi: Échantillonnage (question de validité externe). Méthodes qualitatives: très souvent utilisées pour aller en profondeur des aspects qualitatifs de l'objet évalué. Conviennent bien pour leur flexibilité et leur utilisation rapide. Exemple: Focus groupe. Défi: Rôle de facilitateur pour l'évaluateur. Méthodes mixtes: combinaison complémentaire de méthodes quantitatives et qualitatives afin de collecter des données quantifiables et des appréciations qualitatives. Exemple: Observation directe pendant une entrevue d'enquête- questionnaire. Défi: Bonne combinaison méthodologique et souci de triangulation. Évaluation et méthodes de collecte (1/2)
  • 30. Entretien avec des individus concernés Forum communautaire Méthodes informelles / peu structurées Visites terrain Revue de registres officielles (SIG et données admin.) Observation participative Entrevue avec des personnes bien informées Focus Groupe Enquête Questionnaire Sondage de panel Expérimentation au champ Recensement Méthodes formelles / plus structurées Observation directe Sources: Kusek & Rist (2004); Morra Imas & Rist (2009). Traduction de l'anglais par MM 30 Évaluation et méthodes de collecte (2/2)
  • 31. Évaluation participative: Méthode collective d'évaluation selon laquelle concernés et bénéficiaires collaborent pour concevoir et conduire une évaluation et en tirer les conclusions. Ses principes de base sont: Sources: OCDE (2002); Morra Imas & Rist (2009)  Implication des bénéficiaires dans la fixation d'objectifs et des priorités, la sélection des questions et la prise de décisions.  Appropriation par les participants de l'évaluation.  Assurance que l'évaluation se concentre sur les méthodes et résultats qui sont importants aux participants.  Participants travaillant ensemble, facilitant et promouvant l'unité du groupe.  Tous les aspects de l'évaluation sont compréhensibles et pertinents à tous les participants.  Évaluateurs agissant comme des facilitateurs; participants agissant comme preneurs de décision et évaluateurs. Évaluation participative et programmes sociaux
  • 32.  Fait partie des méthodes contribuant à l'apprentissage des spécialistes du développement et à l'amélioration de la conception des politiques et programmes.  S'intéresse spécialement aux relations de cause à effet dans les programmes (structuré autour d'une question-clé: quel est l'impact – ou l'effet causal – d'un programme sur un résultat donné?). Cette dimension causale est primordiale.  Vise à déterminer quels changements peuvent être attribués directement et exclusivement au programme. Évaluation d'impact: causalité et attribution
  • 33.  L'impact d'un programme est la différence entre les effets observables engendrés par ce programme et ceux observés lorsque celui-ci n'intervient pas.  Défi: il est difficile d'observer simultanément la situation des bénéficiaires… Avec le programme… … et sans le programme! Qu'est-ce que l'impact en GAR?
  • 34.  Pour estimer l'impact (ou effet causal) d'un programme, besoin d'un contrefactuel, i.e. le résultat obtenu par les bénéficiaires si le programme n'était pas là.  Pour estimer le contrefactuel, on a besoin de trouver un groupe témoin (ou groupe de comparaison) conforme à ces critères:  Le groupe témoin doit avoir les mêmes caractéristiques que le groupe des bénéficiaires du programme;  La seule différence entre les deux groupes est que les membres du groupe témoin n'ont pas bénéficié du programme. Évaluation d'impact: nécessité d'un contrefactuel
  • 35.  Avant-après (ou pré-post): Comparer simplement les résultats dans le groupe de bénéficiaires avant et après la mise en œuvre du programme. Il y a plusieurs d'autres facteurs variables dans le temps susceptibles d'avoir aussi influencé les résultats observés. !  Avec-sans: Comparer simplement des éléments ayant accepté de participer au programme avec des éléments ne participant pas au programme. Ceux qui ne participent pas au programme peuvent différer systématiquement de ceux qui y participent. Évaluation d'impact: 2 erreurs souvent commises !
  • 36. Dispositifs expérimentaux: aléatoires, généralement considérés comme les plus robustes des dispositifs d'évaluation. Avec un groupe témoin, présentent une parfaite comparaison contrefactuelle libre des différents biais et distorsions. Avec une comparaison avant-après, permettent d'apprécier la contribution réelle d'un programme. Dispositifs quasi-expérimentaux: utilisés quand une composition aléatoire des groupes à comparer n'est pas possible. Moins robustes que les dispositifs expérimentaux, sont utilisés selon le contexte et les ressources disponibles. Évaluation d'impact: dispositifs d'étude
  • 37. Mise en œuvre d'une évaluation
  • 38. Conclusions d'une évaluation  Fournir des réponses claires et précises aux questions d'évaluation posées dans les TdR (montrer des liens de causalité).  Très souvent, présence de jugements de valeur (conflits potentiels).  Par éthique, une conclusion doit être liée aux données et analyses.  Toute question doit trouver réponse dans les conclusions. Sinon…  Limites méthodologiques et contextuelles: montrer la robustesse du lien entre données et conclusions et si les constats sont généralisables. Recommandations d'une évaluation  Représentent des suggestions pour améliorer, réformer ou renouveler le programme.  Dérivent d'une ou plusieurs conclusions vis-à-vis de problèmes.  Sont priorisées et hiérarchisées avec des destinataires précisés. Source: Euréval(2010) Conclusions et recommandations d'évaluation
  • 39. Diffusion des résultats d'évaluation  Étape à part entière du processus évaluatif, après la production et validation du rapport d'évaluation, mais prévue dès le départ.  Étape indispensable pour l'utilisation de l'évaluation par des utilisateurs potentiels (impératif de transparence).  Selon les différents utilisateurs, différents supports de communication utilisés. Utilisation des résultats d'une évaluation  Préparer des décisions, aider à formuler des jugements, à connaître les effets d'un programme.  Peut être de différente façon pour différents utilisateurs.  Doit être anticipée et guider la démarche d'évaluation depuis le début. Source: Euréval(2010) Diffusion/utilisation des résultats d'évaluation
  • 41. Source: FIDA, 2002 S&E et Rapportage: utilité d'un système d'info 1. Élaboration de la matrice du cadre logique de l'intervention Indicateurs Sources de vérification 2. Développement de la matrice de suivi-évaluation Indicateurs Données de départ Conception de l’intervention Démarrage de l’intervention Paramètres Formulaire d’enregistrement Formulaire de regroupement Entité 1 Entité 2 Entité 3 25% 25% 3. Enregistrement et regroupement des données Regroupement dans une base de données ou un tableur 4. Analyse visant à dégager des conclusions 5. Communication des résultats 25% 25% Implémentation et concrétisation de l’intervention Conception d'un système d'information de gestion en appui au S&E
  • 42. Après finalisation du cadre logique du programme, il s'agira d'élaborer un plan de suivi-évaluation du programme incluant:  La définition de la méthodologie de collecte des données du suivi (sources, périodicité, mode de transmission, etc.);  La définition de la méthodologie de traitement et d’analyse des données collectées;  Le désignation des formats des supports de diffusion de l'information du suivi;  La définition de la méthodologie des différentes évaluations du programme et l'élaboration de leurs termes de référence;  La définition de la méthodologie de conduite des différents audits (institutionnels et techniques), si besoin, et l’élaboration des termes de référence y afférent… Après le Cadre Logique, le Plan de S&E…
  • 43. Après l'élaboration d'un plan de suivi-évaluation du programme , il s'agira de concevoir et de mettre en place du Système d’information de Gestion en appui au suivi-évaluation du programme, incluant:  L'élaboration d'un état des lieux en matière de système d'information (infrastructures, protocoles, liaisons, etc.);  L'analyse conceptuelle et fonctionnelle du système d'information existant et la détection des gaps par rapport aux besoins du suivi-évaluation du programme en question;  La mise en forme de la base de données du S&E;  La programmation de l'application devant gérer la base de données du S&E;  La finalisation de l'implantation du système d'information;  La formation des utilisateurs du système d'information. Après le Plan de S&E, le Système d'Information…
  • 44. Définition d'une base de données En général, une base de données est un ensemble organisé de documents, généralement structuré en colonnes et sous forme tabulaire. Pour ce qui est des bases de données électroniques, les spécialistes des sciences informatiques parlent d'un ensemble de données structuré et organisé afin qu'une application informatique puisse sélectionner rapidement les éléments désirés dans cet ensemble. La forme de base de données la plus courante dans le monde est la base de données relationnelle. Dans une telle base de données, toutes les données ne sont pas stockées dans le même tableau mais dans de différents tableaux liés entre eux. Système d'Info: centralité des bases de données
  • 45.  Rendre les données immédiatement disponibles en cas de besoin;  S'assurer toujours de la disponibilité des données dans un format facilitant différentes analyses sans effectuer des calculs manuels;  Être plus efficace et précis dans la gestion et l'utilisation des données;  Permettre la comparaison de différents ensembles de données;  Traiter de grandes quantités de données rapidement et avec précision;  Réduire le temps passé dans la gestion des données en réduisant les processus d'analyse des données;  Transformer des données disparates en information consolidée;  Améliorer la qualité, la rapidité et la cohérence de l'information;  Soutenir l'analyse spatiale à l'aide d'un système d'informations géographiques (SIG) et la représentation des données sur les cartes pour une compréhension facile par les décideurs… Avantages d'une base de données de S&E
  • 46.  Ne jamais compter sur la technologie pour "apporter toutes les réponses" à elle seule en matière de S&E.  Prendre en considération la politique gouvernementale en matière de TIC dans le cas de bases de données des entités publiques.  Veiller quotidiennement à la fonctionnalité et la sécurité d'une base de données afin d'assurer l'intégrité, la disponibilité et la qualité des données.  Identifier quelles données doit contenir la base de données.  Déterminer quel logiciel ou application utiliser pour l'analyse.  Savoir que la disponibilité d'un logiciel d'analyse spatiale est utile.  Prendre toutes les mesure nécessaires pour relier une nouvelle base de données à d'autres bases existantes (transfert de données)  Identifier dès le départ les besoins en renforcement de capacités en matière de conception et de gestion pour améliorer l'utilisation de la base de données et l'accès à l'information. Usage de bases de données: ce qu'il faut retenir!!!
  • 47. Merci pour votre attention. Site de l'AfCoP: http://cop-mfdr-africa-fr.ning.com/