L’évaluation constitue l’un des actes les plus complexes de la pratique enseignante. En comprendre les difficultés améliore l’efficacité de l’enseignement
GIÁO ÁN DẠY THÊM (KẾ HOẠCH BÀI DẠY BUỔI 2) - TIẾNG ANH 6, 7 GLOBAL SUCCESS (2...
Evaluer les acquis des étudiants
1. Quand la coutume tient
lieu de compétence : Les
pratiques d’évaluation des
acquis à l’université. Romainville, M. (2006)
Assessment: The Silent
Killer of Learning.
Mazur, E. (2006)
2. Evaluer les acquis
des étudiants
Jean-Loup Castaigne
Conseiller pédagogique
Atelier pédagogique
3. Les objectifs de l’atelier
A la fin de l’atelier les participants seront
capables
• de porter un regard critique sur des pratiques
d’évaluation au regard de cadres de référence,
• d’adopter des pratiques d’évaluation qui
respectent la triple concordance et
• de prendre conscience de l’importance de la
scénarisation de l’évaluation des
apprentissages.
4. Méthodes d’évaluation
Oral 12
Rapport (+Oral) 8
QROM 3
QCM 6
Observation 1
Examen écrit 1
Connaissances 8
Expression/Présentatio
n 7
Synthèse 5
Propositions 2
Recherches document. 2
Analyse 1
Citer 1
Compréhension 1
Discuter 1
Ecouter une question 1
Fond 1
Gestion du temps 1
Transposition 1
5. Evaluer signifie
• recueillir un ensemble d'informations
suffisamment pertinentes, valides et fiables
• et examiner le degré d'adéquation entre
cet ensemble d'informations et un
ensemble de critères adéquats aux
objectifs fixés […]
• en vue de prendre une décision.
De Ketele, J.M., (1989). L’évaluation de la productivité des institutions d’éducation, Cahiers de la Fondation Universitaire : Université et
société, le rendement de l’enseignement universitaire.
7. Clarification
Apprentissages visés
Valeurs, finalités et buts
Méthodes
d’enseignement
Méthodes
d’évaluation
Tyler, R. W. (1949). Basic principles of curriculum and instruction. Chicago: University of Chicago Press.
8. Répartition des savoirs
Arts et
humanités
Sciences et
technologies
Professionnel
Cognitif Cognitif
Cognitif
Psycho
moteur
Psycho
moteur
Psycho
moteur
Socio
affectif
Socio
affectif
Socio
affectif
Barnett, R., & Coate, K. (2005). Engaging the Curriculum in Higher Education. Maidenhead : Open University Press.
9. Observation
McConnell, D. A., Steer, D. N., & Owens, K. D. (2003). Assessment and Active Learning Strategies for Introductory Geology
Courses. Journal of Geoscience Education, 51 (2), 205-216
11. Interprétation
• Evaluer – Certifier - Noter –Mesurer
• L'effet Pygmalion ou la prophétie auto-
réalisatrice
• La sous estimation du plagiat
• Loi de Posthumus ou la distribution
gaussienne des notes
• Exigences et pondération de points varient
selon les enseignants
Rosenthal & Jacobson (1968)
De Landsheere (1992)
Six Degres (2008)
Crahay (2007)
12. Interprétation
• Réduire la subjectivité
Critère Niveau excellent Niveau bien Niveau insuffisant
Projet de
formation
(Le candidat se
projette comme
un étudiant de
l’ensa de Lyon)
Son projet de
formation est élaboré,
construit.
et/ou
Il présente des liens
forts avec les
différentes disciplines
enseignées en ensa.
et/ou
L’ensa de Lyon
correspond idéalement
idéalement à son
projet (DEM, domaine
de recherche,…).
Son projet de
formation est esquissé.
Son projet de
formation n’est pas
clair.
et/ou
Il présente des liens
avec une seule ou
aucune discipline
enseignée en ensa.
et/ou
N’importe quelle ensa
pourrait convenir à son
son projet.
14. Interprétation
• La rétro action / le feedback
Brassard, N. (2012), Evaluation et rétroaction : comment en tirer parti ?,
in Le Tableau – Echange de bonnes pratiques entre enseignants de niveau universitaire, vol. 1, n°4, 2012
débuter avec une force de l’étudiant
Élément
positif
terminer sur une note positive
Élément
positif
donner des suggestions précises
pour améliorer le travail
Défis
15. Conclusion
• Le moment
o Évaluation formative
o Évaluation certificative / sommative
o Évaluation des pré requis / acquis
• L’objet
o Le produit
o Le process
• L’évaluateur
o Expert
o Pairs
o Auto évaluation
16. Bibliographie … sur Moodle
• Daele, A., & Berthiaume, D. (2011). Choisir ses stratégies d’évaluation . UniL / CSE.
• Gérard, F.-M. (2002). L’indispensable subjectivité de l’évaluation. Antipodes, (156),
26-34.
• McConnell, D. A., Steer, D. N., & Owens, K. D. (2003). Assessment and Active
Learning Strategies for Introductory Geology Courses. Journal of Geoscience
Education, 51 (2), 205-216.
• Therer, J. (1999). Evaluer pour évoluer. Eléments de docimologie. Liège, Belgique :
Les Editions de l’Université de Liège.
• Romainville, M. (2002). L’évaluation des acquis des étudiants dans l’enseignement
universitaire (Rapport établi à la demande du Haut Conseil de l’évaluation de
l’école). Paris : Ministère de l’éducation nationale.
• …
Bienvenue à l’atelier “ ” proposé en partenariat par l’ENSAL et l’ENTPE avec le soutien pédagogique du réseau PENSERA, réseau qui soutient le développement professionnel des CP de la région et le soutien financier de la région Rhône-Alpes
Pour vous permettre de mieux restés concentrés pendant l’atelier on vous propose de vous restaurer, boire ou d’utiliser les toilettes quand vous en avez besoin afin de rester disponible et concentré le reste du temps.
Pour favoriser les échanges on vous propose de respecter une confidentialité de ce qui est échangés dans le cadre de l’atelier,
et d’adopter une attitude constructive = parler librement, pas de jugement, faire preuve de bienveillance
Présentation des animateurs.
L’atelier s’intéresse aux pratiques évaluatives mais n’a pas pour ambition de travailler sur chaque méthode d’évaluation en profondeur. Si vous avez besoin de travailler sur une méthode en particulier, il y a l’accompagnement par le CP de votre établissement ou la possibilité de vous inscrire à l’atelier niveau 2 : des outils pour évaluer.
3 éléments dans la définition de De Ketele.
Recueil (processus)
Analyse qui comprend nécessairement la clarification des objectifs visés (jugement)
Décision (décision)
Selon Barbier (1990)
Pour le recueil, il parle de validité (cohérence, est-ce que l’évaluation mesure ce qu’elle prétend mesurer ?) et de fiabilité (constance, la même épreuve à des moments différent ou avec des évaluateurs différents doit fournir des éléments comparables)
On comprend qu’évaluer c’est produire de l’information « éclairante » pour prendre une décision. C’est une aide à la décision.
Therer, J. 1999. L'évaluation fait partie intégrante de notre culture [...] Que nous le voulions ou non, nous portons continuellement des jugements sur les êtres et les choses et, réciproquement, nous sommes sans cesse évalués.
Depuis mais 1968, certaines doctrines pédagogiques prônent la suppression pure et simple des examens [...] Cette position est bien sûr indéfendable [...] la question n'est pas de savoir s'il convient ou non d'évaluer, mais bien de savoir quelles sont les conditions pour que nos évaluations soient aussi pertinentes et objectives que possibles.
Cette définition va être précisée par JL.
Rappel du tableau de synthèses de Daele et Berthiaume (9 cases) dans fiches expert 2
Conceptests were developed as part of the peer instruction technique used to teach physics (Mazur, 1997)
Venn diagram are a graphical method for comparing and contrasting features or phenomena (les ensembles en math)
Image analysis (Reynolds and Peacock, 1998) chaque étudiant 1) observe une image, liste ses observations (3 min, 10 max), dessine les éléments clefs observés,… 2) compare avec 1 pair 3) partage 1 obs avec la classe entière. 4A) Enseignants mettent en évidence les observations les plus pertinentes par rapport au sujet qu’ils détaillent, introduisant les nouveaux concepts et les illustrant. 4B) binomes étu génèrent des questions par rapport aux observations et les réponses possibles.
Open-ended or divergent questions do not necessarily have a specific correct answer. King (1995) used a series of generic question stems to prompt students to generate questions related to lecture and reading assignments. A minute paper ( After your lecture, ask students to take 2-3 minutes to write down the three main ideas of the lecture. Data Analysis: Compare your list to student lists or give your list to students and have them make comparisons. Discuss discrepancies.) OU Muddiest Point exercise (“What was the most confusing idea presented in today’s lecture?”) (Angelo and Cross, 1993).
JLC
CR 17:12
Pour interpréter c’est-à-dire analyser les preuves de l’apprentissage, il faut être au clair avec les objectifs de l’évaluation :
Est-ce certifier, noter, mesurer ?
Certifier C’est garantir à la société que l’étudiant a rencontrer les buts de l’enseignement et les objectifs du cours, chaque enseignant partage la responsabilité individuellement et en jury de la qualité de l’étudiant à remplir son rôle dans la société au regard de l’habilitation
Noter C'est attribuer, en fonction d'un barème, une appréciation synthétique à une performance ou un comportement.
Coter C'est attribuer une cote, c'est-à-dire une note chiffrée. Le concept est plus restrictif que celui de notation.
Mesurer : C'est associer un nombre à des éléments qui peuvent être des objets, des stimulus, des protocoles de réponse… Au sens strict, la mesure est toujours quantitative. Au sens large, notamment en évaluation pédagogique, les chiffres n'ont pas la valeur de nombre réel ; ils constituent de simples points de repère. Ex: mesurer la hauteur
Donc l’évaluation transcende la simple « mesure » des capacités puisqu’elle peut être qualitative et diagnostique. Elle constitue une aide à la décision qui dépasse la certifcation et la notation.
Rosenthal & Jacobson (1968) L'effet Pygmalion. La perception que l'on a 'autrui induit des attentes et une attitude plus ou moins positive envers ces derniers. Ces attentes se trouveraient confirmée par la suite non seulement au niveau des jugements mais aussi au niveau du comportement d'autrui. Influence des préjugés sur la réussite scolaire des étudiants, on sait que les élèves qui appartiennent à des groupes dits stigmatisés réussissent moins bien.
Plagiat fausse le résultat de l’évaluation. Il est souvent sous-estimé comme le montre des études. Parmi les étudiants qui incluent au moins 25% de « copier -coller » dans leurs devoirs, 7 sur 10 (71,4%) considèrent avoir « rarement » recours au « copier-coller ».
----------9 de 10 étudiants utilisent Internet pour se documenter et déclarent avoir recours au “copiercoller”. 5 étudiants sur 10 (54,4 %) pensent qu’un devoir type contient au
moins 1/4 de textes recopiés sur Internet. 25 % des étudiants pensent qu’un devoir type contient au moins 50% de textes recopiés sur Internet. Parmi ceux qui incluent au moins 25% de “copier-coller" dans leurs devoirs, 7 étudiants sur 10 (71,4%) considèrent avoir « rarement » recours au “copier-coller”.
Posthumus ou effet de tendance centrale : C’est l’idée que l’évaluation doit aboutir à une distribution gaussienne des notes. La réussite des élèves est largement tributaire de la classe qu’ils fréquentent. Le niveau de compétences atteint par l’élève et l’ampleur de ses progrès déterminent moins sa réussite que sa position relative dans le groupe classe.
Un enseignant tend à ajuster le niveau de son enseignement et ses appréciations des performances des élèves de façon à conserver d'année en année, approximativement une même distribution gaussienne de notes. L'évaluation pratiquée par les enseignants présente statistiquement un caractère normatif, c'est à dire qu'il s'attache à situer les élèves les uns par rapport aux autres, plutôt que par rapport à des objectifs ou des compétences préétablis.
référence à une norme versus référence à un critère absolu
Diversité considérable dans la difficulté des questions supposées évaluer le même objectif.
Renvoie à la subjectivité qu’il est possible d’encadrer cf plus loin.
Quelques pistes pour améliorer l’équité des notes :
Définir et communiquer les critères d’évaluation
Etre conscient de ses valeurs et préjugés
Connaître ses limités, s’arrêter d’évaluer quand on est fatigué ou irritable
Re-noter les 1er travaux pour vérifier
CR
Il est illusoire de vouloir supprimer la subjectivité qui est inhérente à l’activité d’évaluation. Par contre il est possible de l’encadrer avec par exemple les grilles critériées.
Elle :
Détaille les critères servant à évaluer/interpréter
Détaille les niveaux de performance (indicateurs) pour chaque critère (descripteurs)
Aide à accroître la fiabilité de l’interprétation (inter et intra)
Aide à accroître la quantité et la qualité du feed-back rendu aux étudiants
2. exemple d'un critère
3. exemple d'une grille
Important de la communiquer aux étudiants pour les aider à préparer les épreuves et à identifier les exigences des enseignants.
La note n’est pas suffisante pour évaluer son niveau et les améliorations à apporter.
L’évaluation qui se limite à exprimer un chiffre au dépend du diagnostic (rétroaction) privilégie la sanction au lieu de l’apprentissage.
Que penser d’un médecin qui se bornerait à informer son patient que sa santé vaut « 12 sur 20 » ?
Est-ce qu’on aurait confiance avec un pilote qualifié à 12/20 ? C’est-à-dire qu’il ne maîtrise pas 40% des apprentissages ?
Dans toute production : il y a des points positifs et des points à améliorer
Il est donc important d’être précis dans la rétroaction pour indiquer clairement à l’étudiant ce qu’il doit reproduire et ce qu’il doit améliorer.
Pour la rédaction des commentaires, Il est préférable de se référer à l’apprentissage et aux objectifs à atteindre plutôt qu’à la personne.
La rétroaction doit permettre une amélioration de l’apprentissage tout en préservant l’estime de soi de l’étudiant car on sait qu’elle est essentielle pour l’engagement et la motivation de l’étudiant. Pour cela Nancy Brassard propose de commencer par du positif et de terminer aussi par du positif.
S’il reste du temps : évaluation normative vs. critériée, moment de l’évaluation en lien avec Contrôle Continu,…
Quelle définition du Contrôle continu dans les textes du MENSR = le progrès ?
Document très synthétique de Daele et Berthiaume (université de Lausanne) qui précise les aspects à considérer pour évaluer les apprentissages des étudiants. Pourquoi on évalue, les différentes phases de du processus d’évaluation, les 3 niveaux d’évaluation par domaine d’objectifs, analyse de quelques méthodes d’évaluation des apprentissages, comment tendre vers l’objectivité « procédurale » avec notamment les grilles critériées..
Document de François-Marie Gérard (psychopédagogue belge). Tous les niveaux de subjectivité de l’évaluation. Pourquoi elle est nécessaire ?
Document de Jean Therer (université de liège), pour prendre en compte les différents facteurs susceptible de biaiser l’évaluation. Il insiste sur la transparence des critères d’évaluation, l’objectivité dans l’appréciation, la valeur formative de l’évaluation…
Document de Marc Romainville (université de namur). Dresse un état des lieux des connaissances concernant l’évaluation des acquis des étudiants. Il s’interroge sur comment améliorer les pratiques d’évaluation à l’université.
et d’autres…
= + éval atelier
Et accompagnement