Le MOOC (cours en ligne ouvert et massif) est un type récent de formation à distance d’un cours accessible à tous en ligne et sans restrictions quant au nombre de participants (Educause, 2013). L’évaluation des apprentissages en ligne est parmi les plus importantes préoccupations dans ce type de formation. En effet, même les MOOCs de plus petite envergure rendent l'évaluation traditionnelle laborieuse. Pour ceux accueillant plus de 150 000 participants pour un seul cours (Gee, 2012) la question de l'évaluation des apprentissages demande, sans contredit, des ajustements. En effet, des méthodes d’évaluation inadéquates pourraient porter préjudice à la valeur des MOOCs et aux certifications délivrées. Cette conférence exposera donc une revue de littérature portant sur les outils d’évaluations utilisés dans les MOOCs. Afin de mener à terme cette synthèse de recherche, des bases de données importantes d’articles scientifiques en éducation ont été consultées. Parmi les résultats principaux, on observe que l’évaluation par les pairs est une méthode d’évaluation appréciée par les concepteurs de MOOCs. De plus, lorsque cette méthode est utilisée, les étudiants évaluent leurs pairs en leur attribuant une note supérieure à ce que le personnel de l’établissement d’enseignement attribue habituellement (Kulkarni, et al., 2013). À la suite de cette synthèse de recherche, on peut affirmer que plus d’études se doivent d’être entreprises afin d’étudier et de raffiner les méthodes d’évaluation les plus adaptées lorsque l’on offre des formations à des milliers, voire des centaines de milliers d’étudiants.
Atelier colloque e-learning 3.0 TECFA évaluation par les pairs - 18-10-2014Rémi Bachelet
Le partage de mes autres contributions sur les MOOC http://goo.gl/FXyS3
Diapos pour la partie "évaluation par les pairs de l'atelier TECFA du 18-10-2014
Qpes 2017 atelier intégrer un mooc supports animationRémi Bachelet
Support d'animation de notre atelier colloque QPES 2017
https://twitter.com/R_Bachelet/status/874590592956870656
Lors de QPES 2015, l’intégration de MOOC dans les formations d’enseignement supérieur était le fait de quelques enseignants novateurs ; désormais ces dispositifs sont de plus en plus répandus. Si l’on se base sur le MOOC Gestion de Projet, entre l’édition de septembre 2014 et celle de septembre 2016, le nombre d’établissements partenaires a augmenté de 37 % passant de 19 à 26 (et de 23 formations différentes et 1295 étudiants actifs à 32 formations différentes et 2326 étudiants actifs). D’après des recherches de références sur le sujet (Jiang et al., 2014 ; Delgado Kloos et Al., 2015 ; Soffer & Cohen, 2015), on peut penser que cette tendance au déploiement d’hybridations de MOOC va encore connaître un fort développement dans les années à venir. Dès lors, l’enjeu pour les acteurs de l’enseignement supérieur - équipes productrices de MOOC et enseignants utilisateurs des MOOC -, est de passer d’un mode expérimental à un savoir-faire étayé par des méthodes et des outils. Cette diffusion de ce savoir-faire est la condition pour : développer à plus grande échelle des dispositifs hybrides inter-établissements dans une démarche de respect mutuel où les parties ont tout à gagner ; donner l’autonomie à l’enseignant pour concevoir et piloter son dispositif par nature unique car dépendant du contexte local et des objectifs pédagogiques (l’enseignant comme “learning designer” dans L. Albo, D.D. Hernández-Leo, 2016). Cet atelier s’appuie sur notre expérience d’accompagnement des partenaires du MOOC GdP et sur les outils que nous avons développés à cette occasion. Via la simulation en petits groupes d’une intégration d’un MOOC dans une formation d’enseignement supérieur, il a pour objectif : de favoriser l’appropriation de ces outils, savoir-faire et méthodes pratiques ; de mettre en contact des équipes productrices de MOOC et des enseignants utilisateurs.
conférence educpros du 26/9/2014- Les moocs faut-il encore y aller ?Rémi Bachelet
mes autres contributions et vidéos sur le sujet : http://gestiondeprojet.pm/mes-contributions-sur-les-mooc/
MOOC, faut-il encore y aller ? Si oui comment ?
Évènement EducPros
Paris– 26 sept 2014
Spécificités de la scénarisation pédagogique des mooc – 6° rencontres fol de ...Rémi Bachelet
Quelles sont les spécificités de la scénarisation pédagogique des MOOC ? 6° rencontres de la e-formation
http://eformation.ente-aix.fr/eformation2014/ressources.html
60 oppe numérique au service de l'enseignement de l'entrepreneuriat 10 12-2014Rémi Bachelet
Le numérique au service de l'enseignement de l'entrepreneuriat
Journées OPPE - APCE
Novancia, Paris – 10 décembre 2014
Entrepreneuriat & MOOC
Quelle offre ?
Pourquoi tant de MOOC en entrepreneuriat ?
Suivre un MOOC : Programme, activités : un exemple concret
Quelle utilité des MOOC pour les créateurs d’entreprise ?
Les entrepreneurs sont-ils le meilleur public possible pour les MOOCs ?
Atelier colloque e-learning 3.0 TECFA évaluation par les pairs - 18-10-2014Rémi Bachelet
Le partage de mes autres contributions sur les MOOC http://goo.gl/FXyS3
Diapos pour la partie "évaluation par les pairs de l'atelier TECFA du 18-10-2014
Qpes 2017 atelier intégrer un mooc supports animationRémi Bachelet
Support d'animation de notre atelier colloque QPES 2017
https://twitter.com/R_Bachelet/status/874590592956870656
Lors de QPES 2015, l’intégration de MOOC dans les formations d’enseignement supérieur était le fait de quelques enseignants novateurs ; désormais ces dispositifs sont de plus en plus répandus. Si l’on se base sur le MOOC Gestion de Projet, entre l’édition de septembre 2014 et celle de septembre 2016, le nombre d’établissements partenaires a augmenté de 37 % passant de 19 à 26 (et de 23 formations différentes et 1295 étudiants actifs à 32 formations différentes et 2326 étudiants actifs). D’après des recherches de références sur le sujet (Jiang et al., 2014 ; Delgado Kloos et Al., 2015 ; Soffer & Cohen, 2015), on peut penser que cette tendance au déploiement d’hybridations de MOOC va encore connaître un fort développement dans les années à venir. Dès lors, l’enjeu pour les acteurs de l’enseignement supérieur - équipes productrices de MOOC et enseignants utilisateurs des MOOC -, est de passer d’un mode expérimental à un savoir-faire étayé par des méthodes et des outils. Cette diffusion de ce savoir-faire est la condition pour : développer à plus grande échelle des dispositifs hybrides inter-établissements dans une démarche de respect mutuel où les parties ont tout à gagner ; donner l’autonomie à l’enseignant pour concevoir et piloter son dispositif par nature unique car dépendant du contexte local et des objectifs pédagogiques (l’enseignant comme “learning designer” dans L. Albo, D.D. Hernández-Leo, 2016). Cet atelier s’appuie sur notre expérience d’accompagnement des partenaires du MOOC GdP et sur les outils que nous avons développés à cette occasion. Via la simulation en petits groupes d’une intégration d’un MOOC dans une formation d’enseignement supérieur, il a pour objectif : de favoriser l’appropriation de ces outils, savoir-faire et méthodes pratiques ; de mettre en contact des équipes productrices de MOOC et des enseignants utilisateurs.
conférence educpros du 26/9/2014- Les moocs faut-il encore y aller ?Rémi Bachelet
mes autres contributions et vidéos sur le sujet : http://gestiondeprojet.pm/mes-contributions-sur-les-mooc/
MOOC, faut-il encore y aller ? Si oui comment ?
Évènement EducPros
Paris– 26 sept 2014
Spécificités de la scénarisation pédagogique des mooc – 6° rencontres fol de ...Rémi Bachelet
Quelles sont les spécificités de la scénarisation pédagogique des MOOC ? 6° rencontres de la e-formation
http://eformation.ente-aix.fr/eformation2014/ressources.html
60 oppe numérique au service de l'enseignement de l'entrepreneuriat 10 12-2014Rémi Bachelet
Le numérique au service de l'enseignement de l'entrepreneuriat
Journées OPPE - APCE
Novancia, Paris – 10 décembre 2014
Entrepreneuriat & MOOC
Quelle offre ?
Pourquoi tant de MOOC en entrepreneuriat ?
Suivre un MOOC : Programme, activités : un exemple concret
Quelle utilité des MOOC pour les créateurs d’entreprise ?
Les entrepreneurs sont-ils le meilleur public possible pour les MOOCs ?
Les CLOM/MOOC et les modèles pédagogiques de formation en ligne.Gilbert Paquette
Cet exposé est présenté au colloque des entretiens Jacques Cartier, le 3 octobre, à l'Université d'Ottawa. On y présente l'état actuel des Cours en ligne ouverts et massifs (CLOM/MOOC) en les comparant aux modèles de formation en ligne implantés depuis quelques décennies. On y analyse les voies de solution pour personnaliser les apprentissages, en dépit du grand nombre de participants répartis sur tous les continents. On y présente également les projets en cours à la Télé-université du Québec
Augmenter la persévérance dans les CLOM / MOOC? Possible!Claude Coulombe
Les problèmes de décrochage et d’abandon sont bien connus en formation à distance. C'est d'ailleurs le problème central des CLOM (MOOC), depuis leur origine et l’argument clé de leurs détracteurs. Une fourchette de 5 à 10% est souvent mentionnée dans la littérature scientifique comme le pourcentage des participants inscrits qui complètent un CLOM.
Avec plus du tiers des participants actifs et 20 % des inscrits qui ont complété le cours, les CLOM de la TÉLUQ (ulibre.ca) sont nettement au dessus de la moyenne pour la participation des
apprenants
Ce n'est probablement pas un effet du hasard, mais plutôt le résultat de l'application de bonnes pratiques et de règles simples de conception que nous allons partager.
L'ingénierie pédagogique transforme les données entrant de la formation (cahiers des charges, objectifs de formation, ressources,...) en données sortant pour l'organisation pédagogique (objectif pédagogique, méthode, outils,...). S'il existe de nombreux modèles, le modèle ADDIE est le plus reconnu
Tournage des vidéos pour un MOOC : cas du Home Studio, coûts - 7-12-2013Rémi Bachelet
Pour consulter mes autres présentations et ressources sur les MOOC => http://gestiondeprojet.pm/mes-contributions-sur-les-mooc
Tourner des vidéos pour un MOOC : Comment faire, Combien ça coûte ?
Le reste du cours http://gestiondeprojet.pm/formation-au-pilotage-de-mooc/
IFP School 5ième Rencontres TICE Rennes (Juin 2015)Olivier Bernaert
IFP School a réalisé son premier MOOC qui s’est déroulé sur 4 semaines en 2014 avec comme sujet : «Mobilité durable : Challenges techniques et environnementaux pour le secteur de l’automobile. ». Comme dans les MOOCs traditionnels ce cours s’appuie sur des supports variés comme des vidéos, quiz et forums de discussion. De plus, en tant qu’école d’application, IFP School a innové davantage en y intégrant un jeu sérieux (Serious Game) qui permet d’immerger les étudiants dans un environnement réaliste (par exemple un banc d’essai moteur) où ils pourront mettre en pratique les notions acquises durant les cours: « c’est le learning by doing ». L’intégration d’un Serious Game dans l’environnement d’un MOOC est une première qui ouvre la porte à de nombreuses innovations et possibilités futures : jeux d’évaluations, vidéo-interactives,… Cette innovation est parfaitement en ligne avec les publics ciblés : les étudiants (bac+2) et les jeunes professionnels du secteur de l’automobile et de l’aval pétrolier,… Les résultats obtenus pour ce 1er MOOC sont assez atypiques par rapport aux résultats habituellement observés dans ce type de formations en ligne:
– 3100 inscrits issus de 67 pays
– 51 % des participants étaient des étudiants (vs 19% dans les MOOCs en France)
– 59% des participants actifs (ayant participé à au moins une activité) ont obtenu le certificat
– 31% du nombre de personnes inscrites ont obtenu le certificat (vs 10% dans les MOOCs).
Ces résultats s’expliquent en grande partie par l’intégration du Serious Game dans le dispositif pédagogique.
Les nouvelles formes d'apprentissage grenoble digital society forumespenel
Les nouvelles formes d’apprentissage: 5 changements 5 listes de propositions à l’attention du citoyen connecté
Une production collaborative du Digital Society Forum
Atelier de Grenoble du 1er juillet 2015 à l’Université Joseph Fourier
Modalités & outils d’évaluation dans l’apprentissages en ligneMokhtar Ben Henda
L'évaluation des formations en ligne se base sur des outils technologiques et des démarches pédagogiques qui varient selon l'approche utilisée. Il s'agit ici d'en donner quelques lignes génériques pour parvenir à distinguer les différents paramètres d'évaluation à employer dans une formation hybride ou à distance.
Les CLOM/MOOC et les modèles pédagogiques de formation en ligne.Gilbert Paquette
Cet exposé est présenté au colloque des entretiens Jacques Cartier, le 3 octobre, à l'Université d'Ottawa. On y présente l'état actuel des Cours en ligne ouverts et massifs (CLOM/MOOC) en les comparant aux modèles de formation en ligne implantés depuis quelques décennies. On y analyse les voies de solution pour personnaliser les apprentissages, en dépit du grand nombre de participants répartis sur tous les continents. On y présente également les projets en cours à la Télé-université du Québec
Augmenter la persévérance dans les CLOM / MOOC? Possible!Claude Coulombe
Les problèmes de décrochage et d’abandon sont bien connus en formation à distance. C'est d'ailleurs le problème central des CLOM (MOOC), depuis leur origine et l’argument clé de leurs détracteurs. Une fourchette de 5 à 10% est souvent mentionnée dans la littérature scientifique comme le pourcentage des participants inscrits qui complètent un CLOM.
Avec plus du tiers des participants actifs et 20 % des inscrits qui ont complété le cours, les CLOM de la TÉLUQ (ulibre.ca) sont nettement au dessus de la moyenne pour la participation des
apprenants
Ce n'est probablement pas un effet du hasard, mais plutôt le résultat de l'application de bonnes pratiques et de règles simples de conception que nous allons partager.
L'ingénierie pédagogique transforme les données entrant de la formation (cahiers des charges, objectifs de formation, ressources,...) en données sortant pour l'organisation pédagogique (objectif pédagogique, méthode, outils,...). S'il existe de nombreux modèles, le modèle ADDIE est le plus reconnu
Tournage des vidéos pour un MOOC : cas du Home Studio, coûts - 7-12-2013Rémi Bachelet
Pour consulter mes autres présentations et ressources sur les MOOC => http://gestiondeprojet.pm/mes-contributions-sur-les-mooc
Tourner des vidéos pour un MOOC : Comment faire, Combien ça coûte ?
Le reste du cours http://gestiondeprojet.pm/formation-au-pilotage-de-mooc/
IFP School 5ième Rencontres TICE Rennes (Juin 2015)Olivier Bernaert
IFP School a réalisé son premier MOOC qui s’est déroulé sur 4 semaines en 2014 avec comme sujet : «Mobilité durable : Challenges techniques et environnementaux pour le secteur de l’automobile. ». Comme dans les MOOCs traditionnels ce cours s’appuie sur des supports variés comme des vidéos, quiz et forums de discussion. De plus, en tant qu’école d’application, IFP School a innové davantage en y intégrant un jeu sérieux (Serious Game) qui permet d’immerger les étudiants dans un environnement réaliste (par exemple un banc d’essai moteur) où ils pourront mettre en pratique les notions acquises durant les cours: « c’est le learning by doing ». L’intégration d’un Serious Game dans l’environnement d’un MOOC est une première qui ouvre la porte à de nombreuses innovations et possibilités futures : jeux d’évaluations, vidéo-interactives,… Cette innovation est parfaitement en ligne avec les publics ciblés : les étudiants (bac+2) et les jeunes professionnels du secteur de l’automobile et de l’aval pétrolier,… Les résultats obtenus pour ce 1er MOOC sont assez atypiques par rapport aux résultats habituellement observés dans ce type de formations en ligne:
– 3100 inscrits issus de 67 pays
– 51 % des participants étaient des étudiants (vs 19% dans les MOOCs en France)
– 59% des participants actifs (ayant participé à au moins une activité) ont obtenu le certificat
– 31% du nombre de personnes inscrites ont obtenu le certificat (vs 10% dans les MOOCs).
Ces résultats s’expliquent en grande partie par l’intégration du Serious Game dans le dispositif pédagogique.
Les nouvelles formes d'apprentissage grenoble digital society forumespenel
Les nouvelles formes d’apprentissage: 5 changements 5 listes de propositions à l’attention du citoyen connecté
Une production collaborative du Digital Society Forum
Atelier de Grenoble du 1er juillet 2015 à l’Université Joseph Fourier
Modalités & outils d’évaluation dans l’apprentissages en ligneMokhtar Ben Henda
L'évaluation des formations en ligne se base sur des outils technologiques et des démarches pédagogiques qui varient selon l'approche utilisée. Il s'agit ici d'en donner quelques lignes génériques pour parvenir à distinguer les différents paramètres d'évaluation à employer dans une formation hybride ou à distance.
Tsaap-Notes - Développer et valoriser l’activité des étudiants pendant le cours pour la constitution de feedback dans les évaluations informatisées
Nos travaux précédents ont introduit la plateforme Tsaap-Notes dédiée à la génération semi-automatique de questionnaires à choix multiples pourvus de feedbacks en recyclant (1) les questions interactives posées pendant le cours par l’enseignant, et (2) les notes prises par les étudiants pour constituer les feedbacks présentés aux étudiants durant les tests. Dans cet article nous présentons un nouveau dispositif (NP-Q) qui vise à augmenter considérablement le nombre de contributions des étudiants afin d’améliorer de manière significative la qualité des feedbacks restitués au sein des tests générés par Tsaap-Notes. Ce dispositif repose sur le découpage en plusieurs phases du processus de soumission d’une réponse à une question, ainsi que sur un algorithme d’identification et de filtrage des contributions à inclure dans les tests. Notre approche a été validée par une première expérimentation sur un groupe de 51 étudiants inscrits en Master Informatique.
Un test d’évaluation des compétences informationnelles à l’ÉTS par Vicky Gagn...GTFD_Demi-journee
Le Service de la bibliothèque de l’École de technologie supérieure de Montréal élabore depuis la session d’hiver 2011, un test d’évaluation des compétences informationnelles. Entièrement sur Moodle et s’adressant aux étudiants de maîtrise, ce test vise à identifier le niveau de connaissances et de compétences des étudiants, à orienter nos formations documentaires et à proposer des avenues d’amélioration à nos étudiants. Une banque de questions a été élaborée : des questions à choix multiples et appariements pour évaluer les connaissances ainsi que des tâches plus complexes à effectuer pour évaluer les compétences.
Un premier groupe de bibliothécaires, provenant de diverses institutions, ainsi que deux groupes d’étudiants ont testé une première fois l’évaluation. Ainsi, à la session d’été, le test a été déployé auprès des étudiants inscrits à la maîtrise avec mémoire dans le cadre du cours MTR801. Les étudiants ont d’abord eu à faire un premier test (pré-test) au tout début de leur cours. Ils ont, par la suite, reçu une formation de 3 heures données par la bibliothèque. Suite à cette formation, aux travaux exigés par l’enseignant et au cours lui-même, les étudiants ont été invités à faire un second test (post-test).
À la suite des deux essais, nous pouvons corriger puis évaluer leur niveau avant une formation, leur niveau après une formation et établir ainsi leurs acquis. Plusieurs conclusions intéressantes ont été tirées de cette évaluation.
Vicky Gagnon-Mountzouris, M.S.I
Bibliothécaire
Il s'agit ici non pas d'une recherche et d'une analyse exhaustive, mais bien d'un premier rapport d'analyse sur la première passation (6 autres depuis) d'un test visant à évaluation les connaissances et compétences informationnelles d'étudiants à la maîtrise de type recherche en ingénierie.
Learning Analytics : entre Promesses et RéalitéSerge Garlatti
Université Bretagne Pays de Loire, UTICE : LES LEARNING ANALYTICS : QUAND LE BIG DATA S’INTÉRESSE À L’ÉDUCATION.
https://utice.u-bretagneloire.fr/evenement/les-learning-analytics-quand-le-big-data-sinteresse-leducation
L’usage du numérique dans l’éducation permet d’accéder aujourd’hui à une multitude de données sur le comportement des étudiants : identité, interactions entre apprenants, interactions avec les plateformes et outils d’apprentissage, résultats aux évaluations... La collecte et l’exploitation de ces données permettent de mieux comprendre les processus d’apprentissage et ainsi d’adapter les parcours pédagogiques proposés pour en renforcer l’efficacité, mais aussi de personnaliser les apprentissages ou de développer des outils de pilotage des formations. Une communauté de chercheurs et d’enseignants se développe autour de ce que l’on appelle les learning analytics, ou l’analyse des données d’apprentissage. Ce séminaire basé sur les recherches et des retours d’expérience d’enseignants-chercheurs et de jeunes entreprises permettra de cerner les enjeux et les perspectives des learning analytics.
L’évaluation est souvent le « parent pauvre » de l’enseignement. Elle prend la forme d’oral, de rendu écrit ou d’examen sur table mais à l’intérieur de ces trois modalités, il y a peu de variations dans les outils utilisés pour évaluer les acquis d’apprentissage des étudiants. Les enseignants sont peu informés de la diversité des outils possibles. À l’issue de l’atelier, les participants auront pris conscience de la diversité des outils pour évaluer les apprentissages, identifié le lien entre évaluation et apprentissages visés, évalué les avantages / inconvénients des outils d’évaluation des acquis des étudiants et réfléchi à combiner les outils pour évaluer en fonction des apprentissages visés.
Intégration d’outils d’évaluation dans des dispositifs de formations numériqu...Sebastien Stasse
Résultat d'une recherche exploratoire présentée au Sommet iPad au printemps 2015 et présentant le concept de dispositif de formation numérique. Sébastien Stasse.
Maitrise outils TIC des futurs enseignants en début de formation aux TICProf_UQAM_TIC
Les résultats de cette recherche portent sur la maitrise de différents outils technologiques des futurs enseignants avant même qu'ils entreprennent leur seul cours obligatoire portant sur l'intégration des TIC dans leur formation universitaire.
Cyberintimidation envers les enseignants du QuébecProf_UQAM_TIC
conclusions d’une des rares et plus récente étude québécoise portant sur l’intimidation en ligne dirigée envers les enseignants. Bien présentes dans toutes les facettes du métier d’enseignants, les technologies de l’information et de la communication (TIC) ainsi que les outils de communication et les réseaux sociaux qu’elles contiennent facilitent l’expression d’actes de harcèlement. Ce type de harcèlement nommé « cyberintimidation », a été étudié chez près de 800 enseignants en 2013. L'étude ciblait les enseignants du Québec qui interviennent aux niveaux préscolaire-primaire et au secondaire. Un questionnaire électronique a été élaboré en vue de recueillir l’ensemble des données dans lesquelles on retrouve des témoignages sur des cas de cyberintimidation vécus par les enseignants. Cette étude a permis de soulever de multiples questionnements: les femmes se font-elles plus intimidées que les hommes ? Le personnel enseignant du secondaire est-il plus sujet à se faire intimider que celui du secondaire ? Qui intimide les enseignants ? Et combien de temps ces épisodes de cyberintimidation durent-elles ? Et quels sont les moyens privilégiés pour prévenir ce type de harcèlement qui se produit autant à l’intérieur de l’école qu’à l’extérieur ? Ainsi, les réponses apportées seront indispensables en vue de dresser un portrait de la situation actuelle quant à la cyberintimidation vécue par les enseignants du Québec.
Newsletter SPW Agriculture en province du Luxembourg du 03-06-24BenotGeorges3
Les informations et évènements agricoles en province du Luxembourg et en Wallonie susceptibles de vous intéresser et diffusés par le SPW Agriculture, Direction de la Recherche et du Développement, Service extérieur de Libramont.
https://agriculture.wallonie.be/home/recherche-developpement/acteurs-du-developpement-et-de-la-vulgarisation/les-services-exterieurs-de-la-direction-de-la-recherche-et-du-developpement/newsletters-des-services-exterieurs-de-la-vulgarisation/newsletters-du-se-de-libramont.html
Bonne lecture et bienvenue aux activités proposées.
#Agriculture #Wallonie #Newsletter #Recherche #Développement #Vulgarisation #Evènement #Information #Formation #Innovation #Législation #PAC #SPW #ServicepublicdeWallonie
Impact des Critères Environnementaux, Sociaux et de Gouvernance (ESG) sur les...mrelmejri
J'ai réalisé ce projet pour obtenir mon diplôme en licence en sciences de gestion, spécialité management, à l'ISCAE Manouba. Au cours de mon stage chez Attijari Bank, j'ai été particulièrement intéressé par l'impact des critères Environnementaux, Sociaux et de Gouvernance (ESG) sur les décisions d'investissement dans le secteur bancaire. Cette étude explore comment ces critères influencent les stratégies et les choix d'investissement des banques.
Conseils pour Les Jeunes | Conseils de La Vie| Conseil de La JeunesseOscar Smith
Besoin des conseils pour les Jeunes ? Le document suivant est plein des conseils de la Vie ! C’est vraiment un document conseil de la jeunesse que tout jeune devrait consulter.
Voir version video:
➡https://youtu.be/7ED4uTW0x1I
Sur la chaine:👇
👉https://youtube.com/@kbgestiondeprojets
Aimeriez-vous donc…
-réussir quand on est jeune ?
-avoir de meilleurs conseils pour réussir jeune ?
- qu’on vous offre des conseils de la vie ?
Ce document est une ressource qui met en évidence deux obstacles qui empêchent les jeunes de mener une vie épanouie : l'inaction et le pessimisme.
1) Découvrez comment l'inaction, c'est-à-dire le fait de ne pas agir ou d'agir alors qu'on le devrait ou qu'on est censé le faire, est un obstacle à une vie épanouie ;
> Comment l'inaction affecte-t-elle l'avenir du jeune ? Que devraient plutôt faire les jeunes pour se racheter et récupérer ce qui leur appartient ? A découvrir dans le document ;
2) Le pessimisme, c'est douter de tout ! Les jeunes doutent que la génération plus âgée ne soit jamais orientée vers la bonne volonté. Les jeunes se sentent toujours mal à l'aise face à la ruse et la volonté politique de la génération plus âgée ! Cet état de doute extrême empêche les jeunes de découvrir les opportunités offertes par les politiques et les dispositifs en faveur de la jeunesse. Voulez-vous en savoir plus sur ces opportunités que la plupart des jeunes ne découvrent pas à cause de leur pessimisme ? Consultez cette ressource gratuite et profitez-en !
En rapport avec les " conseils pour les jeunes, " cette ressource peut aussi aider les internautes cherchant :
➡les conseils pratiques pour les jeunes
➡conseils pour réussir
➡jeune investisseur conseil
➡comment investir son argent quand on est jeune
➡conseils d'écriture jeunes auteurs
➡conseils pour les jeunes auteurs
➡comment aller vers les jeunes
➡conseil des jeunes citoyens
➡les conseils municipaux des jeunes
➡conseils municipaux des jeunes
➡conseil des jeunes en mairie
➡qui sont les jeunes
➡projet pour les jeunes
➡conseil des jeunes paris
➡infos pour les jeunes
➡conseils pour les jeunes
➡Quels sont les bienfaits de la jeunesse ?
➡Quels sont les 3 qualités de la jeunesse ?
➡Comment gérer les problèmes des adolescents ?
➡les conseils de jeunes
➡guide de conseils de jeunes
M2i Webinar - « Participation Financière Obligatoire » et CPF : une opportuni...M2i Formation
Suite à l'entrée en vigueur de la « Participation Financière Obligatoire » le 2 mai dernier, les règles du jeu ont changé !
Pour les entreprises, cette révolution du dispositif est l'occasion de revoir sa stratégie de formation pour co-construire avec ses salariés un plan de formation alliant performance de l'organisation et engagement des équipes.
Au cours de ce webinar de 20 minutes, co-animé avec la Caisse des Dépôts et Consignations, découvrez tous les détails actualisés sur les dotations et les exonérations, les meilleures pratiques, et comment maximiser les avantages pour les entreprises et leurs salariés.
Au programme :
- Principe et détails de la « Participation Financière Obligatoire » entrée en vigueur
- La dotation : une opportunité à saisir pour co-construire sa stratégie de formation
- Mise en pratique : comment doter ?
- Quelles incidences pour les titulaires ?
Webinar exclusif animé à distance en coanimation avec la CDC
Quelle valeur pour les MOOCs. Une synthèse de la validité des outils d'évaluation
1. Quelle valeur pour les
MOOCs?
Une synthese de la validité des outils d'evaluatioǹ ́
Stéphane Villeneuve, Ph.D.
Université du Québec à Montréal
Professeur
Chercheur associé au CRIFPE
Twitter: @Prof_UQAM_TIC
ADMEE, Liège (Belgique), 27 au 30 janvier 2015
2. Ce document est sous Licence Creative Commons
Cette œuvre de Stéphane Villeneuve (villeneuve.stephane.2@uqam.ca) est mise à
disposition selon les termes de la Licence Creative Commons Attribution - Pas
d’Utilisation Commerciale - Pas de Modification 2.5 Canada. (CC BY-NC-ND)
Détails de la licence:
http://creativecommons.org/licenses/by-nc-nd/2.5/ca/deed.fr
3. MOOC
MOOC: Massive Open Online Course
CLOM: Cours en ligne offert aux masses
CLOM: Cours en ligne ouvert et massif
CLOT: Cours en ligne ouverts à tous
FLOT: Formation en ligne ouverte à tous
Existent depuis 2008, mais forte présence en 2012
(Sandeen, 2013)
16. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
Quiz (choix multiples, réponses courtes)
• Facile à créer et à corriger
• Bon portrait du niveau de connaissance d’un
sujet, mais pas au niveau des compétences de
haut niveau.
• Bien pour maintenir le rythme de l’étudiant
• Pour s’assurer de la compréhension du sujet
17. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
Quiz sont moins pertinents lorsque l’on
veut évaluer des…
• compétences de second niveau
(logique, résolution de problèmes)
• textes longs (profondeur d’une
réflexion personnelle)
• travaux pratiques (créativité, qualité)
18. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET (Évaluation automatisée de textes ou Automated
Essay Scoring AES)
•Historique
•But: prédire l’évaluation qui serait donnée par un
humain
•Donne une rétroaction sur la mécanique de l’écriture
•Bien pour un cours de langue, mais discutable pour
d’autres disciplines.
19. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET (Évaluation automatisée de textes)
• 3 marques commerciales dominent le
marché
• E-rater (Educational Testing Service)
• Intellimetric (Vantage Learning)
• Intelligent Essay Assessor (Pearson Knowledge
Technologies)
20. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET (Évaluation automatisée de textes)
• Variables utilisées ?
• longueur et nombre des mots
• longueur des éléments du discours
• proportion des erreurs grammaticales
• vocabulaire, mots moins communs
• organisation et style
21. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET (Évaluation automatisée de textes)
• Les évaluations automatisées sont
plus corrélées à celle des humains
qu’entre les humains = plus
constantes (Shermis et al., 2010)
22. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET
• Ne permet pas d’évaluer
• les nouvelles métaphores
complexes
• l’humour
• les patois, le langage régional
(Graesser et McNamera, 2012)
23. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET
• Le National Council of Teachers of English se
positionne (NCTE, 2013) contre les AET:
• restriction quant au type de texte qui peuvent
y avoir recours
• la plupart des rétroactions sont trop vagues
• possibilité de “trafiquer le système” au lieu
de travailler son style et le contenu
24. ÉVALUATION AUTOMATISÉE
PAR LOGICIEL
AET
• Des études suggèrent que l’évaluation
par les pairs dans les MOOC est plus
utile pour les étudiants selon le type de
travail demandé que les AET (Heise, Palmer-
Judson et Su, 2002; Likkel, 2012)
26. ÉVALUATION PAR LES
PAIRS
Basée sur l’évaluation d’autres travaux
exposant les étudiants à d’autres solutions et
stratégies que celles vues dans en cours
(Chinn, 2005; Tinapple et al., 2013)
27. ÉVALUATION PAR LES
PAIRS
FONCTIONNEMENT GÉNÉRAL DES EPP
•Protocole d’évaluation en double-aveugle (les
identités ne sont pas révélées)
•Pénalité pour les évaluations tardives
•Attribution aléatoire
•1 évaluation balisée (faux travail) + 4 de pairs
•Note = moyenne des résultats
30. ÉVALUATION PAR LES
PAIRS
Détestée par d’autres:
• « I hated the peer assessments as in some
cases, their anonymity gave the peers an
excuse to say mean-spirited things. »
(Suen, 2014, p. 319)
31. ÉVALUATION PAR LES
PAIRS
Les MOOCs avec évaluation
par les pairs ont un plus
faible niveau de complétion
(Jordan, 2013)
32.
33. Étude de Kulkarni
Contexte de la recherche
Sujet
•Cours sur l’interaction homme-machine (HCI)
Contenu
•Présence d’exposés magistraux (vidéo) (n = 4 / sem.)
Évaluations:
•Courts quiz
•Devoir hebdomadaire
Nombre de participants
•~35 000
34. ÉVALUATION PAR LES
PAIRS
20% des étudiants ont effectué
plus d’évaluations que requis (5)
(Kulkarni et al., 2013)
35. ÉVALUATION PAR LES
PAIRS
Comment améliorer les évaluateurs?
En donnant une rétroaction sur
l’évaluation balisée pour indiquer si
elle était plus haute ou plus basse que
l’évaluation d’un expert.
37. ÉVALUATION PAR LES
PAIRS
Même si les noms étaient cachés, les
participants ont donné en moyenne 3,6% de
plus à leurs compatriotes (Kulkarni et al.,
2013)
Codes culturels
Contexte géographique des exemples
Différences d’attentes et standards
39. ÉVALUATION PAR LES
PAIRS
Utiliser l’EPP à plusieurs reprises
dans un même MOOC pour
augmenter la justesse des
évaluations
Les étudiants deviennent de meilleurs
évaluateurs avec le temps
41. ÉVALUATION PAR LES
PAIRS
• Problèmes liés à l’EPP
• Crédibilité: évaluation de novices faite par des
novices (Suen, 2014)
• Même les étudiants ne font pas confiance aux
résultats (Furman et Robinson, 2003)
• Erreurs d’évaluation: que faire si tous les
évaluateurs d’un examen sont mauvais?
42. ÉVALUATION PAR LES
PAIRS
• 6 types d’écarts (Suen, 2014)
a) Entre l’évaluation d’un pair et d’un expert
b) Fluctuations situationnelles de l’évaluation par un pair
d’un même travail sous des conditions différentes
c) Incohérence de résultats entre des travaux similaires
d) Entre des pairs sur le même travail
e) Écarts systématiques entre des pairs à cause de
différences de compétence ou de rigueur
f) Fluctuations situationnelles de l’évaluation d’un expert
d’un même travail sous des conditions différentes
44. AUTO-ÉVALUATION
• Basée sur l’importance du développement
d’habiletés métacognitives (Veenman, Van
Hout-Wolters et Affleerbach, 2006)
• Plus d’apprentissage comparé à l’évaluation
de pairs (Sadler et Good, 2006)
(Wilkowski, Russel et Deutsch, 2014)
47. AUTO-ÉVALUATION
13% se sont donnés tous les
points, mais ont plagié ou soumis
un travail bidon
Repérage nécessaire
48. AUTO-ÉVALUATION
• Importance de bien former les étudiants à s’auto-
évaluer
• Les laisser s’auto-évaluer seulement quand ils
ont réussi à donner la même note qu’un expert
sur un exercice
• Importance d’une grille claire et simple afin d’être
bien comprise par les étudiants
50. VALIDATION
3 formes de tricherie (Meyer et Zhu, 2013)
• Donner, prendre ou recevoir de l’information
• Communiquer par cellulaire avec un ami pour de
l’aide
• Faire le test en équipe avec un autre étudiant
51. VALIDATION
• Utiliser du matériel interdit
• Chercher les réponses sur Internet avec
son appareil intelligent pendant un
examen sur ordinateur
• Obtenir l’examen/les réponses à l’avance
52. VALIDATION
• « Jouer le système »
Faire faire le test par quelqu’un
d’autre
Faire le test plus d’une fois
53. VALIDATION
• Besoin de mesures pour réduire les
possibilités de tricher en ligne
• Le “proctoring” – évaluation surveillée
• Méthode physique
• Méthodes électroniques
55. VALIDATION
Méthodes électroniques
• Diminuer les risques de tricherie en:
• Filmant l’étudiant pendant qu’il effectue le test
• Balayant la salle pour repérer s’il y a des
personnes ou des outils pour tricher
• Captant le pattern du doigté sur le clavier
durant l’écriture
• Vérifiant la structure des phrases et le
vocabulaire utilisé d’un travail à l’autre
…d’où un questionnement normal sur « Comment évaluer les apprentissages de tous ces participants » ?
https://www.flickr.com/photos/mmoorr/7750345792/
6 minutes
AES: (voir BALFOUR + discuter de la validité)
Donc….(voir diapo suivante)
Existe depuis 1973 (Shermis et al., 2010)
E-RATER
content analysis based on vocabulary measures
lexical complexity/diction
proportion of grammar errors
proportion of usage errors
proportion of mechanics errors
proportion of style comments
organization and development scores
features rewarding idiomatic phraseology
VANTAGE LEARNING
http://www.vantagelearning.com/products/intellimetric/
Accuracy, consistency, and reliability greater than human expert scoring
Web-based tools that are accessible anytime, anywhere
Scoring of both short-answer and extended response questions
Holistic and analytic scoring and feedback
Scoring capability in more than 20 different languages
Detection of non-legitimate essays, such as those that are:
Off-topic
Off-task
Lack proper development
Are written in a language other than what was expected
Contain bad syntax
Copy the question
Are inappropriate
Contain messages of harm
- See more at: http://www.vantagelearning.com/products/intellimetric/#sthash.CNp1vPjp.dpuf
PEARSON
Q: What is the Intelligent Essay AssessorTM?
A: The Intelligent Essay Assessor (IEA) is a powerful internet-based service that has been proven to score written essays as accurately as trained human scorers. IEA scores essays based on content as well as on more mechanical aspects of writing, such as grammar and spelling.
human-centered interaction (HCI)
In all, 2,673 students submitted assignments in the first iteration (Spring 2012), and 3,203 in the second (Fall 2012)
1,000 samples of five assessments per submission avec méthode de Bootstrap
4 à 10 membres du personnel ont évalué au hasard les EPP. Pour les 2 itérations, le personnel ont évalué 99 travaux standardisés. Chaque étudiant à évalué au moins 1 travail standard (un travail standard correspond à 160 évaluations pour établir une note moyenne)
To establish a ground-truth comparison of self and staff grades, each assignment in- cluded 4 to 10 staff-graded submissions in the peer assessment pool (these were ran- domly selected). Across both iterations, staff graded 99 ground-truth submissions. Each student graded at least one ground-truth submission per assignment; a ground-truth assignment had a median of 160 assessments. (Some
19 minutes
Si la matière est mal expliquée, communiquée, l’erreur d’interprétation peut se traduire dans les évaluations.
Self-evaluation in Advanced Power Searching and Mapping with Google MOOCs
« The course authors define complex as problems that require multiple steps, have more than one correct answer, or have multiple ways to achieve the answer »
Students submitted a total of 3,948 assignments.
Out of the 3,853 assignments where students graded themselves, 2,708 (70.3%) awarded themselves full credit. 267 (9.9%) of the full credit submissions were blank or nonsense (e.g. ffwevrew)
METHODS
After the course closed, course administrators provided researchers with an anonymized sample of assignment submissions. 13 of the course staff (including instructors, teaching assistants, content experts and instructional designers) graded 17% of the scored, accessible assignments. To ensure consistent interrater correlation before grading the sample set, graders trained together, independently evaluating assignments until they reached a point of being able to replicate the grading score across all of the graders. (It took five sample practice assignment-grading sessions to train to this level of consistency.)