Cou rs de methodologie

12 680 vues

Publié le

Publié dans : Formation
0 commentaire
14 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
12 680
Sur SlideShare
0
Issues des intégrations
0
Intégrations
15
Actions
Partages
0
Téléchargements
804
Commentaires
0
J’aime
14
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Cou rs de methodologie

  1. 1. Cours de Méthodologie «3eme année institut supérieur des sciences infirmières La phase empirique : la collecte des données Telelaz Galaa 2013/2014
  2. 2. La phase empirique concerne les activités qui entourent la collecte des données sur le terrain. Pour effectuer la collecte des données il faut développer un ou des instruments de mesure appropriés aux données à recueillir ou de les adapter au contexte de l’étude.
  3. 3. Les tests empiriques servent à corroborer ou à réfuter les conjectures théoriques en les confrontant à la réalité qu’ils doivent expliquer.  L’organisation des tests empiriques passe par la résolution de trois questions :
  4. 4.  En répondant à la question « observer quoi ? », le chercheur oriente son investigation de la réalité en fonction des indicateurs et des indices de son cadre théorique opérationnalisé.  En répondant à la question « observer qui ? », le chercheur choisit un échantillon selon une technique d’échantillonnage probabiliste ou non probabiliste.  En répondant à la question « observer comment ? », le chercheur choisit un mode de collecte de données ou d’investigation (méthode expérimentale, observation, entrevue, etc.) en tenant compte de leurs avantages et de leurs désavantages respectifs.
  5. 5. Alors les tests empiriques sont des dispositifs de jugement de la validité des conjectures théoriques produite par la raison du chercheur. Plus une théorie résiste aux tests empiriques, plus elle doit être proche de la vérité.
  6. 6. Une fois la question de la recherche et le devis ont été formulés et précisés, il faut déterminer les variables à mesurer et l’outil de mesure appropriée aux concepts abstraits, c.-à-d. l’élaboration des définitions opérationnelles des variables.
  7. 7. LA MESURE DANS LA CONDUITE DE LA RECHERCHE : •La mesure sert à décrire la qualité ou la quantité d’une variable, telle que l’état de santé, les attitudes, les comportements, le stress, le coping…etc. •Elle permit d’évaluer le changement ou l’impacte d’une intervention ou un traitement sur les participants. •Elle sert à comparer et à établir des différences entre les personnes ou les groupes • •Elle permit de tirer des conclusions sur l’existence de relation entre des variables. En somme elle sert à: Evaluer les phénomènes étudies avec plus de précision possible.
  8. 8. DÉFINITION DE LA MESURE :  La mesure est définie comme le processus menant à l’attribution de nombre à des objets, à des événements ou à des personnes selon des règles préétablies (anticipé= préjugée) dans le bute de déterminer la valeur d’un attribut donner (Green et Lewis, 1986 ; Kerlinger, 1973 ; Nunnaly et Berstein, 1994)  Quand les nombres représentent des quantités (variables continues) ou des qualités (variables discrètes).
  9. 9. Variables continues : dans ce cas, les résultats (numériques) peuvent prendre n’importe quelle valeur sur un continuum à l’intérieur d’une étendu définie de valeurs.  Variables discrètes : ou les résultats prend des valeurs bien spécifiques, qui ne sont généralement pas numériques, sont décrites par des unités entières (sexe, âge…) une variable discrète prend un nombre limité de valeurs. 
  10. 10.  La règle de mesure assure que l’attribution de nombres s’effectue de manière constante avec le même outil d’un objet à un autre ou d’une personne à une autre.
  11. 11. LA NATURE INDIRECTE DE LA MESURE :  Les variables sont les pierres angulaires de la question de recherche. La plus part des mesures relèvent d’une forme d’abstraction, de généralisation de situation, d’observation, ou de comportement particuliers ce qui fait que très peut de variables sont directement mesurable.
  12. 12.  Exemple de mesure directes : les concepts comme la pulsation, respiration ou de la taille sont descriptifs et de ce fais accessibles immédiatement par le sens.  Exemple de mesures indirectes : les concepts comme la température on ne peut l’observer comme telle mais faire la lecture d’un degré sur une colonne de mercure d’un thermomètre, aussi la fréquence cardiaque car elle dépende de divers facteurs…
  13. 13. Mesurer est un procédé par lequel on lie des concepts abstraits à des indicateurs
  14. 14. LES CONSTRUITS ET LES INDICATEURS EMPIRIQUES :  Les concepts qui représentent des comportements ou des événements non observables sont appelés « construits » ils ne sont pas mesurables. Pour les mesurer il faut avoir recours à des mesures indirectes. Donc les construits doivent être convertis en indicateurs empiriques pour être mesurables.  L’indicateur empirique est l’expression quantifiable et mesurable d’un construit ; il présente des caractéristiques ou des dimensions de ce construit.  L’indicateur permet de traduire en termes concrets des variables aussi abstraites que l’estime de soi, l’espoir ou la qualité de vie en établissant un lien avec la mesure empirique.
  15. 15.  L’indicateur peut être constitué par des séries d’énoncés placés sur une échelle de mesure ou par une réponse à une question figurant dans un questionnaire. Pour déterminer les indicateurs empiriques appropriées aux constructions à mesurer, il faut prendre en compte toutes les dimensions ou facettes d’un construit et sa signification.
  16. 16. L’environnement social des personnes Construit (Variables Abstraite) Soutien social Social Familial émotionnel (Concept abstrait) Dimensions (Ne sont pas directement observables)
  17. 17. LES OPÉRATIONS MENANT À LA QUANTIFICATION :  L’opérationnalisation est le processus par lequel une variable abstraite est traduite ou transposée en phénomène observable et mesurable.  Les variables généralement sont définies de façon conceptuelle et opérationnelle.  La définition conceptuelle :  A pour but de transmettre aussi clairement l’idée véhiculée par le construit .  C’est une façon de d’écrire la signification d’une variable dans le contexte de ses bases théorique et en fonction du but de l’étude.  Exemple: Bandura (1977) définit le concept de l’efficacité personnelle perçue comme l’ensemble des jugements que les personnes expriment sur leurs capacités à accomplir avec succès une action déterminée. L’efficacité personnelle perçue suppose que la personne se sent capable de réaliser l’action. Cependant elle ne précise pas comment mesurer les capacités à réaliser l’action ou comment interpréter ces termes, mes sert de guide aux opérations menant à la mesure.
  18. 18. LA DÉFINITION OPÉRATIONNELLE:  C’est une définition d’une variable fondée sur la manière dont elle sera utilisée dans une étude en particulier.  Une variable dépendante peut contenir plus d’une dimension ou caractéristiques c’est pour cela qu’il faut chercher dans la documentation les descriptions de cette variable.  Mais il y a certaines variables qui sont opérationnalisées de manière à tenir compte de leur manipulation par le chercheur, exemple dans l’étude de type expérimental dans ce cas on considère les valeurs des différents niveaux d’une variable indépendante, comme la présence ou l’absence d’une intervention.  Elle doit inclure le nombre de sessions, la méthode utilisée, les caractéristiques les fondements théoriques, etc.  Elle doit comporter la manière dont on prévoit étudier et mesurer les variables dans le contexte du but de l’étude.
  19. 19. LES RÈGLES DE MESURE :  Les mesures comportent des niveaux qui correspondent à un ordre de classification selon que les nombres attribués représentent des valeurs discrètes (catégories) ou des valeurs continues (quantités).  La règle de mesure quantitative détermine des quantités, des degrés, des gradations ou encore l’étendue des observations effectuées.
  20. 20. L. Bachman (90 : 23) représente la relation entre mesures, tests et évaluation dans le schéma à la figure 1
  21. 21.  La confusion entre évaluation et mesure est fréquente. Quelques exemples vont nous aider à clarifier la situation.  Zone 1 : on peut évaluer sans mesurer, comme lorsque l’on utilise des descriptions de performances d’étudiants dans le but d’identifier des problèmes d’apprentissage (observations, grilles, inventaires).  Zone 2 : On peut évaluer à partir d’une mesure sans qu’il y ait test. Il en est ainsi de l’utilisation d’un classement par le professeur pour noter les performances d’étudiants (A est meilleur que B, B est meilleur que C, etc.).  Zone 3 : Intersection des trois ensembles : il s’agit des tests d’évaluation à partir d’une mesure. Entrent dans cette catégorie les batteries de tests institutionnels (normatifs et critères).  Zone 4 : Il peut y avoir tests de mesure sans qu’il y ait évaluation, comme lorsque l’on utilise un test comme critère en recherche en acquisition des langues secondes.  Zone 5 : Finalement il est possible de concevoir une mesure qui ne soit pas obtenue par un test et qui n’entre pas dans le domaine de l’évaluation. C’est ce qui se produit lorsqu’on affecte un codage numérique à des sujets dans une recherche en acquisition des langues secondes en fonction de la langue maternelle (cf. échelle ordinale).
  22. 22.  On a tendance à opposer qualitatif à quantitatif en renvoyant à la distinction test objectif/test subjectif (un jugement de la part de l’examinateur est nécessaire ou ne l’est pas). On affecte le label quantitatif à tout ce qui est test objectif, faisant par là l’amalgame : quantitatif égal chiffré (tests corrigés par ordinateur).  Rappelons qu’en évaluation dite quantitative la subjectivité n’est pas évacuée, le jugement existe quand même : il s’agit du jugement du concepteur du test qui a sélectionné les items. Il y a en réalité toujours jugement.
  23. 23. LES ÉCHELLES AU NIVEAUX DE MESURE Stevens (1946,1951) a conçu quatre échelles ou niveaux de mesure:  L’échelle nominal  L’échelle ordinale  L’échelle d’intervalle  L’échelle de proposition 
  24. 24. L’ÉCHELLE NOMINALE  Est le niveaux de mesure le plus élémentaire;  Elle utilise des nombres à valeur uniquement nominale;  Elle classe des objets dans une catégorie donnée,  Elles n’ont aucun caractère quantitatif Exemple; le sexe;1: masculin, 2: féminin La nationalité; 1:canadien, 2: tunisien, 3: algérien, ou autres Les statistiques descriptives utilisées:  Compter le nombre  Distributions de fréquence  Les pourcentages  Les corrélations de contingence Une échelle nominale comprend des nombres qui servent à nommer ou coder les classes ou les catégories d’un attribut donné, Ce codage est arbitraire, et il n’y a pas de hiérarchie entre les différentes catégories.
  25. 25. L’ÉCHELLE NOMINALE L'échelle nominale consiste à classer les individus selon certaines caractéristiques, voici des exemples :  Le sexe;  Le groupe ethnique;  Oui / Non.  Sur un questionnaire: ◻Homme ◻Femmes & ◻Oui ◻Non 
  26. 26. L’ÉCHELLE ORDINALE Sur une échelle ordinale, un classement hiérarchique est effectué entre les catégories. De nombreuses échelles ordinales sont utilisées en évaluation, par exemple lorsque l’on évalue une performance en fonction d’une grille donnant des définitions subjectives de niveau. Il est à noter que la distance, ou l’intervalle, qui sépare une catégorie quelconque de la suivante est variable. Exemple: 1 complètement dépendant, 2 nécessite l’assistance d’une personne, 3 nécessite une assistance partielle 4 complètement indépendant Elle permet l’utilisation de statistiques descriptives;  Distributions de fréquences,  Les pourcentages,  Les corrélations de contingence. 
  27. 27. L’ÉCHELLE ORDINALE L'échelle ordinale consiste à classer des données en ordre croissant ou décroissant, voici des exemples :  Degré d'étude;  L'âge;  Le revenu.  Sur un questionnaire: L'âge: 18 ans et moins; 19 à 30 ans; 31 à 50 ans; 51 ans et plus. 
  28. 28. L’ÉCHELLE D’INTERVALLE les données échelonnées sur une échelle d'intervalle sont des données quantitatives;  Ce niveau de mesure fait intervenir des nombres à valeur numérique séparés par des intervalles égaux  L’échelle d’intervalle assure des valeurs continues.  Il ne s'agit pas de nombres absolus en raison de l’absence d’un point zéro.  Exemple de la température en degrés (une température de 30° à l’échelle Celsius n’équivaut pas à deux fois température de 15 degrés, parce que le degré 0 n’indique pas l’absence de température; c’est un zéro arbitraire, conventionnel. 
  29. 29. L’ÉCHELLE D’INTERVALLE En Psychologie, les scores auxquels on attribue le statut de "mesures d'intervalles" ne correspondent pas nécessairement à des grandeurs expérimentales. Par exemple, les scores de QI, associés aux profils de performance observables avec ce que l'on appelle des tests d'intelligence, sont considérés comme des mesures d'intervalle par convention.  L'échelle d'intervalle consiste à présenter les données en catégories égales, voici un exemple :À quel fréquence fumez vous au cour d’un mois: ◻0 - 3 fois ◻4 - 7 fois ◻8 - 11 fois ◻12 - 15 fois ◻16 - 19 fois ◻20 - 23 fois ◻24 - 27 fois ◻28 - 31 fois 
  30. 30. L’ÉCHELLE PROPORTIONNELLE Occupe le niveau le plus élevé dans l’ordre hiérarchique des échelles de mesure.  Elle admet le zéro absolu, qui correspond a l’absence d’un phénomène.  La distance, la durée, le poids, l’âge et le revenue sont autant de variables couramment mesurées sur une échelle de proportion  l’échelle de proportion donne accès à toutes les opérations mathématiques et statistiques de même qu’elle permet de transformer les données d’une échelle à l’autre. 
  31. 31. L’ÉCHELLE PROPORTIONNELLE c’est l’existence d’un zéro absolu qui concrétise l’absence totale du phénomène. Il est alors possible de faire des comparaisons en termes de proportion. Par exemple, il est possible de dire qu’une personne de 80 kg est deux fois plus lourde qu’une personne de 40 kg. Ces échelles sont plus caractéristiques des sciences physiques.  Lorsque l’on administre un test de langue, il est impossible de dire qu’une personne qui obtient un résultat chiffré de 60 est deux fois plus compétente que la personne qui obtient un résultat chiffré de 30. De la même façon, il est impossible de dire que la personne qui obtient un résultat chiffré de zéro a une absence totale de compétence en langue (à supposer que l’on puisse démontrer qu’il est possible de définir l’absence de compétence en langue). 
  32. 32. RÉSUMÉ       Dans une étude transversale menée par Mainvil, Lawson, Horwth, McKenzie et Reeder2009dans le but d’élaborer des échelles fidèles et valides pour mesurer l’efficacité personnelle perçue chez des adultes qui consomment des fruits et des légumes, les quatre niveaux de mesure ont été représentés comme suit: À l’échelle nominale: le sexe- les femmes étaient représentées à 58% et les hommes à 42%; À l’échelle ordinale: le degré de scolarité- il s’échelonnait du primaire à l’université; À l’échelle d’intervalle: la variable efficacité personnelle perçueelle a été mesurée sur une échelle de likert; À l’échelle de proportion : les groupes d’âges – il s’agissait des 25-29ans, 30-39ans, 40-49ans et 50-60ans. Les opération mathématiques sont limitées dans les échelles nominale et ordinale, mais sont plus variées dans les échelles d’intervalle et de proportion (échelles numériques)
  33. 33. Type de variable Qualitative Variables non-métriques Nominale Discrète sexe : f ou g – Langues parlées socioprofessionnelle Comptage des effectifs par modalité (fréquences absolues) Calcule de pourcentage (fréquences relatives) Et le mode Ordinale Discrète – Degré de satisfaction – Notes alphabétiques (A+, A,..) Opinion: un peut, beaucoup, passio nnément etc… pas du tout Comptage par modalité (fréquences absolues et fréquences relatives et mode), la médiane. Quantitative Variables métriques Variable de Proportion Variable d’intervalle Discrète– Nombre d’enfants Nombre de consultation Nombre d’avortement Continue issue du rapport entre deux comptages. – Âge Continue Discrète Date de naissance Poids Température 5°La tension La taille (Fréquences absolues) et autre calcul de pourcentage (fréquences relatives) en passant par la moyenne, la médiane et l'écart-type jusqu'à la modélisation numérique.
  34. 34. LA FIDELITE ET LA VALIDITE DES MESURES
  35. 35. LA FIDELITE DES MESURES Fidélité: constance des valeurs obtenues à l’aide d’un instrument de mesure 1. La stabilité temporelle à l’aide du test-retest:  Elle s’évalue par l’approche test-retest qui renvoient au degré de corrélation entre deux mesures prélevées à deux moment différents (deux à quatre semaines), mais dans des mêmes conditions et auprès des mêmes personnes, donnent des résultats semblables.  Le chercheur doit pouvoir justifier la constance des réponses dans son interprétation des comparaison entre le test et le retest (portny et watkins, 2009).  La relation entre les deux ensembles de scores s’exprime par un coefficient de stabilité.  Exemple p406 du livre de MFF (2010)
  36. 36. LA FIDELITE DES MESURES 2. La fidélité entre les observateurs (juges) Il ya deux type: la fidélité intrajuge et la fidélité interjuges La fidélité intrajuge: renvoie à la stabilité des données enregistrées par un observateur sur la mesure de la même variable à plusieurs occasions (temps1 et temps 2) La fidélité interjuges: entre les observateurs renvoie à la variation entre deux observateurs ou plus qui mesure un même groupe de sujets. Elle permet d’évaluer la fidélité ou la constance entre les estimations issues des observations plutôt que le degré d’exactitude de l’instrument.
  37. 37. LA FIDELITE DES MESURES 3. La fidélité des formes parallèles ou équivalentes C’est la fidélité entre deux versions équivalentes d’un instrument de mesure. Selon la technique des formes parallèles la fidélité est évaluée en fonction du degré de corrélation obtenu entre deux versions équivalentes d’un même instrument appliquées aux même personnes pour mesurer le même construit . 4. La cohérence interne: Degré d’homogénéité de tous les énoncés d’un instrument de mesure, par le calcule de la corrélation entre les énoncés de cet instrument. 4.1 La fidélité moitié-moitié: une mesure qui consiste à diviser les énoncés d’une échelle en deux moitié et à corréler les résultats. 4.2 Le coefficient alpha de Cronbach: Indice de fidélité qui évalue la cohérence interne d’une échelle composée de plusieurs énoncés. Le coefficient alpha est utilisé lorsqu’il existe plusieurs choix d’établissement des score (comme l’échelle de likert). Lorsque chaque énoncé ne comporte qe deux réponses (vrai ou faux) on utilise la statistique KuderRichardson (KR-20) 4.3 la corrélation interénoncés: Une corrélation de énoncés individuels d’une échelle avec le score global. Il s’agie d’une indication de la cohérence interne.
  38. 38. LA VALIDITÉ DES MESURES Validité: capacité d’un instrument à mesurer ce qu’il doit mesurer. La validité correspond au degré de précision avec lequel le concept est présenté par des énoncés particuliers présents dans l’instrument de mesure. Les types de validités: différents approches peuvent être utilissées pour déterminer le degré de validité des instruments de mesure.
  39. 39. LA VALIDITÉ DES MESURES   La validité de continue: présentabilité des énoncés d’un instrument afin de mesurer un concept ou un domaine particulier, on cherche a répondre à la question suivante: « jusqu’à quel point les énoncés d’un instrument de mesur représentent-ils l’ensemble des énoncés par rapport à un domaine particulier ou à un concept? » La validité normal: qualité d’un test dont les énoncés semblent mesurer le contenu ou le domaine de l’étude. Exemple p413
  40. 40. LA VALIDITÉ DES MESURES La validité de construit: se rapport à la capacité d’un instrument à mesurer un concept abstrait ou construit, défini dans son contexte théorique. On évalue dans quelle mesure les relations entre les énoncés de l’instrument sont cohérentes avec la théorie et les concepts définis de façon opérationnelle. Méthode des groupes connus: technique servant à estimer la validité de construit par la quelle on évalue la capacité d’un instrument à distinguer les personnes possédant une caractéristique particulière connue de celles qui ne la possèdent pas. La méthode par vérification d’hypothèses: selon cette approche, le chercheur se sert de la théorie ou du cadre de recherche sous-jacent à son étude pour formuler des hypothèses. La vérification des hypothèses permet d’inférer d’après les résultats obtenus de savoir si la logique sous-jacente à l’instrument de mesure peut expliquer les données obtenues.
  41. 41. LA VALIDITÉ DES MESURES  Méthode multitraits-multiméthodes: une méthode dans laquelle le chercheur examine la convergence et la divergence des échelles afin de déterminer ce qu’un instrument mesure et ce qu’il ne mesure pas. validité convergente: évaluation du degré de similitude des résultats ou d’élévation des corrélations issues de deux instruments censés mesurer le même phénomène. validité divergente : évaluation de degré de différence des résultats ou de faiblesse des corrélations issues des instruments censés mesurer des caractéristiques différentes.  Analyse factorielle: une technique multivariée qui permet de regrouper en facteurs des variables fortement liées entre elles et d’indiquer si une échelle est unidimensionnelle ou multidimensionnelle.
  42. 42. LA VALIDITÉ DES MESURES La validité liée au critère: qualité d’un instrument de mesure qui es apte à évaluer dans le présent (validité concomitante) ou à prédire (validité prédictive)  La validité concomitante: Degré de corrélation entre deux mesures du même construit appliquées au même moment à des sujets. La validité prédictive: validité qui tente d’établir qu’une mesure actuelle sera un prédicteur valide d’un résultat futur. 
  43. 43. Les types de validités de mesures Type Description Validité de contenu Indique que les énoncés qui déterminent le continu sont représentatifs de la variable mesurée. Les questionnaires y ont surtout recours. Validité de construit Etablit la capacité de l’instrument à mesurer un concept abstrait et le degré avec lequel l’instrument reflète les composantes théoriques du construit. Méthode des groupes connus Indique la capacité de l’instrument à établir une distinction entre des groupes dont la différence est connue. Méthode par vérification d’hypothèses Estime la validité par la vérification d’hypothèses formulées en fonction de la théorie ou du cadre de recherche. Méthode multitraits-multiméthodes La validité convergente indique que deux mesures censées refléter le même construit produiront des résultats similaires. La validité divergente indique que l’instrument mesure un seul construit et le différencie d’autres construits. Analyse factorielle Indique que la structure théorique s’accorde avec les composantes sous-jacentes au construit. Validité liée au critère Indique que les résultats obtenus à l’aide d’un instrument (cible) sont comparables à ceux issus d’un instrument servant de critère. Elle se vérifie au moyenne de la validité concomitante ou de la ou de la validité prédictive. Validité concomitante Etablit la validité quand deux mesures sont prises simultanément. Elle est utilisée pour déterminer la relation entre un instrument de mesure et un critère externe. L’instrument est valide si les scores son corrélés avec ceux du critère. Validité prédictive Détermine que le résultat actuel, obtenu à l’aide d’un instrument cible peut être utilisé pour prédire un résultat ultérieur.
  44. 44. LA POPULATION ET L’ÉCHANTILLON Echantillonnage: Est le processus par le quel un groupe de personnes ou une portion de la population (échantillon) est choisi en vue de représenter une population entière.  La population: Elle désigne l’ensemble des éléments (personnes, objets…) qui présentent des caractéristiques communs. Ce que l’on vise à obtenir. L’élément est l’unité de base de la population auprès de laquelle l’information est recueillie; il s’agit d’une personne, mais cela peut aussi être un groupe….) 
  45. 45. LA POPULATION ET L’ÉCHANTILLON La population est constituée d’un ensemble de personnes , d’écoles, de villes, etc. exemple p224  L’échantillonnage suppose une définition claire de la population prise en considération et des éléments qui la composent  On appel « population cible » la population qui fais l’objet de l’étude. Toutefois, la population que l’on examine est celle qui est accessible au chercheur. 
  46. 46. LA POPULATION CIBLE ET LA POPULATION ACCESSIBLE  La population cible: est l’ensemble des personnes qui satisfont aux critères de sélection définis d’avance et qui permettent de faire des généralisation. Exemple page 225  La population accessible: proportion de la population cible que l’on peut atteindre. Exemple p225
  47. 47. LES RAPPORTS ENTRE LA P.CIBLE, LA P. ACCESSIBLE ET L’ECHANTILLON P225 Population Population accessible Échantillon
  48. 48. LES CRITÈRES D’INCLUSION ET D’EXCLUSION  Les critères d’inclusion: décrivent les caractéristiques essentielles d’une population que l’on souhaite trouvez chez des sujets, pour obtenir un échantillon le plus homogène possible, on doit considérer l’étendu des caractéristiques présentes dans la population, comme le groupe d’âge, l’état de santé ainsi que les facteurs démographiques et géographiques…c-a-d qui présente des caractéristiques particulières.  Les critères d’exclusion: servent à déterminer les sujets qui ne feront pas partie de l’échantillon, en raison de leurs caractéristiques différent. Exemple P226  La spécification des critères d’inclusions et d’exclusions est une étape importante dans le processus de recherche, parce qu’ils permettent de définir la population à l’étude.
  49. 49. L’ÉCHANTILLON  Un échantillon est une fraction ou un sous-ensemble d’une population sur laquelle porte l’étude. Il doit être autant que possible, représentatif de cette population, c’est-à-dire que certaines caractéristiques connues de la population doivent être présentes dans l’échantillon.  L’utilisation d’un échantillon comporte des avantages certains sur le plan pratique, à la condition de représenter fidèlement la population à l’étude. La constitution de l’échantillon peut varier selon le but recherché, les contraintes qui s’exercent sur le terrain et la capacité d’accès à la population étudiée.
  50. 50. LA REPRÉSENTATIVITÉ DE L’ÉCHANTILLON  un échantillon représentatif s’il peut, en raison de ses caractéristiques, se substituer à l’ensemble de la population cible. Pour généraliser les résultats de son étude, le chercheur doit s’assurer que les réponses des membres qui composent son échantillon sont représentatives de celles qu’auraient les membres de la population cible dans des circonstances similaires (Portney et Watkins, 2009). Les personnes différent, et leur différences observables sur les plans physique, psychologique ou comportemental doivent etre représentées dans l’échantillon.
  51. 51. LA REPRÉSENTATIVITÉ DE L’ÉCHANTILLON  Un échantillon représentatif reflète les caractéristiques pertinentes et les variables de la population de proportionnelle à ce qui existe dans la population.  Afin de de s’assurer qu’un échantillon représente une population, le chercheur a recours à des techniques d’échantillonnage qui permettent de minimiser l’éventualité d’un biais.
  52. 52. LA REPRÉSENTATIVITÉ DE L’ÉCHANTILLON Le biais d’échantillonnage:  Il survient quand les échantillons ne sont pas soigneusement sélectionnés ou que les personnes devant composer un échantillon sont surreprésentées ou sous –représentées au regard de certaines caractéristiques de la population directement liées au phénomène à l’étude.  Le biais peut être conscient ou inconscient, mais, contrairement à l’erreur d’echantillonnage est sous le contrôle du chercheur (Nieswiadomy, 2008) 
  53. 53. LES MÉTHODES DE L’ÉCHANTILLONNAGE  P227 L’échantillonnage probabiliste C’est une méthode qui fait appel au hasard afin que chaque élément de la population ait une chance égale d’être choisi pour former l’échantillon. Plusieurs techniques sont utilisées:  Aléatoire simple  Aléatoire systématique (ex: p231)  Aléatoire stratifié (proportionnel /non proportionnel) (proportion=choisir la même proportion d’unités dans chaque strate) (ex:p232)  Echantillonnage en grappes (ex:p233)
  54. 54. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE PROBABILISTE Aléatoire simple: Méthode d’échantillonnage probabiliste qui donne à chaque élément de la population une probabilité égale d’être inclus dans l’échantillon.  Aléatoire systématique: Méthode d’échantillonnage probabiliste qui consiste à déterminer de façon aléatoire le premier ou le 2eme ou les 5 premiers…etc) élément d’une liste, puis à choisir chaque nom sur la liste d’après un intervalle fixe. 
  55. 55. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE PROBABILISTE Aléatoire stratifié (proportionnel /non proportionnel) Méthode d’échantillonnage probabiliste selon laquelle la population est répartie en fonction de certaines caractéristiques afin de constituer des strates qui seront représentées dans l’échantillon. Les caractéristiques peuvent se rapporter, entre autres, à l’âge, au sexe, à la classe sociale et à l’ethnie. Aléatoire stratifié proportionnel: Méthode d’échantillonnage permettant de choisir la même proportion d’unités dans chaque strate. Aléatoire stratifié non proportionnel: Méthode d’échantillonnage dans lequel certaines strates sont surreprésentées, étant donné leur proportion réelle dans la population. 
  56. 56. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE PROBABILISTE  Echantillonnage en grappes: Une grappe est un ensemble d’unités d’une population , constitué au moyen de critères définis Méthode d’échantillonnage probabiliste qui consiste à choisir les éléments de la population en grappes plutôt qu’un à la fois. On fait appel à cette méthode dans les études à grand échelle ou dans les cas où, la population à étudier étant très dispersée, il serait difficile ou même impossible de dresser une liste exhaustive de toutes les personnes qui en font partie. Échantillonnage en grappes, aussi appeler « échantillonnage par faisceaux », consiste à prélever au hasard des groupes de personnes plutôt que des personnes isolées. Choisir des classes entières d’élèves plutôt que des élèves dispersés individuellement.
  57. 57. LES MÉTHODES DE L’ÉCHANTILLONNAGE  L’échantillonnage non probabiliste contrairement à l’échantillonnage probabiliste, ne donne pas à tous les éléments de la population une chance égale d’être choisis pour former l’échantillon. Cette méthode risque de permettre une représentativité faible ou nulle, ce qui le rend moins fiable que l’échantillonnage probabiliste pour généraliser des résultats. De plus cette méthode ne permet pas dévaluer l’erreur d’échantillonnage.
  58. 58. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE NON PROBABILISTE L’échantillonnage non probabiliste  Échantillonnage accidentel  Échantillonnage par cotas  Échantillonnage par choix résonné  Échantillonnage par réseaux (Voire ex; p239) 
  59. 59. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE NON PROBABILISTE Échantillonnage accidentel  Le type d’échantillonnage non probabiliste le plus courant (ou par convenance). Selon cette méthode, les sujet sont choisis en fonction de leur disponibilité.  Il est constitué de personnes facilement accessibles qui répondent a des critères d’inclusion précis jusqu’à l’atteinte de la taille souhaitée de l’échantillon.  Se définie aussi par la recherche de volontaires. 
  60. 60. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE NON PROBABILISTE Échantillonnage par quotas: L’échantillonnage non probabiliste peut aussi faire usage d’éléments de stratification. Dans ce cas il consiste à former des sous-groupes qui présentent des caractéristiques définies, afin que celles-ci soient représentées dans des proportion identiques à celle qui existent dans la population (proportionnellement égaux) en se fondant sur des caractéristiques déterminées comme l’âge, le sexe, l’ethnie, etc. 
  61. 61. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE NON PROBABILISTE Échantillonnage par choix résonné: Aussi appelé échantillonnage intentionnel «typique» ou «au jugé» , il consiste a sélectionner certaines personnes en fonction de caractéristiques typiques de la population à l’étude. L’échantillonnage par choix raisonné est semblable à l’échantillonnage par convenance, sauf qu’il requiert de choisir des personnes et non leur simple disponibilité. Ce type d’échantillonnage est employé dans certaines études qualitatives(Morse, 1991) 
  62. 62. LES MÉTHODES DE L’ÉCHANTILLONNAGE L’ÉCHANTILLONNAGE NON PROBABILISTE Échantillonnage par réseaux:  Aussi appelé «échantillonnage en boule de neige» est une technique qui permettant aux sujets recrutés initialement de suggérer, à la demande du chercheur.  Cette méthode s’appuie sur les réseaux sociaux  Il consiste a recrutées initialement selon des critères de sélection précis de suggérer le nom d’autres personnes qui leur paraissent répondre aux mêmes critères. 
  63. 63. L’ANALYSE STATISTIQUE DESCRIPTIVE     L’analyse statistique descriptive des données permet au chercheur de résumer un ensemble de données brutes à l’aide de tests statistiques. Les données brutes sont organisées selon les divers niveaux de mesure (échelles nominale, ordinale, d’intervalle et de proportion), puis soumises à un traitement statistique. Celui-ci renvoie à l’analyse des données numériques au moyen de techniques statistiques. Le choix des tests statistiques dépend en grand partie de la fonction des variables dans une recherche, qui peut consister à décrire (étude descriptive), à examiner des relations d’associations (étude corrélationnelle) ou à vérifier des relations causales (étude expérimentale). Quel que soit le type d’étude, la statistique descriptive est utilisée pour présenter les caractéristiques de l’échantillon auprès duquel les données ont été recueillies.
  64. 64. L’ANALYSE STATISTIQUE DESCRIPTIVE Les types de variables et les niveaux de mesure: Les types de variables dépendent des niveaux de mesure. Une variable est qualitative lorsque ses valeurs (qualités) correspondent à des catégories.une variable qualitative est nominale si elle ne présente pas de hiérarchie; elle est ordinale s’il est possible d’établir un ordre de grandeur entre les catégories. Une variable est quantitative lorsque ses valeurs possible sont des nombres (quantités) elle peut être discrète ou continue: elle est discrète si les valeurs quelle peut prendre son isolées les unes des autres, c’est-à-dire lorsqu’elle ne peut couvrir toutes les valeurs d’un intervalle. 
  65. 65. L’ANALYSE STATISTIQUE DESCRIPTIVE  Comme le niveau de mesure détermine le choix des techniques statistiques à utiliser pour l’analyse des données, il est important de se rappeler qu’il existe quatre niveaux de mesure des variables (nominal, ordinal, d’intervalle et de proportion)et que l’on doit pouvoir reconnaître le niveau de mesure des données que l’on s’apprête à l’analyser.
  66. 66. L’ANALYSE STATISTIQUE DESCRIPTIVE  L’échelle ou la mesure nominale sert à différencier les éléments les uns des autres et à les classer en catégories sont mutuellement exclusives. Les nombres assignés aux catégories sont simplement des symboles ou des codes numériques, puisqu’ils n’ont aucune valeur quantitative et n’indiquent que la similitude ou la différence.  Concernant l’échelle ordinale, les éléments d’un ensemble sont classés selon leur position relative par rapport à un attribut donné. Les nombres assignés à chaque catégorie indiquent l’ordre de grandeur (direction) et non la qualité ou l’étendue de la différence.
  67. 67. L’ANALYSE STATISTIQUE DESCRIPTIVE   Pour assurer des valeurs continue, l’échelle d’intervalle fait intervenir des nombres qui prennent une valeur numérique et qui sont séparés par des intervalles égaux. Cette échelle se caractérise du fait que le zéro et la gradation sont établis par convention, et qu’ainsi le point de référence est un zéro arbitraire. Elle permet de comparer deux valeurs par soustraction, mais pas par manipulation ni par division. L’échelle de proportion ou de rapport occupe le rang supérieur de l’ordre hiérarchique des niveaux de mesure.les nombres assignés aux variables quantitatives sont séparer par des intervalles égaux et le point zéro est réel, c’est-à-dire qu’il n’est pas établi par convention.
  68. 68. L’ANALYSE STATISTIQUE DESCRIPTIVE Les analyses statistiques pour les données nominales sont le mode(p490), la distribution de fréquences, le pourcentage et la corrélation de contingence.  Pour les données ordinales, on ajoute la médiane, l’étendue et le percentile.  Pour les données d’intervalles et de proportion, le mode, la médiane (p490) et la moyenne peuvent être utilisés. Ces données sont désignées par des variables continues qui donnent accès à divers tests statistiques. 
  69. 69. L’ANALYSE STATISTIQUE DESCRIPTIVE Les modalités de présentation des statistiques descriptives:  Les distributions de fréquences;  Les mesures de tendance centrale;  Les mesures de dispersion et de position;  Les mesures servant à décrire des associations entre deux variables (analyses bivariées) 
  70. 70. L’ANALYSE STATISTIQUE DESCRIPTIVE  La représentation et l’interprétation des résultats:  La représentation des résultats d’analyses descriptives:  Elle porte sur la description des faits qui a eu lieu à l’étapes de l’analyses qualitative ou statistique des données. De façon générale, l’analyse doit mettre en évidence le phénomène à l’étude ou les variables qui ont servi à caractériser l’échantillon et celles qui sont reliées entre elles, et déterminer si les hypothèses mises à l’épreuve au moyen de tests statistiques sont confirmées ou infirmées.
  71. 71. L’ANALYSE STATISTIQUE DESCRIPTIVE  La présentation des résultats provenant de l’analyse descriptive quantitative des données a pour but de donner un aperçu de l’ensemble des caractéristiques des participants et d’examiner la distribution des valeurs des principales variables déterminer à l’aide de tests statistiques descriptive telles que le mode, la moyenne, la variance et l’écart type sont les principaux indicateurs permettant de résumer les données. Comme la moyenne est souvent assortie d’une mesure de dispersion, on utilise l’écart type pour connaître l’étalement des scores par rapport à la moyenne
  72. 72. L’ANALYSE STATISTIQUE DESCRIPTIVE L’interprétation des résultats quantitatives;  L’interprétation consiste a intégrer l’information factuelle, à la coordonner au raisonnement qui a conduit à la formulation des questions ou des hypothèses.  L’interprétation des résultats quantitatifs regroupe donc les aspects suivants: la crédibilité des résultats, la signification des résultats, les conclusions, la généralisabilité des résultats et les implications. 
  73. 73. Merci de suivre Et bonne chance pour les TFE

×