Le modèle de régression multiple
gggg
I-Présentation du modèle
Expression générale du modèle
 La formule générale : Yt = β0 + β1X1t + β2X2t + · · · + βkXkt + ut ,
pour tout t = 1 . . . n ; Ou encore sous forme matriciel Y = Xβ + u
 Yt : la variable dépendante ( aléatoire )
 β0 , β1, β2 . . . βk des coefficients non aléatoires constants
dans le temps et non observables ( leur valeur est inconnue)
Le coefficient β1 est souvent appelé constante du modèle linéaire. De façon implicite, une variable
explicative X0t vaut 1 à chaque période t(X0t = 1 pour tout t), ce qui implique que β0X0t = β0
pour tout t.
 Xt : les variables explicatites ( aléatoire)
 ut : La variable ut est appelée terme d’erreur ou
perturbation. C’est une variable aléatoire et non observable (en effet, ut = Yt −β0
−β1X1t −β2X2t −· · · −βkXkt, mais on ne peut pas déduire sa réalisation des réalisations
observées de Yt et des Xit car les coefficients βi sont inconnus et donc non observés).
Les hypothèses
 L’espérance du terme d’erreur est nulle ; E(ut )=0
 Les covariances entre le terme et chaque variable
explicative est nulle ; Cov (ut , Xit )=0
 Indépendance entre le terme d’erreur et les variables
explicatives
 La variance de l’erreur est constante (homoscédasticité)
 Absence de colinéarité ( les variables explicatives ne sont
pas corrélés entre elles )
 Les variables dépendantes et explicatives sont distribués
normalement
L’estimateur MCO
 Plusieurs estimateurs des coefficients du modèles
linéaires sont possibles. Le choix dépend du
« statut » des coefficients.
 Pourquoi on utilise un estimateur ? Pour trouver les
coefficients estimés puisque les coefficients sont
inconnus
 Ici on va se concentrer sur l’estimateur des MCO :
lorsque l’on utilise l’estimateur MCO on définit
forcément un modèle du type : Y = XβˆMCO + e ou
Y = Yt = βˆMCO1 + βˆMCO2 X2t + · · · + βˆMCOk
Xkt + et , ∀t = 1 . . . n
Estimateur MCO
 Pour déterminer les coefficients estimés/
l’estimateur des moindres carrés , on minimise la
somme des carrés des résidus. On doit donc résoudre
les problèmes d’optimisation :
Ou sous forme de matrice :
 La solution de ce problème d’optimisation est :
Tests paramétriques
 Test nécessaires pour vérifier si les coefficients estimés
pour chaque variables explicatives sont statistiquement
significatifs ou non. Ces test peuvent ainsi identifier les
variables explicatives les plus importantes pour la
prédiction de la variable dépendantes ou celle qui ne sont
pas pertinentes.
 Il y a plusieurs test possibles :
- Test de Student
- Test de Wald
- Le test de Fisher
 Le principe général est de comparé une p-value à un
seuil préétabli qui est généralement 0,05
II-Les test de validation
 Test d’homoscédasticité
 Test d’absence d’auto-corrélation
 Test de normalité
 Test de muticolinéarité
Test d’homoscédasticité
 Détermine si la variance des erreurs est constante pour
tous les niveaux des variables explicatives. Qui est donc
une hypothèse à respecter pour la régression linéaire
 Il existe plusieurs test qui consistent tous à comparer la
p-value à un niveau de signification choisi :
- Test de Breusch-Pagan
- Test de White
- Test de Goldfeld-Quandt
- Testde Cook-Weisberg
Test d’absence de corrélation
 Utilisé pour vérifier si les résidus du modèle sont
indépendants les uns des autres. L’auto-corrélation
des résidus indique que les erreurs sont liés les unes
aux autres , ce qui peut compromettre la validité
 Test de Durbin-Watson
Test de normalité
 Utilisé pour vérifier si le terme d’erreur suit une
distribution normale
 Test de Jarque et Bera
Test de multicolinéarité
 Pour vérifier si deux ou plusieurs variables du
modèle sont indépendantes ou non. Il y a colinéarité
si deux variables sont fortement corrélés de manière
positive ou négative.
 Plusieurs test possibles
-Test de Pearson
- Test de Kaiser- Meyer –Olkin
- VIF ( Variance inflation Factor )
III-Violation des hypothèses et solutions
 Estimateur de Newey-West : utiliser pour régler les
problèmes de corrélations entre erreurs. Il faut
chercher l’estimateur de Newey-West qui va
pondérer les résultats de l’estimation et ainsi réduire
l’effet de la corrélations sur les coefficients estimés
obtenues.
 Estimateur robuste de White : même principe mais
juste que la calcul de l’estimateur diffère.

Econométrie appliqué.pptx

  • 1.
    Le modèle derégression multiple
  • 2.
  • 3.
    Expression générale dumodèle  La formule générale : Yt = β0 + β1X1t + β2X2t + · · · + βkXkt + ut , pour tout t = 1 . . . n ; Ou encore sous forme matriciel Y = Xβ + u  Yt : la variable dépendante ( aléatoire )  β0 , β1, β2 . . . βk des coefficients non aléatoires constants dans le temps et non observables ( leur valeur est inconnue) Le coefficient β1 est souvent appelé constante du modèle linéaire. De façon implicite, une variable explicative X0t vaut 1 à chaque période t(X0t = 1 pour tout t), ce qui implique que β0X0t = β0 pour tout t.  Xt : les variables explicatites ( aléatoire)  ut : La variable ut est appelée terme d’erreur ou perturbation. C’est une variable aléatoire et non observable (en effet, ut = Yt −β0 −β1X1t −β2X2t −· · · −βkXkt, mais on ne peut pas déduire sa réalisation des réalisations observées de Yt et des Xit car les coefficients βi sont inconnus et donc non observés).
  • 4.
    Les hypothèses  L’espérancedu terme d’erreur est nulle ; E(ut )=0  Les covariances entre le terme et chaque variable explicative est nulle ; Cov (ut , Xit )=0  Indépendance entre le terme d’erreur et les variables explicatives  La variance de l’erreur est constante (homoscédasticité)  Absence de colinéarité ( les variables explicatives ne sont pas corrélés entre elles )  Les variables dépendantes et explicatives sont distribués normalement
  • 5.
    L’estimateur MCO  Plusieursestimateurs des coefficients du modèles linéaires sont possibles. Le choix dépend du « statut » des coefficients.  Pourquoi on utilise un estimateur ? Pour trouver les coefficients estimés puisque les coefficients sont inconnus  Ici on va se concentrer sur l’estimateur des MCO : lorsque l’on utilise l’estimateur MCO on définit forcément un modèle du type : Y = XβˆMCO + e ou Y = Yt = βˆMCO1 + βˆMCO2 X2t + · · · + βˆMCOk Xkt + et , ∀t = 1 . . . n
  • 6.
    Estimateur MCO  Pourdéterminer les coefficients estimés/ l’estimateur des moindres carrés , on minimise la somme des carrés des résidus. On doit donc résoudre les problèmes d’optimisation : Ou sous forme de matrice :  La solution de ce problème d’optimisation est :
  • 7.
    Tests paramétriques  Testnécessaires pour vérifier si les coefficients estimés pour chaque variables explicatives sont statistiquement significatifs ou non. Ces test peuvent ainsi identifier les variables explicatives les plus importantes pour la prédiction de la variable dépendantes ou celle qui ne sont pas pertinentes.  Il y a plusieurs test possibles : - Test de Student - Test de Wald - Le test de Fisher  Le principe général est de comparé une p-value à un seuil préétabli qui est généralement 0,05
  • 8.
    II-Les test devalidation  Test d’homoscédasticité  Test d’absence d’auto-corrélation  Test de normalité  Test de muticolinéarité
  • 9.
    Test d’homoscédasticité  Déterminesi la variance des erreurs est constante pour tous les niveaux des variables explicatives. Qui est donc une hypothèse à respecter pour la régression linéaire  Il existe plusieurs test qui consistent tous à comparer la p-value à un niveau de signification choisi : - Test de Breusch-Pagan - Test de White - Test de Goldfeld-Quandt - Testde Cook-Weisberg
  • 10.
    Test d’absence decorrélation  Utilisé pour vérifier si les résidus du modèle sont indépendants les uns des autres. L’auto-corrélation des résidus indique que les erreurs sont liés les unes aux autres , ce qui peut compromettre la validité  Test de Durbin-Watson
  • 11.
    Test de normalité Utilisé pour vérifier si le terme d’erreur suit une distribution normale  Test de Jarque et Bera
  • 12.
    Test de multicolinéarité Pour vérifier si deux ou plusieurs variables du modèle sont indépendantes ou non. Il y a colinéarité si deux variables sont fortement corrélés de manière positive ou négative.  Plusieurs test possibles -Test de Pearson - Test de Kaiser- Meyer –Olkin - VIF ( Variance inflation Factor )
  • 13.
    III-Violation des hypothèseset solutions  Estimateur de Newey-West : utiliser pour régler les problèmes de corrélations entre erreurs. Il faut chercher l’estimateur de Newey-West qui va pondérer les résultats de l’estimation et ainsi réduire l’effet de la corrélations sur les coefficients estimés obtenues.  Estimateur robuste de White : même principe mais juste que la calcul de l’estimateur diffère.

Notes de l'éditeur

  • #6 Lorsque l’on fait une régression , il faut utiliser un estimateur !!!
  • #14 Lorsqu’il y a violation d’hypothèses dans un MRM , l’estimateur MCO peut produire des estimations biaisés. Une des iolations d’hyphothèse est la corrélation entre les erreurs (hétéroscédasticité) . Cependant on peut utiliser des estimateurs pour corriger tout cela.