Géométrie différentielle élémentaire pour la physique-Mostafa BousderMostafa Bousder
L’objective première de ce cours est d’introduire les notions de la géométrie différentielle à fin d’attaquer les mathématiques de la relativité générale. La géométrie différentielle est une grande partie dans les mathématiques et aussi plus riche par des outilles mathématique et c’est elle qui nous permet de relier l’Algèbre par la géométrie en une géométrie algébrique, calcul différentiel avec topologie générale et la géométrie avec la physique et plusieurs d’autres choses. La géométrie différentielle est l'application des outils du calcul différentiel pour étudier la géométrie. Les objets d'étude de base sont les variétés différentielles,
La géométrie différentielle trouve sa principale application dans la physique surtout dans la relativité générale où elle permet de modéliser des courbures de l'espace-temps causent par la présence d’une masse énorme.
L’objectif deuxième ce de ce cours est d’introduire le cadre mathématique de la relativité générale. On privilégie une approche géométrique et picturale basée sur l’algèbre linéaire à une approche basée sur les systèmes de coordonnées.
Nous allons traiter quatre grandes parties de la géométrie :
1. Variétés différentiables :
2. Les espaces tangents et cotangent
3. Les formes différentielles
4. La géométrie riemannienne
C’est 4 parties sont parfaitement relier,
Résumé des notions essentielles sur les fonctions quadratiques et exponentielles ainsi que sur les statistiques en mathématique de secondaire 4 : technico-sciences.
Géométrie différentielle élémentaire pour la physique-Mostafa BousderMostafa Bousder
L’objective première de ce cours est d’introduire les notions de la géométrie différentielle à fin d’attaquer les mathématiques de la relativité générale. La géométrie différentielle est une grande partie dans les mathématiques et aussi plus riche par des outilles mathématique et c’est elle qui nous permet de relier l’Algèbre par la géométrie en une géométrie algébrique, calcul différentiel avec topologie générale et la géométrie avec la physique et plusieurs d’autres choses. La géométrie différentielle est l'application des outils du calcul différentiel pour étudier la géométrie. Les objets d'étude de base sont les variétés différentielles,
La géométrie différentielle trouve sa principale application dans la physique surtout dans la relativité générale où elle permet de modéliser des courbures de l'espace-temps causent par la présence d’une masse énorme.
L’objectif deuxième ce de ce cours est d’introduire le cadre mathématique de la relativité générale. On privilégie une approche géométrique et picturale basée sur l’algèbre linéaire à une approche basée sur les systèmes de coordonnées.
Nous allons traiter quatre grandes parties de la géométrie :
1. Variétés différentiables :
2. Les espaces tangents et cotangent
3. Les formes différentielles
4. La géométrie riemannienne
C’est 4 parties sont parfaitement relier,
Résumé des notions essentielles sur les fonctions quadratiques et exponentielles ainsi que sur les statistiques en mathématique de secondaire 4 : technico-sciences.
1. En analyse explicative simple, nous avons essayé de définir la relation qui existe entre deux variables
statistiques.
nous avons considéré qu’une variable endogène est expliquée à l’aide d’une seule variable exogène.
Exemples :
- Le Revenu hebdomadaire de famille et les dépenses en consommation hebdomadaire;
Cependant, il est extrêmement rare qu’un phénomène économique ou social puisse être appréhendé par une
seule variable.
Le modèle linéaire Multiple est une généralisation du modèle de régression simple dans lequel figurent
plusieurs variables explicatives
Donc, L'analyse de régression linéaire multiple permet d'examiner le lien entre une variable dépendante et
plusieurs variables indépendantes pour faire des prédictions.
2.
3. M
. odèle
Etudier la liaison entre une "variable à expliquer" quantitative Y et une suite de
"variables explicatives" quantitatives X1 ... Xk
Terme d’Erreur
composante aléatoire
ε quantifie les écarts entre les valeurs réellement
observées et les valeurs prédites par le modèle
Donc (𝜷0 , 𝜷1 ,… , 𝜷k ) Sont les paramètres du modèle que l’on veut estimer à l’aide des données
Paramètres
Terme constant
Variables explicatives
(composante déterministe)
Variable Endogène
Yi 0 1x i1 .. . k x ik i
4. Y
Variable à expliquer
Variable dépendante
Variable endogène
X1 X2 ... Xk
Variables explicatives
Variables indépendantes
Variables exogènes
5. Expliquer En fonction
de
Prix d'un
appartement
■ superficie
■ standing
■ quartier
■ sécurité
■ proximité de commerce
■ investissements
■ publicité
■ prix de vente
Prévoir des
ventes
6.
7. Afin d’en alléger l’écriture et de faciliter l’expression de certains résultats, on a habituellement recours
aux notations matricielles. En écrivant le modèle, observation par observation, nous obtenons :
Soit, sous forme matricielle :
Nous remarquons la première colonne de la matrice X, composée de 1, qui correspond au coefficient
𝜷𝟎 (coefficient du terme constant).
L’écriture sous forme matricielle rend plus aisée la manipulation du modèle linéaire général, c’est pourquoi
nous l’adoptons par la suite.
𝒀(𝒏,𝟏)=𝑿(𝒏,𝒌+𝟏)𝜷(𝒌+𝟏,𝟏)+𝜺(𝒏,𝟏)
Y1 0 1x 11 .. . k x 1k 1
Y2 0 1x 21 .. . k x 2k 2
.
.
Yi 0 1x i1 .. . k x ik i
Yn 0 1x n1 .. . k x nk n
8.
9. Y = X + ε
Soit le modèle sous forme matricielle à k variables explicatives et n observations :
Avec:
et:
A fin d’estimer le vecteur a nous appliquons la méthode des MCO qui consiste à
minimiser la somme des carrés des erreurs. Soit:
Pour minimiser cette fonction par rapports à 𝜷, nous allons différencier S par rapport à 𝜷
Donc:
𝑴𝒊𝒏 𝒊=𝟏
𝒏
𝜺𝒊
𝟐
= 𝑴𝒊𝒏 𝜺′
𝜺 = Min (𝒀 − 𝑿𝜷)′ (𝒀 − 𝑿𝜷) = 𝑴𝒊𝒏𝑺
𝐒 = 𝐘 − 𝐗𝛃 ′ 𝐘 − 𝐗𝛃 = 𝐘′𝐘 − 𝐘′𝐗𝛃 − 𝛃′𝐗′𝐘 + 𝛃′𝐗′𝐗𝛃
= 𝐘′𝐘 − 𝟐𝛃′𝐗′𝐘 + 𝛃′𝐗′𝐗𝛃
𝛛𝐒
𝛛𝛃
= −𝟐𝐗′𝐘 + 𝟐𝐗′𝐗𝜷 = 𝟎 𝜷=(𝑿′𝑿)−𝟏X’Y
10. Soit, sous forme matricielle :
Le modèle estimé s’écrit :
avec où et est le résidu, c’est-à-dire l’écart entre la valeur observée de la
variable à expliquer et sa valeur estimée (ajustée).
Il convient de bien distinguer entre l’erreur de spécification du modèle (noté 𝛆𝐢) qui
est et restera inconnue et le résidu (𝒆𝒊) qui, lui, est connu.
𝒆𝒊= 𝒚𝒊 − 𝒚𝒊
𝒚𝒊=𝜷𝟎+𝜷𝟏𝒙𝟏𝒊+𝜷𝟐𝒙𝟐𝒊+…+𝜷𝑲𝒙𝑲𝒊+𝒆𝒊
𝒏 𝒙𝟏𝒊 𝒙𝟐𝒊 ⋯ 𝒙𝒌𝒊
𝒙𝟏𝒊 𝒙²𝟏𝒊 𝒙𝟏𝒊 𝒙𝟐𝒊 ⋯ 𝒙𝟏𝒊 𝒙𝒌𝒊
𝒙𝟐𝒊 𝒙𝟐𝒊 𝒙𝟏𝒊 𝒙²𝟐𝒊 ⋯ 𝒙𝟐𝒊 𝒙𝒌𝒊
⋮ ⋯ ⋯ ⋯ ⋯
𝒙𝒌𝒊 𝒙𝒌𝒊 𝒙𝟏𝒊 𝒙𝒌𝒊 𝒙𝟐𝒊 ⋯ 𝒙²𝒌𝒊
𝜷𝟎
𝜷𝟏
𝜷𝟐
⋮
𝜷𝒌
=
𝒚𝒊
𝒙𝟏𝒊 𝒚𝒊
𝒙𝟐𝒊 𝒚𝒊
⋮
𝒙𝒌𝒊 𝒚𝒊
11. Si nous raisonnons sur des données centrées, l’estimateur de 𝜷 peut s’écrire en
fonction des matrices des variances et covariances empiriques :
Avec 𝜷𝟎 = 𝒚 − 𝜷𝟏𝒙𝟏 − 𝜷𝟐𝒙𝟐 − ⋯ − 𝜷𝑲𝒙𝑲
𝜷𝟎
𝜷𝟏
𝜷𝟐
⋮
𝜷𝒌
=
𝑽𝒂𝒓(𝒙𝟏) 𝑪𝒐𝒗(𝒙𝟏𝒙𝟐) 𝑪𝒐𝒗(𝒙𝟏𝒙𝟑) ⋯ 𝑪𝒐𝒗(𝒙𝟏𝒙𝒌)
𝑪𝒐𝒗(𝒙𝟐𝒙𝟏) 𝑽𝒂𝒓(𝒙𝟐) 𝑪𝒐𝒗(𝒙𝟐𝒙𝟑) ⋯ 𝑪𝒐𝒗(𝒙𝟐𝒙𝒌)
𝑪𝒐𝒗(𝒙𝟑𝒙𝟏) 𝑪𝒐𝒗(𝒙𝟑𝒙𝟐) 𝑽𝒂𝒓(𝒙𝟑) ⋯ 𝑪𝒐𝒗(𝒙𝟑𝒙𝒌)
⋮ ⋮ ⋮ ⋯ ⋯
𝑪𝒐𝒗(𝒙𝒌𝒙𝟏) 𝑪𝒐𝒗(𝒙𝒌𝒙𝟐) 𝑪𝒐𝒗(𝒙𝒌𝒙𝟑) ⋯ 𝑽𝒂𝒓(𝒙𝒌)
×
𝑪𝒐𝒗 𝒙𝟏𝒚
𝑪𝒐𝒗 𝒙𝟐𝒚
𝑪𝒐𝒗 𝒙𝟑𝒚
⋮
𝑪𝒐𝒗 𝒙𝒌𝒚
-1
12. Que sont des données centrées sur la moyenne ?
Soit 𝒙𝒊 une variable connue sur n observations et 𝒙 sa moyenne, nous
pouvons calculer une nouvelle variable (𝑿 = 𝒙𝒊–x) dont la somme est par
construction nulle :
𝒙𝒊 − 𝒙 = 𝒙𝒊 = 𝟎
Nous avons donc 𝑿= 0.
13. Yi 𝜷𝟎 𝜷𝟏x 1i .. . 𝜷𝒌x ki 𝒆𝒊
Soit le modèle estimé :
Si la variable 𝐱𝟐 passe de la valeur 𝐱𝟐𝐢 à ( 𝐱𝟐𝐢+ ∆ 𝐱𝟐𝐢), toutes choses étant
égales par ailleurs (les k − 1 autres variables restant constantes), alors la
variable à expliquer varie de :
𝛃𝟐 × ∆𝐱𝟐: ∆𝐲𝐢 = 𝛃𝟐𝐱𝟐𝐢
Les coefficients s’interprètent donc directement en terme de propension marginale.
14.
15. Considérons les propriétés de l’estimateur.
Le modèle sous forme matricielle peut s'écrire de différentes manières.
Y = Xa + ε
Y = Xa + e
𝑌 = Xa
=> 𝑒 = 𝑌 + 𝑌 (e = résidu).
Nous obtenons que:
𝑎 = (𝑋′𝑋)−1X′Y
𝑎 = (𝑋′𝑋)−1X′(Xa + ε)
𝑎 = (𝑋′
𝑋)−1
𝑋′
𝑋𝑎 + (𝑋′
𝑋)−1
𝑋′ε
D’où 𝐸(𝑎) = a+(𝑋′𝑋)−1𝐸(ε) = a car 𝐸(ε) = 0
L’estimateur est donc sans biais : 𝐸(𝑎) = a
𝑎 = a + (𝑋′
𝑋)−1
𝑋′ε
16. Calculons maintenant la matrice des variances et covariances des
coefficients de régression 𝑎.
𝑎 = 𝐸{ 𝑎 − 𝑎 𝑎 − 𝑎 ′}
D’apres l’equation précédente:
(𝑎 − 𝑎) = 𝑋′𝑋 −1𝑋′𝜀
Et puisque 𝑋′𝑋 −1est symétrique , donc 𝑎 − 𝑎 ′=𝜀′X 𝑋′𝑋 −1
𝑎 − 𝑎 𝑎 − 𝑎 ′ = 𝑋′𝑋 −1𝑋′𝜀 𝜀′ X 𝑋′𝑋 −1
D’où 𝑎= 𝑋′𝑋 −1X′E(𝜀 𝜀′ )X 𝑋′𝑋 −1
Avec E(𝜀 𝜀′ )= 𝜀= 𝜎𝜀
2
I= matrice des variances et des covariances
de l’erreur 𝜀.
𝜀 = 𝐸 𝜀𝜀′ =
𝐸(𝜀1𝜀1) 𝐸(𝜀1𝜀2) … 𝐸(𝜀1𝜀𝑛)
𝐸(𝜀2𝜀1) 𝐸(𝜀2𝜀2) … 𝐸(𝜀2𝜀𝑛)
…
𝐸(𝜀𝑛𝜀1) 𝐸(𝜀𝑛𝜀2) … 𝐸(𝜀𝑛𝜀𝑛)
17. =
𝜎𝜀
2
0 0 … 0
0 𝜎𝜀
2
0 … 0
. .
0 0 0 … 𝜎𝜀
2
Soit 𝑎= 𝜎𝜀
2 𝑋′𝑋 −1X′X 𝑋′𝑋 −1
Donc 𝑎= 𝜎𝜀
2 𝑋′𝑋 −1
𝑎 =
𝜎𝜀
2
𝑛
𝑋′𝑋
−1
𝑛
, lim 𝑎 = 0 si n
(D’après les hypothèses H3 et H7). L’estimateur est donc convergent.
∞
18. Comme pour le modèle de régression simple, nous avons :
a) 𝑖 𝑦𝑖 = 𝑖 𝑦𝑖 → 𝑦𝑖 = 𝑦
b) 𝑖 𝑒𝑖 = 0
De ces deux relations , nous en déduisons l’équation fondamentale d’analyser de la variance :
𝑖
𝑦𝑖 − 𝑦 2
=
𝑖
𝑦𝑖 − 𝑦
2
+
𝑖
𝑒𝑖
2
SCT = SCE + SCR
La variabilité totale (SCT) est égale à la variabilité expliquée (SCE) + la variabilité des résidus (SCR).
19. Cette équation va nous permettre de juger de la qualité de l’ajustement d’un modèle ; en effet, plus la
variance expliquée est « proche » de la variance totale , meilleur est l’ajustement global du modèle.
C’est pourquoi nous calculons le rapport SCE sur SCT :
𝑅2 est appelé le coefficient de détermination, et R le coefficient de corrélation multiple. 𝑅2 mesure la
proportion de la variance de Y expliquée par la régression de Y sur X.
Dans le cas de données centrées (moyenne nulle) et seulement dans ce cas, le coefficient de
détermination est égal à :
𝑅2
= 𝑖
𝑦𝑖 − 𝑦 2
𝑖 𝑦𝑖 − 𝑦 2
= 1 − 𝑖
𝑒𝑖
2
𝑖 𝑦𝑖 − 𝑦 2
𝑅2 =
𝑌′ 𝑌
𝑌′ 𝑌
= 1 −
𝑒′ 𝑒
𝑌′ 𝑌
20. Cette qualité de l’ajustement et l’appréciation que l’on a du 𝑅2 doivent être tempérées par le degré de
liberté de l’estimation. En effet, lorsque le degré de liberté est faible1, il convient de corriger le
𝑅2 afin de tenir compte du relativement faible nombre d’observations comparé au nombre de facteurs
explicatifs par le calcul d’un 𝑅2« corrigé » noté 𝑅2 :
On a 𝑅2 < 𝑅2 et si n est grand 𝑅2 ≃ 𝑅2 .
Nous verrons au chapitre 4 section IV deux critères (Akaike et Schwarz) permettant d’arbitrer, lors de
l’introduction d’une ou plusieurs variables explicatives, entre la perte de degrés de liberté et l’apport
d’information.
𝑅² = 1 −
𝑛−1
𝑛−𝑘−1
(1 − R²)
21. 𝑌 𝑋1 𝑋2
10 7,0 5
12 8,0 4
14 8,0 6
16 9,0 7
18 10,0 8
Soit un modèle a deux variables explicatives:
Y= 𝛽0 + 𝛽1𝑋1+ 𝛽 2𝑋2 + 𝐶Nous disposons des
données du tableau 1.
•Mettre le modèle sous forme matricielle en
spécifiant bien les dimensions de chacune des
matrices.
•Estimer les paramètres du modèle.
•Calculons Ω et le coefficient de détermination 𝑅2.
22. Y 0 1x i 2x 2 𝜺
Y - 6, 4 2x 1 0,6x 2 𝜺
Sorti Eviews
23. 1) Forme matricielle :
Nous disposons de 5 observation et 2 variables explicatives , le modèle peut donc s’écrire :
Y =
𝟏𝟎
𝟏𝟐
𝟏𝟒
𝟏𝟔
𝟏𝟖
; X =
𝟏 𝟕 𝟓
𝟏 𝟖 𝟒
𝟏 𝟖 𝟔
𝟏 𝟗 𝟕
𝟏 𝟏𝟎 𝟖
; 𝜷 =
𝜷0
𝜷1
𝜷2
24. 2) Estimation des paramètres
Nous avons :
𝛽0
𝛽1 = ( X’.X )-1. ( X’.Y )
𝛽2
Calcul de (X’.X) et de ( X’.Y )
(X’.X ) =
5 42 30
42 358 258
30 258 190
: (X’.X)-1 =
18,2 −3 1,2
−3 0,625 −0,375
1,2 −0,375 0,325
27. 3-2) Le calcul du R2
R2 = 1-
𝑆𝐶𝑅
𝑆𝐶𝑇
= 1 -
1,2
40
= 0,97
donc
Le R2 corrigé
𝑅 = 1-
𝑛−1
𝑛−𝑘−1
(1- R2) = 1-
5−1
5−4
( 1- 0,97) = 0,88
Nous observons la bais du coefficient de détermination lorsque nous le corrigeons par le degré
de liberté