SlideShare une entreprise Scribd logo
1  sur  54
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Probabilités pour ingénieurs
Chapitre 4 : Théorèmes Limites
I. MEDARHRI
ENSMR, École Nationale Supérieure des Mines de Rabat
2019-2020.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
On lance n fois un dé (non truqués) à six faces et on note Xi le
résultat du ie lancer, puis on calcule la moyenne des n lancers
Xn =
1
n
Σn
i=1Xi . Qu’obtient-on lorsque n devient grand ?
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
On lance n fois un dé (non truqués) à six faces et on note Xi le
résultat du ie lancer, puis on calcule la moyenne des n lancers
Xn =
1
n
Σn
i=1Xi . Qu’obtient-on lorsque n devient grand ?
L’intuition laisse penser que lorsque n devient grand, cette moyenne
devient proche de l’espérance d’un des lancers Xi , c’est-à-dire de
E(Xi ) = 1 ∗
1
6
+ 2 ∗
1
6
+ 3 ∗
1
6
+ 4 ∗
1
6
+ 5 ∗
1
6
+ 6 ∗
1
6
= 3.5.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
On lance n fois un dé (non truqués) à six faces et on note Xi le
résultat du ie lancer, puis on calcule la moyenne des n lancers
Xn =
1
n
Σn
i=1Xi . Qu’obtient-on lorsque n devient grand ?
L’intuition laisse penser que lorsque n devient grand, cette moyenne
devient proche de l’espérance d’un des lancers Xi , c’est-à-dire de
E(Xi ) = 1 ∗
1
6
+ 2 ∗
1
6
+ 3 ∗
1
6
+ 4 ∗
1
6
+ 5 ∗
1
6
+ 6 ∗
1
6
= 3.5. On
voudrait donc pouvoir dire que la limite de Xn lorsque n −→ +∞
vaut 3.5. C’est ce qu’on appelle la loi des grands nombres. Pour
cela, il faut d’abord définir ce que signifie converger pour une suite
de variables aléatoires, puis prouver qu’il y a bien convergence.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Théorème : inégalité de Tchebychev
Soit X une variable aléatoire d’espérance µ = E(X) et de variance
finie σ2 = V (X). Alors pour tout réel strictement positif  :
P (|X − µ| ≥ ) ≤
σ2
2
Intuition : La probabilité de s’éloigner de la moyenne est d’autant
plus petite que la variance est petite
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Théorème : inégalité de Tchebychev
Soit X une variable aléatoire d’espérance µ = E(X) et de variance
finie σ2 = V (X). Alors pour tout réel strictement positif  :
P (|X − µ| ≥ ) ≤
σ2
2
Intuition : La probabilité de s’éloigner de la moyenne est d’autant
plus petite que la variance est petite
Cas particulier
On pose  = kσ, l’inégalité de Tchebychev indique que:
P (|X − µ| ≥ kσ) ≤
σ2
k2σ2
=
1
k2
Ainsi, pour tout variable aléatoire, la probabilité d’une déviation de
la moyenne de plus de k écart-type est inférieurs à
1
k2
.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Les valeurs comprises entre ±1.5
écart-type sont celles qui se
situent entre les valeurs 19.96 et
27.54. Selon l’IBT, il doit y en
avoir au moins 1 − (1/1.52), soit
0.56.
Si l’on procède au décompte, on
constate qu’il y en a 17 sur 20.
soit 0,85.
L’IBT est bien vérifiée.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Comparaison des conclusions de l’IBT avec ceux d’une loi normale.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Différents types de convergences
Definition
Soit (Xn)n une suite de variables aléatoires réelles i.i.d.
On dit que (Xn) converge en Probabilité vers X ssi
∀ε  0, lim
n→+∞
P (|Xn − X| ≥ ε) = 0.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Différents types de convergences
Definition
Soit (Xn)n une suite de variables aléatoires réelles i.i.d.
On dit que (Xn) converge en Probabilité vers X ssi
∀ε  0, lim
n→+∞
P (|Xn − X| ≥ ε) = 0.
On dit que (Xn) converge en moyenne vers X ssi:
lim
n→+∞
E(|Xn − X|) = 0.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Différents types de convergences
Definition
Soit (Xn)n une suite de variables aléatoires réelles i.i.d.
On dit que (Xn) converge en Probabilité vers X ssi
∀ε  0, lim
n→+∞
P (|Xn − X| ≥ ε) = 0.
On dit que (Xn) converge en moyenne vers X ssi:
lim
n→+∞
E(|Xn − X|) = 0.
On dit que (Xn) converge presque-sûrement vers X ssi:
P({w, lim
n→+∞
|Xn(w) − X(w)| = 0}) = 1.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Différents types de convergences
Ces définitions ne sont pas équivalentes.
Exemple
Soit (Xn)n variables aléatoires de Bernoulli tq:
P(Xn = 1) = 1
n ; P(Xn = 0) = 1 − 1
n
I (Xn)n tend en probabilité vers X=0: ∀ ∈]0, 1[
limn→+∞ P (|Xn| ≥ ε) = 0
I (Xn)n tend en moyenne vers X=0: limn→+∞ E(Xn) = 0
I (Xn)n ne peut pas converger presque-sûrement vers X=0;
I Dans cet exemple il y a que la convergence en probabilité :
Soit (Yn)n variables aléatoires de Bernoulli tq:
P(Yn = n2) = 1
n ; P(Yn = 0) = 1 − 1
n
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Théorème : La Loi des Grands Nombres
Soit X une variable aléatoire d’espérance µ = E(X), alors pour
toute suite infinie (Xn)n de v.a. deux à deux indépendantes et de
même loi que X, la suite des v.a.
Xn =
1
n
Σn
i=1Xi
Converge en probabilité vers µ lorsque n tend vers l’infini.
Intuition : La moyenne arithmétique Xn converge (en probabilité)
vers l’espérance statistique µ = E(X)
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Loi Forte des Grands Nombres
La Loi des Grands Nombres que nous venons d’étudier est souvent
appelé ”Loi Faible des Grands Nombres” pour la différencier de
la ”Loi Forte des Grands Nombres”.
La loi faible des grands nombres ne correspond pas exactement au
fait que la moyenne arithmétique converge vers l’espérance, i.e. à
l’intuition qu’en lançant une pièce un grand nombre de fois la
proportion de ”face” atteigne véritablement 1/2.
Pour cela, il faut utiliser la ”Loi Forte des Grands Nombres” qui
indique que
P

lim
n→∞
Xn = X

= 1
on parlera alors de convergence presque sure.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Remarque
Il est frappant de voir qu’on peut commencer avec une expérience
dont on ne connait pas grand chose et, en prenant la moyenne,
obtenir une expérience dont on peut prédire le résultat avec un fort
niveau de certitude.
Exemple 1:
Pour une série de lancers de dés (non truqués), si Xi représente le
résultat du ie lancer, alors les Xi sont des variables indépendantes
et toutes de même loi (loi uniforme sur {1, 2, 3, 4, 5, 6}).
L’espérance statistique des Xi est bien définie, donc on peut
appliquer la loi des grands nombres : la moyenne arithmétique
Xn =
1
n
Σn
i=1Xi converge vers E(Xi ) = 3.5 lorque n tend vers +∞.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
R project
Simulation numérique de l’exemple 1 avec le langage de
programmation R project.
 n=10
 dus=sample(1:6,size=n,replace=TRUE)
 smean=mean(dus)
 smean
[1] 4.15
n=1000
[1] 3.459
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Exemple : Expériences de Bernouilli
Considérons le cas important de n expériences de Bernoulli avec
une probabilité p de succès. Xi = 1 si la ie issue est un succès, 0
sinon.
Alors Sn = X1 + ... + Xn est le nombre de succès en n épreuves et
µ = E(X1) = p. La Loi (Faible) des Grands Nombres indique que
lim
n→+∞
P
Sn
n
− p
≥ ε

= 0.
Ainsi, si l’expérience est répétée un grand nombre de fois, on peut
s’attendre à ce que la proportion de succès soit proche de p.
Cela montre que le modèle mathématique de probabilité est
cohérent avec l’interprétation en termes de fréquence des
probabilités.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
Exemple 2: Expériences de Bernouilli
Considérons le cas particulier de n ”Pile ou Face” avec Sn le
nombre de ”Face”. La variable aléatoire
Sn
n
représente alors la
proportion de ”Face” et est comprise entre 0 et 1.
La Loi des Grands Nombres prédit que le résultat de cette variable
aléatoire devrait, pour n grand, être proche de
1
2
.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
L’inégalité de Tchebychev
Convergence
R project
Simulation numérique de l’exemple 2 avec le langage de
programmation R project.
 n=10
 s=sample(c(’P’,’F’),size=n,replace=TRUE)
 count=0
 for(i in 1:n)
if(s[i]==’F’)
count=count+1
fr=count/n
[1] 0.2
pour n=10000
[1] 0.4964
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Le deuxième théorème fondamental des probabilités est le
Théorème Central Limite.
Ce théorème indique que si Sn est la somme de n v.a.
mutuellement indépendantes et identiquement distribuées, alors la
distribution de Sn peut être correctement approximé par la densité
normale (et ce quelque soit la distribution initiale!).
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
Soient n nombres choisit aléatoirement dans l’intervalle [0, 1] avec
une densité uniforme. Notons ces choix X1, X2, ..., Xn et leur
somme Sn = X1 + X2 + ... + Xn. En graphant la densité de Sn en
fonction de n, on remarque que cette somme à une forme de loi
normale mais est centrée en n=2 et s’applatit quand n augmente.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple introductif
Afin de comparer la forme de ces densités pour différentes valeurs
de n, il est utile de centrer et réduire Sn en déffinissant
S∗
n =
Sn − nµ
σ
√
n
,. Ainsi pour tout n, on a E(S∗
n ) = 0 et V (S∗
n ) = 1.
La fonction de densité de S∗
n est alors une version centrée-réduite
de la densité de Sn
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Soit X1, X2, ... une suite de variables aléatoires réelles définies sur
le même espace de probabilité, indépendantes et identiquement
distribuées suivant la même loi D. Supposons que l’espérance µ et
l’écart-type σ de D existent et soient finis avec σ 6= 0.
Considérons la somme Sn = X1 + X2 + ... + Xn. Alors
l’espérance de Sn est nµ et;
son écart-type vaut σ
√
n.
De plus, quand n est assez grand, la loi normale N(nµ, nσ2) est
une bonne approximation de la loi de Sn.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Théorème central limite
La suite de variables aléatoires (Zi )16i6n converge en loi vers une
variable aléatoire Z, définie sur le même espace probabilisé, et de
loi normale centrée réduite N(0, 1) lorsque n tend vers l’infini.
Cela signifie que si Φ est la fonction de répartition de N(0, 1),
alors pour tout réel z :
lim
n→∞
P(Zn ≤ z) = Φ(z),
ou, de façon équivalente :
lim
n→∞
P

Xn − µ
σ/
√
n
≤ z

= Φ(z)
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Remarque
Une telle approximation est en général valide lorsque n ≥ 30. Mais
dans certains cas, notamment lorsque la distribution de X est
symétrique (une uniforme par exemple), la convergence peut alors
avoir lieu pour de petites valeurs de n telles que n = 10 et dans
d’autres cas, cette convergence n’a lieu que si n ≥ 100
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple
Exemple 2:
On lance un dé 100 fois. Quelle est la probabilité que la somme
des résultats soit entre 340 et 360 ?
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Exemple
Exemple 3:
Un échantillon de taille n = 50 est prélevé d’une population
distribuée selon une loi uniforme dans l’intervalle [0, 1]. Calculer
(approximativement) la probabilité que la somme des valeurs
observées dans l’échantillon soit supérieure à 28.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Approximation d’une binomiale par une Loi de
poisson
Proposition 1:
Soit Xn des v.a telle que Xn v B(n, pn) et Y v P(λ) alors pour
tout 0 ≤ k ≤ n, on a
Si lim
n→+∞
npn = λ, alors lim
n→+∞
P(Xn = k) = P(Y = k).
On dit que Xn converge en loi vers la loi de Poisson et on écrit :
Xn
L
−
−
−
−
→
n→+∞
Y
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
En pratique
Si n est grand et p est petit (de sorte que np est modéré) alors
X suit approximativement une loi de Poisson P(λ), où
λ = np :
On peut dire que X ≈ Y à partir du moment où n ≥ 30 et
np ≤ 5
∀k ∈ [0, n], P(X = k) ≈ P(Z = k)
Illustration: on pourra constater sur les histogrammes de la
figure2 que l’écart entre la loi binomiale (pour n=50 et p=0.1)
et la loi de Poisson (pour λ = np = 5) est inférieur à 1%
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Calcul avec des logiciels
Excel
Générer un vecteur X = 0, 1, 2, . . . , 50 sur un tableau d’Excel,
LOI.BINOMIALE.N(x;50;0,1;FAUX)
LOI.POISSON.N(x;5;FAUX)
R
Générer un vecteur x: x=seq(0,50,1),
px = dbinom(x = x, size = 50, prob = 0.1) ;
plot ( x, px, type = ”h”, xlab = ”x”, ylab = ”p(x)”,
main=”fonction de masse de X ∼ B(n = 50, p = 0.1)”).
py = dpois(x = x, lambda = 5) ;
plot ( x, py, type = ”h”, xlab = ”x”, ylab = ”p(x)”,
main=”fonction de masse de X ∼ Pois(lambda = 5)”).
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Illustration sous Excel
Figure: Illustration des resultats sous Excel.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
L’Ecart entre la loi Binomiale et loi du
poisson
Figure: Histogramme des lois B(n = 50, p = 0.1) et P(λ = 5) et leur
écart. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
En pratique
L’intérêt de cette approximation est que pour n grand il est
beaucoup plus facile de calculer les probabilités d’une loi de Poisson
que celles d’une loi Binomiale, à cause des coefficients Ck
n qui
nécessitent le calcul de n! ou du triangle de Pascal correspondant.
Cependant pour que l’approximation reste valable il faut que np
reste petit, de ce fait on dit que la loi de Poisson est bien
adaptée pour estimer les ”événements rares”.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Exemple 4:
A chaque minute un client peut entrer dans un magasin avec une
probabilité p = 0.05. On suppose qu’un seul client peut entrer à
chaque minute et que toutes les entrées de clients sont
indépendantes.
I Quelle est la probabilité qu’exactement 5 clients entrent
en une heure ?
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Approximation d’une binomiale par une Loi
Normale
Si Xn suit une loi binomiale B(n, p), alors Xn =
n
X
i=1
Yi
où les Yi sont des variables indépendantes de loi de Bernoulli(p) :
P(Yi = 1) = p et P(Yi = 0) = 1 − p.
D’après le théorème central limite,
√
n
σ
(
1
n
n
X
i=1
Yi − µ) converge en loi vers N(0, 1),
avec µ = E(Y1) = p et σ2 = V (Y1) = p(1 − p).
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Approximation d’une binomiale par une Loi
Normale
Autrement dit, on a le résultat suivant :
Proposition 2:
Soit (Xn)n≥0 une suite de variables aléatoires telle que pour tout n
la loi de Xn est B(n, p) où p est fixé.
Soit Z une variable de loi N(0, 1).
Alors la loi de
√
n
p
p(1 − p)
(Xn − p) converge vers celle de Z,
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
En pratique
Si n est grand alors X suit approximativement une loi de
normale N(µ = np, σ2 = np(1 − p)).
Cette approximation est bonne si:
np  5 lorsque p ≤ 1
2.
n(1 − p)  5 lorsque p  1
2 .
Illustration: on pourra constater sur l’histogramme de la
figure 3 qu’on a la courbe gaussienne.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Calcul avec des logiciels
Excel
Générer un vecteur X = 0, 1, 2, . . . , 100 sur un tableau
d’Excel,
LOI.BINOMIALE.N(x;100;0,2;FAUX)
R
Générer un vecteur x: x=seq(0,50,1),
px = dbinom(x = x, size = 100, prob = 0.2) ;
plot ( x, px, type = ”h”, xlab = ”x”, ylab = ”p(x)”,
main=”fonction de masse de X ∼ B(n = 100, p = 0.2)”).
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Visualisation de la courbe gaussienne à partir
de la loi Binomiale
Figure: Histogramme de la loi binomiale.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Exemple 5:
Reprenons l’exemple du magasin, mais supposons cette fois que
p = 0.5.
I Quelle est la probabilité qu’en une heure soient entrés
plus de 20 clients ?
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Exemple 6:
I On lance une pièce 200 fois. Quelle est la probabilité
d’obtenir au moins 110 piles ?
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Approximation en loi
Approximation vers la loi Normale
Exemple
Exemple 7:
Une compagnie aérienne constate que 15% des personnes avec des
réservations de places ne se présentent pas au guichet. En
conséquence, elle vend 75 places pour un vol assuré par un avion
de capacité 73 places.
I Quelle est la probabilité que chaque personne qui se présente
au guichet ait une place ?
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Résumé
Chemin vers tests statistiques
Figure: Approximation des lois.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Résumé
Chemin vers tests statistiques
L’une des fonctions des statistiques est de proposer, à partir
d’observations d’un phénomène aléatoire, une estimation d’un
des paramètres du phénomène.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Résumé
Chemin vers tests statistiques
L’une des fonctions des statistiques est de proposer, à partir
d’observations d’un phénomène aléatoire, une estimation d’un
des paramètres du phénomène.
Les statistiques servent aussi à prendre des décisions. Peut on
considérer que le nombre de consultations de Google par
seconde suit il une loi de Poisson ? Les gènes pilotant la
couleur des yeux et ceux des cheveux sont ils sur les mêmes
chromosomes ?.....
I. MEDARHRI Probabilités pour ingénieurs, ENSMR
Loi des Grands Nombres
Théorème central limite
Approximation
conclusion
Résumé
Chemin vers tests statistiques
Il y a deux points communs (au moins) à toutes ces questions
: leurs réponses sont des oui-non et le phénomène sous-jacent
est aléatoire.
I. MEDARHRI Probabilités pour ingénieurs, ENSMR

Contenu connexe

Tendances

Résumer sur les fichier et les enregistrement
Résumer sur les fichier et les enregistrementRésumer sur les fichier et les enregistrement
Résumer sur les fichier et les enregistrementborhen boukthir
 
Devoirs Algorithme + correction pour 4 si
Devoirs Algorithme + correction pour 4 siDevoirs Algorithme + correction pour 4 si
Devoirs Algorithme + correction pour 4 siNarûtö Bàl'Sèm
 
Cours structures des données (langage c)
Cours structures des données (langage c)Cours structures des données (langage c)
Cours structures des données (langage c)rezgui mohamed
 
S1 mq i - statistique descriptive i – equations statistiques
S1   mq i - statistique descriptive i – equations statistiquesS1   mq i - statistique descriptive i – equations statistiques
S1 mq i - statistique descriptive i – equations statistiquesAbdeslam ELMOUDEN
 
S1 mq i - statistique descriptive i - résumés des chapitres
S1   mq i - statistique descriptive i - résumés des chapitresS1   mq i - statistique descriptive i - résumés des chapitres
S1 mq i - statistique descriptive i - résumés des chapitresAbdeslam ELMOUDEN
 
Excel ppt.ppt
Excel ppt.pptExcel ppt.ppt
Excel ppt.pptBadarSaf
 
Vecteurs aléatoires continues
Vecteurs aléatoires continuesVecteurs aléatoires continues
Vecteurs aléatoires continuesIbtissam medarhri
 
Access formulaires
Access formulairesAccess formulaires
Access formulaireshassan1488
 
Statistique descriptive S1et S2
Statistique descriptive S1et S2 Statistique descriptive S1et S2
Statistique descriptive S1et S2 samos56
 
Cours python avancé
Cours python avancéCours python avancé
Cours python avancépierrepo
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourierMehdi Maroun
 
Chapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdf
Chapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdfChapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdf
Chapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdfC00LiMoUn
 
Cours complet Base de donne Bac
Cours complet Base de donne Bac Cours complet Base de donne Bac
Cours complet Base de donne Bac Amri Ossama
 
La pédagogie active, quelle efficacité ?!
La pédagogie active, quelle efficacité ?!La pédagogie active, quelle efficacité ?!
La pédagogie active, quelle efficacité ?!Jean-François CECI
 
Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...
Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...
Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...Abdelouahed Abdou
 
Cours acp mehdi_aman
Cours acp mehdi_amanCours acp mehdi_aman
Cours acp mehdi_amanMehdi Aman
 

Tendances (20)

Résumer sur les fichier et les enregistrement
Résumer sur les fichier et les enregistrementRésumer sur les fichier et les enregistrement
Résumer sur les fichier et les enregistrement
 
Devoirs Algorithme + correction pour 4 si
Devoirs Algorithme + correction pour 4 siDevoirs Algorithme + correction pour 4 si
Devoirs Algorithme + correction pour 4 si
 
Cours structures des données (langage c)
Cours structures des données (langage c)Cours structures des données (langage c)
Cours structures des données (langage c)
 
S1 mq i - statistique descriptive i – equations statistiques
S1   mq i - statistique descriptive i – equations statistiquesS1   mq i - statistique descriptive i – equations statistiques
S1 mq i - statistique descriptive i – equations statistiques
 
S1 mq i - statistique descriptive i - résumés des chapitres
S1   mq i - statistique descriptive i - résumés des chapitresS1   mq i - statistique descriptive i - résumés des chapitres
S1 mq i - statistique descriptive i - résumés des chapitres
 
Excel ppt.ppt
Excel ppt.pptExcel ppt.ppt
Excel ppt.ppt
 
Vecteurs aléatoires continues
Vecteurs aléatoires continuesVecteurs aléatoires continues
Vecteurs aléatoires continues
 
Opale 3.4
Opale 3.4Opale 3.4
Opale 3.4
 
Access formulaires
Access formulairesAccess formulaires
Access formulaires
 
Statistique descriptive S1et S2
Statistique descriptive S1et S2 Statistique descriptive S1et S2
Statistique descriptive S1et S2
 
Cours python avancé
Cours python avancéCours python avancé
Cours python avancé
 
Chapitre 1 rappel
Chapitre 1   rappelChapitre 1   rappel
Chapitre 1 rappel
 
Modèle de conception
Modèle de conceptionModèle de conception
Modèle de conception
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourier
 
Chapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdf
Chapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdfChapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdf
Chapitre 2 Les strucutures conditionnelles_18-19.ppt [Mode de compatibilité].pdf
 
Cours complet Base de donne Bac
Cours complet Base de donne Bac Cours complet Base de donne Bac
Cours complet Base de donne Bac
 
La pédagogie active, quelle efficacité ?!
La pédagogie active, quelle efficacité ?!La pédagogie active, quelle efficacité ?!
La pédagogie active, quelle efficacité ?!
 
Is lm
Is   lmIs   lm
Is lm
 
Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...
Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...
Développement de modules pour odoo (anciennement OpenERP): exemples et exerci...
 
Cours acp mehdi_aman
Cours acp mehdi_amanCours acp mehdi_aman
Cours acp mehdi_aman
 

Similaire à Théorèmes limites

Vecteurs aléatoires sur un espace fini ou dénombrable
Vecteurs aléatoires sur un espace fini ou dénombrableVecteurs aléatoires sur un espace fini ou dénombrable
Vecteurs aléatoires sur un espace fini ou dénombrableIbtissam medarhri
 
éChantillonnage estimation
éChantillonnage   estimationéChantillonnage   estimation
éChantillonnage estimationmarouane hdidou
 
Persistance d'un nombre
Persistance d'un nombrePersistance d'un nombre
Persistance d'un nombreIOSRJM
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densiteManar Sefiane
 
Brisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De LychrelBrisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De LychrelIOSRjournaljce
 
À la chasse aux bugs avec la Laboratoire d'informatique formelle
À la chasse aux bugs avec la Laboratoire d'informatique formelleÀ la chasse aux bugs avec la Laboratoire d'informatique formelle
À la chasse aux bugs avec la Laboratoire d'informatique formelleSylvain Hallé
 

Similaire à Théorèmes limites (9)

Vecteurs aléatoires sur un espace fini ou dénombrable
Vecteurs aléatoires sur un espace fini ou dénombrableVecteurs aléatoires sur un espace fini ou dénombrable
Vecteurs aléatoires sur un espace fini ou dénombrable
 
éChantillonnage estimation
éChantillonnage   estimationéChantillonnage   estimation
éChantillonnage estimation
 
Vraisembl
VraisemblVraisembl
Vraisembl
 
Vraisembl
VraisemblVraisembl
Vraisembl
 
Regression simple
Regression simpleRegression simple
Regression simple
 
Persistance d'un nombre
Persistance d'un nombrePersistance d'un nombre
Persistance d'un nombre
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densite
 
Brisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De LychrelBrisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De Lychrel
 
À la chasse aux bugs avec la Laboratoire d'informatique formelle
À la chasse aux bugs avec la Laboratoire d'informatique formelleÀ la chasse aux bugs avec la Laboratoire d'informatique formelle
À la chasse aux bugs avec la Laboratoire d'informatique formelle
 

Théorèmes limites

  • 1. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Probabilités pour ingénieurs Chapitre 4 : Théorèmes Limites I. MEDARHRI ENSMR, École Nationale Supérieure des Mines de Rabat 2019-2020. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 2. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence On lance n fois un dé (non truqués) à six faces et on note Xi le résultat du ie lancer, puis on calcule la moyenne des n lancers Xn = 1 n Σn i=1Xi . Qu’obtient-on lorsque n devient grand ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 3. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence On lance n fois un dé (non truqués) à six faces et on note Xi le résultat du ie lancer, puis on calcule la moyenne des n lancers Xn = 1 n Σn i=1Xi . Qu’obtient-on lorsque n devient grand ? L’intuition laisse penser que lorsque n devient grand, cette moyenne devient proche de l’espérance d’un des lancers Xi , c’est-à-dire de E(Xi ) = 1 ∗ 1 6 + 2 ∗ 1 6 + 3 ∗ 1 6 + 4 ∗ 1 6 + 5 ∗ 1 6 + 6 ∗ 1 6 = 3.5. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 4. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence On lance n fois un dé (non truqués) à six faces et on note Xi le résultat du ie lancer, puis on calcule la moyenne des n lancers Xn = 1 n Σn i=1Xi . Qu’obtient-on lorsque n devient grand ? L’intuition laisse penser que lorsque n devient grand, cette moyenne devient proche de l’espérance d’un des lancers Xi , c’est-à-dire de E(Xi ) = 1 ∗ 1 6 + 2 ∗ 1 6 + 3 ∗ 1 6 + 4 ∗ 1 6 + 5 ∗ 1 6 + 6 ∗ 1 6 = 3.5. On voudrait donc pouvoir dire que la limite de Xn lorsque n −→ +∞ vaut 3.5. C’est ce qu’on appelle la loi des grands nombres. Pour cela, il faut d’abord définir ce que signifie converger pour une suite de variables aléatoires, puis prouver qu’il y a bien convergence. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 5. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Théorème : inégalité de Tchebychev Soit X une variable aléatoire d’espérance µ = E(X) et de variance finie σ2 = V (X). Alors pour tout réel strictement positif : P (|X − µ| ≥ ) ≤ σ2 2 Intuition : La probabilité de s’éloigner de la moyenne est d’autant plus petite que la variance est petite I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 6. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Théorème : inégalité de Tchebychev Soit X une variable aléatoire d’espérance µ = E(X) et de variance finie σ2 = V (X). Alors pour tout réel strictement positif : P (|X − µ| ≥ ) ≤ σ2 2 Intuition : La probabilité de s’éloigner de la moyenne est d’autant plus petite que la variance est petite Cas particulier On pose = kσ, l’inégalité de Tchebychev indique que: P (|X − µ| ≥ kσ) ≤ σ2 k2σ2 = 1 k2 Ainsi, pour tout variable aléatoire, la probabilité d’une déviation de la moyenne de plus de k écart-type est inférieurs à 1 k2 . I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 7. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Les valeurs comprises entre ±1.5 écart-type sont celles qui se situent entre les valeurs 19.96 et 27.54. Selon l’IBT, il doit y en avoir au moins 1 − (1/1.52), soit 0.56. Si l’on procède au décompte, on constate qu’il y en a 17 sur 20. soit 0,85. L’IBT est bien vérifiée. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 8. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Comparaison des conclusions de l’IBT avec ceux d’une loi normale. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 9. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Différents types de convergences Definition Soit (Xn)n une suite de variables aléatoires réelles i.i.d. On dit que (Xn) converge en Probabilité vers X ssi ∀ε 0, lim n→+∞ P (|Xn − X| ≥ ε) = 0. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 10. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Différents types de convergences Definition Soit (Xn)n une suite de variables aléatoires réelles i.i.d. On dit que (Xn) converge en Probabilité vers X ssi ∀ε 0, lim n→+∞ P (|Xn − X| ≥ ε) = 0. On dit que (Xn) converge en moyenne vers X ssi: lim n→+∞ E(|Xn − X|) = 0. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 11. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Différents types de convergences Definition Soit (Xn)n une suite de variables aléatoires réelles i.i.d. On dit que (Xn) converge en Probabilité vers X ssi ∀ε 0, lim n→+∞ P (|Xn − X| ≥ ε) = 0. On dit que (Xn) converge en moyenne vers X ssi: lim n→+∞ E(|Xn − X|) = 0. On dit que (Xn) converge presque-sûrement vers X ssi: P({w, lim n→+∞ |Xn(w) − X(w)| = 0}) = 1. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 12. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Différents types de convergences Ces définitions ne sont pas équivalentes. Exemple Soit (Xn)n variables aléatoires de Bernoulli tq: P(Xn = 1) = 1 n ; P(Xn = 0) = 1 − 1 n I (Xn)n tend en probabilité vers X=0: ∀ ∈]0, 1[ limn→+∞ P (|Xn| ≥ ε) = 0 I (Xn)n tend en moyenne vers X=0: limn→+∞ E(Xn) = 0 I (Xn)n ne peut pas converger presque-sûrement vers X=0; I Dans cet exemple il y a que la convergence en probabilité : Soit (Yn)n variables aléatoires de Bernoulli tq: P(Yn = n2) = 1 n ; P(Yn = 0) = 1 − 1 n I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 13. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Théorème : La Loi des Grands Nombres Soit X une variable aléatoire d’espérance µ = E(X), alors pour toute suite infinie (Xn)n de v.a. deux à deux indépendantes et de même loi que X, la suite des v.a. Xn = 1 n Σn i=1Xi Converge en probabilité vers µ lorsque n tend vers l’infini. Intuition : La moyenne arithmétique Xn converge (en probabilité) vers l’espérance statistique µ = E(X) I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 14. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Loi Forte des Grands Nombres La Loi des Grands Nombres que nous venons d’étudier est souvent appelé ”Loi Faible des Grands Nombres” pour la différencier de la ”Loi Forte des Grands Nombres”. La loi faible des grands nombres ne correspond pas exactement au fait que la moyenne arithmétique converge vers l’espérance, i.e. à l’intuition qu’en lançant une pièce un grand nombre de fois la proportion de ”face” atteigne véritablement 1/2. Pour cela, il faut utiliser la ”Loi Forte des Grands Nombres” qui indique que P lim n→∞ Xn = X = 1 on parlera alors de convergence presque sure. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 15. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Remarque Il est frappant de voir qu’on peut commencer avec une expérience dont on ne connait pas grand chose et, en prenant la moyenne, obtenir une expérience dont on peut prédire le résultat avec un fort niveau de certitude. Exemple 1: Pour une série de lancers de dés (non truqués), si Xi représente le résultat du ie lancer, alors les Xi sont des variables indépendantes et toutes de même loi (loi uniforme sur {1, 2, 3, 4, 5, 6}). L’espérance statistique des Xi est bien définie, donc on peut appliquer la loi des grands nombres : la moyenne arithmétique Xn = 1 n Σn i=1Xi converge vers E(Xi ) = 3.5 lorque n tend vers +∞. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 16. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence R project Simulation numérique de l’exemple 1 avec le langage de programmation R project. n=10 dus=sample(1:6,size=n,replace=TRUE) smean=mean(dus) smean [1] 4.15 n=1000 [1] 3.459 I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 17. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Exemple : Expériences de Bernouilli Considérons le cas important de n expériences de Bernoulli avec une probabilité p de succès. Xi = 1 si la ie issue est un succès, 0 sinon. Alors Sn = X1 + ... + Xn est le nombre de succès en n épreuves et µ = E(X1) = p. La Loi (Faible) des Grands Nombres indique que lim n→+∞ P
  • 18.
  • 19.
  • 20.
  • 22.
  • 23.
  • 24.
  • 25. ≥ ε = 0. Ainsi, si l’expérience est répétée un grand nombre de fois, on peut s’attendre à ce que la proportion de succès soit proche de p. Cela montre que le modèle mathématique de probabilité est cohérent avec l’interprétation en termes de fréquence des probabilités. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 26. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence Exemple 2: Expériences de Bernouilli Considérons le cas particulier de n ”Pile ou Face” avec Sn le nombre de ”Face”. La variable aléatoire Sn n représente alors la proportion de ”Face” et est comprise entre 0 et 1. La Loi des Grands Nombres prédit que le résultat de cette variable aléatoire devrait, pour n grand, être proche de 1 2 . I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 27. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif L’inégalité de Tchebychev Convergence R project Simulation numérique de l’exemple 2 avec le langage de programmation R project. n=10 s=sample(c(’P’,’F’),size=n,replace=TRUE) count=0 for(i in 1:n) if(s[i]==’F’) count=count+1 fr=count/n [1] 0.2 pour n=10000 [1] 0.4964 I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 28. Loi des Grands Nombres Théorème central limite Approximation conclusion Le deuxième théorème fondamental des probabilités est le Théorème Central Limite. Ce théorème indique que si Sn est la somme de n v.a. mutuellement indépendantes et identiquement distribuées, alors la distribution de Sn peut être correctement approximé par la densité normale (et ce quelque soit la distribution initiale!). I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 29. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif Soient n nombres choisit aléatoirement dans l’intervalle [0, 1] avec une densité uniforme. Notons ces choix X1, X2, ..., Xn et leur somme Sn = X1 + X2 + ... + Xn. En graphant la densité de Sn en fonction de n, on remarque que cette somme à une forme de loi normale mais est centrée en n=2 et s’applatit quand n augmente. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 30. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple introductif Afin de comparer la forme de ces densités pour différentes valeurs de n, il est utile de centrer et réduire Sn en déffinissant S∗ n = Sn − nµ σ √ n ,. Ainsi pour tout n, on a E(S∗ n ) = 0 et V (S∗ n ) = 1. La fonction de densité de S∗ n est alors une version centrée-réduite de la densité de Sn I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 31. Loi des Grands Nombres Théorème central limite Approximation conclusion Soit X1, X2, ... une suite de variables aléatoires réelles définies sur le même espace de probabilité, indépendantes et identiquement distribuées suivant la même loi D. Supposons que l’espérance µ et l’écart-type σ de D existent et soient finis avec σ 6= 0. Considérons la somme Sn = X1 + X2 + ... + Xn. Alors l’espérance de Sn est nµ et; son écart-type vaut σ √ n. De plus, quand n est assez grand, la loi normale N(nµ, nσ2) est une bonne approximation de la loi de Sn. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 32. Loi des Grands Nombres Théorème central limite Approximation conclusion Théorème central limite La suite de variables aléatoires (Zi )16i6n converge en loi vers une variable aléatoire Z, définie sur le même espace probabilisé, et de loi normale centrée réduite N(0, 1) lorsque n tend vers l’infini. Cela signifie que si Φ est la fonction de répartition de N(0, 1), alors pour tout réel z : lim n→∞ P(Zn ≤ z) = Φ(z), ou, de façon équivalente : lim n→∞ P Xn − µ σ/ √ n ≤ z = Φ(z) I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 33. Loi des Grands Nombres Théorème central limite Approximation conclusion Remarque Une telle approximation est en général valide lorsque n ≥ 30. Mais dans certains cas, notamment lorsque la distribution de X est symétrique (une uniforme par exemple), la convergence peut alors avoir lieu pour de petites valeurs de n telles que n = 10 et dans d’autres cas, cette convergence n’a lieu que si n ≥ 100 I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 34. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple Exemple 2: On lance un dé 100 fois. Quelle est la probabilité que la somme des résultats soit entre 340 et 360 ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 35. Loi des Grands Nombres Théorème central limite Approximation conclusion Exemple Exemple 3: Un échantillon de taille n = 50 est prélevé d’une population distribuée selon une loi uniforme dans l’intervalle [0, 1]. Calculer (approximativement) la probabilité que la somme des valeurs observées dans l’échantillon soit supérieure à 28. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 36. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Approximation d’une binomiale par une Loi de poisson Proposition 1: Soit Xn des v.a telle que Xn v B(n, pn) et Y v P(λ) alors pour tout 0 ≤ k ≤ n, on a Si lim n→+∞ npn = λ, alors lim n→+∞ P(Xn = k) = P(Y = k). On dit que Xn converge en loi vers la loi de Poisson et on écrit : Xn L − − − − → n→+∞ Y I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 37. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale En pratique Si n est grand et p est petit (de sorte que np est modéré) alors X suit approximativement une loi de Poisson P(λ), où λ = np : On peut dire que X ≈ Y à partir du moment où n ≥ 30 et np ≤ 5 ∀k ∈ [0, n], P(X = k) ≈ P(Z = k) Illustration: on pourra constater sur les histogrammes de la figure2 que l’écart entre la loi binomiale (pour n=50 et p=0.1) et la loi de Poisson (pour λ = np = 5) est inférieur à 1% I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 38. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Calcul avec des logiciels Excel Générer un vecteur X = 0, 1, 2, . . . , 50 sur un tableau d’Excel, LOI.BINOMIALE.N(x;50;0,1;FAUX) LOI.POISSON.N(x;5;FAUX) R Générer un vecteur x: x=seq(0,50,1), px = dbinom(x = x, size = 50, prob = 0.1) ; plot ( x, px, type = ”h”, xlab = ”x”, ylab = ”p(x)”, main=”fonction de masse de X ∼ B(n = 50, p = 0.1)”). py = dpois(x = x, lambda = 5) ; plot ( x, py, type = ”h”, xlab = ”x”, ylab = ”p(x)”, main=”fonction de masse de X ∼ Pois(lambda = 5)”). I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 39. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Illustration sous Excel Figure: Illustration des resultats sous Excel. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 40. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale L’Ecart entre la loi Binomiale et loi du poisson Figure: Histogramme des lois B(n = 50, p = 0.1) et P(λ = 5) et leur écart. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 41. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale En pratique L’intérêt de cette approximation est que pour n grand il est beaucoup plus facile de calculer les probabilités d’une loi de Poisson que celles d’une loi Binomiale, à cause des coefficients Ck n qui nécessitent le calcul de n! ou du triangle de Pascal correspondant. Cependant pour que l’approximation reste valable il faut que np reste petit, de ce fait on dit que la loi de Poisson est bien adaptée pour estimer les ”événements rares”. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 42. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Exemple 4: A chaque minute un client peut entrer dans un magasin avec une probabilité p = 0.05. On suppose qu’un seul client peut entrer à chaque minute et que toutes les entrées de clients sont indépendantes. I Quelle est la probabilité qu’exactement 5 clients entrent en une heure ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 43. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Approximation d’une binomiale par une Loi Normale Si Xn suit une loi binomiale B(n, p), alors Xn = n X i=1 Yi où les Yi sont des variables indépendantes de loi de Bernoulli(p) : P(Yi = 1) = p et P(Yi = 0) = 1 − p. D’après le théorème central limite, √ n σ ( 1 n n X i=1 Yi − µ) converge en loi vers N(0, 1), avec µ = E(Y1) = p et σ2 = V (Y1) = p(1 − p). I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 44. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Approximation d’une binomiale par une Loi Normale Autrement dit, on a le résultat suivant : Proposition 2: Soit (Xn)n≥0 une suite de variables aléatoires telle que pour tout n la loi de Xn est B(n, p) où p est fixé. Soit Z une variable de loi N(0, 1). Alors la loi de √ n p p(1 − p) (Xn − p) converge vers celle de Z, I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 45. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale En pratique Si n est grand alors X suit approximativement une loi de normale N(µ = np, σ2 = np(1 − p)). Cette approximation est bonne si: np 5 lorsque p ≤ 1 2. n(1 − p) 5 lorsque p 1 2 . Illustration: on pourra constater sur l’histogramme de la figure 3 qu’on a la courbe gaussienne. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 46. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Calcul avec des logiciels Excel Générer un vecteur X = 0, 1, 2, . . . , 100 sur un tableau d’Excel, LOI.BINOMIALE.N(x;100;0,2;FAUX) R Générer un vecteur x: x=seq(0,50,1), px = dbinom(x = x, size = 100, prob = 0.2) ; plot ( x, px, type = ”h”, xlab = ”x”, ylab = ”p(x)”, main=”fonction de masse de X ∼ B(n = 100, p = 0.2)”). I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 47. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Visualisation de la courbe gaussienne à partir de la loi Binomiale Figure: Histogramme de la loi binomiale. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 48. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Exemple 5: Reprenons l’exemple du magasin, mais supposons cette fois que p = 0.5. I Quelle est la probabilité qu’en une heure soient entrés plus de 20 clients ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 49. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Exemple 6: I On lance une pièce 200 fois. Quelle est la probabilité d’obtenir au moins 110 piles ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 50. Loi des Grands Nombres Théorème central limite Approximation conclusion Approximation en loi Approximation vers la loi Normale Exemple Exemple 7: Une compagnie aérienne constate que 15% des personnes avec des réservations de places ne se présentent pas au guichet. En conséquence, elle vend 75 places pour un vol assuré par un avion de capacité 73 places. I Quelle est la probabilité que chaque personne qui se présente au guichet ait une place ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 51. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Figure: Approximation des lois. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 52. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques L’une des fonctions des statistiques est de proposer, à partir d’observations d’un phénomène aléatoire, une estimation d’un des paramètres du phénomène. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 53. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques L’une des fonctions des statistiques est de proposer, à partir d’observations d’un phénomène aléatoire, une estimation d’un des paramètres du phénomène. Les statistiques servent aussi à prendre des décisions. Peut on considérer que le nombre de consultations de Google par seconde suit il une loi de Poisson ? Les gènes pilotant la couleur des yeux et ceux des cheveux sont ils sur les mêmes chromosomes ?..... I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 54. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Il y a deux points communs (au moins) à toutes ces questions : leurs réponses sont des oui-non et le phénomène sous-jacent est aléatoire. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 55. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Il y a deux points communs (au moins) à toutes ces questions : leurs réponses sont des oui-non et le phénomène sous-jacent est aléatoire. Les tests statistiques vont permettre d’apporter une réponse à des questions manichéennes en contrôlant l’aléa inhérent à la situation. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 56. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Il y a deux points communs (au moins) à toutes ces questions : leurs réponses sont des oui-non et le phénomène sous-jacent est aléatoire. Les tests statistiques vont permettre d’apporter une réponse à des questions manichéennes en contrôlant l’aléa inhérent à la situation. En statistiques, les deux éventualités sont appelées des hypothèses et sont notées : H0 (hypothèse nulle) et H1 (hypothèse alternative). En général, H1 est le contraire de H0. Dans tous les cas, le postulat est qu’une et une seule des deux hypothèses est vraie. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 57. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Un test statistique est un algorithme qui conduit à ne pas rejetter H0 ou rejetter H0 à partir des observations du phénomène. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 58. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Un test statistique est un algorithme qui conduit à ne pas rejetter H0 ou rejetter H0 à partir des observations du phénomène. L’idée de base des tests, est de trouver une statistique (une fonction des observations) dont on connait la loi (ou qui s’approxime par une loi connue) si H0 est vraie, et qui ne se comporte pas de la même manière selon que H0 ou H1 est vraie. I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 59. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Un test statistique est un algorithme qui conduit à ne pas rejetter H0 ou rejetter H0 à partir des observations du phénomène. L’idée de base des tests, est de trouver une statistique (une fonction des observations) dont on connait la loi (ou qui s’approxime par une loi connue) si H0 est vraie, et qui ne se comporte pas de la même manière selon que H0 ou H1 est vraie. Le ”qui s’approxime par une loi connue” dans la phrase précédente, est en général une conséquence du TCL. On devine ainsi l’importance capitale de ce Théorème dans cette théorie.) I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 60. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques On a n tirages de v.a indépendantes, notées X1, X2, ..., Xn. On ignore leur lois, on connait σ2 = Var(X1) et on se demande si E(X1) = 5 ? I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 61. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques On a n tirages de v.a indépendantes, notées X1, X2, ..., Xn. On ignore leur lois, on connait σ2 = Var(X1) et on se demande si E(X1) = 5 ? Grace au TCL, on sait immédiatement que si E(X1)vaut5 alors on a une fonctionnelle des observations Xi qui tend vers une loi connue (et cela ne sachant quasiment rien sur la loi des Xi !!!) à savoir : √ nXn − 5 σ →L n→+∞ N(0; 1). ce qui est ”vérifiable” ... I. MEDARHRI Probabilités pour ingénieurs, ENSMR
  • 62. Loi des Grands Nombres Théorème central limite Approximation conclusion Résumé Chemin vers tests statistiques Dans le cours suivant ”Statistiques inférentielles”, vous developperez un exemple de test classique : tel que le test du χ2, et d’autres tests. I. MEDARHRI Probabilités pour ingénieurs, ENSMR