SlideShare une entreprise Scribd logo
1  sur  259
Statistique 2
Lorenzo Bastianello
lorenzo.bastianello@u-paris2.fr
2020-2021
Références bibliographique
1 J.-P. Lecoutre, Statistique et probabilités, Dunod.
2 J.-P. Lecoutre, TD Statistique et probabilités, Dunod.
3 M. Lethielleux et C. Chevalier, Probabilités, estimation
statistique, Dunod.
4 M. Lethielleux et C. Chevalier, Exercices de statistique et
probabilités, Dunod.
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Introduction
Théorie des probabilités : science mathématique qui étudie les lois qui
régissent les expériences aléatoires.
Expérience aléatoire : phénomène dont on connait tous les résultats
possibles mais dont on ignore l'issue.
Ex. Tirage d'un dé : résultats possibles {1, 2, . . . , 6}
Ex. Une urne contient 3 boules numérotées de 1 à 3. On tire
successivement et sans remise deux boules. Quels sont les résultats
possibles ?
{(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}.
Ensembles
Opérations sur les ensembles. Parfois on s'intéresse à des événements
particuliers de notre expérience aléatoire.
Ex. On jette un dé et on s'intéresse à on obtient un nombre pair. On
doit étudier le sous-ensemble {2, 4, 6} ⊂ {1, 2, . . . , 6}.
Opérations sur les ensembles
Soit Ω un ensemble, A, B et C de sous-ensembles de Ω. On note ∅
l'ensemble vide.
Inclusion et égalité
A est inclus dans B si et seulement si (ssi) tout élément de A est
aussi dans B.
A ⊂ B ⇔ ω ∈ A ⇒ w ∈ B.
(Égalité) A = B ⇔ A ⊂ B etB ⊂ A
(Inclusion stricte) A ( B ⇔ A ⊂ B et A 6= B.
Opérations sur les ensembles
Soit Ω un ensemble, A, B et C de sous-ensembles de Ω. On note ∅
l'ensemble vide.
Inclusion et égalité
A est inclus dans B si et seulement si (ssi) tout élément de A est
aussi dans B.
A ⊂ B ⇔ ω ∈ A ⇒ w ∈ B.
(Égalité) A = B ⇔ A ⊂ B etB ⊂ A
(Inclusion stricte) A ( B ⇔ A ⊂ B et A 6= B.
Union et intersection
L'union de A et B est l'ensemble qui regroupe les éléments qui
appartiennent à A ou à B
ω ∈ A ∪ B ⇔ {ω ∈ A ou ω ∈ B}.
L'intersection de A et B est l'ensemble qui regroupe les éléments
qui appartiennent à A et à B
ω ∈ A ∩ B ⇔ {ω ∈ A et ω ∈ B}.
Opérations sur les ensembles
Ensembles disjoints et partition
A et B sont disjoints ssi A ∩ B = ∅
Une famille (Ai)i∈I de sous-esembles de Ω est une partition de Ω
ssi ∪i∈IAi = Ω et Ai ∩ Aj = ∅ ∀i 6= j.
Complémentaire
Le complémentaire de A dans Ω, noté Ac
, est l'ensemble de tous
les ω ∈ Ω qui n'appartiennent pas à A
ω ∈ Ac
⇔ ω 6∈ A.
Opérations sur les ensembles
Diérence
La diérence de A et B, notée A  B est l'ensemble des éléments
de A qui n'appartiennent pas à B
A  B = {ω ∈ A : ω 6∈ B}
La diérence symétrique de A et B, notée A 4 B est l'ensemble
des éléments qui appartiennent soit à A, soit à B, mais pas aux
deux à la fois.
A 4 B = (A  B) ∪ (B  A)
Propriétés
(Ac
)c
= A
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
(A ∪ B)c
= Ac
∩ Bc
et (A ∩ B)c
= Ac
∪ Bc
.
Combinatoire et dénombrement
Souvent on veut savoir le nombre d'éléments dans un certain ensemble
ni Ω, c.a.d. le cardinal de Ω, noté Card(Ω).
Ex. Une urne contient 90 boules numérotées de 1 à 90. On tire 6
boules simultanément. On gagne un prix si on devine les 6 boules
tirées. Combien de tirages possibles ?
Combinatoire et dénombrement
Souvent on veut savoir le nombre d'éléments dans un certain ensemble
ni Ω, c.a.d. le cardinal de Ω, noté Card(Ω).
Ex. Une urne contient 90 boules numérotées de 1 à 90. On tire 6
boules simultanément. On gagne un prix si on devine les 6 boules
tirées. Combien de tirages possibles ?
Modèle de base : on tire k fois dans une urne contenant n éléments
Cas A : sans remise
(I) sans remise en tenant compte de l'ordre du tirage
(II) sans remise sans tenir compte de l'ordre du tirage
Cas B : avec remise
(III) avec remise en tenant compte de l'ordre du tirage
(IV) avec remise sans tenir compte de l'ordre du tirage
On note n! = n · (n − 1) · (n − 2) · · · · · 1. Par convention 0! = 1.
On note
n
k

= n!
k!(n−k)!
Principes de comptage - Addition
Principe d'addition. Soit deux ensembles A et B contenant
respectivement m et n éléments et tels que A ∩ B = ∅. Alors
l'ensemble A ∪ B contient m + n éléments.
De façon générale : si A1, A2, . . . , An est une partition de Ω alors
Card(Ω) = Card(A1) + Card(A2) + · · · + Card(An).
Exemple. J'ai une bibliothèque avec 10 livres en anglais et 4 livres en
français (et il n'y a pas d'autres livres). Combien de façons de choisir
un livre ?
Ω= {librairie}
A1 ={livres en anglais}
A2 ={livres en français}
Card(Ω) = Card(A1) + Card(A2) = 10 + 4, j'ai donc 14 façons de
choisir.
Principes de comptage - Multiplication
Principe de multiplication. Soit deux ensembles A et B
contenant respectivement m et n éléments. Alors le produit cartésien
A × B contient m · n éléments.
(Rappel : A × B = {(a, b)|a ∈ A, b ∈ B})
Cela peut se généraliser.
Card(A1 × · · · × An) = Card(A1) · Card(A2)·. . .·Card(An).
Idée : si je peux diviser une tâche dans r sous-tâches avec m1 façons
de faire la 1-ère sous-tâche, m2 façons de faire la 2-ème sous-tâche
(qui ne dépendent pas de ce que j'ai fait dans la partie 1) . . .mr
façons de faire la r-ième sous-tâche (qui ne dépendent pas de ce que
j'ai fait avant), alors il y a m1 · m2. . .·mr façons de compléter la tâche.
Principes de comptage - Multiplication
Exemple. J'ai 5 t-shirts, 2 pantalons et 3 chaussures. Combien de
façons de m'habiller ?
A ={t-shirts}, B={pantalons}, C ={chaussures}.
A × B × C = {(a, b, c)|a ∈ A, b ∈ B, c ∈ C}. S'habiller signie choisir
un élément dans A × B × C. Combien d'éléments dans cet ensemble ?
Card(A × B × C) = Card(A) · Card(B) · Card(C) = 5 · 2 · 3 = 30.
Cas A : On tire k fois dans une urne contenant n
objets sans remise
(I)Arrangement. On tire k fois dans une urne contenant n objets sans
remise en tenant compte de l'ordre du tirage.
Le nombre total d'arrangements de k éléments parmi n. Soit E un
ensemble avec n objets. On choisit k objets de E successivement
(donc l'ordre est important) sans répétition (remise). Soit
x1, x2, . . . , xk la suite ordonnée de k éléments de E que l'on obtient.
Il y a n façons de choisir x1, une fois ce choix fait, il y a n − 1 façons
de choisir x2, ensuite n−2 façons de choisir x3,..., on s'arrête au kième
élément. Donc, au total, le nombre total d'arrangements de k éléments
parmi n est n · (n − 1) · (n − 2) · ... · (n − (k − 1)) = n!
(n−k)! et donc
Ak
n =
n!
(n − k)!
Cas A : On tire k fois dans une urne contenant n
objets sans remise
Cas particulier de (I) très utilisé.
Permutation. Une permutation est un arrangement de n éléments
parmi n. Le nombre total de permutation de n éléments est
An
n =
n!
(n − n)!
= n!
(II) Combinaison. On tire k objets dans une urne contenant n objets
sans remise sans tenir en compte de l'ordre du tirage. Le nombre de
combinaisons de k objets parmi n est
Ck
n =

n
k

=
n!
k!(n − k)!
=
Ak
n
k!
.
Pour trouver Ck
n on prend Ak
n et on le divise par le nombre de toutes
les permutation possibles de k objets.
Cas B : On tire k fois dans une urne contenant n
objets avec remise
(III) Permutation avec remise. On tire k objets dans une urne
contenant n objets avec remise en tenant compte de l'ordre du tirage.
Il y a n façons de choisir le premier objet, n de choisir le 2ième....etc
donc le nombre total est
Pk
n = n · n · ... · n
| {z }
k
= nk
(IV) Combinaison avec remise. On tire k objets dans une urne
contenant n objets avec remise sans tenir en compte de l'ordre du
tirage. Le nombre de combinaisons avec remise de k objets parmi n est

n − 1 + k
k

=
(n − 1 + k)!
k!(n − 1)!
Cas V - Urne avec objets que l'on ne peut pas
distinguer
Permutation de n objets, dont r seulement sont distincts
On tire n fois sans remise dans une urne contenant n boules de r
couleurs diérentes, le nombre de boules de couleur i étant ni, avec
n1 + n2 + · · · + nr = n. Nombre de tirages possible si l'on tient compte
de l'ordre du tirage mais on ne distingue pas parmi les boules de la
même couleur.
Exemple.
Urne = {r1, r2, r3, b1, b2, v1}
On pourrait tirer (r3, r1, v1, b2, r2, b1) ou (r2, r3, v1, b1, r1, b2).
Puisque on ne distingue pas parmi les boules de la même couleur, les
deux tirage sont identiques :
(r, r, v, b, r, b)
Cas V - Urne avec objets que l'on ne peut pas
distinguer
Nombre de tirages possible si l'on tient compte de l'ordre du tirage
mais on ne distingue pas parmi les boules de la même couleur :
n!
n1! · n2! · ... · nr!
Exemple. Dans l'exemple dessus on aura donc
6!
3!·2!·1! .
Avec deux couleurs seulement : n1 = k et donc forcement n2 = n − k

n
k

=
n!
k!(n − k)!
Le cas (II) est un cas particulier du cas (V).
Exemples - Trouver le cardinal dans les expériences
suivantes
Ex 1 Combien de mots de 3 lettres peut-on composer avec un alphabet
de 26 lettres ?
C'est une permutation avec remise, n = 26, k = 3.
P3
26 = 263
= 17576.
Ex 2 Combien de façons d'aligner 5 personnes ?
C'est un arrangement 5 éléments parmi 5, c.a.d. une permutation
A5
5 = 5! = 5 · 4 · 3 · 2 · 1 = 120
Ex 3 On choisit simultanément (donc sans tenir compte de l'ordre) 3
élèves dans une classe de 30 personnes ?
C'est une combinaison C3
30 = 30
3

= 30!
3!(30−3)! = 4060
Ex 4 Combien de façons de tirer successivement (donc l'ordre compte)
et sans remise 2 boules d'une urne qui contient n boules
numérotées de 1 à n ?
C'est un arrangement 2 éléments parmi n. Donc
A2
n = n!
(n−2)! = n(n − 1)
Expérience aléatoire
On appelle
Ensemble fondamental, noté Ω, l'ensemble de tous les résultats
possibles d'une expérience aléatoire. (Ex. On lance un dé
Ω = {1, 2, 3, 4, 5, 6}).
Événement : un sous-ensemble de Ω. (Ex. Considérons
l'événement On obtient un nombre pair E = {2, 4, 6}).
Événement élémentaire : un sous-ensemble de Ω qui contient un
seul élément {ω}. (Ex. {4})
∅ est l'événement impossible.
Expérience aléatoire
On appelle
Ensemble fondamental, noté Ω, l'ensemble de tous les résultats
possibles d'une expérience aléatoire. (Ex. On lance un dé
Ω = {1, 2, 3, 4, 5, 6}).
Événement : un sous-ensemble de Ω. (Ex. Considérons
l'événement On obtient un nombre pair E = {2, 4, 6}).
Événement élémentaire : un sous-ensemble de Ω qui contient un
seul élément {ω}. (Ex. {4})
∅ est l'événement impossible.
Exemple. Une urne contient 3 boules numérotées de 1 à 3. On tire
successivement et sans remise deux boules.
Soit A l'événement la première boule tirée est 2 et B l'événement la
somme des boules tirées est impaire. On a
Ω ={(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}
A ={(2, 1); (2, 3)}
B ={(1, 2); (2, 1); (2, 3); (3, 2)}
Événements
Ensembles et événements sont liés
Ensemble Événement
On observe ω ∈ A L'événement A est réalisé
∅ Événement impossible
Ω Événement certain
A = B Les événements A et B sont identiques
A ⊂ B A implique B
A ∪ B Au moins un des deux événements est réalisé
A ∩ B Les deux événements sont réalisés
Ac
A n'est pas réalisé
Exemple - Modélisation avec les ensembles
Trois messages sont transmis par radio. La transmission peut être
correcte ou perturbée. On considère les 3 événements :
Ai :=le ième message est transmis correctement, i = 1, 2, 3.
Exprimer les événements suivants à l'aide de Ai, Ac
i et ∩, ∪.
A :=tous les messages sont transmis correctement
B :=au moins un message est perturbé
C :=les trois messages sont perturbés
D :=pas plus d'un message n'est transmis correctement
Exemple - Modélisation avec les ensembles
On note 1=correcte, et 0=perturbée. On décrit l'ensemble
fondamental Ω.
Ω = {(1, 1, 1), (1, 1, 0), (1, 0, 1), (1, 0, 0),
(0, 1, 1), (0, 1, 0), (0, 0, 1), (0, 0, 0)}.
On voit que Card(Ω) = 8. Eectivement c'est une permutation avec
remise :
|{z}
2
|{z}
2
|{z}
2
. Donc Card(Ω) = 23
= 8.
On remarque aussi :
A1 = {(1, 1, 1), (1, 1, 0), (1, 0, 1), (1, 0, 0)}
A2 = {(1, 1, 1), (1, 1, 0), (0, 1, 1), (0, 1, 0)}
A3 = . . .
A1 ∩ A2 = {(1, 1, 1), (1, 1, 0)}
A1 ∪ A2 = {(1, 1, 1), (1, 1, 0), (1, 0, 1), (1, 0, 0), (0, 1, 1), (0, 1, 0)}
Solution - Modélisation avec les ensembles
A :=tous les messages sont transmis correctement
Sol : A = A1 ∩ A2 ∩ A3 = {(1, 1, 1)}
B :=au moins un message est perturbé
Sol : B = Ac
= (A1 ∩ A2 ∩ A3)c
= Ac
1 ∪ Ac
2 ∪ Ac
3
C :=les trois messages sont perturbés
Sol : C = Ac
1 ∩ Ac
2 ∩ Ac
3
D :=pas plus d'un message n'est transmis correctement
Sol : D = (A1 ∩ (Ac
2 ∩ Ac
3)) ∪ (A2 ∩ (Ac
1 ∩ Ac
3)) ∪ (A3 ∩ (Ac
1 ∩ Ac
2)) ∪ C =
(Ac
2 ∩ Ac
3) ∪ (Ac
1 ∩ Ac
3) ∪ (Ac
1 ∩ Ac
2) = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (0, 0, 0)}
Tribu (ou σ-algèbre)
On note P(Ω) la collection de tous les sous-ensembles de Ω.
Dénition (Tribu)
Soit A un sous ensemble de P(Ω). A est une tribu (σ-algèbre) sur Ω
ssi
1 Ω ∈ A
2 Si A ∈ A alors Ac
∈ A
3 Si (An)n≥1 est une famille d'éléments de A alors ∪n≥1An ∈ A.
Remarque :
- La première et la deuxième condition impliquent que ∅ ∈ A.
- La deuxième et troisième condition impliquent que si (An)n≥1 est
une famille d'éléments de A alors ∩n≥1An ∈ A.
On appelle espace mesurable tout couple (Ω, A) où Ω est une
ensemble et A une tribu sur Ω.
Exemple
Prenons Ω = {a, b, c}.
P(Ω) = {∅; {a, b, c}; {a}; {b}; {c}; {a, b}; {a, c}; {b, c}}
Considérons la famille de sous ensembles A
A = {∅; {a, b, c}; {b}; {a, c}}
Puisque les 3 propriétés d'une tribu sont respectées, A est une tribu.
Tribu (ou σ-algèbre)
Dénition
Soit C0 une collection d'ensembles de Ω. On appelle tribu engendrée
par C0 la plus petite tribu C contenant C0. On note C = σ(C0).
σ(C0) est l'intersection des tribus sur Ω contenant C0.
Tribu (ou σ-algèbre)
Dénition
Soit C0 une collection d'ensembles de Ω. On appelle tribu engendrée
par C0 la plus petite tribu C contenant C0. On note C = σ(C0).
σ(C0) est l'intersection des tribus sur Ω contenant C0.
Exemple.
Tribu grossière {∅, Ω}, la plus petite tribu sur Ω.
Tribu discrète P(Ω). On utilise cette tribu quand Ω est un
ensemble ni ou inni dénombrable.
A ⊂ Ω, alors C = {∅, Ω, A, Ac
} est une tribu. C est la tribu
engendrée par A.
Pour Ω = R, la tribu engendrée par les intervalles ouverts de R
est appelée tribu borélienne de R et elle est notée B.
Mesure de probabilité
A chaque événement A ∈ A on va associer la quantité P(A) ∈ [0, 1]
qui représente les chances de réalisation de A. La probabilité doit
cependant vérier quelques conditions.
Dénition
Une mesure de probabilité sur un espace mesurable (Ω, A) est une
application P : A → [0, 1] t.q.
1 P(Ω) = 1
2 P est σ-additive, i.e. pour tout suite (An)n≥1 d'éléments de A
deux à deux disjoints P(∪n≥1An) =
P
n≥1 P(An).
Dénition
On appelle espace probabilisé tout triplet (Ω, A, P) où Ω est un
ensemble, A une tribu sur Ω et P une mesure de probabilité sur
(Ω, A).
Propriétés
Proposition
Soient A, B ∈ A
1) P(A) ∈ [0, 1]
2) Si A ∩ B = ∅ alors P(A ∪ B) = P(A) + P(B)
3) P(∅) = 0
4) P(Ac
) = 1 − P(A)
5) Si A ⊂ B alors P(A) ≤ P(B)
6) P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
7) P(∪i≥1Ai) ≤
P
i≥1 P(Ai)
8) Si (Ai)i vérie Ai ⊂ Ai+1 et ∪iAi = Ω (on notera Ai ↑ Ω) alors,
limi P(Ai) = 1
9) Si (Ai)i vérie Ai ⊃ Ai+1 et ∩iAi = ∅ (on notera Ai ↓ Ω) alors,
limi P(Ai) = 0
Démonstration
1) Par dénition.
2) Ça découle de la deuxième propriété de la dénition d'une proba.
3) Ω ∪ ∅ = Ω et Ω ∩ ∅ = ∅. On a
1 = P(Ω) = P(Ω ∪ ∅) = P(Ω) + P(∅) = 1 + P(∅), donc
1 = 1 + P(∅) et P(∅) = 0.
4) A ∪ Ac
= Ω et A ∩ Ac
= ∅ , donc
1 = P(Ω) = P(Ac
∪ A) = P(Ac
) + P(A) d'où le résultat.
5) B = A ∪ (B ∩ Ac
). P(B) = P(A) + P(B ∩ Ac
) ≥ P(A)
6) A = (A ∩ Bc
) ∪ (A ∩ B), B = (B ∩ Ac
) ∪ (A ∩ B) et
A ∪ B = (A ∩ Bc
) ∪ (A ∩ B) ∪ (B ∩ Ac
). De plus c'est une réunion
d'ensembles disjoints.
P(A ∪ B) = P(A ∩ Bc
) + P(A ∩ B) + P(B ∩ Ac
),
P(A) = P(A ∩ Bc
) + P(A ∩ B) et
P(B) = P(B ∩ Ac
) + P(A ∩ B). Donc en faisant les substitutions
P(A ∪ B) = [P(A) − P(A ∩ B)] + P(A ∩ B) + [P(B) − P(A ∩ B)]
Démonstration (cont)
7) A partir de la suite d'ensembles (Ai)i on construit une suite (Bi)i
dénie par B1 = A1, Bn+1 = An+1  ∪n
j=1Aj

. On a donc
∪i≥1Ai = ∪i≥1Bi et les éléments de (Bi)i sont deux à deux
disjoints. Donc P(∪i≥1Ai) = P(∪i≥1Bi) =
P
i≥1 P(Bi). Comme
pour tout i, Bi ⊂ Ai,
P
i≥1 P(Bi) ≤
P
i≥1 P(Ai) et donc
P(∪i≥1Ai) ≤
P
i≥1 P(Ai).
8) Considérons les Bi comme dans 7). Alors, P(Ai) = P(∪i
j=1Bj) .
Donc limi P(Ai) = limi
Pi
j=1 P(Bi) =
P
i≥1 P(Bi). De plus
Ω = ∪i≥1Ai = ∪i≥1Bi, d'où 1 =
P
i≥1 P(Bi) = limi P(Ai).
9) Découle de 8) par passage au complémentaire.
Probabilité uniforme
Card(Ω) dénote le cardinal de l'ensemble Ω, i.e. le nombre d'éléments
dans Ω.
Dénition
Si Card(Ω) est ni, on appelle probabilité uniforme sur (Ω, A)
l'application P : A → [0, 1] telle que pour tout ω ∈ Ω
P({ω}) =
1
Card(Ω)
On dit que l'on est dans un cas d'équiprobabilité ssi Ω est de cardinal
ni, A = P(Ω) (où P(Ω) est l'ensemble de tous les sous-ensembles de
Ω) et P est la probabilité uniforme.
Proposition
Si l'on est dans un cas d'équiprobabilité alors ∀A ∈ P(Ω),
P(A) =
Card(A)
Card(Ω)
Probabilité uniforme - Exemple
On lance un dé Ω = {1, 2, 3, 4, 5, 6}. Chaque nombre n'a pas plus de
chances d'être obtenu qu'un autre. Il est donc naturel de munir
(Ω, P(Ω)) de la proba uniforme. On choisit ainsi P la mesure de
probabilité suivante :
∀ω ∈ Ω, P({ω}) =
1
Card(Ω)
=
1
6
Considérons l'événement E =On obtient un nombre pair
E = {2, 4, 6}. Avec P dénie ci-dessus on a
P(E) =
Card(E)
Card(Ω)
=
3
6
=
1
2
Probabilité uniforme - Exercice
Une urne U contient 15 boules : 10 boules sont rouges et 5 boules sont
bleues. U = {r1, r2, . . . , r10, b1, . . . , b5}.
On tire 4 boules de U sans remise et sans tenir en compte de l'ordre.
Clairement on est dans le cas de équiprobabilité. On prend comme
σ-algèbre A = P(Ω) et on considère la probabilité uniforme.
Exo 1 Décrire Ω et calculer son cardinal.
Ω = {{x1, x2, x3, x4}|xi ∈ U et xi 6= xj, i 6= j}
Card(Ω) = C4
15 = 15
4

= 1365
Exo 2 Décrire l'événement B=les 4 boules tirées sont rouges et
calculer sa probabilité.
B = {{x1, x2, x3, x4}|xi ∈ {r1, . . . , r10} et xi 6= xj, i 6= j}
Card(B) = C4
10 = 10
4

= 210. P(B) = Card(B)
Card(Ω)
= 210
1365
' 0.15
Probabilité uniforme - Exercice
Exo 3 Décrire l'événement C=2 boules rouges et 2 bleues et calculer
sa probabilité.
C = {{x1, x2, x3, x4}|x1, x2 ∈ {r1, . . . , r10} et x3, x4 ∈
{b1, . . . , b5}}
On a C2
10 = 10
2

= 45 façons de tirer 2 boules rouges sur 10
boules rouges. On a C2
5 = 5
2

= 10 façons de tirer 2 boules bleues
sur 5 boules bleues.
Card(C) = 10
2

· 5
2

= 450 et P(C) = Card(C)
Card(Ω)
= 450
1365
Exo 4 Décrire l'événement D=on tire exactement 3 boules rouges et
calculer sa probabilité.
D = {{x1, x2, x3, x4}|x1, x2, x3 ∈ {r1, . . . , r10} et x4 ∈
{b1, . . . , b5}}
On a C3
10 = 10
3

= 120 façons de tirer 3 boules rouges sur 10
boules rouges. On a C1
5 = 5
1

= 5 façons de tirer 1 boules bleues
sur 5 boules bleues.
Card(D) = 10
3

· 5
1

= 600 et P(D) = Card(D)
Card(Ω)
= 600
1365
Probabilité uniforme - Exercice
Exo 5 Décrire l'événement E=au moins 3 boules rouges et calculer sa
probabilité.
E = E1 ∪ E2. E1=4 boules rouges, E2=exactement 3 rouges.
On a E1 ∩ E2 = ∅ et aussi E = E1 ∪ E2 donc
Card(E) = Card(E1) + Card(E2) = 210 + 600 = 810 (d'après
Exo 2 et Exo 4)
P(E) = Card(E)
Card(Ω)
= 810
1365
Exo 6 Décrire l'événement F=au moins une rouge et calculer sa
probabilité.
F = F1 ∪ F2 ∪ F3 ∪ F4 où F1=exactement une rouge,
F2=exactement 2 rouges . . .etc. De plus Fi ∩ Fj = ∅.
Card(F1) = 10
1

· 5
3

= 10 · 10 = 100. Card(F2) = Card(C) . . .
Card(F) = Card(F1) + Card(F2) + Card(F3) + Card(F4) = 1360
Autre façon de raisonner : Fc
=Pas de boules rouges=4 boules
bleues.
Card(Fc
) = C4
5 = 5
4

= 5.
Ω = F ∪ Fc
et F ∩ Fc
= ∅. Donc Card(Ω) = Card(F) + Card(Fc
)
et Card(F) = Card(Ω) − Card(Fc
) = 1365 − 5 = 1360.
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Probabilité conditionnelle
Considérons l'espace de probabilité (Ω, A, P) et supposons qu'on
sache que l'événement B est réalisé. Est-ce que cette information
change la probabilité P des autres événements ?
Exemple On lance un dé. Soit A l'événement A =Obtenir 2. On sait
P(A) = 1
6 .
Imaginons maintenant de savoir que l'événement B =nombre pair
est réalisé. La probabilité de A sera maintenant
1
3 . La probabilité de
C =Obtenir 3 sera 0.
Probabilité conditionnelle
Considérons l'espace de probabilité (Ω, A, P) et supposons qu'on
sache que l'événement B est réalisé. Est-ce que cette information
change la probabilité P des autres événements ?
Exemple On lance un dé. Soit A l'événement A =Obtenir 2. On sait
P(A) = 1
6 .
Imaginons maintenant de savoir que l'événement B =nombre pair
est réalisé. La probabilité de A sera maintenant
1
3 . La probabilité de
C =Obtenir 3 sera 0.
Est-ce que cette information change la probabilité P des autres
événements ? OUI !
Probabilité conditionnelle
Dénition (Probabilité conditionnelle)
Étant donné B ∈ A tel que P(B)  0. On appelle probabilité
conditionnelle de A sachant B, la quantité
P(A|B) =
P(A ∩ B)
P(B)
Proposition
L'application
P(·|B) : A → [0, 1]
A → P(A|B)
est une mesure de probabilité sur (Ω, A).
Proposition
L'application
P(·|B) : A → R
A → P(A|B)
est une mesure de probabilité sur (Ω, A).
Démonstration.
On doit montrer les propriétés qu'une mesure de probabilité doit
satisfaire.
1 Montrons d'abord que P(A|B) ∈ [0, 1] pour tout A ∈ A. Soit
A ∈ A, on a P(A|B) ≥ 0 car c'est un rapport entre deux réels
positifs. Puisque A ∩ B ⊂ B on aura P(A ∩ B) ≤ P(B), ce qui
implique P(A|B) = P (A∩B)
P (B) ≤ 1.
2 P(Ω|B) = P (Ω∩B)
P (B) = P (B)
P (B) = 1.
3 σ-additivité. Soit (An)n≥1 une suite d'éléments de A deux à deux
disjoints.
P(∪n≥1An|B) =
P ((∪n≥1An)∩B)
P (B) =
P (∪n≥1(An∩B))
P (B) =
P
n≥1 P (An∩B)
P (B) =
P
n≥1
P (An∩B)
P (B) =
P
n≥1 P(An|B).
Exemple
Une urne contient 3 boules numérotées de 1 à 3. On tire deux boules
successivement et sans remise.
Nous modélisons cette expérience aléatoire par (Ω, P(Ω), P) où P est
la probabilité uniforme sur Ω.
On a Ω = {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}.
Soit A l'événement
A =la première boule tirée est 2= {(2, 1); (2, 3)}.
Donc P(A) = Card(A)
Card(Ω) = 2
6 = 1
3 .
Supposons maintenant réalisé l'événement
B =la seconde boule tirée est 2={(1, 2); (3, 2)}.
P(A|B) = P (A∩B)
P (B) = P (∅)
P (B) = 0
Formule des probabilités totales
Si A, B ∈ A sont tels que P(A)  0 et P(B)  0 on a
P(A|B) =
P(A ∩ B)
P(B)
et P(B|A) =
P(B ∩ A)
P(A)
Donc
P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A) (1)
Observons que B est la réunion des deux événement disjoints
B = (B ∩ A) ∪ (B ∩ Ac
) donc P(B) = P(B ∩ A) + P(B ∩ Ac
) et
utilisant (1) on a
P(B) = P(B|A)P(A)
| {z }
P (B∩A)
+ P(B|Ac
)P(Ac
)
| {z }
P (B∩Ac)
On peut généraliser. . .
Formule des probabilités totales
On peut généraliser. Si A1, . . . , An forme une partition de Ω (c.a.d.
Ai ∩ Aj = ∅, i 6= j et ∪n
i=1Ai = Ω) alors pour tout B ∈ A
B = B ∩ Ω = B ∩ (∪n
i=1Ai) = ∪n
i=1(Ai ∩ B).
Formule des probabilités totales
Soient A1, . . . , An, des éléments de A qui forment une partition de Ω
et tels que P(Ai)  0 pour i = 1, . . . , n alors
∀B ∈ A, P(B) = P(B|A1)P(A1) + · · · + P(B|An)P(An).
C'est une généralisation de ce que l'on a vu avant car {A, Ac
} est une
partition de Ω et B = (B ∩ A) ∪ (B ∩ Ac
).
Exemple 1
On tire au sort (avec probabilité uniforme) entre 3 urnes U1, U2, U3
dont les compositions sont indiqués dans le tableau ci dessous
Rouge Bleue Verte
U1 3 4 1 8
U2 1 2 3 6
U3 4 3 2 9
8 9 6
Soit Ui=la boule est tirée de l'urne i
Soit R =la boule tirée est rouge.
Exemple 1 (cont.)
U1, U2, U3 forment une partition de Ω parce que
U1 ∪ U2 ∪ U3 = Ω car soit la boule est tirée de l'urne 1, soit de
l'urne 2, soit de l'urne 3.
Ui ∩ Uj = ∅, i 6= j. Ex. U1 ∩ U2 = ∅ car on ne peut pas tirer la
boule simultanément de l'urne 1 et de l'urne 2.
On réécrit
R = R ∩ Ω = R ∩ (U1 ∪ U2 ∪ U3) = (R ∩ U1) ∪ (R ∩ U2) ∪ (R ∩ U3)
et on obtient
P(R) = P(R ∩ U1) +P(R ∩ U2) +P(R ∩ U3)
= P(R|U1)P(U1) +P(R|U2)P(U2) +P(R|U3)P(U3)
=
3
8
·
1
3
+
1
6
·
1
3
+
4
9
·
1
3
=
1
3
·
71
72
Exemple 2
Exemple. Considérons un jeu de 52 cartes (ex. poker). On tire 2 cartes
successivement (l'ordre compte) et sans remise. On est dans un cas
d'équiprobabilité.
On veut savoir quelle est la probabilité de l'événement B =la
deuxième carte est un Roi.
Exemple 2 (cont.)
On veut savoir quelle est la probabilité de l'événement B =la
deuxième carte est un Roi.
On a deux façons de procéder :
1 On calcule le Card(Ω) = A2
52 = 52 ∗ 51 = 2652. On calcule le
cardinal de B.
B = {(x1, x2)|x1 6= x2, x1 ∈ {Rois}, x2 ∈ {Rois}}
∪ {(x1, x2)|x1 6= x2, x1 ∈ {Jeu moins Rois}, x2 ∈ {Rois}}
Card(B) = 4 ∗ 3 + 48 ∗ 4 = 204. Donc P(B) = Card(B)
Card(Ω) = 1
13
2 On utilise la formule des probabilités totales.
Soit A =la première carte tirée est un Roi.
Donc Ac
=la première carte tirée n'est pas un Roi.
P(B) = P(B|A)P(A) + P(B|Ac
)P(Ac
) = 3
51
4
52 + 4
51
48
52 = 1
13
Formule de Bayes
Soient A1, . . . , An, des éléments de A qui forment une partition de Ω
et tels que P(Ai)  0. Soit B ∈ A tel que P(B)  0. On a
P(Ai|B) =
P(Ai ∩ B)
P(B)
Utilisant le fait que P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A) et la
formule des probabilités totales P(B) =
Pn
i=1 P(B|Ai)P(Ai) on
obtient
Formule de Bayes
Soient A1, . . . , An, des éléments de A qui forment une partition de Ω
et tels que P(Ai)  0 pour i = 1, . . . , n et B ∈ A tel que P(B)  0
alors pour tout i = 1, . . . , n
P(Ai|B) =
P(B|Ai)P(Ai)
P(B)
=
P(B|Ai)P(Ai)
Pn
i=1 P(B|Ai)P(Ai)
.
Exemple
On tire au sort (avec probabilité uniforme) entre 3 urnes U1, U2, U3
dont les compositions sont indiqués dans le tableau ci dessous
Rouge Bleue Verte
U1 3 4 1 8
U2 1 2 3 6
U3 4 3 2 9
8 9 6
Sachant que l'on a tiré une boule rouge, quelle est la probabilité
qu'elle provienne de l'urne U2 ?
Exemple - cont.
On veut calculer P(U2|R). On utilise la formule de Bayes.
P(U2|R) =
P(R|U2)P(U2)
P(R)
On utilise la formule de la probabilité totale
P(R) =P(R|U1)P(U1) +P(R|U2)P(U2) +P(R|U3)P(U3)
=
3
8
·
1
3
+
1
6
·
1
3
+
4
9
·
1
3
=
1
3
·
71
72
Donc
P(U2|R) =
P(R|U2)P(U2)
P(R)
=
1/6 · 1/3
1/3 · 71/72
=
12
71
=
36
213

71
213
=
1
3
= P(U2)
Exemple 2
On sait qu'à une date donnée, 3% d'une population est atteinte
d'hépatite. Une personne est choisie au hasard de la population. On
dispose de tests de dépistage de la maladie :
Si la personne est malade, alors le test est positif avec une
probabilité de 0.95.
Si la personne est saine, alors le test est positif avec une
probabilité de 0.10.
Modélisation du problème :
M=la personne est malade.
Mc
=la personne n'est pas malade.
On a P(M) = 0.03, P(Mc
) = 1 − 0.03 = 0.97
Y =le test est positif
P(Y |M) = 0.95, P(Y |Mc
) = 0.1,
Exemple 2 - cont
1 Quelle est la probabilité pour une personne d'être malade si son
test est positif ?
P(M|Y ) =
P(Y |M)P(M)
P(Y )
=
P(Y |M)P(M)
P(Y |M)P(M) + P(Y |Mc)P(Mc)
=
0.95 · 0.03
0.95 · 0.03 + 0.1 · 0.97
' 0.227
Exemple 2 - cont
1 Quelle est la probabilité pour une personne d'être saine si son
test est positif ?
P(Mc
|Y ) =
P(Y |Mc
)P(Mc
)
P(Y )
=
P(Y |Mc
)P(Mc
)
P(Y |Mc)P(Mc) + P(Y |M)P(M)
=
0.1 · 0.97
0.1 · 0.97 + 0.95 · 0.03
' 0.773
On remarque P(Mc
|Y ) = 1 − P(M|Y ), en eet 0.773 = 1 − 0.227.
Attention ! ! P(M|Y c
) = 1 − P(M|Y ) est FAUX ! !
Exemple 2 - cont
1 Quelle est la probabilité pour une personne d'être malade si son
test est négatif ?
P(M|Y c
) =
P(Y c
|M)P(M)
P(Y c)
=
P(Y c
|M)P(M)
P(Y c|M)P(M) + P(Y c|Mc)P(Mc)
=
(1 − 0.95) · 0.03
(1 − 0.95) · 0.03 + (1 − 0.1) · 0.97
' 0.0017
On remarque 0.0017 = P(M|Y c
) 6= 1 − P(M|Y ) = 1 − 0.227 = 0.773
1 Quelle est la probabilité pour une personne d'être saine si son
test est négatif ?
P(Mc
|Y c
) = 1 − P(M|Y c
) = 1 − 0.0017 = 0.9983
Indépendance en probabilité
Dénition
Deux événements A et B sont dits indépendants si
P(A ∩ B) = P(A)P(B).
A et B sont indépendants ssi connaître la réalisation d'un événement
ne modie pas la probabilité de la réalisation de l'autre. Supposons
P(B)  0, alors
P(A|B) =
P(A ∩ B)
P(B)
=
P(A)P(B)
P(B)
= P(A).
Donc P(A|B) = P(A) ⇔ P(A ∩ B) = P(A)P(B) et on a deux
dénitions équivalentes d'indépendance en probabilité.
Et bien sûr même chose pour P(B|A).
Exemple
Une urne contient 12 boules numérotées de 1 à 12. On en tire une
hasard, et on considère les événements :
A=tirage d'un nombre pair
B=tirage d'un multiple de 3.
Les événements A et B sont-ils indépendants ?
Reprendre la question avec une urne contenant 13 boules.
Exemple - cont.
Rappel de la dénition : Deux événements A et B sont dits
indépendants si P(A ∩ B) = P(A)P(B).
Ω = {1, 2, 3, . . . , 12}
A = {2, 4, . . . , 12} et P(A) =
Card(A)
Card(Ω)
=
6
12
=
1
2
B = {3, 6, 9, 12} et P(B) =
4
12
=
1
3
A ∩ B = {6, 12} et P(A ∩ B) =
2
12
=
1
6
Puisque P(A)P(B) = 1
6 les événements A et B sont indépendants.
Exemple - cont.
Si Ω = {1, 2, 3, . . . , 12, 13} on a
P(A) =
6
13
, P(B) =
4
13
, P(A ∩ B) =
2
13
Puisque P(A)P(B) = 24
169 6= P(A ∩ B) les événements A et B ne sont
pas indépendants.
C'est intuitif car P(A ∩ B) = P(A)P(B) ⇔ P(A|B) = P(A). Si on
sait que B est réalisé, P(A|B) ne sera pas
6
13 mais
1
2 car le nombre
d'éléments dans B n'a pas changé par rapport à la situation où il y
avaient 12 boules dans l'urne.
Événements indépendants et événements
incompatibles
Attention ! Il ne faut pas confondre deux événements indépendants
avec deux événements incompatibles.
Événements indépendants = événements qui n'ont pas d'inuence
l'un sur l'autre.
Événements incompatibles = événements qui ne peuvent pas se
produire en même temps.
La proposition qui suit est importante car elle permet d'éviter cette
confusion.
Proposition
Soient A, B ∈ A tels que P(A)  0 et P(B)  0. Si A ∩ B = ∅ alors A
et B ne sont pas indépendants.
Indépendance mutuelle
Dénition
On dit que des événements A1, . . . , An, où n ≥ 2, sont mutuellement
indépendants si pour toute partie J non vide de {1, 2, . . . , n} , on a :
P (∩j∈J Aj) =
Y
j∈J
P(Aj)
Exemple. Les événements A1, A2, A3, A4, sont mutuellement
indépendants ssi chaque fois que je prends une sous famille de
A1, A2, A3, A4 la proba de l'intersection c'est le produit des probas.
Donc
P(A1 ∩ A3 ∩ A4) = P(A1)P(A3)P(A4)
P(A2 ∩ A3 ∩ A4) = P(A2)P(A3)P(A4)
P(A2 ∩ A4) = P(A2)P(A4)
. . .
Il y aura
Pn
k=2
n
k

conditions à vérier.
Indépendance et probabilité choisie
Attention ! La notion d'indépendance dépend directement de la
probabilité considérée : deux événements peuvent être indépendants
suivant une certaine probabilité et dépendants suivant une autre.
Exemple. On lance deux fois de suite un dé équilibré. On est donc
dans le cas d'équiprobabilité.
Ω = {(i, j)|i = 1, . . . , 6 et j = 1, . . . , 6}
A = P(Ω)
∀ω ∈ Ω, P(ω) = 1
Card(Ω) et donc ∀A ∈ A, P(A) = Card(A)
Card(Ω) .
Card(Ω) = 62
= 36 (c'est une permutation avec remise P2
6 ).
Considérons les trois événements suivants :
A =Obtenir une face paire sur le premier jet
B =Obtenir une face impaire sur le second jet
C =La somme des deux faces obtenues est paire.
Indépendance et probabilité choisie
A =Obtenir une face paire sur le premier jet
A = {(i, j)|i = 2, 4, 6 et j = 1, . . . , 6}, Card(A) = 3 ∗ 6 = 18 donc
P(A) = 18
36 = 1
2 .
On vérie que dans A il y a eectivement 18 éléments :
A = {(2, 1); (2, 2); (2, 3); (2, 4); (2, 5); (2, 6);
(4, 1); (4, 2); (4, 3); (4, 4); (4, 5); (4, 6);
(6, 1); (6, 2); (6, 3); (6, 4); (6, 5); (6, 6)}
B =Obtenir une face impaire sur le second jet
B = {(i, j)|i = 1, . . . , 6 et j = 1, 3, 5}, Card(B) = 6 ∗ 3 = 18 donc
P(B) = 18
36 = 1
2 .
Indépendance et probabilité choisie
C =La somme des deux faces obtenues est paire
Remarquons que pour avoir une somme paire soit on obtient 2 paires,
soit 2 impaires. Les deux événements sont incompatibles. Donc
C = C1 ∪ C2 où
C1 = {(i, j)|i = 2, 4, 6, j = 2, 4, 6}
C2 = {(i, j)|i = 1, 3, 5, j = 1, 3, 5} et C1 ∩ C2 = ∅.
Card(C1) = 32
= 9, Card(C2) = 32
= 9 et
Card(C) = Card(C1) + Card(C2) = 18 (principe d'addition). Donc
P(C) = 18
36 = 1
2 .
Indépendance et probabilité choisie
A et B sont indépendants suivant P car
A ∩ B = {(i, j)|i = 2, 4, 6 et j = 1, 3, 5}
Donc Card(A ∩ B) = 32
= 9 et P(A ∩ B) = 9
36 = 1
4 = P(A)P(B).
Considérons maintenant la probabilité conditionnelle P(·|C). On
montrera que A et B ne sont pas indépendants suivant P(·|C).
A ∩ C = {(i, j)|i = 2, 4, 6 et j = 2, 4, 6} = C1
B ∩ C = {(i, j)|i = 1, 3, 5 et j = 1, 3, 5} = C2
P(A ∩ C) = P(C1) =
9
36
=
1
4
⇒ P(A|C) =
P(A ∩ C)
P(C)
=
1/4
1/2
=
1
2
P(B ∩ C) = P(C2) =
9
36
=
1
4
⇒ P(B|C) =
P(B ∩ C)
P(C)
=
1/4
1/2
=
1
2
Aussi A ∩ B ∩ C = ∅ donc P(A ∩ B|C) = 0.
Donc 0 = P(A ∩ B|C) 6= P(A|C)P(B|C) = 1
4
Intersection et événements non indépendants
En général, avec des événements pas forcement indépendants on a
P(A ∩ B) = P(A|B)P(B)
Prenons A1, A2, A3 on a
P(A3 ∩ A2 ∩ A1) = P(A3 ∩ (A2 ∩ A1))
= P(A3|A2 ∩ A1)P(A2 ∩ A1)
= P(A3|A2 ∩ A1)P(A2|A1)P(A1)
Donc pour n ensembles, par induction
P(An ∩ · · · ∩ A1) = P(A1)
n
Y
k=2
P(Ak|Ak−1 ∩ · · · ∩ A1)
Exemple
Une urne U contient 15 boules : 10 boules sont rouges et 5 boules sont
bleues. U = {r1, r2, . . . , r10, b1, . . . , b5}.
On tire 4 boules de U sans remise et sans tenir en compte de l'ordre.
Calculer la probabilité de B=les 4 boules tirées sont rouges. On a
deux façons :
1 Card(Ω) = C4
15 = 15
4

= 1365, Card(B) = C4
10 = 10
4

= 210 et
donc P(B) = Card(B)
Card(Ω) = 210
1365 ' 0.15.
2 On dénit Ai=La ieme boule tirée est rouge. On a donc
B = A1 ∩ A2 ∩ A3 ∩ A4
P(B) = P(A1 ∩ A2 ∩ A3 ∩ A4)
= P(A1)P(A2|A1)P(A3|A2 ∩ A1)P(A4|A3 ∩ A2 ∩ A1)
=
10
15
·
9
14
·
8
13
·
7
12
=
5040
32760
' 0.15
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Variable aléatoire - introduction
Soit (Ω, A, P) un espace probabilisé. Parfois on ne s'intéresse pas
directement aux événements A ∈ A réalisés dans une expérience
aléatoire. Par exemple parce que les événements pourraient ne pas
être observables.
Exemple.
Kim Jong-un (dictateur de la Corée du Nord) le matin peut se
réveiller soit de bonne humeur (BH), soit de mauvaise humeur (MH).
Ω = {BH, MH}.
Imaginons qu'on sache que la probabilité qu'il se réveille de bonne
humeur est 0.2, P(BH) = 0.2 (donc P(MH) = 1 − P(BH) = 0.8).
On ne peut pas observer si Kim s'est réveillé de bonne humeur ou pas.
Ce que l'on peut observer c'est le nombre de missiles qu'il va lancer
sur le Pacique : 20 missiles si de MH, 3 missiles si de BH.
On s'intéresse à une fonction de Ω (= humeur de Kim) à R (=
nombre de missiles).
Variable aléatoire - introduction
Soit X : Ω → R la fonction X(BH) = 3 et X(MH) = 20. Cette
fonction est un exemple de variable aléatoire.
On peut aussi remarquer que grâce à la fonction X et à la probabilité
P on obtient une probabilité Q sur R. Q nous donne la probabilité
d'observer un certain nombre de missiles.
La probabilité d'observer 20 missiles sera donc Q(20) = 0.8. Aussi
Q(3) = 0.2.
Quelle est la probabilité d'observer 40 missiles ? Intuitivement
Q(40) = 0.
Comment trouver Q ? Idée Q(20) = P(ω ∈ Ω|X(ω) = 20) = P(MH).
La probabilité Q dénie sur R grâce à X et à P, que l'on notera PX,
est un exemple de loi de probabilité.
Exemple 2
On tire une fois une pièce de monnaie.
Ω = {Pile, Face}.
On utilise la probabilité uniforme sur Ω : P(Pile) = 1
2 ,
P(Face) = 1
2 .
On utilise P(Ω) = {∅, {Pile, Face}, {Pile}, {Face}} comme
σ-algèbre.
On considère maintenant l'application X : Ω → R dénie par
X(Pile) = 1 et X(Face) = 0. C'est un autre exemple de variable
aléatoire.
Comme avant on obtient une probabilité sur R :
PX(1) = P(ω ∈ Ω|X(ω) = 1) = P(Pile) = 1
2 . Et bien sur PX(0) = 1
2 .
PX c'est une loi de probabilité.
On veut calculer PX([−5, −3]), c.a.d. la probabilité que la variable
aléatoire X soit dans l'intervalle [−5, −3].
PX([−5, −3]) = P(ω ∈ Ω|X(ω) ∈ [−5, −3]) = P(∅) = 0.
Variable aléatoire réelle (v.a.)
Soit (Ω, A, P) un espace probabilisé. On note P(R) l'ensemble de
toutes les parties de R.
Dénition (Variable aléatoire)
Une variable aléatoire (v.a.) réelle est une application X : Ω → R
vériant X−1
(E) ∈ A pour toute partie E ∈ P(R) où
X−1
(E) = {ω ∈ Ω|X(ω) ∈ E}.
X−1
(E) ∈ A pour toute partie E ∈ P(R) est ce que l'on appelle
mesurabilité de X.
Une v.a. est donc une application mesurable.
Notation : On notera les v.a. avec des lettres majuscules, X, Y , et les
nombres réels avec des minuscules, x, y.
! Attention ! C'est une dénition simpliée. Normalement on ne considère
pas toute partie E ∈ P(R), mais toute partie E dans la tribu Borélienne.
Remarque
Soit E ∈ P(R).
Donc E ⊆ R, par exemple E = [1; 5[, E =] − ∞, 2], E = {3} ∪ [5,
√
79].
X−1
(E) = {ω ∈ Ω|X(ω) ∈ E}
X−1
(E) est un événement qui fait partie de la tribu A.
{ω ∈ Ω|X(ω) ∈ E} est l'ensemble de tous les ω (événements
élémentaires) tels que l'image X(ω) à travers la fonction X : Ω → R
appartient à E.
Exemple
Expérience aléatoire : On tire une fois une pièce de monnaie.
Ω = {Pile, Face}, P(Ω) = {∅, {Pile, Face}, {Pile}, {Face}} comme
σ-algèbre, P est la proba uniforme.
On considère l'application X : Ω → R dénie par X(Pile) = 1 et
X(Face) = 0.
Soit E = [1, 3[.
X−1
(E) = X−1
([1, 3[) = {ω ∈ Ω|X(ω) ∈ [1, 3[} =
la v.a. X est dans l'intervalle [1, 3[” = {Pile}
Soit E = [−3, 10[.
X−1
(E) = X−1
([−3, 10[) = {ω ∈ Ω|X(ω) ∈ [−3, 10[} = {Pile, Face}
Exemple d'application mesurable
Prenons Ω = {a, b, c} et considérons la tribu A
A = {∅; {a, b, c}; {b}; {a, c}}
Soit X : Ω → R l'application dénie par
X(a) = 5, X(b) = 10, X(c) = 5.
Montrons que X est une application mesurable. Soit E une ensemble
qui appartient à la tribu P(R). On doit considérer 4 cas
1 10, 5 6∈ E (par exemple E =] − 2, 1[). Dans ce cas
X−1
(E) = {ω ∈ Ω|X(ω) ∈ E} = ∅ ∈ A.
2 10, 5 ∈ E (par exemple E = [5, 15]). Dans ce cas
X−1
(E) = {ω ∈ Ω|X(ω) ∈ E} = {a, b, c} ∈ A.
3 10 ∈ E, 5 6∈ E (par exemple E =]9, ∞[). Dans ce cas
X−1
(E) = {ω ∈ Ω|X(ω) ∈ E} = {b} ∈ A.
4 5 ∈ E, 10 6∈ E. Exo : Trouver X−1
(E).
Exemple d'application non mesurable
Prenons Ω = {a, b, c} et considérons la tribu A
A = {∅; {a, b, c}; {b}; {a, c}}
Soit Y : Ω → R l'application dénie par
Y (a) = 7, Y (b) = 10, Y (c) = 5.
Montrons que Y n'est pas une application mesurable. Pour montrer
que quelque chose est faux, il sut de trouver un contre-exemple.
Prenons E =]4, 6[ on a
Y −1
(E) = {ω ∈ Ω|Y (ω) ∈ E} = {c} 6∈ A.
Donc Y n'est pas mesurable et n'est pas une variable aléatoire.
Exemple graphique X−1
(E) avec E = {3}
Exemple graphique X−1
(E) avec E intervalle
Exemple graphique X−1
(E) avec E =] − ∞, t]
Image d'une v.a.
Dénition
L'image de Ω par X, noté X(Ω), est le sous-ensemble de R qui
regroupe l'ensemble des valeurs prises par X. C'est à dire
X(Ω) = {X(ω)|ω ∈ Ω}.
Exemple.
Une urne contient 3 boules numérotées de 1 à 3. On tire deux boules
successivement et sans remise.
Ω = {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}.
Soit X la v.a. qui donne le maximum des deux boules tirées. On a
X(Ω) = {2, 3}.
On verra qu'il est important de distinguer entre le cas où X(Ω) est ni
ou inni dénombrable et le cas où X(Ω) est inni non dénombrable.
Loi de probabilité
Dénition
On appelle loi de probabilité la v.a. X l'application PX : P(R) → R
dénie ∀E ∈ P(R) par
PX(E) := P(X−1
(E)) = P({ω ∈ Ω|X(ω) ∈ E}).
Remarques :
PX est dénie sur (R, P(R)) à partir de P et de X.
Puisque P est dénie sur A, on doit être sûr que X−1
(E) soit un
ensemble de A. Cela est vrai car X est mesurable.
On utilise la tribu P(R) car on veut associer un numéro à tout
intervalle de R.
Proposition
PX est une mesure de probabilité sur (R, P(R)).
Exemple
Expérience aléatoire : On tire une fois une pièce de monnaie.
Ω = {Pile, Face}, P(Ω) comme σ-algèbre, P est la proba uniforme.
On considère l'application X : Ω → R dénie par X(Pile) = 1 et
X(Face) = 0.
• Soit E = [1, 3[. Qu'est-ce que c'est PX(E) ? On a vu que
X−1
(E) = X−1
([1, 3[) = {ω ∈ Ω|X(ω) ∈ [1, 3[} =
la variable aléatoire X est dans l'intervalle [1, 3[” = {Pile}
PX([1, 3[) = P(X−1
([1, 3[)) = P({ω ∈ Ω|X(ω) ∈ [1, 3[}) = P(Pile) =
1/2
• Soit E =] − 4, −2[.
PX(] − 4, −2[) = P(X−1
(] − 4, −2[)) = P({ω ∈ Ω|X(ω) ∈] − 4, −2[}) =
P(∅) = 0.
Exemple graphique X−1
(E) avec E = {3}
PX({3}) = P(X−1
({3})) = P({ω ∈ Ω|X(ω) = 3})
Exemple graphique X−1
(E) avec E =] − ∞, t]
PX(E) = P(X−1
(E)) = P({ω ∈ Ω|X(ω) ≤ t})
Loi de probabilité
Proposition
PX est une mesure de probabilité sur (R, P(R)).
Démonstration
On montrera les propriétés d'une mesure de probabilité.
1 0 ≤ PX(E) ≤ 1 pour tout E ∈ P(R) car PX(E) = P(X−1
(E)) et
P est une probabilité.
2 PX(R) = P(X−1
(R)) = P(Ω) = 1.
3 σ-additivité. Cas avec seulement 2 ensembles A, B ∈ P(R) t.q.
A ∩ B = ∅. On veut montrer que PX(A ∪ B) = PX(A) + PX(B).
Par dénition, PX(A ∪ B) = P(X−1
(A ∪ B)). Remarquons
ω ∈ X−1
(A ∪ B) ⇔ X(ω) ∈ A ∪ B ⇔ X(ω) ∈ A ou X(ω) ∈ B
⇔ ω ∈ X−1
(A) ou ω ∈ X−1
(B) ⇔ ω ∈ X−1
(A) ∪ X−1
(B)
Donc X−1
(A ∪ B) = X−1
(A) ∪ X−1
(B).
Loi de probabilité
Démonstration - cont.
Remarquons que X−1
(A) ∩ X−1
(B) = ∅. En eet s'il existait
ω0
∈ X−1
(A) ∩ X−1
(B) alors X(ω0
) ∈ A et X(ω0
) ∈ B et donc
X(ω0
) ∈ A ∩ B c.a.d. A ∩ B 6= ∅ et cela contredit l'hypothèse. Donc
PX(A ∪ B) = P(X−1
(A ∪ B)) = P(X−1
(A) ∪ X−1
(B)) =
P(X−1
(A)) + P(X−1
(B)) = PX(A) + PX(B)
Loi de probabilité
Démonstration - cont.
σ-additivité (cas général). Soit (Bn)n≥1 une suite d'éléments de P(R)
deux à deux disjoints. Par dénition
PX(∪n≥1Bn) = P(X−1
(∪n≥1Bn)). Remarquons que
X−1
(∪n≥1Bn) = ∪n≥1X−1
(Bn) car
ω ∈ X−1
(∪n≥1Bn) ⇔ X(ω) ∈ ∪n≥1Bn ⇔ ∃n̄ ≥ 1 t.q. X(ω) ∈ Bn̄
⇔ ∃n̄ ≥ 1 t.q. ω ∈ X−1
(Bn̄) ⇔ ω ∈ ∪n≥1X−1
(Bn)
Donc P(X−1
(∪n≥1Bn)) = P(∪n≥1X−1
(Bn)). De plus pour i 6= j
X−1
(Bi) ∩ X−1
(Bj) = ∅ car s'il existait ω ∈ X−1
(Bi) ∩ X−1
(Bj)
alors ω ∈ X−1
(Bi) et ω ∈ X−1
(Bj), i.e. X(ω) ∈ Bi et X(ω) ∈ Bj,
c.a.d. X(ω) ∈ Bi ∩ Bj. Cela est impossible car Bi ∩ Bj = ∅.
Puisque P est σ-additive P(∪n≥1X−1
(Bn)) =
P
n≥1 P(X−1
(Bn)).
Donc
PX(∪n≥1Bn) = P(X−1
(∪n≥1Bn)) = P(∪n≥1X−1
(Bn)) =
X
P(X−1
(Bn)) =
X
PX(Bn)
Atomes d'une loi de probabilité
Dénition
On appelle atome de PX tout réel x ∈ R tel que PX({x})  0.
L'image d'une v.a. X(Ω), forme l'ensemble des valeurs possibles pour
X.
Les atomes forment l'ensemble des valeurs probables pour X.
Proposition
L'ensemble des atomes est au plus dénombrable.
V.a. identiquement distribuées
Dénition
Soient X et Y deux v.a. sur (Ω, A, P), avec loi de probabilité
respective PX et PY . On dit que X et Y ont la même loi ou sont
identiquement distribuées ssi
PX(E) = PY (E) ∀E ∈ P(R).
Attention : deux v.a. avec la même loi ne sont pas nécessairement
égales.
Exemple. Prenons Ω = {a, b} et A = P(Ω) et P la probabilité
uniforme sur (Ω, A). Soit X : Ω → R la v.a. dénie par X(a) = −1,
X(b) = 1. On considère la v.a. Y := −X.
On a Y (a) = −X(a) = 1 6= X(a) donc les deux variables sont
diérentes.
Exemple - v.a. diérentes mais avec la même loi
Exemple - cont. Ω = {a, b}, P({a}) = P({b}) = 1
2
X(a) = −1, X(b) = 1
Y (a) = 1, Y (b) = −1
Montrons que X et Y ont la même loi, c.a.d. PX(E) = PY (E) pour
tout E ∈ P(R).
Rappel X ∈ E signie {X ∈ E} = {ω ∈ Ω|X(ω) ∈ E}.
Nous devons considérer 4 cas.
1 −1, 1 ∈ E. Alors PX(E) = P(X ∈ E) = P(Ω) = 1.
PY (E) = P(Y ∈ E) = P(Ω) = 1. Donc PX(E) = PY (E).
2 −1, 1 6∈ E. Alors PX(E) = P(X ∈ E) = P(∅) = 0. Et PY (E) = 0.
3 −1 ∈ E, 1 6∈ E. Dans ce cas PX(E) = P(X ∈ E) = P({a}) = 1/2.
Et aussi PY (E) = P({b}) = 1/2.
4 −1 6∈ E, 1 ∈ E. Exo : Montrer que dans ce cas aussi
PX(E) = PY (E).
Fonction de répartition (f.r.)
Dénition
La fonction de répartition (f.r.) FX d'une v.a. X est l'application de
FX : R → [0, 1] dénie par
FX(t) = PX(] − ∞, t]) = P(X−1
(] − ∞, t])) = P(X ≤ t) ∀t ∈ R
Fonction de répartition (f.r.)
Dénition
La fonction de répartition (f.r.) FX d'une v.a. X est l'application de
FX : R → [0, 1] dénie par
FX(t) = PX(] − ∞, t]) = P(X−1
(] − ∞, t])) = P(X ≤ t) ∀t ∈ R
Propriétés :
1 FX est une fonction croissante, c.a.d. t1 ≤ t2 ⇒ FX(t1) ≤ FX(t2).
(Exo. Montrer ça.)
2 FX est continue à droite, c.a.d. limh→0+ FX(a + h) = FX(a),
∀a ∈ R.
3 limt→−∞ FX(t) = 0 et limt→+∞ FX(t) = 1
Proposition
Si F : R → [0, 1] satisfait les trois propriétés ci-dessus alors F est une
f.r. associée à une certaine loi de probabilité PX.
Représentation graphique d'une f.r.
Propriétés :
1 FX est une fonction croissante, c.a.d. t1 ≤ t2 ⇒ FX(t1) ≤ FX(t2).
2 FX est continue à droite, c.a.d. limh→0+ FX(a + h) = FX(a),
∀a ∈ R.
3 limt→−∞ FX(t) = 0 et limt→+∞ FX(t) = 1
1
t
a
F(a−)
F(a+) = F(a)
Autres propriétés
On note
F(a−
) := lim
h→0+
F(a − h) et F(a+
) := lim
h→0+
F(a + h)
Propriétés : Soit FX la f.r. associée à la loi de probabilité PX, alors
on a
Soit a  b. Alors P(a  X ≤ b) = PX(]a, b]) = FX(b) − FX(a).
P(X = a) = PX({a}) = FX(a) − FX(a−
)
L'ensemble des points de discontinuité de FX est égal à
l'ensemble des atomes de la loi PX.
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Introduction - v.a. discrète (et continue)
Dans la suite on va considérer
un espace de probabilité (Ω, A, P)
X dénote une v.a. sur Ω de loi de probabilité PX
FX dénote la f.r. de X
Nous allons étudier deux types de v.a.
1 V.a. discrète : ce sont les v.a. qui ont f.r. constates par morceaux
(représentées par un graphique en escalier).
2 V.a. continue : ce sont les v.a. qui on une f.r. continue (prochain
chapitre).
V.a. discrète
Dénition
X : Ω → R est une v.a. discrète ssi il existe un ensemble S ⊂ R ni
ou dénombrable t.q. PX(S) = 1.
Une condition susante pour montrer que X est une v.a. discrète est
la suivante
Proposition
Si X(Ω) est au plus dénombrable alors X est une v.a. discrète.
Exemple. Une urne contient 3 boules numérotées de 1 à 3. On tire
deux boules successivement et sans remise.
Soit X la v.a. qui donne le maximum des deux boules tirées. On a
X(Ω) = {2, 3}.
Donc X est une v.a. discrète.
Loi d'une v.a. discrète
Si X est une v.a. discrète qui prend les valeurs
X(Ω) = {x1; x2; x3; . . . ; xn; . . .} on note
pi := PX({xi}) = P(X = xi)
Donc pi est la probabilité que la v.a. X prenne la valeur xi. On a
alors
P
xi∈X(Ω) PX({xi}) = 1
Si X est une v.a. discrète on appellera loi de probabilité de X, la
donnée de (xi, pi) où xi ∈ X(Ω) et PX({xi})  0 (xi est un atome).
X =

x1 x2 . . . xn . . .
p1 p2 . . . pn . . .

P(R) est la famille des parties de R, pour tout E ∈ P(R) on peut
calculer PX(E)
PX(E) = P(X ∈ E) =
X
xi∈E
PX({xi}) =
X
xi∈E
P(X = xi)
Exemple v.a. discrète
Reprenons l'exemple où X est le maximum des deux boules extraites
de l'urne.
Ω = {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}, X(Ω) = {2, 3}
Rappelons nous que, si E ∈ P(R), l'événement X ∈ E signie
{X ∈ E} = {ω ∈ Ω|X(ω) ∈ E}. (Si E = {r} est un singleton on écrit
{X = r} ) Donc
{X = 2} = {(1, 2); (2, 1)} et {X = 3} = {(1, 3); (2, 3); (3, 1); (3, 2)}
PX(2) = P(X = 2) = P({(1, 2); (2, 1)}) =
2
6
=
1
3
PX(3) = P(X = 3) = P({(1, 3); (2, 3); (3, 1); (3, 2)}) =
4
6
=
2
3
X =

2 3
1
3
2
3

On peut remarquer que PX(2) + PX(3) = 1
3 + 2
3 = 1.
Fonction de répartition d'une v.a. discrète
Proposition
Si X est une v.a. discrète sa fonction de répartition est donnée par
FX(t) = PX(] − ∞, t]) = P(X ≤ t) =
X
xi≤t
PX({xi}) =
X
xi≤t
P(X = xi)
Propriétés (si X est une v.a. discrète) :
1 FX est constante par morceaux.
2 FX est discontinue en tout point xi ∈ X(Ω) t.q. PX({xi})  0 et
continue en tout autre point.
3 FX est continue à droite en tout point de R.
Exemple
Exemple. X est le maximum des deux boules extraites de l'urne.
X =

2 3
1
3
2
3

On a vu que FX(t) =
P
xi≤t PX({xi}).
Donc FX(t) =





0 si t  2
1
3 2 ≤ t  3
1 t ≥ 3.
1
t
2 3
1
3
Relation entre f.r. et loi
Si X est une v.a. discrète la connaissance de sa f.r. FX permet de
retrouver sa loi de probabilité.
Rappel : On appelle atomes de PX tout réel x ∈ R tel que
PX({x})  0.
Proposition
Pour tout atome x, PX({x}) = FX(x) − FX(x−
). De plus, l'ensemble
des atomes de PX est donné par l'ensemble des points
{x ∈ R|FX(x) − FX(x−
)  0}.
Si les valeurs x1, x2, . . . de X(Ω) sont ordonnées du plus petit au plus
grand alors
pi = PX({xi}) = FX(xi) − FX(xi−1)
et on utilise la convention que FX(x0) = 0 (Donc p1 = FX(x1)).
Exemple
Exemple. Imaginons dans l'exemple où X est le maximum des deux
boules que l'on connait la f.r. FX mais pas sa loi.
FX(t) =





0 si t  2
1
3 2 ≤ t  3
1 t ≥ 3.
On a
PX(2) = FX(2) − FX(2−
) =
1
3
− 0 =
1
3
PX(3) = F(3) − F(3−
) = 1 −
1
3
=
2
3
Pour tout x ∈ R  {2, 3} FX(x) − FX(x−
) = 0. Donc la loi de
probabilité de X est
X =

2 3
1
3
2
3
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Introduction
Lorsque l'on considère une expérience aléatoire, souvent on s'intéresse
à deux informations
1 Quelle est la valeur que l'on s'attend à trouver, en moyenne, si
l'on répète un grand nombre de fois cette même expérience
aléatoire. C'est le concept d'espérance.
2 Quelle est la mesure de dispersion autour de cette moyenne. C'est
le concept de variance.
Introduction
Exemple.
Imaginons que l'on doit choisir entre deux ores d'abonnement
internet. Supposons que la vitesse de connexion est aléatoire et les
deux entreprises ont relevé au cours du temps la vitesse eective.
Pour choisir on peut demander aux entreprises.
La vitesse moyenne : ex. Entreprise 1 : 34 Mbit/s, Entreprise 2 :
37 Mbit/s
De quelle manière la vitesse de connexion se disperse autour de
cette moyenne. Par exemple si la variance l'Entreprise 2 est
élevée ça signie que parfois la connexion est très performante et
parfois pas du tout.
Espérance - variable discrète
Considérons une v.a. discrète avec image X(Ω) = {xi|i ∈ I} où I est
un ensemble ni ou dénombrable.
Dénition
Soit X une v.a. discrète. On appelle espérance de X la quantité, si
elle existe,
E(X) =
X
i∈I
xiP(X = xi) =
X
i∈I
xiPX({xi}) =
X
i∈I
xipi
L'espérance peut être considérée comme la moyenne des xi pondérée
par les pi.
Exemples
Exemple 1. Considérons une expérience aléatoire qui consiste en
lancer une pièce de monnaie.
Ω = {Pile, Face}
et on est dans le cas d'équiprobabilité. Donc A = P(Ω) et P est la
probabilité uniforme. P(Pile) = 1
2 = P(Face).
Soit X : Ω → R la variable aléatoire discrète X(Pile) = 1,
X(Face) = 0. La loi de X est PX(0) = 1
2 = PX(1).
X =

0 1
1
2
1
2

L'espérance de X est
E(X) =
X
i∈I
xipi = 0
1
2
+ 1
1
2
=
1
2
L'espérance de X est donc
1
2 bien que X ne prenne jamais cette
valeur.
Exemples
Exemple 2. Reprenons l'exemple où X est le maximum des deux
boules.
X =

2 3
1
3
2
3

L'espérance de X est
E(X) =
X
i∈I
xipi = 2
1
3
+ 3
2
3
=
8
3
Exemple où l'espérance n'existe pas (Paradoxe de
Saint-Petersbourg)
Considérons la loterie suivante :
une pièce de monnaie est lancée successivement jusqu'à ce qu'elle
tombe sur Pile.
On reçoit alors 2n
e, n étant le nombre de lancers de pièce.
Calcul de l'espérance pour cette v.a. Pour tout n, la probabilité de
recevoir 2n
est égale à la probabilité d'obtenir n − 1 fois Face, puis
Pile, c'est-à-dire
1
2
n−1 1
2 = 1
2
n
.
X =

21
22
23
. . . 2n
. . .
1
2
1
2
2 1
2
3
. . . 1
2
n
. . .

L'espérance n'existe pas :
X
n
2n

1
2
n
= 1 + 1 + · · · = ∞.
Espérance d'une fonction d'une v.a.
Soit X une v.a. discrète et φ : R → R une application. Il est possible
de calculer l'espérance de la v.a. φ(X)
Dénition
Soit X une v.a. discrète. On appelle espérance de φ(X) la quantité, si
elle existe,
E(φ(X)) =
X
i∈I
φ(xi)P(X = xi) =
X
i∈I
φ(xi)PX({xi}) =
X
i∈I
φ(xi)pi
Exemple - Espérance d'une fonction d'une v.a.
Exemple. Soit X une v.a. discrète avec loi X =

2 3
1
3
2
3

Exemple 1. Soit φ : R → R la fonction φ(x) = x3
. Considérons la
v.a. Y := φ(X). La loi de Y sera
Y =

8 27
1
3
2
3

et E(Y ) = 81
3 + 272
3 = 62
3 .
Exemple 2. Soit ψ : R → R la fonction ψ(x) = e−x
et Z := ψ(X).
Alors
Z =

e−3
e−2
2
3
1
3

et E(Z) = e−3 2
3 + e−2 1
3 .
Propriétés de l'espérance
Considérons X une v.a. discrète, a, b ∈ R et φ, ϕ deux applications de
R vers R.
Propriétés :
1 E(aX + b) = aE(X) + b
2 E[X − E(X)] = 0
3 E[aφ(X) + bϕ(X)] = aE[φ(X)] + bE[ϕ(X)]
Démonstration.
1 E(aX + b) =
P
i∈I(axi + b)pi =
P
i∈I(axipi + bpi) =
P
i∈I axipi +
P
i∈I bpi = a
P
i∈I xipi + b
P
i∈I pi = aE(X) + b · 1.
2 Puisque E(X) ∈ R, on utilise le résultat du point précédent.
E[X − E(X)] = E(X) − E(X) = 0.
3 Exercice.
Variance d'une v.a. discrète
A partir de la dénition d'espérance d'une fonction de v.a. nous
pouvons dénir la variance en prenant
φ(x) = (x − E(X))2
La variance sert à mesurer la dispersion des observations que l'on
obtient lorsque l'on répète plusieurs fois une expérience aléatoire. Plus
elle est faible, plus les valeurs observées sont regroupées autour de la
moyenne (l'espérance).
Dénition
Soit X une v.a. discrète. La variance de X, si elle existe, est le
nombre
V (X) = E

(X − E(X))2

=
X
i∈I
(xi−E(X))2
PX({xi}) =
X
i∈I
(xi−E(X))2
pi
Écart type d'une v.a. discrète
Souvent on considère une autre notion, liée à celle de variance.
Dénition
Soit X une v.a. discrète. L'écart type de X, s'il existe, est le nombre
σ(X) =
p
V (X)
Remarques.
Si on connait la variance on connait aussi l'écart type et
vice-versa.
L'écart type a l'avantage d'être exprimé dans la même unité de
mesure de l'espérance.
Propriétés de la variance
Considérons X une v.a. discrète, a, b ∈ R.
Propriétés :
1 V (X) ≥ 0
2 V (X) = E(X2
) − [E(X)]
2
.
3 V (aX + b) = a2
V (X)
Propriété 1 - Preuve
V (X) =
P
i∈I (xi − E(X))2
| {z }
≥0
pi
|{z}
≥0
≥ 0
Propriété 2 - Preuve
V (X) =E

(X − E(X))2

=E
h
X2
− 2XE(X) + [E(X)]
2
i
=E(X2
) − 2E[XE(X)] + [E(X)]
2
=E(X2
) − 2E(X)E(X) + [E(X)]
2
=E(X2
) − [E(X)]
2
Propriété 3 - Preuve
V (aX + b) =E[(aX + b)2
] − [E(aX + b)]
2
=E[a2
X2
+ 2abX + b2
] − [aE[X] + b]
2
=a2
E[X2
] + 2abE[X] + b2
− a2
[E(X)]2
− 2abE[X] − b2
=a2
h
E(X2
) − [E(X)]
2
i
=a2
V (X)

Exercice : Montrer la propriété ci-dessus en utilisant directement la
dénition de variance :
V (aX + b) =
X
i

axi + b −

X
i
(axi + b)pj
##2
pi
=
X
i
(axi + b)
2
pi −

X
i
(axi + b)pi
#2
= . . .
Exemple
Exemple. Prenons l'exemple où X est le maximum des deux boules.
X =

2 3
1
3
2
3

On avait vu que E(X) = 8
3 . On utilise la Propriété 2 et on calcule
V (X) =E(X2
) − [E(X)]2
=22 1
3
+ 32 2
3
−

8
3
2
=
12 + 54 − 64
9
=
2
9
Exercice sur v.a. discrète
Une urne contient 10 boules noires et 5 boules rouges (les boules sont
toutes distinctes). On tire simultanément 2 boules de l'urne.
Soit X la v.a. qui conte le nombre des boules rouges dans le tirage.
Trouver la loi de X, sa f.r. et calculer P(X  1) et P(0.5  X ≤ 5).
On est dans un cas d'équiprobabilité. En plus on reconnait un tirage
sans remise où l'ordre ne compte pas.
Résoudre l'exercice
1 - On décrit Ω et on calcule son cardinal
Ω = {{b1, b2}|b1 6= b2, bi ∈ {Urne}}
Card(Ω) = C2
15 = 15
2

= 15!
2!(15−2)! = 105
2 - On décrit l'image de la v.a. X
X(Ω) = {0, 1, 2}
donc X est une v.a. discrète
3 - On calcule le loi de X, c.a.d. on cherche les probabilités
1 PX(0) = P(X = 0)
2 PX(1) = P(X = 1)
3 PX(2) = P(X = 2)
Résoudre l'exercice
3.1 - Calcul de PX(0) = P(X = 0). X = 0 veut dire que l'on n'a pas
tiré de boules rouges. Donc X = 0 c'est l'événement que l'on appelle A
A =pas des boules rouges.
Donc PX(0) = P(X = 0) = P(ω ∈ Ω|X(ω) = 0) = P(A). On cherche
le cardinal de A et on a P(A) = Card(A)
Card(Ω) .
A = {{b1, b2}|b1 6= b2, b1, b2 ∈ { Boules noires}}
Card(A) c'est donc combien de tirages possibles on peut faire de deux
boules noires simultanément. Puisque on a 10 boules noires dans
l'urne on voit que c'est une combinaison
Card(A) = C2
10 =

10
2

= 45
PX(0) = P(X = 0) =
Card(A)
Card(Ω)
=
45
105
Résoudre l'exercice
3.2 - Calcul de PX(1) = P(X = 1). X = 1 veut dire que l'on a tiré
une boule rouge et une noire. Donc X = 1 c'est l'événement que l'on
appelle B
B =Une boule rouge et une boule noire.
Donc PX(1) = P(X = 1) = P(ω ∈ Ω|X(ω) = 1) = P(B).
B = {{b1, b2}|b1 6= b2, b1 ∈ { Boules noires }, b2 ∈ { Boules rouges}}
Card(B) toutes les façons de choisir une boule noire sur 10 noires et
une rouge sur 5 rouges
Card(B) = C1
10C1
5 =

10
1

·

5
1

= 50
PX(1) = P(X = 1) =
Card(B)
Card(Ω)
=
50
105
Résoudre l'exercice
3.3 - Calcul de PX(2) = P(X = 2). Exercice. Sol :
PX(2) = P(X = 2) = 10
105
3 - La loi de X est
X =

0 1 2
45
105
50
105
10
105

On remarque que PX(0) + PX(1) + PX(2) = 1.
Résoudre l'exercice
4 - Calcul de la fonction de répartition F. Quand X est discrète, on
sait que F est constante par morceau, avec des sauts où
PX({x})  0. Pour calculer F on utilise la formule
F(t) =
P
xi≤t P(X = xi).
Donc F(t) =









0 si t  0
45
105 0 ≤ t  1
95
105 1 ≤ t  2
1 t ≥ 2
1
t
0
F(1) − F(1−) = PX (1)
45
105
1 2
95
105
2
Résoudre l'exercice
5 - Calcul de P(X  1) et P(0.5  X ≤ 4). On utilise la f.r.
F(t) =









0 si t  0
45
105 0 ≤ t  1
95
105 1 ≤ t  2
1 t ≥ 2
- P(X  1). Nous remarquons que X ≤ 1 est l'événement
complémentaire de X  1. Donc
P(X  1) = 1 − P(X ≤ 1) = 1 − F(1) = 1 − 95
105 = 10
105 . Noter que
P(X  1) = P(X = 2).
Nous pouvons aussi faire le calcul sans f.r.
P(X  1) =
X
xi∈]1,∞[
P(X = xi) = P(X = 2) =
10
105
Résoudre l'exercice
5 - Calcul de P(X  1) et P(0.5  X ≤ 4). On utilise la f.r.
F(t) =









0 si t  0
45
105 0 ≤ t  1
95
105 1 ≤ t  2
1 t ≥ 2
- P(0.5  X ≤ 4). On calcule d'abord directement
P(0.5  X ≤ 4) =
X
xi∈]0.5,4]
P(X = xi) =
P(X = 1) + P(X = 2) =
50
105
+
10
105
=
60
105
Avec la fonction de répartition F(4) − F(0.5) = 1 − 45
105 = 60
105
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Variable aléatoire continue
Intuitivement une v.a. est continue si elle prend n'importe quelle
valeur dans un intervalle R ou dans R entièrement.
Nous allons dénir une v.a. continue à l'aide d'une fonction de densité.
Dénition
Nous appelons densité de probabilité toute application f : R → R telle
que
f(x) ≥ 0 ∀x ∈ R et
Z +∞
−∞
f(x)dx = 1
Avant de continuer : rappels sur l'intégrale.
Rappels intégrale
Dénition
On appelle intégrale de f sur l'intervalle [a, b], noté
R b
a
f(x)dx, la
surface comprise entre le graphe de f et l'axe des abscisses.
Cette surface est comptée positivement si le graphe est au-dessus de l'axe et
négativement sinon.
x
f(x)
x
a b
R b
a
f(x)dx
−
+
On admet que l'on peut calculer cet intégrale pour n'importe quelle
fonction continue f, ou avec au plus un nombre dénombrable de points de
discontinuité.
Primitives
Dénition
On dit que la fonction F : [a, b] → R est une primitive de f sur [a, b]
si et seulement si F est dérivable de dérivée f.
Exemple. Soit f(x) = x3
, une primitive de f est F(x) = 1
4 x4
+
√
7.
Soit g(x) = x
x2+1 , une primitive de g est G(x) = 1
2 ln(x2
+ 1) + c (avec
c ∈ R).
En général, deux primitives d'une même fonction f dièrent
seulement d'une constante.
Les primitives de f sont appelées aussi intégrales indénies :
Z
f(x)dx = F(x) + c
Où c est une constante nécessaire pour couvrir l'ensemble des
primitives possibles de f.
Théorème fondamental de l'analyse
Ce théorème établit que les deux opérations de base de l'analyse, la
dérivation et l'intégration, sont, dans une certaine mesure, réciproques
l'une de l'autre.
Théorème (1er
théorème fondamental)
Soit f une fonction continue dénie sur [a, b]. Alors la fonction
F : [a, b] → R dénie par F(x) :=
R x
a
f(t)dt
est continue sur [a, b], dérivable sur ]a, b[ avec F0
(x) = f(x) ∀x ∈]a, b[.
Ce théorème nous permet de calcule les intégrales.
Corollary
Soit F une primitive de la fonction continue f, alors
Z b
a
f(t)dt = F(b) − F(a)
Exemples
Exemple 1.
R 1
−2
3
|{z}
f(x)
dx = [ 3x
|{z}
F (x)
]1
−2 = 3 · 1 − 3 · (−2)
| {z }
F (1)−F (−2)
= 9
Exemple 2.
R
x + 2
| {z }
f(x)
dx =
x2
2
+ 2x + c
| {z }
F (x)
Exemple 3.
R 3
0
x + 2
| {z }
f(x)
dx =




x2
2
+ 2x
| {z }
F (x)




3
0
=

32
2
+ 2 · 3

−

02
2
+ 2 · 0

| {z }
F (3)−F (0)
= 10.5
Primitives usuelles
dérivée f(x) primitive F(x)
xn
(for n 6= −1,) xn+1
n+1 + c
1
x ln |x| + c
ex
ex
+ c
αx
(for α  0, α 6= 1,) αx
ln α + c
cos(x) sin(x) + c
sin(x) − cos(x) + c
Quelques propriétés
Soient f et g deux fonctions (continues) dénies sur [a, b]. Alors
R b
a
f(t) + g(t)dt =
R b
a
f(t)dt +
R b
a
g(t)dt
∀λ ∈ R
R b
a
λf(x)dx = λ
R b
a
f(x)dx
Relation de Chasles. Soit c ∈ [a, b],
Z b
a
f(u)du =
Z c
a
f(u)du +
Z b
c
f(u)du
Intégration par partie. On rappelle la formule (fg)0
= f0
g + fg0
.
Z b
a
f0
(t)g(t)dt = [f(t)g(t)]b
a −
Z b
a
f(t)g0
(t)dt
Changement de variable. Soit I un intervalle, f : I → R continue,
ψ : [a, b] → I dérivable alors
Z b
a
f(ψ(t))ψ0
(t)dt =
Z ψ(b)
ψ(a)
f(x)dx.
Variable aléatoire continue
P(R) la famille des parties de R.
Dénition
X est une v.a. continue s'il existe une fonction de densité fX telle que
PX(E) = P(X ∈ E) =
Z
E
fX(x)dx ∀E ∈ P(R)
Donc savoir la densité d'une v.a. X permet de trouver sa loi de
probabilité PX.
Exemple. Soit E l'intervalle E = [a, b] avec a  b. Alors
PX([a, b]) =
Z b
a
fX(x)dx
Soit E =] − ∞, t] alors
PX(] − ∞, t]) =
Z t
−∞
fX(x)dx = FX(t)
Variable aléatoire continue - densité
PX([a, b]) =
Z b
a
fX(x)dx
x
fX(x)
a b
PX([a, b])
Fonction de répartition d'une v.a. continue
Proposition
Soit X une v.a. continue avec fonction de densité fX, alors sa
fonction de répartition FX est donnée par
FX(t) = PX(] − ∞, t]) =
Z t
−∞
fX(x)dx ∀t ∈ R
Propriétés (si X est une v.a. continue) :
1 FX est continue en tout point de R.
2 Il n'y a pas d'atome car PX({r}) =
R r
r
fX(x)dx = 0 ∀r ∈ R.
3 La fonction de densité fX es donnée par
fX(x) = F0
X(x) si FX est derivable en x.
Fonction de répartition d'une v.a. continue
La fonction de densité fX est donnée par
fX(x) = F0
X(x) si FX est derivable en x.
Si on connait la f.r. FX on peut donc trouver la densité fX. Qu'est ce
que l'on fait si FX n'est pas dérivable en x ?
Par abus, on donnera une valeur ctive là où FX n'est pas dérivable.
Par exemple
fX(x) =
(
F0
X(x) si FX est derivable en x
0 si FX n'est pas derivable en x.
Exemple v.a. continue
On attend un bus. On sait qu'il y a un bus qui passe une seule fois de
8h à 10h. Il peut passer à n'importe quel moment. Soit X la variable
aléatoire qui indique l'heure à laquelle le bus est passé.
Nous allons voir comment modéliser cette expérience aléatoire et nous
allons calculer P(X  9.5) (la probabilité que le bus passe après 9h et
demie) et P(8  X ≤ 9) (la probabilité que le bus passe entre 8h et
9h).
On remarque que dans l'intervalle [8, 10] il y a une innité des valeurs
(non dénombrables). Donc X doit être modélisée comme une v.a.
continue.
Exemple v.a. continue
Pour ce type de problème il y a une densité connue. (On verra ça
ensuite). La densité de X pour le problème du bus
f(x) =
(
1
10−8 si x ∈ [8, 10]
0 sinon.
=
(
1
2 si x ∈ [8, 10]
0 sinon.
f(x)
x
1
2
8 10
Vérions que ça s'agit bien d'une fonction de densité
R +∞
−∞
f(x)dx =
R 8
−∞
f(x)dx +
R 10
8
f(x)dx +
R +∞
10
f(x)dx
=
R 8
−∞
0dx +
R 10
8
1
2 dx +
R +∞
10
0dx
= 0 + 1
2 (10 − 8) + 0 = 1.
Exemple v.a. continue
Fonction de répartition de X. Par dénition F(t) =
R t
−∞
f(x)dx
- Pour t ≤ 8, on a F(t) =
R t
−∞
f(x)dx =
R t
−∞
0dx = 0.
- Pour t ∈]8, 10], on a
F(t) =
Z t
−∞
f(x)dx =
Z 8
−∞
f(x)dx+
Z t
8
f(x)dx = 0+
Z t
8
1
2
dx =
1
2
(t−8)
- Pour t  10, on a
F(t) =
Z t
−∞
f(x)dx =
Z 8
−∞
f(x)dx +
Z 10
8
f(x)dx +
Z t
10
f(x)dx = 0 +
Z 10
8
1
2
dx + 0 = 1
Exemple v.a. continue
Fonction de répartition de X. On a donc
F(t) =





0 si t  8
1
2 (t − 8) si t ∈ [8, 10]
1 si t  10
1
F(t)
t
8 10
Exemple v.a. continue
Trouver la densité f à partir de la f.r.
fX(t) =
(
F0
(t) si FX est derivable en t
0 si FX n'est pas derivable en t.
Donc il faut dériver la fonction F, qui n'est pas dérivable pour t = 8
et t = 10
f(t) =





0 si t ≤ 8
1
2 si 8  t  10
0 si t ≥ 10
Exemple v.a. continue
On calcule P(X  9.5) et P(8  X ≤ 9). On a deux façons de faire ce
calcul : avec la densité ou avec la f.r.
- Avec la densité :
P(X  9.5) =
R +∞
9.5
f(x)dx =
R 10
9.5
1
2 dx = 1
2 (10 − 9.5) = 0.25.
P(8  X ≤ 9) =
R 9
8
1
2 dx = 1
2 (9 − 8) = 0.5
- Avec la f.r. :
P(X  9.5) = 1 − P(X ≤ 9.5) = 1 − F(9.5) = 1 − 1
2 (9.5 − 8) = 0.25.
P(8  X ≤ 9) = F(9) − F(8) = 1
2 (9 − 8) − 1
2 (8 − 8) = 0.5
Quel est P(X = 9), c.a.d. la probabilité que le bus arrive exactement
à 9h ?
R 9
9
f(x)dx = 0.
Pour les variables continues la probabilité de chaque singleton est 0.
C'est à dire, les variables continue n'ont pas d'atomes.
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Espérance - variable continue
Considérons maintenant une v.a. continue avec fonction de densité fX.
Dénition
Soit X une v.a. continue. On appelle espérance de X la quantité, si
elle existe,
E(X) =
Z +∞
−∞
xfX(x)dx
L'interprétation est la même que dans le cas discret.
Soit φ : R → R une application.
Dénition
Soit X une v.a. continue. On appelle espérance de φ(X) la quantité,
si elle existe,
E(φ(X)) =
Z +∞
−∞
φ(x)fX(x)dx
Propriétés de l'espérance
Considérons X une v.a. continue, a, b ∈ R et φ, ϕ deux applications de
R vers R. Les propriétés que l'on a vues dans le cas discret restent
vraies aussi dans le cas continu.
Propriétés :
1 E(aX + b) = aE(X) + b
2 E[X − E(X)] = 0
3 E[aφ(X) + bϕ(X)] = aE[φ(X)] + bE[ϕ(X)]
Démonstration.
1 E(aX + b) =
R +∞
−∞
(ax + b)fX(x)dx =
a
R +∞
−∞
xfX(x)dx + b
R +∞
−∞
fX(x)dx = aE(X) + b · 1.
2 Exercice.
3 Exercice.
Variance d'une v.a. continue
Comme avant on considère la fonction φ : R → R
φ(x) = (x − E(X))2
Dénition
Soit X une v.a. continue. La variance de X, si elle existe, est le
nombre
V (X) = E

(X − E(X))2

=
Z +∞
−∞
(x − E(X))2
fX(x)dx
Dénition
L'écart type de X, s'il existe, est le nombre
σ(X) =
p
V (X)
Propriétés de la variance
Considérons X une v.a. continue, a, b ∈ R. Les propriétés sont les
mêmes.
Propriétés :
1 V (X) ≥ 0
2 V (X) = E(X2
) − [E(X)]
2
.
3 V (aX + b) = a2
V (X)
Nous pouvons remarquer que dans le cas discret nous avons utilisé la
dénition de variance seulement pour prouver la Propriété 1. Les
preuves pour les autres propriétés peuvent être démontrées de la
même manière.
Exercice. Montrer la Propriété 1 de la variance dans le cas continu en
utilisant la dénition.
Concepts à retenir sur les variables aléatoires
Soit (Ω, A, P) un espace probabilisé.
Généralités sur les variables aléatoires
Une variable aléatoire est une fonction X : Ω → R.
X est mesurable, c.a.d. pour tout E ∈ P(R) on a X−1
(E) ∈ A.
À chaque v.a. X on peut associer une loi, PX, dénie par
PX(E) := P(X−1
(E)) (où E ∈ P(R)).
À chaque v.a. X on peut associer une fonction de répartition FX,
dénie pour tout t ∈ R par FX(t) := P(X ≤ t) = PX(] − ∞, t]).
FX est croissante, continue à droite, limx→−∞ FX(x) = 0 et
limx→+∞ FX(x) = 1.
PX(r) = FX(r) − FX(r−
) et PX(]a, b]) = FX(b) − FX(a).
Concepts à retenir sur les variables aléatoires
Variable aléatoire discrète.
X est une variable aléatoire discrète si l'image de X, notée X(Ω),
est un ensemble ni ou dénombrable.
On appelle loi de X l'ensemble des valeurs prises par X, c.a.d. de
X(Ω) = {x1, x2, . . .} et des probabilités associées
P(X = x1), P(X = x2), . . . . Si on note pi = P(X = xi) on a
X =

x1 x2 . . . xn . . .
p1 p2 . . . pn . . .

Si E ⊆ R PX(E) =
P
xi∈E P(X = xi).
La fonction de répartition est
FX(t) = P(X ≤ t) = PX(] − ∞, t]) =
P
xi≤t P(X = xi).
La fonction de répartition FX est constante par morceaux (en
plus des propriétés indiquées dans le slide précédent).
Concepts à retenir sur les variables aléatoires
Variable aléatoire continue.
Une v.a. est continue si sa fonction de répartition est continue.
Pour trouver la loi de X on a besoin d'une fonction de densité
fX : R → R. C'est une fonction t.q. fX(x) ≥ 0 pour tout x ∈ R et
R +∞
−∞
fX(x)dx = 1.
Si fX est la densité de X et E ∈ P(R) alors
PX(E) =
R
E
fX(x)dx. Par example si E = [a, b]
PX([a, b]) =
Z b
a
fX(x)dx.
Donc on calcule la f.r. FX par
FX(t) = P(X ≤ t) = PX(] − ∞, t]) =
R t
−∞
fX(x)dx.
Si on connaît la f.r. FX on peut trouver la densité fX en dérivant
fX(x) =
(
F0
X(x) si FX est derivable en x
0 si FX n'est pas derivable en x.
Concepts à retenir sur les variables aléatoires
Espérance et variance.
L'espérance de X, E(X) est dénie par
E(X) =
P
i xiP(X = xi) si X est discrète.
E(X) =
R +∞
−∞
xfX (x)dx si X est continue.
La variance de X est dénie par V (X) = E[(X − E(X))2
].
Formule utile pour les calculs V (X) = E(X2
) − [E(X)]2
.
Savoir les propriétés de E(X) et V (X).
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Lois usuelles - Introduction
Il y a une innité de lois de probabilité possibles. Par example dans le
cas continu n'importe quelle densité f dénit une loi.
Cependant, certaines lois sont plus courantes, plus utiles dans les
applications pratiques ou plus importantes dans la théorie.
Celles-ci ont en général reçu un nom particulier.
On distinguera deux cas :
Lois usuelles discrètes.
Lois usuelles continues.
Dans la suite on xe un espace probabilisé (Ω, A, P) et on s'intéresse
aux lois de probabilité associées à des v.a. X : Ω → R.
Lois usuelles discrètes
Certaines variables aléatoires suivent des lois standard. Ou verra les
lois suivantes
1 Loi de Dirac
2 Loi de Bernoulli
3 Loi binomiale
4 Loi hypergéométrique
5 Loi de Poisson
6 Loi géométrique
7 Loi binomiale négative
Pour chaque loi on étudiera
1 Sa loi (c.a.d. la donnée des valeurs que la v.a. prend {xi, i ∈ I} et
les probas associées P(x = xi)).
2 L'espérance et la variance.
3 La fonction de répartition (pour certaines lois).
Loi de Dirac
Soit a ∈ R xé. Considérons la v.a. discrète X constante et égale à a,
c.a.d.
X(ω) = a, ∀ω ∈ Ω
On appelle loi de Dirac la loi de probabilité associée a cette v.a.
Donc X(Ω) = a et PX(a) = P(X = a) = P(Ω) = 1.
X =

a
1

La fonction de répartition est FX(t) =
(
0 si t  a
1 si t ≥ a.
1
t
a
Loi de Dirac
Si X suit une loi de Dirac alors
E(X) = a · 1 = a
V (X) = E(X2
) − [E(X)]2
= a2
· 1 − a2
= 0
Remarque : C'est la seule v.a. avec variance nulle. Donc une v.a. a
variance nulle ssi elle est une constante.
Loi de Bernoulli
Soit A ∈ A un événement tel que P(A) = p. Considérons la v.a.
discrète X dénie par
X(ω) =
(
1 si ω ∈ A
0 si ω ∈ Ac
On a donc
PX(1) = P(X = 1) = P(A) = p
PX(0) = P(X = 0) = P(Ac
) = 1 − P(A) = 1 − p
On appelle loi de Bernoulli la loi de probabilité associée a cette v.a.
Donc X(Ω) = {0, 1} et sa loi est donnée par
X =

0 1
1 − p p

Si X suit une loi de Bernoulli on le note X ∼ B(1, p).
Loi de Bernoulli - Exemples
Quel type d'expérience modélise la loi de Bernoulli ?
Exemple 1 : On jette un dé. Soit X1 la v.a. qui vaut 1 si l'on obtient 4
et 0 sinon (par exemple on gagne 1e si l'on obtient 4 et 0e sinon).
X1 suit une loi de Bernoulli, X1 ∼ B(1, p) où p = P(X1 = 1) = 1
6 .
X1 =

0 1
5
6
1
6

Exemple 2 : Dans une population il y a une probabilité p = 0.02
d'observer une certaine caractéristique. On choisit un individu au
hasard et on considère la v.a. X2 qui associe 1 s'il a la caractéristique
et 0 sinon. X2 ∼ B(1, 0.02)
X2 =

0 1
0.98 0.02
Loi de Bernoulli - f.r.
La fonction de répartition d'une v.a. X qui suit une loi de Bernoulli
est FX(t) =





0 si t  0
1 − p si 0 ≤ t  1
1 si t ≥ 1
1
t
1 − p
1
p
Loi de Bernoulli - espérance et variance
Soit X ∼ B(1, p), donc sa loi est
X =

0 1
1 − p p

E(X) = 0(1 − p) + 1p = p.
V (X) = E(X2
)−[E(X)]2
= 02
(1−p)+12
p−p2
= p−p2
= p(1−p)
Loi binomiale
Soit A ∈ A un événement tel que P(A) = p. On fait n ∈ N épreuves
successives et indépendantes dans lesquelles A peut se produire ou
pas.
Soit X la variable aléatoire qui compte le nombre de fois où A se
réalise. On dit que X suit une loi binomiale de paramètres n et p,
noté X ∼ B(n, p).
L'image de X est X(Ω) = {0, 1, 2, . . . , n}. La loi de probabilité, pour
k = 0, 1, . . . , n est donnée par
P(X = k) =

n
k

pk
(1 − p)n−k
.
Remarque : La loi de Bernoulli est le cas particulier où n = 1. Et on
voit que si X1, X2, . . . , Xn sont t.q. Xi ∼ B(1, p) alors
X = X1 + X2 + · · · + Xn est X ∼ B(n, p).
Loi binomiale
Intuition, pourquoi P(X = k) est donnée par la formule
P(X = k) =

n
k

pk
(1 − p)n−k
Prenons le cas particulier n = 4. Ça veut dire que l'on fait 4 épreuves
successives et indépendantes, et X compte le nombre de fois qu'un
événement A se réalise.
Disons que l'on s'intéresse à P(X = 2). Combien de façons nous avons
d'obtenir 2 réalisations sur 4 épreuves ? C'est C2
4 = 4
2

. En eet si on
note 1 quand l'événement se réalise et 0 sinon on a
1. 1 1 0 0
2. 1 0 1 0
3. 1 0 0 1
4. 0 1 1 0
5. 0 1 0 1
6. 0 0 1 1
Loi binomiale
1. 1 1 0 0
2. 1 0 1 0
3. 1 0 0 1
4. 0 1 1 0
5. 0 1 0 1
6. 0 0 1 1
Puisque les réalisations sont indépendantes il faut multiplier les
probabilités.
Par exemple la probabilité d'observer 0 1 1 0 est
(1 − p) · p · p · (1 − p) = p2
(1 − p)2
Le 6 événement écrits en haut sont incompatibles et ont tous une
probabilité p2
(1 − p)2
donc
P(X = 2) = 6p2
(1 − p)2
=

4
2

p2
(1 − p)4−2
Exercice. Trouver P(X = 3) et P(X = 4).
Loi binomiale
Nous allons vérier qu'il s'agit bien d'une loi de probabilité. Pour faire
ça on doit avoir
n
X
k=0
P(X = k) = 1 ⇔
n
X
k=0

n
k

pk
(1 − p)n−k
= 1
On va utiliser la formule du binôme de Newton :
(x + y)n
=
n
X
k=0

n
k

xk
yn−k
Si on prend x = p et y = 1 − p on a donc
n
X
k=0

n
k

pk
(1 − p)n−k
= (p + 1 − p)n
= 1n
= 1
Loi binomiale - Espérance et Variance
L'espérance de la loi binomiale est donnée par E(X) = np.
La variance de la loi binomiale est donnée par V (X) = np(1 − p).
Remarque : Si X ∼ B(n, p) et X1, X2, . . . , Xn sont t.q. Xi ∼ B(1, p)
l'espérance est
E(X) = E(X1 + · · · + Xn) = E(X1) + · · · + E(Xn) = p + · · · + p
| {z }
n fois
= np.
La variance est
V (X) = V (X1 + · · · + Xn) = V (X1) + · · · + V (Xn) =
p(1 − p) + · · · + p(1 − p)
| {z }
n fois
= np(1 − p).
Attention ! E(X1 + · · · + Xn) = E(X1) + · · · + E(Xn) est toujours
vrai. V (X1 + · · · + Xn) = V (X1) + · · · + V (Xn) est vrai ssi X1, . . . , Xn
sont indépendantes (vous allez voir ça en Stat 3).
Loi binomiale - Espérance et Variance
On peut calculer l'espérance directement, en utilisant la dénition.
E(X) =
X
k
xkP(X = xk) =
n
X
k=0
k

n
k

pk
(1 − p)n−k
=
n
X
k=1
k
n!
k!(n − k)!
pk
(1 − p)n−k
=
n
X
k=1
n!
(k − 1)!(n − k)!
pk
(1 − p)n−k
= np
n
X
k=1
(n − 1)!
(k − 1)!(n − k)!
pk−1
(1 − p)n−k
= np
n
X
k=1

n − 1
k − 1

pk−1
(1 − p)n−k
on pose j := k − 1
= np
n−1
X
j=0

n − 1
j

pj
(1 − p)n−1−j
= np(p + 1 − p)n−1
= np
Loi binomiale - Espérance et Variance
On peut calculer la variance directement, en utilisant la dénition. On
calcule d'abord E[X(X − 1)] = E(X2
) − E(X)
E[X(X − 1)] =
X
k
(xk(xk − 1))P(X = xk) =
n
X
k=0
k(k − 1)

n
k

pk
(1 − p)n−k
=
n
X
k=1
k(k − 1)
n!
k!(n − k)!
pk
(1 − p)n−k
= n(n − 1)p2
n
X
k=1
(n − 2)!
(k − 2)!(n − k)!
pk−2
(1 − p)n−k
= n(n − 1)p2
n
X
k=1

n − 2
k − 2

pk−2
(1 − p)n−k
on pose j := k − 2
= n(n − 1)p2
n−2
X
j=0

n − 2
j

pj
(1 − p)n−2−j
= n(n − 1)p2
(p + 1 − p)n−2
= n(n − 1)p2
Loi binomiale - Espérance et Variance
On a trouvé que E[X(X − 1)] = E(X2
) − E(X) = n(n − 1)p2
et donc
E(X2
) = n(n − 1)p2
+ E(X) = n(n − 1)p2
+ np
Et on peut calculer la variance
V (X) = E(X2
) − [E(X)]2
= n(n − 1)p2
+ np − (np)2
= n2
p2
− np2
+ np − n2
p2
= np − np2
= np(1 − p)
Loi binomiale - Exemples
Exemple 1. On jette 10 fois une pièce de monnaie. Soit X la v.a. qui
compte le nombre de résultats pile apparus. Puisque les jets sont
indépendants on a X ∼ B(10, 1
2 ).
Quelle est la probabilité d'observer 7 fois pile ?
P(X = 7) = 10
7
1
2
7
(1 − 1
2 )10−7
= 0.117.
Quelle est la probabilité d'observer 8 fois ou plus pile ?
P(X ≥ 8) = P(X = 8) + P(X = 9) + P(X = 10) =
P10
k=8
10
k
1
2
k
(1 − 1
2 )10−k
= 0.054.
En moyenne, combien de fois on tombera sur pile ? Il faut
calculer l'espérance : E(X) = 101
2 = 5.
Quelle est la variance de X ? V (X) = 101
2 1 − 1
2

= 5
2 .
Loi binomiale - Exemples
Exemple 2. Considérons une urne avec 5 boules rouges et 10 boules
bleues. On tire 2 fois successivement une boule de l'urne avec remise
(c.a.d. on tire une boule on note sa couleur et on la remet dans
l'urne). Soit X la v.a. qui compte le nombre de boules rouges tirées.
Puisque les tirages sont avec remise, la composition de l'urne ne
change pas d'un tirage à l'autre. Les tirages sont indépendantes.
Donc X ∼ B(n, p) avec n = 2, p = 5
15 = 1
3 . On écrit la loi de X.
P(X = 0) =

2
0
 
1
3
0 
2
3
2
=
4
9
P(X = 1) =

2
1
 
1
3
1 
2
3
1
= 2
2
9
=
4
9
P(X = 2) =

2
2
 
1
3
2 
2
3
0
=
1
9
X =

0 1 2
4
9
4
9
1
9
Loi hypergéométrique
On tire simultanément n boules dans une urne contenant N boules,
dont m ont une certaine propriété (et donc N − m boules n'ont pas la
propriété).
Remarquons que c'est comme tirer n boules sans remise et sans tenir en
compte de l'ordre. Contrairement à la loi binomiale, les tirages ne sont pas
indépendants.
Soit X la variable aléatoire qui compte le nombre de boules tirées
avec la propriété. On dit alors que X suit une loi hypergéométrique de
paramètres N, n, m, noté X ∼ H(N, n, m).
L'image de X est X(Ω) = {0, 1, 2, . . . , n}. La loi de probabilité, pour
0 ≤ k ≤ min{n, m} est donnée par
P(X = k) =
m
k
 N−m
n−k

N
n
Loi hypergéométrique - Espérance et Variance
E(X) = nm
N
V (X) = nm
N 1 − m
N
 N−n
N−1
Si on pose p := m
N on a
E(X) = np
V (X) = np(1 − p)N−n
N−1
Remarque. Si N → +∞ et le rapport
m
N reste constant et égal à p, la
loi hypergéométrique converge vers une loi binomiale de paramètres n
et p. Observons par exemple V (X) = np(1 − p)N−n
N−1 →N np(1 − p), la
variance d'une binomiale.
Idée : si N est très grand (ex. 10000 boules) et n petit (ex. 2 boules),
quand on tire des boules de l'urne, le rapport
m
N ne change pas
beaucoup, et reste ' p. C'est presque comme faire des tirages
indépendants et on est presque dans le cas de la loi binomiale.
Loi hypergéométrique - Exemple
Considérons une urne avec 5 boules rouges et 10 boules bleues. On
tire 2 boules simultanément de l'urne.
Soit X la v.a. qui compte le nombre de boules rouges tirées. On a
X ∼ H(15, 2, 5), avec N = 15, n = 2, m = 5. On écrit sa loi.
P(X = 0) =
5
0
 10
2−0

15
2
 =
1 · 45
105
P(X = 1) =
5
1
 10
2−1

15
2
 =
5 · 10
105
P(X = 2) =
5
2
 10
2−2

15
2
 =
10 · 1
105
X =

0 1 2
45
105
50
105
10
105
Loi de Poisson
Soit λ  0 le nombre moyen d'occurrences dans un intervalle de temps
xe d'un certain événement qui se produit indépendamment du temps
écoulé depuis l'événement précédent.
Exemple. Le nombre de naissances par jour dans un jour donné.
Soit X la variable qui compte le nombre d'événements qui se sont
produits dans cet intervalle de temps. On dit que X suit une loi de
Poisson de paramètre λ, noté X ∼ P(λ).
On a X(Ω) = N et la probabilité d'observer k occurrences (k ∈ N) est :
P(X = k) = e−λ λk
k!
Loi de Poisson
Vérions qu'ils s'agit d'une loi de probabilité.
On utilise le développement en série entière de l'exponentielle. Pour
tout x ∈ R on a
ex
=
∞
X
k=0
xk
k!
Donc si X ∼ P(λ) on a
∞
X
k=0
P(X = k) =
∞
X
k=0
e−λ λk
k!
= e−λ
∞
X
k=0
λk
k!
= e−λ
eλ
= 1
Loi de Poisson - Espérance et variance
Soit X une v.a. qui suit une loi de Poisson de paramètre λ  0. Alors
E(X) = λ.
Démonstration.
E(X) =
∞
X
k=0
kP(X = k) =
∞
X
k=0
ke−λ λk
k!
=
∞
X
k=1
ke−λ λk
k!
=
∞
X
k=1
e−λ λk
(k − 1)!
= e−λ
λ
∞
X
k=1
λk−1
(k − 1)!
on pose j = k − 1
= e−λ
λ
∞
X
j=0
λj
j!
= e−λ
λeλ
= λ
Loi de Poisson - Espérance et variance
Soit X une v.a. qui suit une loi de Poisson de paramètre λ  0. Alors
V (X) = λ.
Démonstration.
E(X2
) =
∞
X
k=0
k2
e−λ λk
k!
= e−λ
λ
∞
X
k=1
k
λk−1
(k − 1)!
on pose j = k − 1
= e−λ
λ
∞
X
j=0
(j + 1)
λj
j!
= e−λ
λ


∞
X
j=0
j
λj
j!
+
∞
X
j=0
λj
j!


= λ
∞
X
j=0
je−λ λj
j!
| {z }
E(X)
+e−λ
λeλ
= λ2
+ λ
V (X) = E(X2
) − [E(X)]2
= λ2
+ λ − λ2
= λ
La loi de Poisson est parfois appelée loi des événements rares.
Exemples d'application :
Nombre de pièces défectueuses dans une livraison (si on sait la
moyenne des pièces défectueuses et il y a indépendance).
En assurance : pour modéliser la survenue de sinistres pendant
un intervalle de temps.
En nance : pour modéliser les ux d'ordres d'achat et de vente
pendant un intervalle de temps.
Nombre de clients (appels téléphoniques, etc.) pendant un
intervalle de temps.
En biologie : nombre d'infections (nombre de mutations, etc.)
pendant un intervalle de temps.
Loi de Poisson - Exemple
Une crue centennale est une crue que l'on observe en moyenne une
fois chaque 100 ans. Imaginons que l'on peut modéliser ce phénomène
avec une v.a. X avec loi de Poisson de paramètre λ = 1 (le paramètre
est égal à l'espérance de X). Donc X ∼ P(1).
P(X = k) est donc la probabilité d'observer k crues dans une période
de 100 ans. On calcule les probabilités pour k = 0, 1, 2, 3 :
•P(X = 0) = e−1 10
0! = 1
e ≈ 0.368
•P(X = 1) = e−1 11
1! = 1
e ≈ 0.368
•P(X = 2) = e−1 12
2! = 1
2e ≈ 0.184
•P(X = 3) = e−1 13
3! = 1
6e ≈ 0.061
X =

0 1 2 3 . . .
0.368 0.368 0.184 0.061 . . .
Loi géométrique
Soit A ∈ A un événement tel que P(A) = p. On eectue des épreuves
successives et indépendantes jusqu'à quand A se réalise la première
fois.
Soit X la variable aléatoire qui compte le nombre d'épreuves
eectuées. On dit que X suit une loi géométrique de paramètre p,
noté X ∼ G(p).
L'image de X est X(Ω) = N∗ (c.a.d. n ≥ 1). La loi de probabilité,
pour k ∈ N∗ est donnée par
P(X = k) = (1 − p)k−1
p.
Loi géométrique
Intuition : comment on a obtenu la formule P(X = k) = (1 − p)k−1
p ?
La probabilité P(X = k) correspond à la probabilité d'obtenir dans
une succession de k épreuves de Bernoulli, k − 1 échecs suivis d'un
succès.
Ac
Ac
. . . Ac
| {z }
k−1 fois
A
Les épreuves étant indépendantes, la probabilité d'obtenir k − 1
échecs est le produit (1 − p)(1 − p) . . . (1 − p)
| {z }
k−1 fois
= (1 − p)k−1
.
La dernière épreuve doit être un succès (car on est en train de calculer
la proba de faire k épreuves) et est indépendante des autres. Donc
P(X = k) = (1 − p)k−1
p
Loi géométrique
Nous allons vérier qu'il s'agit bien d'une loi de probabilité.
Nous allons utiliser le développement en série entière suivant : si
|x|  1 alors
1
1 − x
=
∞
X
k=0
xk
Donc
∞
X
k=1
P(X = k) =
∞
X
k=1
(1 − p)k−1
p = p
∞
X
j=0
(1 − p)j
= p
1
1 − (1 − p)
= 1
Loi géométrique - Espérance et variance
E(X) = 1
p
Démonstration. Puisque pour |x|  1 on a
1
1−x =
P∞
k=0 xk
si on
dérive par rapport à x on obtient
1
(1 − x)2
=
∞
X
k=0
kxk−1
.
On obtiens alors
E(X) =
∞
X
k=1
kP(X = k) =
∞
X
k=1
k(1 − p)k−1
p
= p
∞
X
k=0
k(1 − p)k−1
= p
1
(1 − (1 − p))2
=
1
p
Loi géométrique - Espérance et variance
V (X) = 1−p
p2
Démonstration. En dérivant deux fois la série entière
1
1−x on a
2
(1−x)3 =
P∞
k=0 k(k − 1)xk−2
.
E(X(X − 1)) =
∞
X
k=1
k(k − 1)(1 − p)k−1
p = p(1 − p)
∞
X
k=0
k(k − 1)(1 − p)k−2
= p(1 − p)
2
(1 − (1 − p))3
=
2(1 − p)
p2
On a donc E(X(X − 1)) = E(X2
) − E(X) = 2(1−p)
p2 ssi
E(X2
) = 2(1−p)
p2 + E(X) = 2(1−p)
p2 + 1
p = 2−p
p2 .
Donc V (X) = 2−p
p2 − 1
p2 = 1−p
p2 .
Loi géométrique - Exemples
Exemple 1. Un jeune couple veut avoir des enfants. Ils décident de
s'arrêter quand ils auront la première lle. Soit X la v.a. qui compte
le nombre d'enfant qu'ils ont fait jusqu'à la première lle, X ∼ G(1
2 ).
P(X = k) est donc la probabilité d'observer k enfants. On calcule les
probabilités pour k = 1, 2, 3, 4 :
•P(X = 1) = 1
2
•P(X = 2) = 1
2
2−1
· 1
2 = 1
4
•P(X = 3) = 1
2
3−1
· 1
2 = 1
8
•P(X = 4) = 1
2
4−1
· 1
2 = 1
16
X =

1 2 3 4 . . .
1
2
1
4
1
8
1
16 . . .

Combien d'enfants fera en moyenne un coupe qui adopte cette
stratégie ? E(X) = 1
1
2
= 2
Exemple 2. On tire un dé jusqu'à quand on tombe sur 4 et X est la
v.a. qui compte le nombre d'épreuves. P(X = k) = (5
6 )k−1 1
6 .
Loi binomiale négative
Exemple. Un jeune couple veut avoir des enfants et ils décident de
s'arrêter jusqu'à quand ils auront r lles.
Soit A ∈ A un événement tel que P(A) = p. On eectue des épreuves
successives et indépendantes jusqu'à quand A se réalise r ≥ 1 fois.
Soit X la variable aléatoire qui compte le nombre d'épreuves
eectuées. On dit que X suit une loi binomiale négative de
paramètres r et p, noté X ∼ BN(r, p).
L'image de X est X(Ω) = {n ∈ N|n ≥ r}. La loi de probabilité, pour
k ≥ r est donnée par
P(X = k) =

k − 1
r − 1

pr
(1 − p)k−r
.
Loi binomiale négative
Intuition : comment on a obtenu la formule
P(X = k) = k−1
r−1

pr
(1 − p)k−r
?
L'événement X = k est une réunion d'événements du type
Ac
Ac
A . . . A Ac
. . . Ac
Ac
| {z }
k−1 fois
A
La dernière doit être un succès. Si on sait que ce dernier succès arrive
à l'épreuve k, on a eu r − 1 succès dans les k − 1 épreuves précédentes.
Les épreuves étant indépendantes, la probabilité d'obtenir r succès et
k − r échecs est le produit pr
(1 − p)k−r
.
Puisque il y a
k−1
r−1

de choisir r − 1 succès en k − 1 épreuves
P(X = k) = k−1
r−1

pr
(1 − p)k−r
.
Loi binomiale négative
Par exemple dans le cas des enfants si r = 3 et k = 7. Si la 3ème lle
arrive au 7ème enfant qui nait, ça veut dire qu'on a eu 4 garçons et 2
lles parmi les 6 enfants précédents. Par exemple on aurait pu avoir
G F G G G F
| {z }
6 fois
F ou F F G G G G
| {z }
6 fois
F
Il y a C2
6 = 6
2

= 15 façon de choisir ce type de succession de 2 lles
et 4 garçons. On a donc P(X = 7) = 6
2
 1
2
3
· 1
2
7−3
≈ 0.117
X =

3 4 5 6 7 . . .
0.125 0.187 0.187 0.156 0.117 . . .

Exo : Calculer la probabilité d'avoir plus de 6 enfants. P(X ≥ 6) =
1 − P(X  6) = 1 − P(X ≤ 5) = 1 − (0.125 + 0.187 + 0.187) = 0.5
Loi binomiale négative - Espérance et variance
On remarque que si X ∼ BN(r, p), X peut être récrite comme une
somme de r v.a. indépendantes avec loi géométrique, c.a.d.
X = X1 + X2 + · · · + Xr
avec Xi ∼ G(p) pour i = 1, . . . , r. On a donc
E(X) = E(X1 + X2 + · · · + Xr) = r 1
p
V (X) = V (X1 + X2 + · · · + Xr) = r1−p
p2
Attention ! La variance d'une somme de v.a. est égale à la somme
des variances si les v.a. sont indépendantes. Sinon le résultat est faux.
1 Ensembles, expérience aléatoire, notion de probabilité,
combinatoire
2 Probabilité conditionnelle et théorème de Bayes
3 Variable aléatoire et loi de probabilité
4 Variable aléatoire discrète
Espérance et variance d'une v.a. discrète
5 Variable aléatoire continue
Espérance et variance d'une v.a. continue
6 Lois usuelles
Lois usuelles discrètes
Lois usuelles continues
Lois usuelles continues
Certaines variables aléatoires continues suivent des lois standard. Ou
verra les lois suivantes
1 Loi uniforme
2 Loi exponentielle
3 Loi normale
Pour chaque loi on étudiera
1 La fonction de densité.
2 L'espérance et la variance.
3 La fonction de répartition.
Loi uniforme
Une v.a. continue X suit une loi uniforme sur un intervalle borné
[a, b], noté X ∼ U([a, b]), si sa fonction de densité est de la forme
fX(x) =
(
1
b−a si x ∈ [a, b]
0 sinon
f(x)
x
1
b−a
a b
Il est facile de voir que fX(x) est bien une fonction de densité.
Eectivement
fX(x) ≥ 0 pour tout x ∈ R.
R ∞
−∞
fX(x)dx =
R b
a
1
b−a dx = (b − a) 1
b−a = 1.
F.r. d'une v.a. uniforme
Fonction de répartition de X ∼ U([a, b]). Par dénition
FX(t) = P(X ≤ t) =
R t
−∞
fX(x)dx
- Pour t ≤ a, on a FX(t) =
R t
−∞
fX(x)dx =
R t
−∞
0dx = 0.
- Pour t ∈]a, b], on a
FX(t) =
Z a
−∞
fX(x)dx +
Z t
a
fX(x)dx = 0 +
Z t
a
1
b − a
dx =
t − a
b − a
- Pour t  b, on a
FX(t) =
Z a
−∞
0dx +
Z b
a
1
b − a
dx +
Z t
b
0dx = 0 + 1 + 0 = 1
F.r. d'une v.a. uniforme
Fonction de répartition de X ∼ U([a, b]). On a donc
FX(t) =





0 si t ≤ a
t−a
b−a si t ∈]a, b]
1 si t  b
1
F(t)
t
a b
Loi uniforme [0, 1]
Un cas particulier important est le cas où X a une distribution
uniforme avec a = 0 et b = 1. Dans ce cas on note X ∼ U([0, 1]).
fX(x) =
(
1 si x ∈ [0, 1]
0 sinon
et F(t) =





0 si t ≤ 0
t si t ∈]0, 1]
1 si t  1
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf
stat2-slides-2020.pdf

Contenu connexe

Similaire à stat2-slides-2020.pdf

Nbr complexes
Nbr complexesNbr complexes
Nbr complexesbades12
 
1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf
1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf
1ère S Ex. sur équ. et inéqu. trigo. _1_.pdfboubacar11
 
CAPES maths 2019 composition 1 (option informatique)
CAPES maths 2019 composition 1 (option informatique)CAPES maths 2019 composition 1 (option informatique)
CAPES maths 2019 composition 1 (option informatique)Dany-Jack Mercier
 
Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017
Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017
Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017Ahmed Ammar Rebai PhD
 
Maths projet redoublants Reims
Maths projet redoublants ReimsMaths projet redoublants Reims
Maths projet redoublants ReimsStéphane KLEIN
 
CAPES maths 2019 composition 2
CAPES maths 2019 composition 2CAPES maths 2019 composition 2
CAPES maths 2019 composition 2Dany-Jack Mercier
 
Ordinaux, cardinaux, systèmes ordonnés et théorie des ensembles
Ordinaux, cardinaux, systèmes ordonnés et théorie des ensemblesOrdinaux, cardinaux, systèmes ordonnés et théorie des ensembles
Ordinaux, cardinaux, systèmes ordonnés et théorie des ensemblesIsomorphisme
 
DS6-CB-sujet (1).pdf
DS6-CB-sujet (1).pdfDS6-CB-sujet (1).pdf
DS6-CB-sujet (1).pdfhajar517389
 
Realatios trégonométriques
Realatios trégonométriquesRealatios trégonométriques
Realatios trégonométriquesMouhssine Toni
 

Similaire à stat2-slides-2020.pdf (20)

Nbr complexes
Nbr complexesNbr complexes
Nbr complexes
 
Prob stat
Prob statProb stat
Prob stat
 
Polycopié-algèbre
Polycopié-algèbrePolycopié-algèbre
Polycopié-algèbre
 
Espace
EspaceEspace
Espace
 
1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf
1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf
1ère S Ex. sur équ. et inéqu. trigo. _1_.pdf
 
Exercice arithmétiques
Exercice arithmétiquesExercice arithmétiques
Exercice arithmétiques
 
CAPES maths 2019 composition 1 (option informatique)
CAPES maths 2019 composition 1 (option informatique)CAPES maths 2019 composition 1 (option informatique)
CAPES maths 2019 composition 1 (option informatique)
 
Baccaleaureat
BaccaleaureatBaccaleaureat
Baccaleaureat
 
Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017
Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017
Epreuve de mathématiques informatique (modélisation) Agro/Véto BCPST 2017
 
Maths projet redoublants Reims
Maths projet redoublants ReimsMaths projet redoublants Reims
Maths projet redoublants Reims
 
cours polynome.pdf
cours polynome.pdfcours polynome.pdf
cours polynome.pdf
 
CAPES maths 2019 composition 2
CAPES maths 2019 composition 2CAPES maths 2019 composition 2
CAPES maths 2019 composition 2
 
Exercice espace
Exercice espaceExercice espace
Exercice espace
 
Lmfi1
Lmfi1Lmfi1
Lmfi1
 
Ordinaux, cardinaux, systèmes ordonnés et théorie des ensembles
Ordinaux, cardinaux, systèmes ordonnés et théorie des ensemblesOrdinaux, cardinaux, systèmes ordonnés et théorie des ensembles
Ordinaux, cardinaux, systèmes ordonnés et théorie des ensembles
 
02 correction-td smi-s3-algo2
02 correction-td smi-s3-algo202 correction-td smi-s3-algo2
02 correction-td smi-s3-algo2
 
DS6-CB-sujet (1).pdf
DS6-CB-sujet (1).pdfDS6-CB-sujet (1).pdf
DS6-CB-sujet (1).pdf
 
CEB 6eme
CEB 6emeCEB 6eme
CEB 6eme
 
Cb08
Cb08Cb08
Cb08
 
Realatios trégonométriques
Realatios trégonométriquesRealatios trégonométriques
Realatios trégonométriques
 

stat2-slides-2020.pdf

  • 2. Références bibliographique 1 J.-P. Lecoutre, Statistique et probabilités, Dunod. 2 J.-P. Lecoutre, TD Statistique et probabilités, Dunod. 3 M. Lethielleux et C. Chevalier, Probabilités, estimation statistique, Dunod. 4 M. Lethielleux et C. Chevalier, Exercices de statistique et probabilités, Dunod.
  • 3. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 4. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 5. Introduction Théorie des probabilités : science mathématique qui étudie les lois qui régissent les expériences aléatoires. Expérience aléatoire : phénomène dont on connait tous les résultats possibles mais dont on ignore l'issue. Ex. Tirage d'un dé : résultats possibles {1, 2, . . . , 6} Ex. Une urne contient 3 boules numérotées de 1 à 3. On tire successivement et sans remise deux boules. Quels sont les résultats possibles ? {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}.
  • 6. Ensembles Opérations sur les ensembles. Parfois on s'intéresse à des événements particuliers de notre expérience aléatoire. Ex. On jette un dé et on s'intéresse à on obtient un nombre pair. On doit étudier le sous-ensemble {2, 4, 6} ⊂ {1, 2, . . . , 6}.
  • 7. Opérations sur les ensembles Soit Ω un ensemble, A, B et C de sous-ensembles de Ω. On note ∅ l'ensemble vide. Inclusion et égalité A est inclus dans B si et seulement si (ssi) tout élément de A est aussi dans B. A ⊂ B ⇔ ω ∈ A ⇒ w ∈ B. (Égalité) A = B ⇔ A ⊂ B etB ⊂ A (Inclusion stricte) A ( B ⇔ A ⊂ B et A 6= B.
  • 8. Opérations sur les ensembles Soit Ω un ensemble, A, B et C de sous-ensembles de Ω. On note ∅ l'ensemble vide. Inclusion et égalité A est inclus dans B si et seulement si (ssi) tout élément de A est aussi dans B. A ⊂ B ⇔ ω ∈ A ⇒ w ∈ B. (Égalité) A = B ⇔ A ⊂ B etB ⊂ A (Inclusion stricte) A ( B ⇔ A ⊂ B et A 6= B. Union et intersection L'union de A et B est l'ensemble qui regroupe les éléments qui appartiennent à A ou à B ω ∈ A ∪ B ⇔ {ω ∈ A ou ω ∈ B}. L'intersection de A et B est l'ensemble qui regroupe les éléments qui appartiennent à A et à B ω ∈ A ∩ B ⇔ {ω ∈ A et ω ∈ B}.
  • 9. Opérations sur les ensembles Ensembles disjoints et partition A et B sont disjoints ssi A ∩ B = ∅ Une famille (Ai)i∈I de sous-esembles de Ω est une partition de Ω ssi ∪i∈IAi = Ω et Ai ∩ Aj = ∅ ∀i 6= j. Complémentaire Le complémentaire de A dans Ω, noté Ac , est l'ensemble de tous les ω ∈ Ω qui n'appartiennent pas à A ω ∈ Ac ⇔ ω 6∈ A.
  • 10. Opérations sur les ensembles Diérence La diérence de A et B, notée A B est l'ensemble des éléments de A qui n'appartiennent pas à B A B = {ω ∈ A : ω 6∈ B} La diérence symétrique de A et B, notée A 4 B est l'ensemble des éléments qui appartiennent soit à A, soit à B, mais pas aux deux à la fois. A 4 B = (A B) ∪ (B A) Propriétés (Ac )c = A A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). (A ∪ B)c = Ac ∩ Bc et (A ∩ B)c = Ac ∪ Bc .
  • 11. Combinatoire et dénombrement Souvent on veut savoir le nombre d'éléments dans un certain ensemble ni Ω, c.a.d. le cardinal de Ω, noté Card(Ω). Ex. Une urne contient 90 boules numérotées de 1 à 90. On tire 6 boules simultanément. On gagne un prix si on devine les 6 boules tirées. Combien de tirages possibles ?
  • 12. Combinatoire et dénombrement Souvent on veut savoir le nombre d'éléments dans un certain ensemble ni Ω, c.a.d. le cardinal de Ω, noté Card(Ω). Ex. Une urne contient 90 boules numérotées de 1 à 90. On tire 6 boules simultanément. On gagne un prix si on devine les 6 boules tirées. Combien de tirages possibles ? Modèle de base : on tire k fois dans une urne contenant n éléments Cas A : sans remise (I) sans remise en tenant compte de l'ordre du tirage (II) sans remise sans tenir compte de l'ordre du tirage Cas B : avec remise (III) avec remise en tenant compte de l'ordre du tirage (IV) avec remise sans tenir compte de l'ordre du tirage On note n! = n · (n − 1) · (n − 2) · · · · · 1. Par convention 0! = 1. On note n k = n! k!(n−k)!
  • 13. Principes de comptage - Addition Principe d'addition. Soit deux ensembles A et B contenant respectivement m et n éléments et tels que A ∩ B = ∅. Alors l'ensemble A ∪ B contient m + n éléments. De façon générale : si A1, A2, . . . , An est une partition de Ω alors Card(Ω) = Card(A1) + Card(A2) + · · · + Card(An). Exemple. J'ai une bibliothèque avec 10 livres en anglais et 4 livres en français (et il n'y a pas d'autres livres). Combien de façons de choisir un livre ? Ω= {librairie} A1 ={livres en anglais} A2 ={livres en français} Card(Ω) = Card(A1) + Card(A2) = 10 + 4, j'ai donc 14 façons de choisir.
  • 14. Principes de comptage - Multiplication Principe de multiplication. Soit deux ensembles A et B contenant respectivement m et n éléments. Alors le produit cartésien A × B contient m · n éléments. (Rappel : A × B = {(a, b)|a ∈ A, b ∈ B}) Cela peut se généraliser. Card(A1 × · · · × An) = Card(A1) · Card(A2)·. . .·Card(An). Idée : si je peux diviser une tâche dans r sous-tâches avec m1 façons de faire la 1-ère sous-tâche, m2 façons de faire la 2-ème sous-tâche (qui ne dépendent pas de ce que j'ai fait dans la partie 1) . . .mr façons de faire la r-ième sous-tâche (qui ne dépendent pas de ce que j'ai fait avant), alors il y a m1 · m2. . .·mr façons de compléter la tâche.
  • 15. Principes de comptage - Multiplication Exemple. J'ai 5 t-shirts, 2 pantalons et 3 chaussures. Combien de façons de m'habiller ? A ={t-shirts}, B={pantalons}, C ={chaussures}. A × B × C = {(a, b, c)|a ∈ A, b ∈ B, c ∈ C}. S'habiller signie choisir un élément dans A × B × C. Combien d'éléments dans cet ensemble ? Card(A × B × C) = Card(A) · Card(B) · Card(C) = 5 · 2 · 3 = 30.
  • 16. Cas A : On tire k fois dans une urne contenant n objets sans remise (I)Arrangement. On tire k fois dans une urne contenant n objets sans remise en tenant compte de l'ordre du tirage. Le nombre total d'arrangements de k éléments parmi n. Soit E un ensemble avec n objets. On choisit k objets de E successivement (donc l'ordre est important) sans répétition (remise). Soit x1, x2, . . . , xk la suite ordonnée de k éléments de E que l'on obtient. Il y a n façons de choisir x1, une fois ce choix fait, il y a n − 1 façons de choisir x2, ensuite n−2 façons de choisir x3,..., on s'arrête au kième élément. Donc, au total, le nombre total d'arrangements de k éléments parmi n est n · (n − 1) · (n − 2) · ... · (n − (k − 1)) = n! (n−k)! et donc Ak n = n! (n − k)!
  • 17. Cas A : On tire k fois dans une urne contenant n objets sans remise Cas particulier de (I) très utilisé. Permutation. Une permutation est un arrangement de n éléments parmi n. Le nombre total de permutation de n éléments est An n = n! (n − n)! = n! (II) Combinaison. On tire k objets dans une urne contenant n objets sans remise sans tenir en compte de l'ordre du tirage. Le nombre de combinaisons de k objets parmi n est Ck n = n k = n! k!(n − k)! = Ak n k! . Pour trouver Ck n on prend Ak n et on le divise par le nombre de toutes les permutation possibles de k objets.
  • 18. Cas B : On tire k fois dans une urne contenant n objets avec remise (III) Permutation avec remise. On tire k objets dans une urne contenant n objets avec remise en tenant compte de l'ordre du tirage. Il y a n façons de choisir le premier objet, n de choisir le 2ième....etc donc le nombre total est Pk n = n · n · ... · n | {z } k = nk (IV) Combinaison avec remise. On tire k objets dans une urne contenant n objets avec remise sans tenir en compte de l'ordre du tirage. Le nombre de combinaisons avec remise de k objets parmi n est n − 1 + k k = (n − 1 + k)! k!(n − 1)!
  • 19. Cas V - Urne avec objets que l'on ne peut pas distinguer Permutation de n objets, dont r seulement sont distincts On tire n fois sans remise dans une urne contenant n boules de r couleurs diérentes, le nombre de boules de couleur i étant ni, avec n1 + n2 + · · · + nr = n. Nombre de tirages possible si l'on tient compte de l'ordre du tirage mais on ne distingue pas parmi les boules de la même couleur. Exemple. Urne = {r1, r2, r3, b1, b2, v1} On pourrait tirer (r3, r1, v1, b2, r2, b1) ou (r2, r3, v1, b1, r1, b2). Puisque on ne distingue pas parmi les boules de la même couleur, les deux tirage sont identiques : (r, r, v, b, r, b)
  • 20. Cas V - Urne avec objets que l'on ne peut pas distinguer Nombre de tirages possible si l'on tient compte de l'ordre du tirage mais on ne distingue pas parmi les boules de la même couleur : n! n1! · n2! · ... · nr! Exemple. Dans l'exemple dessus on aura donc 6! 3!·2!·1! . Avec deux couleurs seulement : n1 = k et donc forcement n2 = n − k n k = n! k!(n − k)! Le cas (II) est un cas particulier du cas (V).
  • 21. Exemples - Trouver le cardinal dans les expériences suivantes Ex 1 Combien de mots de 3 lettres peut-on composer avec un alphabet de 26 lettres ? C'est une permutation avec remise, n = 26, k = 3. P3 26 = 263 = 17576. Ex 2 Combien de façons d'aligner 5 personnes ? C'est un arrangement 5 éléments parmi 5, c.a.d. une permutation A5 5 = 5! = 5 · 4 · 3 · 2 · 1 = 120 Ex 3 On choisit simultanément (donc sans tenir compte de l'ordre) 3 élèves dans une classe de 30 personnes ? C'est une combinaison C3 30 = 30 3 = 30! 3!(30−3)! = 4060 Ex 4 Combien de façons de tirer successivement (donc l'ordre compte) et sans remise 2 boules d'une urne qui contient n boules numérotées de 1 à n ? C'est un arrangement 2 éléments parmi n. Donc A2 n = n! (n−2)! = n(n − 1)
  • 22. Expérience aléatoire On appelle Ensemble fondamental, noté Ω, l'ensemble de tous les résultats possibles d'une expérience aléatoire. (Ex. On lance un dé Ω = {1, 2, 3, 4, 5, 6}). Événement : un sous-ensemble de Ω. (Ex. Considérons l'événement On obtient un nombre pair E = {2, 4, 6}). Événement élémentaire : un sous-ensemble de Ω qui contient un seul élément {ω}. (Ex. {4}) ∅ est l'événement impossible.
  • 23. Expérience aléatoire On appelle Ensemble fondamental, noté Ω, l'ensemble de tous les résultats possibles d'une expérience aléatoire. (Ex. On lance un dé Ω = {1, 2, 3, 4, 5, 6}). Événement : un sous-ensemble de Ω. (Ex. Considérons l'événement On obtient un nombre pair E = {2, 4, 6}). Événement élémentaire : un sous-ensemble de Ω qui contient un seul élément {ω}. (Ex. {4}) ∅ est l'événement impossible. Exemple. Une urne contient 3 boules numérotées de 1 à 3. On tire successivement et sans remise deux boules. Soit A l'événement la première boule tirée est 2 et B l'événement la somme des boules tirées est impaire. On a Ω ={(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)} A ={(2, 1); (2, 3)} B ={(1, 2); (2, 1); (2, 3); (3, 2)}
  • 24. Événements Ensembles et événements sont liés Ensemble Événement On observe ω ∈ A L'événement A est réalisé ∅ Événement impossible Ω Événement certain A = B Les événements A et B sont identiques A ⊂ B A implique B A ∪ B Au moins un des deux événements est réalisé A ∩ B Les deux événements sont réalisés Ac A n'est pas réalisé
  • 25. Exemple - Modélisation avec les ensembles Trois messages sont transmis par radio. La transmission peut être correcte ou perturbée. On considère les 3 événements : Ai :=le ième message est transmis correctement, i = 1, 2, 3. Exprimer les événements suivants à l'aide de Ai, Ac i et ∩, ∪. A :=tous les messages sont transmis correctement B :=au moins un message est perturbé C :=les trois messages sont perturbés D :=pas plus d'un message n'est transmis correctement
  • 26. Exemple - Modélisation avec les ensembles On note 1=correcte, et 0=perturbée. On décrit l'ensemble fondamental Ω. Ω = {(1, 1, 1), (1, 1, 0), (1, 0, 1), (1, 0, 0), (0, 1, 1), (0, 1, 0), (0, 0, 1), (0, 0, 0)}. On voit que Card(Ω) = 8. Eectivement c'est une permutation avec remise : |{z} 2 |{z} 2 |{z} 2 . Donc Card(Ω) = 23 = 8. On remarque aussi : A1 = {(1, 1, 1), (1, 1, 0), (1, 0, 1), (1, 0, 0)} A2 = {(1, 1, 1), (1, 1, 0), (0, 1, 1), (0, 1, 0)} A3 = . . . A1 ∩ A2 = {(1, 1, 1), (1, 1, 0)} A1 ∪ A2 = {(1, 1, 1), (1, 1, 0), (1, 0, 1), (1, 0, 0), (0, 1, 1), (0, 1, 0)}
  • 27. Solution - Modélisation avec les ensembles A :=tous les messages sont transmis correctement Sol : A = A1 ∩ A2 ∩ A3 = {(1, 1, 1)} B :=au moins un message est perturbé Sol : B = Ac = (A1 ∩ A2 ∩ A3)c = Ac 1 ∪ Ac 2 ∪ Ac 3 C :=les trois messages sont perturbés Sol : C = Ac 1 ∩ Ac 2 ∩ Ac 3 D :=pas plus d'un message n'est transmis correctement Sol : D = (A1 ∩ (Ac 2 ∩ Ac 3)) ∪ (A2 ∩ (Ac 1 ∩ Ac 3)) ∪ (A3 ∩ (Ac 1 ∩ Ac 2)) ∪ C = (Ac 2 ∩ Ac 3) ∪ (Ac 1 ∩ Ac 3) ∪ (Ac 1 ∩ Ac 2) = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (0, 0, 0)}
  • 28. Tribu (ou σ-algèbre) On note P(Ω) la collection de tous les sous-ensembles de Ω. Dénition (Tribu) Soit A un sous ensemble de P(Ω). A est une tribu (σ-algèbre) sur Ω ssi 1 Ω ∈ A 2 Si A ∈ A alors Ac ∈ A 3 Si (An)n≥1 est une famille d'éléments de A alors ∪n≥1An ∈ A. Remarque : - La première et la deuxième condition impliquent que ∅ ∈ A. - La deuxième et troisième condition impliquent que si (An)n≥1 est une famille d'éléments de A alors ∩n≥1An ∈ A. On appelle espace mesurable tout couple (Ω, A) où Ω est une ensemble et A une tribu sur Ω.
  • 29. Exemple Prenons Ω = {a, b, c}. P(Ω) = {∅; {a, b, c}; {a}; {b}; {c}; {a, b}; {a, c}; {b, c}} Considérons la famille de sous ensembles A A = {∅; {a, b, c}; {b}; {a, c}} Puisque les 3 propriétés d'une tribu sont respectées, A est une tribu.
  • 30. Tribu (ou σ-algèbre) Dénition Soit C0 une collection d'ensembles de Ω. On appelle tribu engendrée par C0 la plus petite tribu C contenant C0. On note C = σ(C0). σ(C0) est l'intersection des tribus sur Ω contenant C0.
  • 31. Tribu (ou σ-algèbre) Dénition Soit C0 une collection d'ensembles de Ω. On appelle tribu engendrée par C0 la plus petite tribu C contenant C0. On note C = σ(C0). σ(C0) est l'intersection des tribus sur Ω contenant C0. Exemple. Tribu grossière {∅, Ω}, la plus petite tribu sur Ω. Tribu discrète P(Ω). On utilise cette tribu quand Ω est un ensemble ni ou inni dénombrable. A ⊂ Ω, alors C = {∅, Ω, A, Ac } est une tribu. C est la tribu engendrée par A. Pour Ω = R, la tribu engendrée par les intervalles ouverts de R est appelée tribu borélienne de R et elle est notée B.
  • 32. Mesure de probabilité A chaque événement A ∈ A on va associer la quantité P(A) ∈ [0, 1] qui représente les chances de réalisation de A. La probabilité doit cependant vérier quelques conditions. Dénition Une mesure de probabilité sur un espace mesurable (Ω, A) est une application P : A → [0, 1] t.q. 1 P(Ω) = 1 2 P est σ-additive, i.e. pour tout suite (An)n≥1 d'éléments de A deux à deux disjoints P(∪n≥1An) = P n≥1 P(An). Dénition On appelle espace probabilisé tout triplet (Ω, A, P) où Ω est un ensemble, A une tribu sur Ω et P une mesure de probabilité sur (Ω, A).
  • 33. Propriétés Proposition Soient A, B ∈ A 1) P(A) ∈ [0, 1] 2) Si A ∩ B = ∅ alors P(A ∪ B) = P(A) + P(B) 3) P(∅) = 0 4) P(Ac ) = 1 − P(A) 5) Si A ⊂ B alors P(A) ≤ P(B) 6) P(A ∪ B) = P(A) + P(B) − P(A ∩ B) 7) P(∪i≥1Ai) ≤ P i≥1 P(Ai) 8) Si (Ai)i vérie Ai ⊂ Ai+1 et ∪iAi = Ω (on notera Ai ↑ Ω) alors, limi P(Ai) = 1 9) Si (Ai)i vérie Ai ⊃ Ai+1 et ∩iAi = ∅ (on notera Ai ↓ Ω) alors, limi P(Ai) = 0
  • 34. Démonstration 1) Par dénition. 2) Ça découle de la deuxième propriété de la dénition d'une proba. 3) Ω ∪ ∅ = Ω et Ω ∩ ∅ = ∅. On a 1 = P(Ω) = P(Ω ∪ ∅) = P(Ω) + P(∅) = 1 + P(∅), donc 1 = 1 + P(∅) et P(∅) = 0. 4) A ∪ Ac = Ω et A ∩ Ac = ∅ , donc 1 = P(Ω) = P(Ac ∪ A) = P(Ac ) + P(A) d'où le résultat. 5) B = A ∪ (B ∩ Ac ). P(B) = P(A) + P(B ∩ Ac ) ≥ P(A) 6) A = (A ∩ Bc ) ∪ (A ∩ B), B = (B ∩ Ac ) ∪ (A ∩ B) et A ∪ B = (A ∩ Bc ) ∪ (A ∩ B) ∪ (B ∩ Ac ). De plus c'est une réunion d'ensembles disjoints. P(A ∪ B) = P(A ∩ Bc ) + P(A ∩ B) + P(B ∩ Ac ), P(A) = P(A ∩ Bc ) + P(A ∩ B) et P(B) = P(B ∩ Ac ) + P(A ∩ B). Donc en faisant les substitutions P(A ∪ B) = [P(A) − P(A ∩ B)] + P(A ∩ B) + [P(B) − P(A ∩ B)]
  • 35. Démonstration (cont) 7) A partir de la suite d'ensembles (Ai)i on construit une suite (Bi)i dénie par B1 = A1, Bn+1 = An+1 ∪n j=1Aj . On a donc ∪i≥1Ai = ∪i≥1Bi et les éléments de (Bi)i sont deux à deux disjoints. Donc P(∪i≥1Ai) = P(∪i≥1Bi) = P i≥1 P(Bi). Comme pour tout i, Bi ⊂ Ai, P i≥1 P(Bi) ≤ P i≥1 P(Ai) et donc P(∪i≥1Ai) ≤ P i≥1 P(Ai). 8) Considérons les Bi comme dans 7). Alors, P(Ai) = P(∪i j=1Bj) . Donc limi P(Ai) = limi Pi j=1 P(Bi) = P i≥1 P(Bi). De plus Ω = ∪i≥1Ai = ∪i≥1Bi, d'où 1 = P i≥1 P(Bi) = limi P(Ai). 9) Découle de 8) par passage au complémentaire.
  • 36. Probabilité uniforme Card(Ω) dénote le cardinal de l'ensemble Ω, i.e. le nombre d'éléments dans Ω. Dénition Si Card(Ω) est ni, on appelle probabilité uniforme sur (Ω, A) l'application P : A → [0, 1] telle que pour tout ω ∈ Ω P({ω}) = 1 Card(Ω) On dit que l'on est dans un cas d'équiprobabilité ssi Ω est de cardinal ni, A = P(Ω) (où P(Ω) est l'ensemble de tous les sous-ensembles de Ω) et P est la probabilité uniforme. Proposition Si l'on est dans un cas d'équiprobabilité alors ∀A ∈ P(Ω), P(A) = Card(A) Card(Ω)
  • 37. Probabilité uniforme - Exemple On lance un dé Ω = {1, 2, 3, 4, 5, 6}. Chaque nombre n'a pas plus de chances d'être obtenu qu'un autre. Il est donc naturel de munir (Ω, P(Ω)) de la proba uniforme. On choisit ainsi P la mesure de probabilité suivante : ∀ω ∈ Ω, P({ω}) = 1 Card(Ω) = 1 6 Considérons l'événement E =On obtient un nombre pair E = {2, 4, 6}. Avec P dénie ci-dessus on a P(E) = Card(E) Card(Ω) = 3 6 = 1 2
  • 38. Probabilité uniforme - Exercice Une urne U contient 15 boules : 10 boules sont rouges et 5 boules sont bleues. U = {r1, r2, . . . , r10, b1, . . . , b5}. On tire 4 boules de U sans remise et sans tenir en compte de l'ordre. Clairement on est dans le cas de équiprobabilité. On prend comme σ-algèbre A = P(Ω) et on considère la probabilité uniforme. Exo 1 Décrire Ω et calculer son cardinal. Ω = {{x1, x2, x3, x4}|xi ∈ U et xi 6= xj, i 6= j} Card(Ω) = C4 15 = 15 4 = 1365 Exo 2 Décrire l'événement B=les 4 boules tirées sont rouges et calculer sa probabilité. B = {{x1, x2, x3, x4}|xi ∈ {r1, . . . , r10} et xi 6= xj, i 6= j} Card(B) = C4 10 = 10 4 = 210. P(B) = Card(B) Card(Ω) = 210 1365 ' 0.15
  • 39. Probabilité uniforme - Exercice Exo 3 Décrire l'événement C=2 boules rouges et 2 bleues et calculer sa probabilité. C = {{x1, x2, x3, x4}|x1, x2 ∈ {r1, . . . , r10} et x3, x4 ∈ {b1, . . . , b5}} On a C2 10 = 10 2 = 45 façons de tirer 2 boules rouges sur 10 boules rouges. On a C2 5 = 5 2 = 10 façons de tirer 2 boules bleues sur 5 boules bleues. Card(C) = 10 2 · 5 2 = 450 et P(C) = Card(C) Card(Ω) = 450 1365 Exo 4 Décrire l'événement D=on tire exactement 3 boules rouges et calculer sa probabilité. D = {{x1, x2, x3, x4}|x1, x2, x3 ∈ {r1, . . . , r10} et x4 ∈ {b1, . . . , b5}} On a C3 10 = 10 3 = 120 façons de tirer 3 boules rouges sur 10 boules rouges. On a C1 5 = 5 1 = 5 façons de tirer 1 boules bleues sur 5 boules bleues. Card(D) = 10 3 · 5 1 = 600 et P(D) = Card(D) Card(Ω) = 600 1365
  • 40. Probabilité uniforme - Exercice Exo 5 Décrire l'événement E=au moins 3 boules rouges et calculer sa probabilité. E = E1 ∪ E2. E1=4 boules rouges, E2=exactement 3 rouges. On a E1 ∩ E2 = ∅ et aussi E = E1 ∪ E2 donc Card(E) = Card(E1) + Card(E2) = 210 + 600 = 810 (d'après Exo 2 et Exo 4) P(E) = Card(E) Card(Ω) = 810 1365 Exo 6 Décrire l'événement F=au moins une rouge et calculer sa probabilité. F = F1 ∪ F2 ∪ F3 ∪ F4 où F1=exactement une rouge, F2=exactement 2 rouges . . .etc. De plus Fi ∩ Fj = ∅. Card(F1) = 10 1 · 5 3 = 10 · 10 = 100. Card(F2) = Card(C) . . . Card(F) = Card(F1) + Card(F2) + Card(F3) + Card(F4) = 1360 Autre façon de raisonner : Fc =Pas de boules rouges=4 boules bleues. Card(Fc ) = C4 5 = 5 4 = 5. Ω = F ∪ Fc et F ∩ Fc = ∅. Donc Card(Ω) = Card(F) + Card(Fc ) et Card(F) = Card(Ω) − Card(Fc ) = 1365 − 5 = 1360.
  • 41. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 42. Probabilité conditionnelle Considérons l'espace de probabilité (Ω, A, P) et supposons qu'on sache que l'événement B est réalisé. Est-ce que cette information change la probabilité P des autres événements ? Exemple On lance un dé. Soit A l'événement A =Obtenir 2. On sait P(A) = 1 6 . Imaginons maintenant de savoir que l'événement B =nombre pair est réalisé. La probabilité de A sera maintenant 1 3 . La probabilité de C =Obtenir 3 sera 0.
  • 43. Probabilité conditionnelle Considérons l'espace de probabilité (Ω, A, P) et supposons qu'on sache que l'événement B est réalisé. Est-ce que cette information change la probabilité P des autres événements ? Exemple On lance un dé. Soit A l'événement A =Obtenir 2. On sait P(A) = 1 6 . Imaginons maintenant de savoir que l'événement B =nombre pair est réalisé. La probabilité de A sera maintenant 1 3 . La probabilité de C =Obtenir 3 sera 0. Est-ce que cette information change la probabilité P des autres événements ? OUI !
  • 44. Probabilité conditionnelle Dénition (Probabilité conditionnelle) Étant donné B ∈ A tel que P(B) 0. On appelle probabilité conditionnelle de A sachant B, la quantité P(A|B) = P(A ∩ B) P(B) Proposition L'application P(·|B) : A → [0, 1] A → P(A|B) est une mesure de probabilité sur (Ω, A).
  • 45. Proposition L'application P(·|B) : A → R A → P(A|B) est une mesure de probabilité sur (Ω, A). Démonstration. On doit montrer les propriétés qu'une mesure de probabilité doit satisfaire. 1 Montrons d'abord que P(A|B) ∈ [0, 1] pour tout A ∈ A. Soit A ∈ A, on a P(A|B) ≥ 0 car c'est un rapport entre deux réels positifs. Puisque A ∩ B ⊂ B on aura P(A ∩ B) ≤ P(B), ce qui implique P(A|B) = P (A∩B) P (B) ≤ 1. 2 P(Ω|B) = P (Ω∩B) P (B) = P (B) P (B) = 1. 3 σ-additivité. Soit (An)n≥1 une suite d'éléments de A deux à deux disjoints. P(∪n≥1An|B) = P ((∪n≥1An)∩B) P (B) = P (∪n≥1(An∩B)) P (B) = P n≥1 P (An∩B) P (B) = P n≥1 P (An∩B) P (B) = P n≥1 P(An|B).
  • 46. Exemple Une urne contient 3 boules numérotées de 1 à 3. On tire deux boules successivement et sans remise. Nous modélisons cette expérience aléatoire par (Ω, P(Ω), P) où P est la probabilité uniforme sur Ω. On a Ω = {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}. Soit A l'événement A =la première boule tirée est 2= {(2, 1); (2, 3)}. Donc P(A) = Card(A) Card(Ω) = 2 6 = 1 3 . Supposons maintenant réalisé l'événement B =la seconde boule tirée est 2={(1, 2); (3, 2)}. P(A|B) = P (A∩B) P (B) = P (∅) P (B) = 0
  • 47. Formule des probabilités totales Si A, B ∈ A sont tels que P(A) 0 et P(B) 0 on a P(A|B) = P(A ∩ B) P(B) et P(B|A) = P(B ∩ A) P(A) Donc P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A) (1) Observons que B est la réunion des deux événement disjoints B = (B ∩ A) ∪ (B ∩ Ac ) donc P(B) = P(B ∩ A) + P(B ∩ Ac ) et utilisant (1) on a P(B) = P(B|A)P(A) | {z } P (B∩A) + P(B|Ac )P(Ac ) | {z } P (B∩Ac) On peut généraliser. . .
  • 48. Formule des probabilités totales On peut généraliser. Si A1, . . . , An forme une partition de Ω (c.a.d. Ai ∩ Aj = ∅, i 6= j et ∪n i=1Ai = Ω) alors pour tout B ∈ A B = B ∩ Ω = B ∩ (∪n i=1Ai) = ∪n i=1(Ai ∩ B). Formule des probabilités totales Soient A1, . . . , An, des éléments de A qui forment une partition de Ω et tels que P(Ai) 0 pour i = 1, . . . , n alors ∀B ∈ A, P(B) = P(B|A1)P(A1) + · · · + P(B|An)P(An). C'est une généralisation de ce que l'on a vu avant car {A, Ac } est une partition de Ω et B = (B ∩ A) ∪ (B ∩ Ac ).
  • 49. Exemple 1 On tire au sort (avec probabilité uniforme) entre 3 urnes U1, U2, U3 dont les compositions sont indiqués dans le tableau ci dessous Rouge Bleue Verte U1 3 4 1 8 U2 1 2 3 6 U3 4 3 2 9 8 9 6 Soit Ui=la boule est tirée de l'urne i Soit R =la boule tirée est rouge.
  • 50. Exemple 1 (cont.) U1, U2, U3 forment une partition de Ω parce que U1 ∪ U2 ∪ U3 = Ω car soit la boule est tirée de l'urne 1, soit de l'urne 2, soit de l'urne 3. Ui ∩ Uj = ∅, i 6= j. Ex. U1 ∩ U2 = ∅ car on ne peut pas tirer la boule simultanément de l'urne 1 et de l'urne 2. On réécrit R = R ∩ Ω = R ∩ (U1 ∪ U2 ∪ U3) = (R ∩ U1) ∪ (R ∩ U2) ∪ (R ∩ U3) et on obtient P(R) = P(R ∩ U1) +P(R ∩ U2) +P(R ∩ U3) = P(R|U1)P(U1) +P(R|U2)P(U2) +P(R|U3)P(U3) = 3 8 · 1 3 + 1 6 · 1 3 + 4 9 · 1 3 = 1 3 · 71 72
  • 51. Exemple 2 Exemple. Considérons un jeu de 52 cartes (ex. poker). On tire 2 cartes successivement (l'ordre compte) et sans remise. On est dans un cas d'équiprobabilité. On veut savoir quelle est la probabilité de l'événement B =la deuxième carte est un Roi.
  • 52. Exemple 2 (cont.) On veut savoir quelle est la probabilité de l'événement B =la deuxième carte est un Roi. On a deux façons de procéder : 1 On calcule le Card(Ω) = A2 52 = 52 ∗ 51 = 2652. On calcule le cardinal de B. B = {(x1, x2)|x1 6= x2, x1 ∈ {Rois}, x2 ∈ {Rois}} ∪ {(x1, x2)|x1 6= x2, x1 ∈ {Jeu moins Rois}, x2 ∈ {Rois}} Card(B) = 4 ∗ 3 + 48 ∗ 4 = 204. Donc P(B) = Card(B) Card(Ω) = 1 13 2 On utilise la formule des probabilités totales. Soit A =la première carte tirée est un Roi. Donc Ac =la première carte tirée n'est pas un Roi. P(B) = P(B|A)P(A) + P(B|Ac )P(Ac ) = 3 51 4 52 + 4 51 48 52 = 1 13
  • 53. Formule de Bayes Soient A1, . . . , An, des éléments de A qui forment une partition de Ω et tels que P(Ai) 0. Soit B ∈ A tel que P(B) 0. On a P(Ai|B) = P(Ai ∩ B) P(B) Utilisant le fait que P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A) et la formule des probabilités totales P(B) = Pn i=1 P(B|Ai)P(Ai) on obtient Formule de Bayes Soient A1, . . . , An, des éléments de A qui forment une partition de Ω et tels que P(Ai) 0 pour i = 1, . . . , n et B ∈ A tel que P(B) 0 alors pour tout i = 1, . . . , n P(Ai|B) = P(B|Ai)P(Ai) P(B) = P(B|Ai)P(Ai) Pn i=1 P(B|Ai)P(Ai) .
  • 54. Exemple On tire au sort (avec probabilité uniforme) entre 3 urnes U1, U2, U3 dont les compositions sont indiqués dans le tableau ci dessous Rouge Bleue Verte U1 3 4 1 8 U2 1 2 3 6 U3 4 3 2 9 8 9 6 Sachant que l'on a tiré une boule rouge, quelle est la probabilité qu'elle provienne de l'urne U2 ?
  • 55. Exemple - cont. On veut calculer P(U2|R). On utilise la formule de Bayes. P(U2|R) = P(R|U2)P(U2) P(R) On utilise la formule de la probabilité totale P(R) =P(R|U1)P(U1) +P(R|U2)P(U2) +P(R|U3)P(U3) = 3 8 · 1 3 + 1 6 · 1 3 + 4 9 · 1 3 = 1 3 · 71 72 Donc P(U2|R) = P(R|U2)P(U2) P(R) = 1/6 · 1/3 1/3 · 71/72 = 12 71 = 36 213 71 213 = 1 3 = P(U2)
  • 56. Exemple 2 On sait qu'à une date donnée, 3% d'une population est atteinte d'hépatite. Une personne est choisie au hasard de la population. On dispose de tests de dépistage de la maladie : Si la personne est malade, alors le test est positif avec une probabilité de 0.95. Si la personne est saine, alors le test est positif avec une probabilité de 0.10. Modélisation du problème : M=la personne est malade. Mc =la personne n'est pas malade. On a P(M) = 0.03, P(Mc ) = 1 − 0.03 = 0.97 Y =le test est positif P(Y |M) = 0.95, P(Y |Mc ) = 0.1,
  • 57. Exemple 2 - cont 1 Quelle est la probabilité pour une personne d'être malade si son test est positif ? P(M|Y ) = P(Y |M)P(M) P(Y ) = P(Y |M)P(M) P(Y |M)P(M) + P(Y |Mc)P(Mc) = 0.95 · 0.03 0.95 · 0.03 + 0.1 · 0.97 ' 0.227
  • 58. Exemple 2 - cont 1 Quelle est la probabilité pour une personne d'être saine si son test est positif ? P(Mc |Y ) = P(Y |Mc )P(Mc ) P(Y ) = P(Y |Mc )P(Mc ) P(Y |Mc)P(Mc) + P(Y |M)P(M) = 0.1 · 0.97 0.1 · 0.97 + 0.95 · 0.03 ' 0.773 On remarque P(Mc |Y ) = 1 − P(M|Y ), en eet 0.773 = 1 − 0.227. Attention ! ! P(M|Y c ) = 1 − P(M|Y ) est FAUX ! !
  • 59. Exemple 2 - cont 1 Quelle est la probabilité pour une personne d'être malade si son test est négatif ? P(M|Y c ) = P(Y c |M)P(M) P(Y c) = P(Y c |M)P(M) P(Y c|M)P(M) + P(Y c|Mc)P(Mc) = (1 − 0.95) · 0.03 (1 − 0.95) · 0.03 + (1 − 0.1) · 0.97 ' 0.0017 On remarque 0.0017 = P(M|Y c ) 6= 1 − P(M|Y ) = 1 − 0.227 = 0.773 1 Quelle est la probabilité pour une personne d'être saine si son test est négatif ? P(Mc |Y c ) = 1 − P(M|Y c ) = 1 − 0.0017 = 0.9983
  • 60. Indépendance en probabilité Dénition Deux événements A et B sont dits indépendants si P(A ∩ B) = P(A)P(B). A et B sont indépendants ssi connaître la réalisation d'un événement ne modie pas la probabilité de la réalisation de l'autre. Supposons P(B) 0, alors P(A|B) = P(A ∩ B) P(B) = P(A)P(B) P(B) = P(A). Donc P(A|B) = P(A) ⇔ P(A ∩ B) = P(A)P(B) et on a deux dénitions équivalentes d'indépendance en probabilité. Et bien sûr même chose pour P(B|A).
  • 61. Exemple Une urne contient 12 boules numérotées de 1 à 12. On en tire une hasard, et on considère les événements : A=tirage d'un nombre pair B=tirage d'un multiple de 3. Les événements A et B sont-ils indépendants ? Reprendre la question avec une urne contenant 13 boules.
  • 62. Exemple - cont. Rappel de la dénition : Deux événements A et B sont dits indépendants si P(A ∩ B) = P(A)P(B). Ω = {1, 2, 3, . . . , 12} A = {2, 4, . . . , 12} et P(A) = Card(A) Card(Ω) = 6 12 = 1 2 B = {3, 6, 9, 12} et P(B) = 4 12 = 1 3 A ∩ B = {6, 12} et P(A ∩ B) = 2 12 = 1 6 Puisque P(A)P(B) = 1 6 les événements A et B sont indépendants.
  • 63. Exemple - cont. Si Ω = {1, 2, 3, . . . , 12, 13} on a P(A) = 6 13 , P(B) = 4 13 , P(A ∩ B) = 2 13 Puisque P(A)P(B) = 24 169 6= P(A ∩ B) les événements A et B ne sont pas indépendants. C'est intuitif car P(A ∩ B) = P(A)P(B) ⇔ P(A|B) = P(A). Si on sait que B est réalisé, P(A|B) ne sera pas 6 13 mais 1 2 car le nombre d'éléments dans B n'a pas changé par rapport à la situation où il y avaient 12 boules dans l'urne.
  • 64. Événements indépendants et événements incompatibles Attention ! Il ne faut pas confondre deux événements indépendants avec deux événements incompatibles. Événements indépendants = événements qui n'ont pas d'inuence l'un sur l'autre. Événements incompatibles = événements qui ne peuvent pas se produire en même temps. La proposition qui suit est importante car elle permet d'éviter cette confusion. Proposition Soient A, B ∈ A tels que P(A) 0 et P(B) 0. Si A ∩ B = ∅ alors A et B ne sont pas indépendants.
  • 65. Indépendance mutuelle Dénition On dit que des événements A1, . . . , An, où n ≥ 2, sont mutuellement indépendants si pour toute partie J non vide de {1, 2, . . . , n} , on a : P (∩j∈J Aj) = Y j∈J P(Aj) Exemple. Les événements A1, A2, A3, A4, sont mutuellement indépendants ssi chaque fois que je prends une sous famille de A1, A2, A3, A4 la proba de l'intersection c'est le produit des probas. Donc P(A1 ∩ A3 ∩ A4) = P(A1)P(A3)P(A4) P(A2 ∩ A3 ∩ A4) = P(A2)P(A3)P(A4) P(A2 ∩ A4) = P(A2)P(A4) . . . Il y aura Pn k=2 n k conditions à vérier.
  • 66. Indépendance et probabilité choisie Attention ! La notion d'indépendance dépend directement de la probabilité considérée : deux événements peuvent être indépendants suivant une certaine probabilité et dépendants suivant une autre. Exemple. On lance deux fois de suite un dé équilibré. On est donc dans le cas d'équiprobabilité. Ω = {(i, j)|i = 1, . . . , 6 et j = 1, . . . , 6} A = P(Ω) ∀ω ∈ Ω, P(ω) = 1 Card(Ω) et donc ∀A ∈ A, P(A) = Card(A) Card(Ω) . Card(Ω) = 62 = 36 (c'est une permutation avec remise P2 6 ). Considérons les trois événements suivants : A =Obtenir une face paire sur le premier jet B =Obtenir une face impaire sur le second jet C =La somme des deux faces obtenues est paire.
  • 67. Indépendance et probabilité choisie A =Obtenir une face paire sur le premier jet A = {(i, j)|i = 2, 4, 6 et j = 1, . . . , 6}, Card(A) = 3 ∗ 6 = 18 donc P(A) = 18 36 = 1 2 . On vérie que dans A il y a eectivement 18 éléments : A = {(2, 1); (2, 2); (2, 3); (2, 4); (2, 5); (2, 6); (4, 1); (4, 2); (4, 3); (4, 4); (4, 5); (4, 6); (6, 1); (6, 2); (6, 3); (6, 4); (6, 5); (6, 6)} B =Obtenir une face impaire sur le second jet B = {(i, j)|i = 1, . . . , 6 et j = 1, 3, 5}, Card(B) = 6 ∗ 3 = 18 donc P(B) = 18 36 = 1 2 .
  • 68. Indépendance et probabilité choisie C =La somme des deux faces obtenues est paire Remarquons que pour avoir une somme paire soit on obtient 2 paires, soit 2 impaires. Les deux événements sont incompatibles. Donc C = C1 ∪ C2 où C1 = {(i, j)|i = 2, 4, 6, j = 2, 4, 6} C2 = {(i, j)|i = 1, 3, 5, j = 1, 3, 5} et C1 ∩ C2 = ∅. Card(C1) = 32 = 9, Card(C2) = 32 = 9 et Card(C) = Card(C1) + Card(C2) = 18 (principe d'addition). Donc P(C) = 18 36 = 1 2 .
  • 69. Indépendance et probabilité choisie A et B sont indépendants suivant P car A ∩ B = {(i, j)|i = 2, 4, 6 et j = 1, 3, 5} Donc Card(A ∩ B) = 32 = 9 et P(A ∩ B) = 9 36 = 1 4 = P(A)P(B). Considérons maintenant la probabilité conditionnelle P(·|C). On montrera que A et B ne sont pas indépendants suivant P(·|C). A ∩ C = {(i, j)|i = 2, 4, 6 et j = 2, 4, 6} = C1 B ∩ C = {(i, j)|i = 1, 3, 5 et j = 1, 3, 5} = C2 P(A ∩ C) = P(C1) = 9 36 = 1 4 ⇒ P(A|C) = P(A ∩ C) P(C) = 1/4 1/2 = 1 2 P(B ∩ C) = P(C2) = 9 36 = 1 4 ⇒ P(B|C) = P(B ∩ C) P(C) = 1/4 1/2 = 1 2 Aussi A ∩ B ∩ C = ∅ donc P(A ∩ B|C) = 0. Donc 0 = P(A ∩ B|C) 6= P(A|C)P(B|C) = 1 4
  • 70. Intersection et événements non indépendants En général, avec des événements pas forcement indépendants on a P(A ∩ B) = P(A|B)P(B) Prenons A1, A2, A3 on a P(A3 ∩ A2 ∩ A1) = P(A3 ∩ (A2 ∩ A1)) = P(A3|A2 ∩ A1)P(A2 ∩ A1) = P(A3|A2 ∩ A1)P(A2|A1)P(A1) Donc pour n ensembles, par induction P(An ∩ · · · ∩ A1) = P(A1) n Y k=2 P(Ak|Ak−1 ∩ · · · ∩ A1)
  • 71. Exemple Une urne U contient 15 boules : 10 boules sont rouges et 5 boules sont bleues. U = {r1, r2, . . . , r10, b1, . . . , b5}. On tire 4 boules de U sans remise et sans tenir en compte de l'ordre. Calculer la probabilité de B=les 4 boules tirées sont rouges. On a deux façons : 1 Card(Ω) = C4 15 = 15 4 = 1365, Card(B) = C4 10 = 10 4 = 210 et donc P(B) = Card(B) Card(Ω) = 210 1365 ' 0.15. 2 On dénit Ai=La ieme boule tirée est rouge. On a donc B = A1 ∩ A2 ∩ A3 ∩ A4 P(B) = P(A1 ∩ A2 ∩ A3 ∩ A4) = P(A1)P(A2|A1)P(A3|A2 ∩ A1)P(A4|A3 ∩ A2 ∩ A1) = 10 15 · 9 14 · 8 13 · 7 12 = 5040 32760 ' 0.15
  • 72. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 73. Variable aléatoire - introduction Soit (Ω, A, P) un espace probabilisé. Parfois on ne s'intéresse pas directement aux événements A ∈ A réalisés dans une expérience aléatoire. Par exemple parce que les événements pourraient ne pas être observables. Exemple. Kim Jong-un (dictateur de la Corée du Nord) le matin peut se réveiller soit de bonne humeur (BH), soit de mauvaise humeur (MH). Ω = {BH, MH}. Imaginons qu'on sache que la probabilité qu'il se réveille de bonne humeur est 0.2, P(BH) = 0.2 (donc P(MH) = 1 − P(BH) = 0.8). On ne peut pas observer si Kim s'est réveillé de bonne humeur ou pas. Ce que l'on peut observer c'est le nombre de missiles qu'il va lancer sur le Pacique : 20 missiles si de MH, 3 missiles si de BH. On s'intéresse à une fonction de Ω (= humeur de Kim) à R (= nombre de missiles).
  • 74. Variable aléatoire - introduction Soit X : Ω → R la fonction X(BH) = 3 et X(MH) = 20. Cette fonction est un exemple de variable aléatoire. On peut aussi remarquer que grâce à la fonction X et à la probabilité P on obtient une probabilité Q sur R. Q nous donne la probabilité d'observer un certain nombre de missiles. La probabilité d'observer 20 missiles sera donc Q(20) = 0.8. Aussi Q(3) = 0.2. Quelle est la probabilité d'observer 40 missiles ? Intuitivement Q(40) = 0. Comment trouver Q ? Idée Q(20) = P(ω ∈ Ω|X(ω) = 20) = P(MH). La probabilité Q dénie sur R grâce à X et à P, que l'on notera PX, est un exemple de loi de probabilité.
  • 75. Exemple 2 On tire une fois une pièce de monnaie. Ω = {Pile, Face}. On utilise la probabilité uniforme sur Ω : P(Pile) = 1 2 , P(Face) = 1 2 . On utilise P(Ω) = {∅, {Pile, Face}, {Pile}, {Face}} comme σ-algèbre. On considère maintenant l'application X : Ω → R dénie par X(Pile) = 1 et X(Face) = 0. C'est un autre exemple de variable aléatoire. Comme avant on obtient une probabilité sur R : PX(1) = P(ω ∈ Ω|X(ω) = 1) = P(Pile) = 1 2 . Et bien sur PX(0) = 1 2 . PX c'est une loi de probabilité. On veut calculer PX([−5, −3]), c.a.d. la probabilité que la variable aléatoire X soit dans l'intervalle [−5, −3]. PX([−5, −3]) = P(ω ∈ Ω|X(ω) ∈ [−5, −3]) = P(∅) = 0.
  • 76. Variable aléatoire réelle (v.a.) Soit (Ω, A, P) un espace probabilisé. On note P(R) l'ensemble de toutes les parties de R. Dénition (Variable aléatoire) Une variable aléatoire (v.a.) réelle est une application X : Ω → R vériant X−1 (E) ∈ A pour toute partie E ∈ P(R) où X−1 (E) = {ω ∈ Ω|X(ω) ∈ E}. X−1 (E) ∈ A pour toute partie E ∈ P(R) est ce que l'on appelle mesurabilité de X. Une v.a. est donc une application mesurable. Notation : On notera les v.a. avec des lettres majuscules, X, Y , et les nombres réels avec des minuscules, x, y. ! Attention ! C'est une dénition simpliée. Normalement on ne considère pas toute partie E ∈ P(R), mais toute partie E dans la tribu Borélienne.
  • 77. Remarque Soit E ∈ P(R). Donc E ⊆ R, par exemple E = [1; 5[, E =] − ∞, 2], E = {3} ∪ [5, √ 79]. X−1 (E) = {ω ∈ Ω|X(ω) ∈ E} X−1 (E) est un événement qui fait partie de la tribu A. {ω ∈ Ω|X(ω) ∈ E} est l'ensemble de tous les ω (événements élémentaires) tels que l'image X(ω) à travers la fonction X : Ω → R appartient à E.
  • 78. Exemple Expérience aléatoire : On tire une fois une pièce de monnaie. Ω = {Pile, Face}, P(Ω) = {∅, {Pile, Face}, {Pile}, {Face}} comme σ-algèbre, P est la proba uniforme. On considère l'application X : Ω → R dénie par X(Pile) = 1 et X(Face) = 0. Soit E = [1, 3[. X−1 (E) = X−1 ([1, 3[) = {ω ∈ Ω|X(ω) ∈ [1, 3[} = la v.a. X est dans l'intervalle [1, 3[” = {Pile} Soit E = [−3, 10[. X−1 (E) = X−1 ([−3, 10[) = {ω ∈ Ω|X(ω) ∈ [−3, 10[} = {Pile, Face}
  • 79. Exemple d'application mesurable Prenons Ω = {a, b, c} et considérons la tribu A A = {∅; {a, b, c}; {b}; {a, c}} Soit X : Ω → R l'application dénie par X(a) = 5, X(b) = 10, X(c) = 5. Montrons que X est une application mesurable. Soit E une ensemble qui appartient à la tribu P(R). On doit considérer 4 cas 1 10, 5 6∈ E (par exemple E =] − 2, 1[). Dans ce cas X−1 (E) = {ω ∈ Ω|X(ω) ∈ E} = ∅ ∈ A. 2 10, 5 ∈ E (par exemple E = [5, 15]). Dans ce cas X−1 (E) = {ω ∈ Ω|X(ω) ∈ E} = {a, b, c} ∈ A. 3 10 ∈ E, 5 6∈ E (par exemple E =]9, ∞[). Dans ce cas X−1 (E) = {ω ∈ Ω|X(ω) ∈ E} = {b} ∈ A. 4 5 ∈ E, 10 6∈ E. Exo : Trouver X−1 (E).
  • 80. Exemple d'application non mesurable Prenons Ω = {a, b, c} et considérons la tribu A A = {∅; {a, b, c}; {b}; {a, c}} Soit Y : Ω → R l'application dénie par Y (a) = 7, Y (b) = 10, Y (c) = 5. Montrons que Y n'est pas une application mesurable. Pour montrer que quelque chose est faux, il sut de trouver un contre-exemple. Prenons E =]4, 6[ on a Y −1 (E) = {ω ∈ Ω|Y (ω) ∈ E} = {c} 6∈ A. Donc Y n'est pas mesurable et n'est pas une variable aléatoire.
  • 82. Exemple graphique X−1 (E) avec E intervalle
  • 83. Exemple graphique X−1 (E) avec E =] − ∞, t]
  • 84. Image d'une v.a. Dénition L'image de Ω par X, noté X(Ω), est le sous-ensemble de R qui regroupe l'ensemble des valeurs prises par X. C'est à dire X(Ω) = {X(ω)|ω ∈ Ω}. Exemple. Une urne contient 3 boules numérotées de 1 à 3. On tire deux boules successivement et sans remise. Ω = {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}. Soit X la v.a. qui donne le maximum des deux boules tirées. On a X(Ω) = {2, 3}. On verra qu'il est important de distinguer entre le cas où X(Ω) est ni ou inni dénombrable et le cas où X(Ω) est inni non dénombrable.
  • 85. Loi de probabilité Dénition On appelle loi de probabilité la v.a. X l'application PX : P(R) → R dénie ∀E ∈ P(R) par PX(E) := P(X−1 (E)) = P({ω ∈ Ω|X(ω) ∈ E}). Remarques : PX est dénie sur (R, P(R)) à partir de P et de X. Puisque P est dénie sur A, on doit être sûr que X−1 (E) soit un ensemble de A. Cela est vrai car X est mesurable. On utilise la tribu P(R) car on veut associer un numéro à tout intervalle de R. Proposition PX est une mesure de probabilité sur (R, P(R)).
  • 86. Exemple Expérience aléatoire : On tire une fois une pièce de monnaie. Ω = {Pile, Face}, P(Ω) comme σ-algèbre, P est la proba uniforme. On considère l'application X : Ω → R dénie par X(Pile) = 1 et X(Face) = 0. • Soit E = [1, 3[. Qu'est-ce que c'est PX(E) ? On a vu que X−1 (E) = X−1 ([1, 3[) = {ω ∈ Ω|X(ω) ∈ [1, 3[} = la variable aléatoire X est dans l'intervalle [1, 3[” = {Pile} PX([1, 3[) = P(X−1 ([1, 3[)) = P({ω ∈ Ω|X(ω) ∈ [1, 3[}) = P(Pile) = 1/2 • Soit E =] − 4, −2[. PX(] − 4, −2[) = P(X−1 (] − 4, −2[)) = P({ω ∈ Ω|X(ω) ∈] − 4, −2[}) = P(∅) = 0.
  • 87. Exemple graphique X−1 (E) avec E = {3} PX({3}) = P(X−1 ({3})) = P({ω ∈ Ω|X(ω) = 3})
  • 88. Exemple graphique X−1 (E) avec E =] − ∞, t] PX(E) = P(X−1 (E)) = P({ω ∈ Ω|X(ω) ≤ t})
  • 89. Loi de probabilité Proposition PX est une mesure de probabilité sur (R, P(R)). Démonstration On montrera les propriétés d'une mesure de probabilité. 1 0 ≤ PX(E) ≤ 1 pour tout E ∈ P(R) car PX(E) = P(X−1 (E)) et P est une probabilité. 2 PX(R) = P(X−1 (R)) = P(Ω) = 1. 3 σ-additivité. Cas avec seulement 2 ensembles A, B ∈ P(R) t.q. A ∩ B = ∅. On veut montrer que PX(A ∪ B) = PX(A) + PX(B). Par dénition, PX(A ∪ B) = P(X−1 (A ∪ B)). Remarquons ω ∈ X−1 (A ∪ B) ⇔ X(ω) ∈ A ∪ B ⇔ X(ω) ∈ A ou X(ω) ∈ B ⇔ ω ∈ X−1 (A) ou ω ∈ X−1 (B) ⇔ ω ∈ X−1 (A) ∪ X−1 (B) Donc X−1 (A ∪ B) = X−1 (A) ∪ X−1 (B).
  • 90. Loi de probabilité Démonstration - cont. Remarquons que X−1 (A) ∩ X−1 (B) = ∅. En eet s'il existait ω0 ∈ X−1 (A) ∩ X−1 (B) alors X(ω0 ) ∈ A et X(ω0 ) ∈ B et donc X(ω0 ) ∈ A ∩ B c.a.d. A ∩ B 6= ∅ et cela contredit l'hypothèse. Donc PX(A ∪ B) = P(X−1 (A ∪ B)) = P(X−1 (A) ∪ X−1 (B)) = P(X−1 (A)) + P(X−1 (B)) = PX(A) + PX(B)
  • 91. Loi de probabilité Démonstration - cont. σ-additivité (cas général). Soit (Bn)n≥1 une suite d'éléments de P(R) deux à deux disjoints. Par dénition PX(∪n≥1Bn) = P(X−1 (∪n≥1Bn)). Remarquons que X−1 (∪n≥1Bn) = ∪n≥1X−1 (Bn) car ω ∈ X−1 (∪n≥1Bn) ⇔ X(ω) ∈ ∪n≥1Bn ⇔ ∃n̄ ≥ 1 t.q. X(ω) ∈ Bn̄ ⇔ ∃n̄ ≥ 1 t.q. ω ∈ X−1 (Bn̄) ⇔ ω ∈ ∪n≥1X−1 (Bn) Donc P(X−1 (∪n≥1Bn)) = P(∪n≥1X−1 (Bn)). De plus pour i 6= j X−1 (Bi) ∩ X−1 (Bj) = ∅ car s'il existait ω ∈ X−1 (Bi) ∩ X−1 (Bj) alors ω ∈ X−1 (Bi) et ω ∈ X−1 (Bj), i.e. X(ω) ∈ Bi et X(ω) ∈ Bj, c.a.d. X(ω) ∈ Bi ∩ Bj. Cela est impossible car Bi ∩ Bj = ∅. Puisque P est σ-additive P(∪n≥1X−1 (Bn)) = P n≥1 P(X−1 (Bn)). Donc PX(∪n≥1Bn) = P(X−1 (∪n≥1Bn)) = P(∪n≥1X−1 (Bn)) = X P(X−1 (Bn)) = X PX(Bn)
  • 92. Atomes d'une loi de probabilité Dénition On appelle atome de PX tout réel x ∈ R tel que PX({x}) 0. L'image d'une v.a. X(Ω), forme l'ensemble des valeurs possibles pour X. Les atomes forment l'ensemble des valeurs probables pour X. Proposition L'ensemble des atomes est au plus dénombrable.
  • 93. V.a. identiquement distribuées Dénition Soient X et Y deux v.a. sur (Ω, A, P), avec loi de probabilité respective PX et PY . On dit que X et Y ont la même loi ou sont identiquement distribuées ssi PX(E) = PY (E) ∀E ∈ P(R). Attention : deux v.a. avec la même loi ne sont pas nécessairement égales. Exemple. Prenons Ω = {a, b} et A = P(Ω) et P la probabilité uniforme sur (Ω, A). Soit X : Ω → R la v.a. dénie par X(a) = −1, X(b) = 1. On considère la v.a. Y := −X. On a Y (a) = −X(a) = 1 6= X(a) donc les deux variables sont diérentes.
  • 94. Exemple - v.a. diérentes mais avec la même loi Exemple - cont. Ω = {a, b}, P({a}) = P({b}) = 1 2 X(a) = −1, X(b) = 1 Y (a) = 1, Y (b) = −1 Montrons que X et Y ont la même loi, c.a.d. PX(E) = PY (E) pour tout E ∈ P(R). Rappel X ∈ E signie {X ∈ E} = {ω ∈ Ω|X(ω) ∈ E}. Nous devons considérer 4 cas. 1 −1, 1 ∈ E. Alors PX(E) = P(X ∈ E) = P(Ω) = 1. PY (E) = P(Y ∈ E) = P(Ω) = 1. Donc PX(E) = PY (E). 2 −1, 1 6∈ E. Alors PX(E) = P(X ∈ E) = P(∅) = 0. Et PY (E) = 0. 3 −1 ∈ E, 1 6∈ E. Dans ce cas PX(E) = P(X ∈ E) = P({a}) = 1/2. Et aussi PY (E) = P({b}) = 1/2. 4 −1 6∈ E, 1 ∈ E. Exo : Montrer que dans ce cas aussi PX(E) = PY (E).
  • 95. Fonction de répartition (f.r.) Dénition La fonction de répartition (f.r.) FX d'une v.a. X est l'application de FX : R → [0, 1] dénie par FX(t) = PX(] − ∞, t]) = P(X−1 (] − ∞, t])) = P(X ≤ t) ∀t ∈ R
  • 96. Fonction de répartition (f.r.) Dénition La fonction de répartition (f.r.) FX d'une v.a. X est l'application de FX : R → [0, 1] dénie par FX(t) = PX(] − ∞, t]) = P(X−1 (] − ∞, t])) = P(X ≤ t) ∀t ∈ R Propriétés : 1 FX est une fonction croissante, c.a.d. t1 ≤ t2 ⇒ FX(t1) ≤ FX(t2). (Exo. Montrer ça.) 2 FX est continue à droite, c.a.d. limh→0+ FX(a + h) = FX(a), ∀a ∈ R. 3 limt→−∞ FX(t) = 0 et limt→+∞ FX(t) = 1 Proposition Si F : R → [0, 1] satisfait les trois propriétés ci-dessus alors F est une f.r. associée à une certaine loi de probabilité PX.
  • 97. Représentation graphique d'une f.r. Propriétés : 1 FX est une fonction croissante, c.a.d. t1 ≤ t2 ⇒ FX(t1) ≤ FX(t2). 2 FX est continue à droite, c.a.d. limh→0+ FX(a + h) = FX(a), ∀a ∈ R. 3 limt→−∞ FX(t) = 0 et limt→+∞ FX(t) = 1 1 t a F(a−) F(a+) = F(a)
  • 98. Autres propriétés On note F(a− ) := lim h→0+ F(a − h) et F(a+ ) := lim h→0+ F(a + h) Propriétés : Soit FX la f.r. associée à la loi de probabilité PX, alors on a Soit a b. Alors P(a X ≤ b) = PX(]a, b]) = FX(b) − FX(a). P(X = a) = PX({a}) = FX(a) − FX(a− ) L'ensemble des points de discontinuité de FX est égal à l'ensemble des atomes de la loi PX.
  • 99. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 100. Introduction - v.a. discrète (et continue) Dans la suite on va considérer un espace de probabilité (Ω, A, P) X dénote une v.a. sur Ω de loi de probabilité PX FX dénote la f.r. de X Nous allons étudier deux types de v.a. 1 V.a. discrète : ce sont les v.a. qui ont f.r. constates par morceaux (représentées par un graphique en escalier). 2 V.a. continue : ce sont les v.a. qui on une f.r. continue (prochain chapitre).
  • 101. V.a. discrète Dénition X : Ω → R est une v.a. discrète ssi il existe un ensemble S ⊂ R ni ou dénombrable t.q. PX(S) = 1. Une condition susante pour montrer que X est une v.a. discrète est la suivante Proposition Si X(Ω) est au plus dénombrable alors X est une v.a. discrète. Exemple. Une urne contient 3 boules numérotées de 1 à 3. On tire deux boules successivement et sans remise. Soit X la v.a. qui donne le maximum des deux boules tirées. On a X(Ω) = {2, 3}. Donc X est une v.a. discrète.
  • 102. Loi d'une v.a. discrète Si X est une v.a. discrète qui prend les valeurs X(Ω) = {x1; x2; x3; . . . ; xn; . . .} on note pi := PX({xi}) = P(X = xi) Donc pi est la probabilité que la v.a. X prenne la valeur xi. On a alors P xi∈X(Ω) PX({xi}) = 1 Si X est une v.a. discrète on appellera loi de probabilité de X, la donnée de (xi, pi) où xi ∈ X(Ω) et PX({xi}) 0 (xi est un atome). X = x1 x2 . . . xn . . . p1 p2 . . . pn . . . P(R) est la famille des parties de R, pour tout E ∈ P(R) on peut calculer PX(E) PX(E) = P(X ∈ E) = X xi∈E PX({xi}) = X xi∈E P(X = xi)
  • 103. Exemple v.a. discrète Reprenons l'exemple où X est le maximum des deux boules extraites de l'urne. Ω = {(1, 2); (1, 3); (2, 1); (2, 3); (3, 1); (3, 2)}, X(Ω) = {2, 3} Rappelons nous que, si E ∈ P(R), l'événement X ∈ E signie {X ∈ E} = {ω ∈ Ω|X(ω) ∈ E}. (Si E = {r} est un singleton on écrit {X = r} ) Donc {X = 2} = {(1, 2); (2, 1)} et {X = 3} = {(1, 3); (2, 3); (3, 1); (3, 2)} PX(2) = P(X = 2) = P({(1, 2); (2, 1)}) = 2 6 = 1 3 PX(3) = P(X = 3) = P({(1, 3); (2, 3); (3, 1); (3, 2)}) = 4 6 = 2 3 X = 2 3 1 3 2 3 On peut remarquer que PX(2) + PX(3) = 1 3 + 2 3 = 1.
  • 104. Fonction de répartition d'une v.a. discrète Proposition Si X est une v.a. discrète sa fonction de répartition est donnée par FX(t) = PX(] − ∞, t]) = P(X ≤ t) = X xi≤t PX({xi}) = X xi≤t P(X = xi) Propriétés (si X est une v.a. discrète) : 1 FX est constante par morceaux. 2 FX est discontinue en tout point xi ∈ X(Ω) t.q. PX({xi}) 0 et continue en tout autre point. 3 FX est continue à droite en tout point de R.
  • 105. Exemple Exemple. X est le maximum des deux boules extraites de l'urne. X = 2 3 1 3 2 3 On a vu que FX(t) = P xi≤t PX({xi}). Donc FX(t) =      0 si t 2 1 3 2 ≤ t 3 1 t ≥ 3. 1 t 2 3 1 3
  • 106. Relation entre f.r. et loi Si X est une v.a. discrète la connaissance de sa f.r. FX permet de retrouver sa loi de probabilité. Rappel : On appelle atomes de PX tout réel x ∈ R tel que PX({x}) 0. Proposition Pour tout atome x, PX({x}) = FX(x) − FX(x− ). De plus, l'ensemble des atomes de PX est donné par l'ensemble des points {x ∈ R|FX(x) − FX(x− ) 0}. Si les valeurs x1, x2, . . . de X(Ω) sont ordonnées du plus petit au plus grand alors pi = PX({xi}) = FX(xi) − FX(xi−1) et on utilise la convention que FX(x0) = 0 (Donc p1 = FX(x1)).
  • 107. Exemple Exemple. Imaginons dans l'exemple où X est le maximum des deux boules que l'on connait la f.r. FX mais pas sa loi. FX(t) =      0 si t 2 1 3 2 ≤ t 3 1 t ≥ 3. On a PX(2) = FX(2) − FX(2− ) = 1 3 − 0 = 1 3 PX(3) = F(3) − F(3− ) = 1 − 1 3 = 2 3 Pour tout x ∈ R {2, 3} FX(x) − FX(x− ) = 0. Donc la loi de probabilité de X est X = 2 3 1 3 2 3
  • 108. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 109. Introduction Lorsque l'on considère une expérience aléatoire, souvent on s'intéresse à deux informations 1 Quelle est la valeur que l'on s'attend à trouver, en moyenne, si l'on répète un grand nombre de fois cette même expérience aléatoire. C'est le concept d'espérance. 2 Quelle est la mesure de dispersion autour de cette moyenne. C'est le concept de variance.
  • 110. Introduction Exemple. Imaginons que l'on doit choisir entre deux ores d'abonnement internet. Supposons que la vitesse de connexion est aléatoire et les deux entreprises ont relevé au cours du temps la vitesse eective. Pour choisir on peut demander aux entreprises. La vitesse moyenne : ex. Entreprise 1 : 34 Mbit/s, Entreprise 2 : 37 Mbit/s De quelle manière la vitesse de connexion se disperse autour de cette moyenne. Par exemple si la variance l'Entreprise 2 est élevée ça signie que parfois la connexion est très performante et parfois pas du tout.
  • 111. Espérance - variable discrète Considérons une v.a. discrète avec image X(Ω) = {xi|i ∈ I} où I est un ensemble ni ou dénombrable. Dénition Soit X une v.a. discrète. On appelle espérance de X la quantité, si elle existe, E(X) = X i∈I xiP(X = xi) = X i∈I xiPX({xi}) = X i∈I xipi L'espérance peut être considérée comme la moyenne des xi pondérée par les pi.
  • 112. Exemples Exemple 1. Considérons une expérience aléatoire qui consiste en lancer une pièce de monnaie. Ω = {Pile, Face} et on est dans le cas d'équiprobabilité. Donc A = P(Ω) et P est la probabilité uniforme. P(Pile) = 1 2 = P(Face). Soit X : Ω → R la variable aléatoire discrète X(Pile) = 1, X(Face) = 0. La loi de X est PX(0) = 1 2 = PX(1). X = 0 1 1 2 1 2 L'espérance de X est E(X) = X i∈I xipi = 0 1 2 + 1 1 2 = 1 2 L'espérance de X est donc 1 2 bien que X ne prenne jamais cette valeur.
  • 113. Exemples Exemple 2. Reprenons l'exemple où X est le maximum des deux boules. X = 2 3 1 3 2 3 L'espérance de X est E(X) = X i∈I xipi = 2 1 3 + 3 2 3 = 8 3
  • 114. Exemple où l'espérance n'existe pas (Paradoxe de Saint-Petersbourg) Considérons la loterie suivante : une pièce de monnaie est lancée successivement jusqu'à ce qu'elle tombe sur Pile. On reçoit alors 2n e, n étant le nombre de lancers de pièce. Calcul de l'espérance pour cette v.a. Pour tout n, la probabilité de recevoir 2n est égale à la probabilité d'obtenir n − 1 fois Face, puis Pile, c'est-à-dire 1 2 n−1 1 2 = 1 2 n . X = 21 22 23 . . . 2n . . . 1 2 1 2 2 1 2 3 . . . 1 2 n . . . L'espérance n'existe pas : X n 2n 1 2 n = 1 + 1 + · · · = ∞.
  • 115. Espérance d'une fonction d'une v.a. Soit X une v.a. discrète et φ : R → R une application. Il est possible de calculer l'espérance de la v.a. φ(X) Dénition Soit X une v.a. discrète. On appelle espérance de φ(X) la quantité, si elle existe, E(φ(X)) = X i∈I φ(xi)P(X = xi) = X i∈I φ(xi)PX({xi}) = X i∈I φ(xi)pi
  • 116. Exemple - Espérance d'une fonction d'une v.a. Exemple. Soit X une v.a. discrète avec loi X = 2 3 1 3 2 3 Exemple 1. Soit φ : R → R la fonction φ(x) = x3 . Considérons la v.a. Y := φ(X). La loi de Y sera Y = 8 27 1 3 2 3 et E(Y ) = 81 3 + 272 3 = 62 3 . Exemple 2. Soit ψ : R → R la fonction ψ(x) = e−x et Z := ψ(X). Alors Z = e−3 e−2 2 3 1 3 et E(Z) = e−3 2 3 + e−2 1 3 .
  • 117. Propriétés de l'espérance Considérons X une v.a. discrète, a, b ∈ R et φ, ϕ deux applications de R vers R. Propriétés : 1 E(aX + b) = aE(X) + b 2 E[X − E(X)] = 0 3 E[aφ(X) + bϕ(X)] = aE[φ(X)] + bE[ϕ(X)] Démonstration. 1 E(aX + b) = P i∈I(axi + b)pi = P i∈I(axipi + bpi) = P i∈I axipi + P i∈I bpi = a P i∈I xipi + b P i∈I pi = aE(X) + b · 1. 2 Puisque E(X) ∈ R, on utilise le résultat du point précédent. E[X − E(X)] = E(X) − E(X) = 0. 3 Exercice.
  • 118. Variance d'une v.a. discrète A partir de la dénition d'espérance d'une fonction de v.a. nous pouvons dénir la variance en prenant φ(x) = (x − E(X))2 La variance sert à mesurer la dispersion des observations que l'on obtient lorsque l'on répète plusieurs fois une expérience aléatoire. Plus elle est faible, plus les valeurs observées sont regroupées autour de la moyenne (l'espérance). Dénition Soit X une v.a. discrète. La variance de X, si elle existe, est le nombre V (X) = E (X − E(X))2 = X i∈I (xi−E(X))2 PX({xi}) = X i∈I (xi−E(X))2 pi
  • 119. Écart type d'une v.a. discrète Souvent on considère une autre notion, liée à celle de variance. Dénition Soit X une v.a. discrète. L'écart type de X, s'il existe, est le nombre σ(X) = p V (X) Remarques. Si on connait la variance on connait aussi l'écart type et vice-versa. L'écart type a l'avantage d'être exprimé dans la même unité de mesure de l'espérance.
  • 120. Propriétés de la variance Considérons X une v.a. discrète, a, b ∈ R. Propriétés : 1 V (X) ≥ 0 2 V (X) = E(X2 ) − [E(X)] 2 . 3 V (aX + b) = a2 V (X) Propriété 1 - Preuve V (X) = P i∈I (xi − E(X))2 | {z } ≥0 pi |{z} ≥0 ≥ 0
  • 121. Propriété 2 - Preuve V (X) =E (X − E(X))2 =E h X2 − 2XE(X) + [E(X)] 2 i =E(X2 ) − 2E[XE(X)] + [E(X)] 2 =E(X2 ) − 2E(X)E(X) + [E(X)] 2 =E(X2 ) − [E(X)] 2
  • 122. Propriété 3 - Preuve V (aX + b) =E[(aX + b)2 ] − [E(aX + b)] 2 =E[a2 X2 + 2abX + b2 ] − [aE[X] + b] 2 =a2 E[X2 ] + 2abE[X] + b2 − a2 [E(X)]2 − 2abE[X] − b2 =a2 h E(X2 ) − [E(X)] 2 i =a2 V (X) Exercice : Montrer la propriété ci-dessus en utilisant directement la dénition de variance : V (aX + b) = X i axi + b − X i (axi + b)pj ##2 pi = X i (axi + b) 2 pi − X i (axi + b)pi #2 = . . .
  • 123. Exemple Exemple. Prenons l'exemple où X est le maximum des deux boules. X = 2 3 1 3 2 3 On avait vu que E(X) = 8 3 . On utilise la Propriété 2 et on calcule V (X) =E(X2 ) − [E(X)]2 =22 1 3 + 32 2 3 − 8 3 2 = 12 + 54 − 64 9 = 2 9
  • 124. Exercice sur v.a. discrète Une urne contient 10 boules noires et 5 boules rouges (les boules sont toutes distinctes). On tire simultanément 2 boules de l'urne. Soit X la v.a. qui conte le nombre des boules rouges dans le tirage. Trouver la loi de X, sa f.r. et calculer P(X 1) et P(0.5 X ≤ 5). On est dans un cas d'équiprobabilité. En plus on reconnait un tirage sans remise où l'ordre ne compte pas.
  • 125. Résoudre l'exercice 1 - On décrit Ω et on calcule son cardinal Ω = {{b1, b2}|b1 6= b2, bi ∈ {Urne}} Card(Ω) = C2 15 = 15 2 = 15! 2!(15−2)! = 105 2 - On décrit l'image de la v.a. X X(Ω) = {0, 1, 2} donc X est une v.a. discrète 3 - On calcule le loi de X, c.a.d. on cherche les probabilités 1 PX(0) = P(X = 0) 2 PX(1) = P(X = 1) 3 PX(2) = P(X = 2)
  • 126. Résoudre l'exercice 3.1 - Calcul de PX(0) = P(X = 0). X = 0 veut dire que l'on n'a pas tiré de boules rouges. Donc X = 0 c'est l'événement que l'on appelle A A =pas des boules rouges. Donc PX(0) = P(X = 0) = P(ω ∈ Ω|X(ω) = 0) = P(A). On cherche le cardinal de A et on a P(A) = Card(A) Card(Ω) . A = {{b1, b2}|b1 6= b2, b1, b2 ∈ { Boules noires}} Card(A) c'est donc combien de tirages possibles on peut faire de deux boules noires simultanément. Puisque on a 10 boules noires dans l'urne on voit que c'est une combinaison Card(A) = C2 10 = 10 2 = 45 PX(0) = P(X = 0) = Card(A) Card(Ω) = 45 105
  • 127. Résoudre l'exercice 3.2 - Calcul de PX(1) = P(X = 1). X = 1 veut dire que l'on a tiré une boule rouge et une noire. Donc X = 1 c'est l'événement que l'on appelle B B =Une boule rouge et une boule noire. Donc PX(1) = P(X = 1) = P(ω ∈ Ω|X(ω) = 1) = P(B). B = {{b1, b2}|b1 6= b2, b1 ∈ { Boules noires }, b2 ∈ { Boules rouges}} Card(B) toutes les façons de choisir une boule noire sur 10 noires et une rouge sur 5 rouges Card(B) = C1 10C1 5 = 10 1 · 5 1 = 50 PX(1) = P(X = 1) = Card(B) Card(Ω) = 50 105
  • 128. Résoudre l'exercice 3.3 - Calcul de PX(2) = P(X = 2). Exercice. Sol : PX(2) = P(X = 2) = 10 105 3 - La loi de X est X = 0 1 2 45 105 50 105 10 105 On remarque que PX(0) + PX(1) + PX(2) = 1.
  • 129. Résoudre l'exercice 4 - Calcul de la fonction de répartition F. Quand X est discrète, on sait que F est constante par morceau, avec des sauts où PX({x}) 0. Pour calculer F on utilise la formule F(t) = P xi≤t P(X = xi). Donc F(t) =          0 si t 0 45 105 0 ≤ t 1 95 105 1 ≤ t 2 1 t ≥ 2 1 t 0 F(1) − F(1−) = PX (1) 45 105 1 2 95 105 2
  • 130. Résoudre l'exercice 5 - Calcul de P(X 1) et P(0.5 X ≤ 4). On utilise la f.r. F(t) =          0 si t 0 45 105 0 ≤ t 1 95 105 1 ≤ t 2 1 t ≥ 2 - P(X 1). Nous remarquons que X ≤ 1 est l'événement complémentaire de X 1. Donc P(X 1) = 1 − P(X ≤ 1) = 1 − F(1) = 1 − 95 105 = 10 105 . Noter que P(X 1) = P(X = 2). Nous pouvons aussi faire le calcul sans f.r. P(X 1) = X xi∈]1,∞[ P(X = xi) = P(X = 2) = 10 105
  • 131. Résoudre l'exercice 5 - Calcul de P(X 1) et P(0.5 X ≤ 4). On utilise la f.r. F(t) =          0 si t 0 45 105 0 ≤ t 1 95 105 1 ≤ t 2 1 t ≥ 2 - P(0.5 X ≤ 4). On calcule d'abord directement P(0.5 X ≤ 4) = X xi∈]0.5,4] P(X = xi) = P(X = 1) + P(X = 2) = 50 105 + 10 105 = 60 105 Avec la fonction de répartition F(4) − F(0.5) = 1 − 45 105 = 60 105
  • 132. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 133. Variable aléatoire continue Intuitivement une v.a. est continue si elle prend n'importe quelle valeur dans un intervalle R ou dans R entièrement. Nous allons dénir une v.a. continue à l'aide d'une fonction de densité. Dénition Nous appelons densité de probabilité toute application f : R → R telle que f(x) ≥ 0 ∀x ∈ R et Z +∞ −∞ f(x)dx = 1 Avant de continuer : rappels sur l'intégrale.
  • 134. Rappels intégrale Dénition On appelle intégrale de f sur l'intervalle [a, b], noté R b a f(x)dx, la surface comprise entre le graphe de f et l'axe des abscisses. Cette surface est comptée positivement si le graphe est au-dessus de l'axe et négativement sinon. x f(x) x a b R b a f(x)dx − + On admet que l'on peut calculer cet intégrale pour n'importe quelle fonction continue f, ou avec au plus un nombre dénombrable de points de discontinuité.
  • 135. Primitives Dénition On dit que la fonction F : [a, b] → R est une primitive de f sur [a, b] si et seulement si F est dérivable de dérivée f. Exemple. Soit f(x) = x3 , une primitive de f est F(x) = 1 4 x4 + √ 7. Soit g(x) = x x2+1 , une primitive de g est G(x) = 1 2 ln(x2 + 1) + c (avec c ∈ R). En général, deux primitives d'une même fonction f dièrent seulement d'une constante. Les primitives de f sont appelées aussi intégrales indénies : Z f(x)dx = F(x) + c Où c est une constante nécessaire pour couvrir l'ensemble des primitives possibles de f.
  • 136. Théorème fondamental de l'analyse Ce théorème établit que les deux opérations de base de l'analyse, la dérivation et l'intégration, sont, dans une certaine mesure, réciproques l'une de l'autre. Théorème (1er théorème fondamental) Soit f une fonction continue dénie sur [a, b]. Alors la fonction F : [a, b] → R dénie par F(x) := R x a f(t)dt est continue sur [a, b], dérivable sur ]a, b[ avec F0 (x) = f(x) ∀x ∈]a, b[. Ce théorème nous permet de calcule les intégrales. Corollary Soit F une primitive de la fonction continue f, alors Z b a f(t)dt = F(b) − F(a)
  • 137. Exemples Exemple 1. R 1 −2 3 |{z} f(x) dx = [ 3x |{z} F (x) ]1 −2 = 3 · 1 − 3 · (−2) | {z } F (1)−F (−2) = 9 Exemple 2. R x + 2 | {z } f(x) dx = x2 2 + 2x + c | {z } F (x) Exemple 3. R 3 0 x + 2 | {z } f(x) dx =     x2 2 + 2x | {z } F (x)     3 0 = 32 2 + 2 · 3 − 02 2 + 2 · 0 | {z } F (3)−F (0) = 10.5
  • 138. Primitives usuelles dérivée f(x) primitive F(x) xn (for n 6= −1,) xn+1 n+1 + c 1 x ln |x| + c ex ex + c αx (for α 0, α 6= 1,) αx ln α + c cos(x) sin(x) + c sin(x) − cos(x) + c
  • 139. Quelques propriétés Soient f et g deux fonctions (continues) dénies sur [a, b]. Alors R b a f(t) + g(t)dt = R b a f(t)dt + R b a g(t)dt ∀λ ∈ R R b a λf(x)dx = λ R b a f(x)dx Relation de Chasles. Soit c ∈ [a, b], Z b a f(u)du = Z c a f(u)du + Z b c f(u)du Intégration par partie. On rappelle la formule (fg)0 = f0 g + fg0 . Z b a f0 (t)g(t)dt = [f(t)g(t)]b a − Z b a f(t)g0 (t)dt Changement de variable. Soit I un intervalle, f : I → R continue, ψ : [a, b] → I dérivable alors Z b a f(ψ(t))ψ0 (t)dt = Z ψ(b) ψ(a) f(x)dx.
  • 140. Variable aléatoire continue P(R) la famille des parties de R. Dénition X est une v.a. continue s'il existe une fonction de densité fX telle que PX(E) = P(X ∈ E) = Z E fX(x)dx ∀E ∈ P(R) Donc savoir la densité d'une v.a. X permet de trouver sa loi de probabilité PX. Exemple. Soit E l'intervalle E = [a, b] avec a b. Alors PX([a, b]) = Z b a fX(x)dx Soit E =] − ∞, t] alors PX(] − ∞, t]) = Z t −∞ fX(x)dx = FX(t)
  • 141. Variable aléatoire continue - densité PX([a, b]) = Z b a fX(x)dx x fX(x) a b PX([a, b])
  • 142. Fonction de répartition d'une v.a. continue Proposition Soit X une v.a. continue avec fonction de densité fX, alors sa fonction de répartition FX est donnée par FX(t) = PX(] − ∞, t]) = Z t −∞ fX(x)dx ∀t ∈ R Propriétés (si X est une v.a. continue) : 1 FX est continue en tout point de R. 2 Il n'y a pas d'atome car PX({r}) = R r r fX(x)dx = 0 ∀r ∈ R. 3 La fonction de densité fX es donnée par fX(x) = F0 X(x) si FX est derivable en x.
  • 143. Fonction de répartition d'une v.a. continue La fonction de densité fX est donnée par fX(x) = F0 X(x) si FX est derivable en x. Si on connait la f.r. FX on peut donc trouver la densité fX. Qu'est ce que l'on fait si FX n'est pas dérivable en x ? Par abus, on donnera une valeur ctive là où FX n'est pas dérivable. Par exemple fX(x) = ( F0 X(x) si FX est derivable en x 0 si FX n'est pas derivable en x.
  • 144. Exemple v.a. continue On attend un bus. On sait qu'il y a un bus qui passe une seule fois de 8h à 10h. Il peut passer à n'importe quel moment. Soit X la variable aléatoire qui indique l'heure à laquelle le bus est passé. Nous allons voir comment modéliser cette expérience aléatoire et nous allons calculer P(X 9.5) (la probabilité que le bus passe après 9h et demie) et P(8 X ≤ 9) (la probabilité que le bus passe entre 8h et 9h). On remarque que dans l'intervalle [8, 10] il y a une innité des valeurs (non dénombrables). Donc X doit être modélisée comme une v.a. continue.
  • 145. Exemple v.a. continue Pour ce type de problème il y a une densité connue. (On verra ça ensuite). La densité de X pour le problème du bus f(x) = ( 1 10−8 si x ∈ [8, 10] 0 sinon. = ( 1 2 si x ∈ [8, 10] 0 sinon. f(x) x 1 2 8 10 Vérions que ça s'agit bien d'une fonction de densité R +∞ −∞ f(x)dx = R 8 −∞ f(x)dx + R 10 8 f(x)dx + R +∞ 10 f(x)dx = R 8 −∞ 0dx + R 10 8 1 2 dx + R +∞ 10 0dx = 0 + 1 2 (10 − 8) + 0 = 1.
  • 146. Exemple v.a. continue Fonction de répartition de X. Par dénition F(t) = R t −∞ f(x)dx - Pour t ≤ 8, on a F(t) = R t −∞ f(x)dx = R t −∞ 0dx = 0. - Pour t ∈]8, 10], on a F(t) = Z t −∞ f(x)dx = Z 8 −∞ f(x)dx+ Z t 8 f(x)dx = 0+ Z t 8 1 2 dx = 1 2 (t−8) - Pour t 10, on a F(t) = Z t −∞ f(x)dx = Z 8 −∞ f(x)dx + Z 10 8 f(x)dx + Z t 10 f(x)dx = 0 + Z 10 8 1 2 dx + 0 = 1
  • 147. Exemple v.a. continue Fonction de répartition de X. On a donc F(t) =      0 si t 8 1 2 (t − 8) si t ∈ [8, 10] 1 si t 10 1 F(t) t 8 10
  • 148. Exemple v.a. continue Trouver la densité f à partir de la f.r. fX(t) = ( F0 (t) si FX est derivable en t 0 si FX n'est pas derivable en t. Donc il faut dériver la fonction F, qui n'est pas dérivable pour t = 8 et t = 10 f(t) =      0 si t ≤ 8 1 2 si 8 t 10 0 si t ≥ 10
  • 149. Exemple v.a. continue On calcule P(X 9.5) et P(8 X ≤ 9). On a deux façons de faire ce calcul : avec la densité ou avec la f.r. - Avec la densité : P(X 9.5) = R +∞ 9.5 f(x)dx = R 10 9.5 1 2 dx = 1 2 (10 − 9.5) = 0.25. P(8 X ≤ 9) = R 9 8 1 2 dx = 1 2 (9 − 8) = 0.5 - Avec la f.r. : P(X 9.5) = 1 − P(X ≤ 9.5) = 1 − F(9.5) = 1 − 1 2 (9.5 − 8) = 0.25. P(8 X ≤ 9) = F(9) − F(8) = 1 2 (9 − 8) − 1 2 (8 − 8) = 0.5 Quel est P(X = 9), c.a.d. la probabilité que le bus arrive exactement à 9h ? R 9 9 f(x)dx = 0. Pour les variables continues la probabilité de chaque singleton est 0. C'est à dire, les variables continue n'ont pas d'atomes.
  • 150. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 151. Espérance - variable continue Considérons maintenant une v.a. continue avec fonction de densité fX. Dénition Soit X une v.a. continue. On appelle espérance de X la quantité, si elle existe, E(X) = Z +∞ −∞ xfX(x)dx L'interprétation est la même que dans le cas discret. Soit φ : R → R une application. Dénition Soit X une v.a. continue. On appelle espérance de φ(X) la quantité, si elle existe, E(φ(X)) = Z +∞ −∞ φ(x)fX(x)dx
  • 152. Propriétés de l'espérance Considérons X une v.a. continue, a, b ∈ R et φ, ϕ deux applications de R vers R. Les propriétés que l'on a vues dans le cas discret restent vraies aussi dans le cas continu. Propriétés : 1 E(aX + b) = aE(X) + b 2 E[X − E(X)] = 0 3 E[aφ(X) + bϕ(X)] = aE[φ(X)] + bE[ϕ(X)] Démonstration. 1 E(aX + b) = R +∞ −∞ (ax + b)fX(x)dx = a R +∞ −∞ xfX(x)dx + b R +∞ −∞ fX(x)dx = aE(X) + b · 1. 2 Exercice. 3 Exercice.
  • 153. Variance d'une v.a. continue Comme avant on considère la fonction φ : R → R φ(x) = (x − E(X))2 Dénition Soit X une v.a. continue. La variance de X, si elle existe, est le nombre V (X) = E (X − E(X))2 = Z +∞ −∞ (x − E(X))2 fX(x)dx Dénition L'écart type de X, s'il existe, est le nombre σ(X) = p V (X)
  • 154. Propriétés de la variance Considérons X une v.a. continue, a, b ∈ R. Les propriétés sont les mêmes. Propriétés : 1 V (X) ≥ 0 2 V (X) = E(X2 ) − [E(X)] 2 . 3 V (aX + b) = a2 V (X) Nous pouvons remarquer que dans le cas discret nous avons utilisé la dénition de variance seulement pour prouver la Propriété 1. Les preuves pour les autres propriétés peuvent être démontrées de la même manière. Exercice. Montrer la Propriété 1 de la variance dans le cas continu en utilisant la dénition.
  • 155. Concepts à retenir sur les variables aléatoires Soit (Ω, A, P) un espace probabilisé. Généralités sur les variables aléatoires Une variable aléatoire est une fonction X : Ω → R. X est mesurable, c.a.d. pour tout E ∈ P(R) on a X−1 (E) ∈ A. À chaque v.a. X on peut associer une loi, PX, dénie par PX(E) := P(X−1 (E)) (où E ∈ P(R)). À chaque v.a. X on peut associer une fonction de répartition FX, dénie pour tout t ∈ R par FX(t) := P(X ≤ t) = PX(] − ∞, t]). FX est croissante, continue à droite, limx→−∞ FX(x) = 0 et limx→+∞ FX(x) = 1. PX(r) = FX(r) − FX(r− ) et PX(]a, b]) = FX(b) − FX(a).
  • 156. Concepts à retenir sur les variables aléatoires Variable aléatoire discrète. X est une variable aléatoire discrète si l'image de X, notée X(Ω), est un ensemble ni ou dénombrable. On appelle loi de X l'ensemble des valeurs prises par X, c.a.d. de X(Ω) = {x1, x2, . . .} et des probabilités associées P(X = x1), P(X = x2), . . . . Si on note pi = P(X = xi) on a X = x1 x2 . . . xn . . . p1 p2 . . . pn . . . Si E ⊆ R PX(E) = P xi∈E P(X = xi). La fonction de répartition est FX(t) = P(X ≤ t) = PX(] − ∞, t]) = P xi≤t P(X = xi). La fonction de répartition FX est constante par morceaux (en plus des propriétés indiquées dans le slide précédent).
  • 157. Concepts à retenir sur les variables aléatoires Variable aléatoire continue. Une v.a. est continue si sa fonction de répartition est continue. Pour trouver la loi de X on a besoin d'une fonction de densité fX : R → R. C'est une fonction t.q. fX(x) ≥ 0 pour tout x ∈ R et R +∞ −∞ fX(x)dx = 1. Si fX est la densité de X et E ∈ P(R) alors PX(E) = R E fX(x)dx. Par example si E = [a, b] PX([a, b]) = Z b a fX(x)dx. Donc on calcule la f.r. FX par FX(t) = P(X ≤ t) = PX(] − ∞, t]) = R t −∞ fX(x)dx. Si on connaît la f.r. FX on peut trouver la densité fX en dérivant fX(x) = ( F0 X(x) si FX est derivable en x 0 si FX n'est pas derivable en x.
  • 158. Concepts à retenir sur les variables aléatoires Espérance et variance. L'espérance de X, E(X) est dénie par E(X) = P i xiP(X = xi) si X est discrète. E(X) = R +∞ −∞ xfX (x)dx si X est continue. La variance de X est dénie par V (X) = E[(X − E(X))2 ]. Formule utile pour les calculs V (X) = E(X2 ) − [E(X)]2 . Savoir les propriétés de E(X) et V (X).
  • 159. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 160. Lois usuelles - Introduction Il y a une innité de lois de probabilité possibles. Par example dans le cas continu n'importe quelle densité f dénit une loi. Cependant, certaines lois sont plus courantes, plus utiles dans les applications pratiques ou plus importantes dans la théorie. Celles-ci ont en général reçu un nom particulier. On distinguera deux cas : Lois usuelles discrètes. Lois usuelles continues. Dans la suite on xe un espace probabilisé (Ω, A, P) et on s'intéresse aux lois de probabilité associées à des v.a. X : Ω → R.
  • 161. Lois usuelles discrètes Certaines variables aléatoires suivent des lois standard. Ou verra les lois suivantes 1 Loi de Dirac 2 Loi de Bernoulli 3 Loi binomiale 4 Loi hypergéométrique 5 Loi de Poisson 6 Loi géométrique 7 Loi binomiale négative Pour chaque loi on étudiera 1 Sa loi (c.a.d. la donnée des valeurs que la v.a. prend {xi, i ∈ I} et les probas associées P(x = xi)). 2 L'espérance et la variance. 3 La fonction de répartition (pour certaines lois).
  • 162. Loi de Dirac Soit a ∈ R xé. Considérons la v.a. discrète X constante et égale à a, c.a.d. X(ω) = a, ∀ω ∈ Ω On appelle loi de Dirac la loi de probabilité associée a cette v.a. Donc X(Ω) = a et PX(a) = P(X = a) = P(Ω) = 1. X = a 1 La fonction de répartition est FX(t) = ( 0 si t a 1 si t ≥ a. 1 t a
  • 163. Loi de Dirac Si X suit une loi de Dirac alors E(X) = a · 1 = a V (X) = E(X2 ) − [E(X)]2 = a2 · 1 − a2 = 0 Remarque : C'est la seule v.a. avec variance nulle. Donc une v.a. a variance nulle ssi elle est une constante.
  • 164. Loi de Bernoulli Soit A ∈ A un événement tel que P(A) = p. Considérons la v.a. discrète X dénie par X(ω) = ( 1 si ω ∈ A 0 si ω ∈ Ac On a donc PX(1) = P(X = 1) = P(A) = p PX(0) = P(X = 0) = P(Ac ) = 1 − P(A) = 1 − p On appelle loi de Bernoulli la loi de probabilité associée a cette v.a. Donc X(Ω) = {0, 1} et sa loi est donnée par X = 0 1 1 − p p Si X suit une loi de Bernoulli on le note X ∼ B(1, p).
  • 165. Loi de Bernoulli - Exemples Quel type d'expérience modélise la loi de Bernoulli ? Exemple 1 : On jette un dé. Soit X1 la v.a. qui vaut 1 si l'on obtient 4 et 0 sinon (par exemple on gagne 1e si l'on obtient 4 et 0e sinon). X1 suit une loi de Bernoulli, X1 ∼ B(1, p) où p = P(X1 = 1) = 1 6 . X1 = 0 1 5 6 1 6 Exemple 2 : Dans une population il y a une probabilité p = 0.02 d'observer une certaine caractéristique. On choisit un individu au hasard et on considère la v.a. X2 qui associe 1 s'il a la caractéristique et 0 sinon. X2 ∼ B(1, 0.02) X2 = 0 1 0.98 0.02
  • 166. Loi de Bernoulli - f.r. La fonction de répartition d'une v.a. X qui suit une loi de Bernoulli est FX(t) =      0 si t 0 1 − p si 0 ≤ t 1 1 si t ≥ 1 1 t 1 − p 1 p
  • 167. Loi de Bernoulli - espérance et variance Soit X ∼ B(1, p), donc sa loi est X = 0 1 1 − p p E(X) = 0(1 − p) + 1p = p. V (X) = E(X2 )−[E(X)]2 = 02 (1−p)+12 p−p2 = p−p2 = p(1−p)
  • 168. Loi binomiale Soit A ∈ A un événement tel que P(A) = p. On fait n ∈ N épreuves successives et indépendantes dans lesquelles A peut se produire ou pas. Soit X la variable aléatoire qui compte le nombre de fois où A se réalise. On dit que X suit une loi binomiale de paramètres n et p, noté X ∼ B(n, p). L'image de X est X(Ω) = {0, 1, 2, . . . , n}. La loi de probabilité, pour k = 0, 1, . . . , n est donnée par P(X = k) = n k pk (1 − p)n−k . Remarque : La loi de Bernoulli est le cas particulier où n = 1. Et on voit que si X1, X2, . . . , Xn sont t.q. Xi ∼ B(1, p) alors X = X1 + X2 + · · · + Xn est X ∼ B(n, p).
  • 169. Loi binomiale Intuition, pourquoi P(X = k) est donnée par la formule P(X = k) = n k pk (1 − p)n−k Prenons le cas particulier n = 4. Ça veut dire que l'on fait 4 épreuves successives et indépendantes, et X compte le nombre de fois qu'un événement A se réalise. Disons que l'on s'intéresse à P(X = 2). Combien de façons nous avons d'obtenir 2 réalisations sur 4 épreuves ? C'est C2 4 = 4 2 . En eet si on note 1 quand l'événement se réalise et 0 sinon on a 1. 1 1 0 0 2. 1 0 1 0 3. 1 0 0 1 4. 0 1 1 0 5. 0 1 0 1 6. 0 0 1 1
  • 170. Loi binomiale 1. 1 1 0 0 2. 1 0 1 0 3. 1 0 0 1 4. 0 1 1 0 5. 0 1 0 1 6. 0 0 1 1 Puisque les réalisations sont indépendantes il faut multiplier les probabilités. Par exemple la probabilité d'observer 0 1 1 0 est (1 − p) · p · p · (1 − p) = p2 (1 − p)2 Le 6 événement écrits en haut sont incompatibles et ont tous une probabilité p2 (1 − p)2 donc P(X = 2) = 6p2 (1 − p)2 = 4 2 p2 (1 − p)4−2 Exercice. Trouver P(X = 3) et P(X = 4).
  • 171. Loi binomiale Nous allons vérier qu'il s'agit bien d'une loi de probabilité. Pour faire ça on doit avoir n X k=0 P(X = k) = 1 ⇔ n X k=0 n k pk (1 − p)n−k = 1 On va utiliser la formule du binôme de Newton : (x + y)n = n X k=0 n k xk yn−k Si on prend x = p et y = 1 − p on a donc n X k=0 n k pk (1 − p)n−k = (p + 1 − p)n = 1n = 1
  • 172. Loi binomiale - Espérance et Variance L'espérance de la loi binomiale est donnée par E(X) = np. La variance de la loi binomiale est donnée par V (X) = np(1 − p). Remarque : Si X ∼ B(n, p) et X1, X2, . . . , Xn sont t.q. Xi ∼ B(1, p) l'espérance est E(X) = E(X1 + · · · + Xn) = E(X1) + · · · + E(Xn) = p + · · · + p | {z } n fois = np. La variance est V (X) = V (X1 + · · · + Xn) = V (X1) + · · · + V (Xn) = p(1 − p) + · · · + p(1 − p) | {z } n fois = np(1 − p). Attention ! E(X1 + · · · + Xn) = E(X1) + · · · + E(Xn) est toujours vrai. V (X1 + · · · + Xn) = V (X1) + · · · + V (Xn) est vrai ssi X1, . . . , Xn sont indépendantes (vous allez voir ça en Stat 3).
  • 173. Loi binomiale - Espérance et Variance On peut calculer l'espérance directement, en utilisant la dénition. E(X) = X k xkP(X = xk) = n X k=0 k n k pk (1 − p)n−k = n X k=1 k n! k!(n − k)! pk (1 − p)n−k = n X k=1 n! (k − 1)!(n − k)! pk (1 − p)n−k = np n X k=1 (n − 1)! (k − 1)!(n − k)! pk−1 (1 − p)n−k = np n X k=1 n − 1 k − 1 pk−1 (1 − p)n−k on pose j := k − 1 = np n−1 X j=0 n − 1 j pj (1 − p)n−1−j = np(p + 1 − p)n−1 = np
  • 174. Loi binomiale - Espérance et Variance On peut calculer la variance directement, en utilisant la dénition. On calcule d'abord E[X(X − 1)] = E(X2 ) − E(X) E[X(X − 1)] = X k (xk(xk − 1))P(X = xk) = n X k=0 k(k − 1) n k pk (1 − p)n−k = n X k=1 k(k − 1) n! k!(n − k)! pk (1 − p)n−k = n(n − 1)p2 n X k=1 (n − 2)! (k − 2)!(n − k)! pk−2 (1 − p)n−k = n(n − 1)p2 n X k=1 n − 2 k − 2 pk−2 (1 − p)n−k on pose j := k − 2 = n(n − 1)p2 n−2 X j=0 n − 2 j pj (1 − p)n−2−j = n(n − 1)p2 (p + 1 − p)n−2 = n(n − 1)p2
  • 175. Loi binomiale - Espérance et Variance On a trouvé que E[X(X − 1)] = E(X2 ) − E(X) = n(n − 1)p2 et donc E(X2 ) = n(n − 1)p2 + E(X) = n(n − 1)p2 + np Et on peut calculer la variance V (X) = E(X2 ) − [E(X)]2 = n(n − 1)p2 + np − (np)2 = n2 p2 − np2 + np − n2 p2 = np − np2 = np(1 − p)
  • 176. Loi binomiale - Exemples Exemple 1. On jette 10 fois une pièce de monnaie. Soit X la v.a. qui compte le nombre de résultats pile apparus. Puisque les jets sont indépendants on a X ∼ B(10, 1 2 ). Quelle est la probabilité d'observer 7 fois pile ? P(X = 7) = 10 7 1 2 7 (1 − 1 2 )10−7 = 0.117. Quelle est la probabilité d'observer 8 fois ou plus pile ? P(X ≥ 8) = P(X = 8) + P(X = 9) + P(X = 10) = P10 k=8 10 k 1 2 k (1 − 1 2 )10−k = 0.054. En moyenne, combien de fois on tombera sur pile ? Il faut calculer l'espérance : E(X) = 101 2 = 5. Quelle est la variance de X ? V (X) = 101 2 1 − 1 2 = 5 2 .
  • 177. Loi binomiale - Exemples Exemple 2. Considérons une urne avec 5 boules rouges et 10 boules bleues. On tire 2 fois successivement une boule de l'urne avec remise (c.a.d. on tire une boule on note sa couleur et on la remet dans l'urne). Soit X la v.a. qui compte le nombre de boules rouges tirées. Puisque les tirages sont avec remise, la composition de l'urne ne change pas d'un tirage à l'autre. Les tirages sont indépendantes. Donc X ∼ B(n, p) avec n = 2, p = 5 15 = 1 3 . On écrit la loi de X. P(X = 0) = 2 0 1 3 0 2 3 2 = 4 9 P(X = 1) = 2 1 1 3 1 2 3 1 = 2 2 9 = 4 9 P(X = 2) = 2 2 1 3 2 2 3 0 = 1 9 X = 0 1 2 4 9 4 9 1 9
  • 178. Loi hypergéométrique On tire simultanément n boules dans une urne contenant N boules, dont m ont une certaine propriété (et donc N − m boules n'ont pas la propriété). Remarquons que c'est comme tirer n boules sans remise et sans tenir en compte de l'ordre. Contrairement à la loi binomiale, les tirages ne sont pas indépendants. Soit X la variable aléatoire qui compte le nombre de boules tirées avec la propriété. On dit alors que X suit une loi hypergéométrique de paramètres N, n, m, noté X ∼ H(N, n, m). L'image de X est X(Ω) = {0, 1, 2, . . . , n}. La loi de probabilité, pour 0 ≤ k ≤ min{n, m} est donnée par P(X = k) = m k N−m n−k N n
  • 179. Loi hypergéométrique - Espérance et Variance E(X) = nm N V (X) = nm N 1 − m N N−n N−1 Si on pose p := m N on a E(X) = np V (X) = np(1 − p)N−n N−1 Remarque. Si N → +∞ et le rapport m N reste constant et égal à p, la loi hypergéométrique converge vers une loi binomiale de paramètres n et p. Observons par exemple V (X) = np(1 − p)N−n N−1 →N np(1 − p), la variance d'une binomiale. Idée : si N est très grand (ex. 10000 boules) et n petit (ex. 2 boules), quand on tire des boules de l'urne, le rapport m N ne change pas beaucoup, et reste ' p. C'est presque comme faire des tirages indépendants et on est presque dans le cas de la loi binomiale.
  • 180. Loi hypergéométrique - Exemple Considérons une urne avec 5 boules rouges et 10 boules bleues. On tire 2 boules simultanément de l'urne. Soit X la v.a. qui compte le nombre de boules rouges tirées. On a X ∼ H(15, 2, 5), avec N = 15, n = 2, m = 5. On écrit sa loi. P(X = 0) = 5 0 10 2−0 15 2 = 1 · 45 105 P(X = 1) = 5 1 10 2−1 15 2 = 5 · 10 105 P(X = 2) = 5 2 10 2−2 15 2 = 10 · 1 105 X = 0 1 2 45 105 50 105 10 105
  • 181. Loi de Poisson Soit λ 0 le nombre moyen d'occurrences dans un intervalle de temps xe d'un certain événement qui se produit indépendamment du temps écoulé depuis l'événement précédent. Exemple. Le nombre de naissances par jour dans un jour donné. Soit X la variable qui compte le nombre d'événements qui se sont produits dans cet intervalle de temps. On dit que X suit une loi de Poisson de paramètre λ, noté X ∼ P(λ). On a X(Ω) = N et la probabilité d'observer k occurrences (k ∈ N) est : P(X = k) = e−λ λk k!
  • 182. Loi de Poisson Vérions qu'ils s'agit d'une loi de probabilité. On utilise le développement en série entière de l'exponentielle. Pour tout x ∈ R on a ex = ∞ X k=0 xk k! Donc si X ∼ P(λ) on a ∞ X k=0 P(X = k) = ∞ X k=0 e−λ λk k! = e−λ ∞ X k=0 λk k! = e−λ eλ = 1
  • 183. Loi de Poisson - Espérance et variance Soit X une v.a. qui suit une loi de Poisson de paramètre λ 0. Alors E(X) = λ. Démonstration. E(X) = ∞ X k=0 kP(X = k) = ∞ X k=0 ke−λ λk k! = ∞ X k=1 ke−λ λk k! = ∞ X k=1 e−λ λk (k − 1)! = e−λ λ ∞ X k=1 λk−1 (k − 1)! on pose j = k − 1 = e−λ λ ∞ X j=0 λj j! = e−λ λeλ = λ
  • 184. Loi de Poisson - Espérance et variance Soit X une v.a. qui suit une loi de Poisson de paramètre λ 0. Alors V (X) = λ. Démonstration. E(X2 ) = ∞ X k=0 k2 e−λ λk k! = e−λ λ ∞ X k=1 k λk−1 (k − 1)! on pose j = k − 1 = e−λ λ ∞ X j=0 (j + 1) λj j! = e−λ λ   ∞ X j=0 j λj j! + ∞ X j=0 λj j!   = λ ∞ X j=0 je−λ λj j! | {z } E(X) +e−λ λeλ = λ2 + λ V (X) = E(X2 ) − [E(X)]2 = λ2 + λ − λ2 = λ
  • 185. La loi de Poisson est parfois appelée loi des événements rares. Exemples d'application : Nombre de pièces défectueuses dans une livraison (si on sait la moyenne des pièces défectueuses et il y a indépendance). En assurance : pour modéliser la survenue de sinistres pendant un intervalle de temps. En nance : pour modéliser les ux d'ordres d'achat et de vente pendant un intervalle de temps. Nombre de clients (appels téléphoniques, etc.) pendant un intervalle de temps. En biologie : nombre d'infections (nombre de mutations, etc.) pendant un intervalle de temps.
  • 186. Loi de Poisson - Exemple Une crue centennale est une crue que l'on observe en moyenne une fois chaque 100 ans. Imaginons que l'on peut modéliser ce phénomène avec une v.a. X avec loi de Poisson de paramètre λ = 1 (le paramètre est égal à l'espérance de X). Donc X ∼ P(1). P(X = k) est donc la probabilité d'observer k crues dans une période de 100 ans. On calcule les probabilités pour k = 0, 1, 2, 3 : •P(X = 0) = e−1 10 0! = 1 e ≈ 0.368 •P(X = 1) = e−1 11 1! = 1 e ≈ 0.368 •P(X = 2) = e−1 12 2! = 1 2e ≈ 0.184 •P(X = 3) = e−1 13 3! = 1 6e ≈ 0.061 X = 0 1 2 3 . . . 0.368 0.368 0.184 0.061 . . .
  • 187. Loi géométrique Soit A ∈ A un événement tel que P(A) = p. On eectue des épreuves successives et indépendantes jusqu'à quand A se réalise la première fois. Soit X la variable aléatoire qui compte le nombre d'épreuves eectuées. On dit que X suit une loi géométrique de paramètre p, noté X ∼ G(p). L'image de X est X(Ω) = N∗ (c.a.d. n ≥ 1). La loi de probabilité, pour k ∈ N∗ est donnée par P(X = k) = (1 − p)k−1 p.
  • 188. Loi géométrique Intuition : comment on a obtenu la formule P(X = k) = (1 − p)k−1 p ? La probabilité P(X = k) correspond à la probabilité d'obtenir dans une succession de k épreuves de Bernoulli, k − 1 échecs suivis d'un succès. Ac Ac . . . Ac | {z } k−1 fois A Les épreuves étant indépendantes, la probabilité d'obtenir k − 1 échecs est le produit (1 − p)(1 − p) . . . (1 − p) | {z } k−1 fois = (1 − p)k−1 . La dernière épreuve doit être un succès (car on est en train de calculer la proba de faire k épreuves) et est indépendante des autres. Donc P(X = k) = (1 − p)k−1 p
  • 189. Loi géométrique Nous allons vérier qu'il s'agit bien d'une loi de probabilité. Nous allons utiliser le développement en série entière suivant : si |x| 1 alors 1 1 − x = ∞ X k=0 xk Donc ∞ X k=1 P(X = k) = ∞ X k=1 (1 − p)k−1 p = p ∞ X j=0 (1 − p)j = p 1 1 − (1 − p) = 1
  • 190. Loi géométrique - Espérance et variance E(X) = 1 p Démonstration. Puisque pour |x| 1 on a 1 1−x = P∞ k=0 xk si on dérive par rapport à x on obtient 1 (1 − x)2 = ∞ X k=0 kxk−1 . On obtiens alors E(X) = ∞ X k=1 kP(X = k) = ∞ X k=1 k(1 − p)k−1 p = p ∞ X k=0 k(1 − p)k−1 = p 1 (1 − (1 − p))2 = 1 p
  • 191. Loi géométrique - Espérance et variance V (X) = 1−p p2 Démonstration. En dérivant deux fois la série entière 1 1−x on a 2 (1−x)3 = P∞ k=0 k(k − 1)xk−2 . E(X(X − 1)) = ∞ X k=1 k(k − 1)(1 − p)k−1 p = p(1 − p) ∞ X k=0 k(k − 1)(1 − p)k−2 = p(1 − p) 2 (1 − (1 − p))3 = 2(1 − p) p2 On a donc E(X(X − 1)) = E(X2 ) − E(X) = 2(1−p) p2 ssi E(X2 ) = 2(1−p) p2 + E(X) = 2(1−p) p2 + 1 p = 2−p p2 . Donc V (X) = 2−p p2 − 1 p2 = 1−p p2 .
  • 192. Loi géométrique - Exemples Exemple 1. Un jeune couple veut avoir des enfants. Ils décident de s'arrêter quand ils auront la première lle. Soit X la v.a. qui compte le nombre d'enfant qu'ils ont fait jusqu'à la première lle, X ∼ G(1 2 ). P(X = k) est donc la probabilité d'observer k enfants. On calcule les probabilités pour k = 1, 2, 3, 4 : •P(X = 1) = 1 2 •P(X = 2) = 1 2 2−1 · 1 2 = 1 4 •P(X = 3) = 1 2 3−1 · 1 2 = 1 8 •P(X = 4) = 1 2 4−1 · 1 2 = 1 16 X = 1 2 3 4 . . . 1 2 1 4 1 8 1 16 . . . Combien d'enfants fera en moyenne un coupe qui adopte cette stratégie ? E(X) = 1 1 2 = 2 Exemple 2. On tire un dé jusqu'à quand on tombe sur 4 et X est la v.a. qui compte le nombre d'épreuves. P(X = k) = (5 6 )k−1 1 6 .
  • 193. Loi binomiale négative Exemple. Un jeune couple veut avoir des enfants et ils décident de s'arrêter jusqu'à quand ils auront r lles. Soit A ∈ A un événement tel que P(A) = p. On eectue des épreuves successives et indépendantes jusqu'à quand A se réalise r ≥ 1 fois. Soit X la variable aléatoire qui compte le nombre d'épreuves eectuées. On dit que X suit une loi binomiale négative de paramètres r et p, noté X ∼ BN(r, p). L'image de X est X(Ω) = {n ∈ N|n ≥ r}. La loi de probabilité, pour k ≥ r est donnée par P(X = k) = k − 1 r − 1 pr (1 − p)k−r .
  • 194. Loi binomiale négative Intuition : comment on a obtenu la formule P(X = k) = k−1 r−1 pr (1 − p)k−r ? L'événement X = k est une réunion d'événements du type Ac Ac A . . . A Ac . . . Ac Ac | {z } k−1 fois A La dernière doit être un succès. Si on sait que ce dernier succès arrive à l'épreuve k, on a eu r − 1 succès dans les k − 1 épreuves précédentes. Les épreuves étant indépendantes, la probabilité d'obtenir r succès et k − r échecs est le produit pr (1 − p)k−r . Puisque il y a k−1 r−1 de choisir r − 1 succès en k − 1 épreuves P(X = k) = k−1 r−1 pr (1 − p)k−r .
  • 195. Loi binomiale négative Par exemple dans le cas des enfants si r = 3 et k = 7. Si la 3ème lle arrive au 7ème enfant qui nait, ça veut dire qu'on a eu 4 garçons et 2 lles parmi les 6 enfants précédents. Par exemple on aurait pu avoir G F G G G F | {z } 6 fois F ou F F G G G G | {z } 6 fois F Il y a C2 6 = 6 2 = 15 façon de choisir ce type de succession de 2 lles et 4 garçons. On a donc P(X = 7) = 6 2 1 2 3 · 1 2 7−3 ≈ 0.117 X = 3 4 5 6 7 . . . 0.125 0.187 0.187 0.156 0.117 . . . Exo : Calculer la probabilité d'avoir plus de 6 enfants. P(X ≥ 6) = 1 − P(X 6) = 1 − P(X ≤ 5) = 1 − (0.125 + 0.187 + 0.187) = 0.5
  • 196. Loi binomiale négative - Espérance et variance On remarque que si X ∼ BN(r, p), X peut être récrite comme une somme de r v.a. indépendantes avec loi géométrique, c.a.d. X = X1 + X2 + · · · + Xr avec Xi ∼ G(p) pour i = 1, . . . , r. On a donc E(X) = E(X1 + X2 + · · · + Xr) = r 1 p V (X) = V (X1 + X2 + · · · + Xr) = r1−p p2 Attention ! La variance d'une somme de v.a. est égale à la somme des variances si les v.a. sont indépendantes. Sinon le résultat est faux.
  • 197. 1 Ensembles, expérience aléatoire, notion de probabilité, combinatoire 2 Probabilité conditionnelle et théorème de Bayes 3 Variable aléatoire et loi de probabilité 4 Variable aléatoire discrète Espérance et variance d'une v.a. discrète 5 Variable aléatoire continue Espérance et variance d'une v.a. continue 6 Lois usuelles Lois usuelles discrètes Lois usuelles continues
  • 198. Lois usuelles continues Certaines variables aléatoires continues suivent des lois standard. Ou verra les lois suivantes 1 Loi uniforme 2 Loi exponentielle 3 Loi normale Pour chaque loi on étudiera 1 La fonction de densité. 2 L'espérance et la variance. 3 La fonction de répartition.
  • 199. Loi uniforme Une v.a. continue X suit une loi uniforme sur un intervalle borné [a, b], noté X ∼ U([a, b]), si sa fonction de densité est de la forme fX(x) = ( 1 b−a si x ∈ [a, b] 0 sinon f(x) x 1 b−a a b Il est facile de voir que fX(x) est bien une fonction de densité. Eectivement fX(x) ≥ 0 pour tout x ∈ R. R ∞ −∞ fX(x)dx = R b a 1 b−a dx = (b − a) 1 b−a = 1.
  • 200. F.r. d'une v.a. uniforme Fonction de répartition de X ∼ U([a, b]). Par dénition FX(t) = P(X ≤ t) = R t −∞ fX(x)dx - Pour t ≤ a, on a FX(t) = R t −∞ fX(x)dx = R t −∞ 0dx = 0. - Pour t ∈]a, b], on a FX(t) = Z a −∞ fX(x)dx + Z t a fX(x)dx = 0 + Z t a 1 b − a dx = t − a b − a - Pour t b, on a FX(t) = Z a −∞ 0dx + Z b a 1 b − a dx + Z t b 0dx = 0 + 1 + 0 = 1
  • 201. F.r. d'une v.a. uniforme Fonction de répartition de X ∼ U([a, b]). On a donc FX(t) =      0 si t ≤ a t−a b−a si t ∈]a, b] 1 si t b 1 F(t) t a b
  • 202. Loi uniforme [0, 1] Un cas particulier important est le cas où X a une distribution uniforme avec a = 0 et b = 1. Dans ce cas on note X ∼ U([0, 1]). fX(x) = ( 1 si x ∈ [0, 1] 0 sinon et F(t) =      0 si t ≤ 0 t si t ∈]0, 1] 1 si t 1