SlideShare une entreprise Scribd logo
1  sur  72
Télécharger pour lire hors ligne
UNIVERSITE MOHAMMED V RABAT
FACULTE DES SCIENCES JURIDIQUES
ECONOMIQUES ET SOCIALES
AGDAL
‫اﻟﺨﺎﻣﺲ‬ ‫ﻣﺤﻤﺪ‬ ‫ﺟﺎﻣﻌﺔ‬–‫اﻟﺮﺑﺎط‬
‫واﻻﻗﺘﺼﺎدﯾﺔ‬ ‫اﻟﻘﺎﻧﻮﻧﯿﺔ‬ ‫اﻟﻌﻠﻮم‬ ‫ﻛﻠﯿﺔ‬
‫اﻛﺪال‬ ‫واﻻﺟﺘﻤﺎﻋﯿﺔ‬
DEPARTEMENT DE SCIENCES ECONOMIQUES
Licence fondamentale en Sciences Economiques et Gestion
COURS DE PROBABILITES
Professeur : Adil EL MARHOUM
ANNEE UNIVERSITAIRE 2014/2015
Cours de probabilités
Adil EL MARHOUM Page 2
INTRODUCTION
La théorie des probabilités est constamment utilisée en analyse statistique. Elle permet
notamment de déterminer statistiquement la probabilité d'un événement qui ne peut pas être
testé directement.
Les probabilités mathématiques sont largement utilisées en physique, en biologie, en
sciences sociales ainsi que dans l'industrie et le commerce. Elles font l'objet d'applications
dans des domaines aussi variés que la génétique, la mécanique quantique ou les assurances.
Probabilités, ou théorie des probabilités, branche des mathématiques qui s'attache à
mesurer ou à déterminer quantitativement la probabilité qu'a un événement ou une
expérience d'aboutir à un résultat donné. Cette théorie est fondée sur l'étude des
permutations et des combinaisons. Elle constitue la base de tous les travaux en statistiques.
Historique
On attribue en général à Blaise Pascal et à Pierre de Fermat l'invention au XVIIe siècle
d'une première théorie des probabilités appliquée aux jeux de hasard, même si Jérôme
Cardan s'était déjà penché sur la question dès le XVIe siècle. Cinquante ans plus tard, dans
son ouvrage posthume Ars conjectandi (1713), Jacques Bernoulli systématisa le calcul des
probabilités, en énonçant des théorèmes prometteurs tels que l'additivité des probabilités.
Au même moment, en Angleterre, Abraham de Moivre introduisit la notion de loi normale
dans son œuvre Doctrine of Chances.
Le XIXe siècle fut marqué par la publication en 1814 de la Théorie analytique des
probabilités de Laplace, dans lequel la théorie des probabilités est appliquée à la mécanique
et aux statistiques. Cet ouvrage eut une influence considérable sur tous les mathématiciens
de ce siècle. Avec les travaux de Darwin et du statisticien Quételet, la vision probabiliste du
monde s'affirma encore davantage, englobant tous les domaines de la science.
Le calcul des probabilités est certainement l’une des branches les plus récentes des
mathématiques, bien qu’il ait en fait trois siècles et demi d’existence. Après s’être cantonné
dans l’étude des jeux de hasard, il s’est introduit dans presque toutes les branches de
l’activité scientifique, aussi bien dans l’analyse (théorie du potentiel), l’économie, la
génétique (lois de Mendel), la physique corpusculaire (toutes les théories statistiques) que
dans la psychologie et l’informatique, dont la source est l’étude de la quantité
d’information, donnée probabiliste s’il en est. Il est rare de trouver un tel exemple de
« recouvrement » dans le domaine scientifique. On peut, sans paradoxe, soutenir que toutes
les mathématiques anciennes sont un cas particulier du calcul des probabilités, le certain
étant de l’aléatoire dont la réalisation a une probabilité égale à 1.
Cours de probabilités
Adil EL MARHOUM Page 3
Le calcul des probabilités est né de l’étude des jeux de hasard. Ce dernier mot, transmis par
l’Espagne, vient d’Arabie. L’arabe az-zahr, « dé à jouer », s’est transformé en azar, « hasard »
(et souvent « revers ») en espagnol. La base philologique, si l’on peut dire, du calcul des
probabilités est donc le jeu (pile ou face, jeu de roulette, cartes). Pascal et le chevalier de
Méré sont certainement les premiers à avoir voulu introduire le quantitatif dans ces études et à
les mathématiser. On essaye aujourd’hui de réduire l’importance de ce point de départ en
cherchant un fondement axiomatique et en enseignant le calcul des probabilités sans parler de
hasard (à peine ose-t-on parler d’aléa). Il n’en est pas moins vrai que, sans l’activité des
joueurs, le calcul des probabilités n’aurait sûrement pas vu le jour. Depuis le XVIIe siècle, de
nombreux mathématiciens ont apporté une très importante contribution au développement de
cette science : parmi les plus marquants, citons Laplace, dont le tome VII des Œuvres
complètes est consacré au calcul des probabilités, et Denis Poisson, Carl Friedrich Gauss,
Henri Poincaré, Émile Borel, Maurice Fréchet, Paul Levy, A. N. Kolmogorov et
A. Khintchine.
Cours de probabilités
Adil EL MARHOUM Page 4
ANALYSE COMBINATOIRE
I. INTRODUCTION
L'analyse combinatoire, fondée sur des formules de permutations et de combinaisons, possède
d'importantes applications dans de nombreuses branches des mathématiques, comme par
exemple dans la théorie des probabilités et en statistiques, où elles peuvent servir à compter le
nombre d'arrangements possibles des éléments d'un système.
Au cours de ce chapitre nous définirons pour commencer la notion de disposition ordonnée et
disposition non ordonnée. Ensuite nous étudierons les différentes dispositions à savoir les
permutations, les arrangements et les combinaisons.
II. DISPOSITIONS
Soient deux éléments a et b :
 Si (a , b)  (b , a) alors on parle de disposition ordonnée.
 Si (a , b)  (b , a) alors on parle de disposition non ordonnée.
III. PERMUTATIONS
Une permutation est une disposition ordonnée. Le nombre de permutations que l’on peut faire
avec n éléments est :
Pn = n ! = n  (n-1)  (n-2)  …  2  1
Exemple :
Le nombre de permutations que l’on peut faire avec trois éléments a, b, c est :
P3 = 3 ! = 3  2  1 = 6
Ces 6 permutations sont : (a,b,c), (a,c,b), (b,a,c), (b,c,a), (c,a,b), et (c,b,a).
IV. ARRANGEMENTS
Un arrangement de p éléments choisis parmi n éléments est une disposition ordonnée de p de
ces n éléments. On distingue les arrangements avec répétitions et les arrangements sans
répétitions.
4.1. Arrangements sans répétitions
C’est le nombre d’arrangements que l’on peut faire avec p éléments choisis parmi n éléments,
chacun d’eux ne peut figurer qu’une seule fois dans le même arrangement. Le nombre
d’arrangements sans répétitions est :
)!(
!
pn
n
A
p
n


Cours de probabilités
Adil EL MARHOUM Page 5
Exemple :
Le nombre d’arrangements sans répétitions que l’on peut faire avec deux éléments choisis
parmi trois éléments a, b, c est :
6
1
123
)!23(
!32
3




A
Ces 6 arrangements sont : (a,b), (b,a), (a,c), (c,a), (b,c), et (c,b).
4.2. Arrangements avec répétitions
C’est le nombre d’arrangements que l’on peut faire avec p éléments choisis parmi n éléments,
chacun d’eux peut figurer plusieurs fois dans le même arrangement.
Le nombre d’arrangements avec répétitions est : np
Exemple :
Le nombre d’arrangements avec répétitions que l’on peut faire avec deux éléments choisis
parmi trois éléments a, b, c est : 32
= 9
Ces 9 arrangements sont : (a,a), (a,b), (b,a), (a,c), (c,a), (b,b), (b,c), (c,b) et (c,c).
V. COMBINAISONS
Une combinaison de p éléments choisis parmi n éléments est une disposition non ordonnée de
p de ces n éléments. On distingue les combinaisons avec répétitions et les combinaisons sans
répétitions.
5.1. Combinaisons sans répétitions
C’est le nombre de combinaisons que l’on peut faire avec p éléments choisis parmi n
éléments, chacun d’eux ne peut figurer qu’une seule fois dans la même combinaison.
Le nombre de combinaisons sans répétitions est :
)!(!
!
pnp
n
C
p
n


Exemple :
Le nombre de combinaisons sans répétitions que l’on peut faire avec deux éléments choisis
parmi trois éléments a, b, c est :
3
!1!2
!32
3


C
Ces 3 combinaisons sont : (a,b), (a,c), et (b,c).
Cours de probabilités
Adil EL MARHOUM Page 6
5.2. Combinaisons avec répétitions
C’est le nombre de combinaisons que l’on peut faire avec p éléments choisis parmi n
éléments, chacun d’eux peut figurer plusieurs fois dans la même combinaison.
Le nombre de combinaisons avec répétitions est :
)!1(!
)!1(
1


 
np
pn
CK
p
pn
p
n
Exemple :
Le nombre de combinaisons avec répétitions que l’on peut faire avec deux éléments choisis
parmi trois éléments a, b, c est :
6
!2!2
!42
4
2
123
2
3


  CCK
Ces 6 combinaisons sont : (a,a), (a,b), (a,c), (b,b), (b,c), et (c,c).
Cours de probabilités
Adil EL MARHOUM Page 7
CALCUL DE PROBABILITES
I. INTRODUCTION
Au cours de ce chapitre nous définirons pour commencer la notion d'expérience aléatoire et
d'événement aléatoire. Ensuite nous étudierons la notion de probabilité : définition et
propriétés. Nous présenterons aussi la notion d'exclusivité, la probabilité conditionnelle et la
notion d'indépendance. Enfin, nous terminerons le chapitre par le théorème de bayes.
II. DEFINITIONS
2.1. Notion d’aléatoire
La définition de la probabilité est liée aux notions d’expérience aléatoire et d’événement
aléatoire.
 Une expérience est dite aléatoire lorsqu’on ne peut en prévoir exactement le résultat, du
fait que tous les facteurs qui déterminent ce résultat ne sont pas maîtrisés.
 Un événement aléatoire est un événement qui peut se réaliser ou ne pas se réaliser au
cours d’une expérience aléatoire.
Exemple :
Le jet d’un dé numéroté de 1 à 6 est une expérience aléatoire car le résultat du jet est
imprévisible. L’événement avoir une face paire du dé est un événement aléatoire car le
résultat du jet peut être impair comme il peut être pair.
Le choix d’une personne dans un groupe d’individus contenant des hommes et des femmes est
une expérience aléatoire car le résultat du choix est imprévisible. L’événement choisir une
femme est un événement aléatoire car la personne choisie peut être une femme comme elle
peut être un homme.
2.2. Définition classique de la probabilité
Si au cours d’une expérience aléatoire on peut dénombrer tous les résultats possibles, et si
parmi ces résultats on peut dénombrer tous les résultats favorables à la réalisation d’un
événement aléatoire quelconque A, on définit classiquement la probabilité de l’événement A
comme étant le rapport du nombre de résultats favorables au nombre de résultats possibles.
possiblesrésultatsdeNombre
favorablesrésultatsdeNombre
)( Ap
Il faut noter que tous les résultats possibles doivent avoir la même chance de réalisation.
Cours de probabilités
Adil EL MARHOUM Page 8
Cette définition montre que la probabilité est toujours comprise entre 0 et 1.
0  p  1
La probabilité de tout événement qui doit nécessairement se réaliser au cours d’une
expérience aléatoire est égale à 1, il s’agit d’un événement certain.
P(événement certain) = 1
La probabilité de tout événement qui ne peut pas se réaliser au cours d’une expérience
aléatoire est nulle, il s’agit d’un événement impossible.
P(événement impossible) = 0
Exemple :
Dans une urne contenant 20 boules blanches, 15 boules noires, 15 boules rouges et 10 boules
vertes on choisie de façon aléatoire une boule.
Le tirage de la boule est une expérience aléatoire car le résultat du tirage est imprévisible.
L’événement choisir une boule blanche est un événement aléatoire car la boule tirée peut être
blanche comme elle peut être d’une autre couleur.
Le nombre de boules pouvant être choisies est 60 car l’urne contient au total 60 boules. Le
nombre de boules favorables à l’événement « boule blanche » est 20 car l’urne contient 20
boules blanches. La probabilité de tirer une boule blanche est donc :
33,0
60
20
p
III. NOTION D’EXCLUSIVITE
3.1. Événements exclusifs
Deux événements aléatoires associés à une même expérience aléatoire sont dits exclusifs ou
incompatibles s’ils ne peuvent pas se réaliser simultanément.
Si deux événements aléatoires A et B sont exclusifs alors :
p(A ou B) = p(A) + p(B) et p(A et B) = 0
Si deux événements aléatoires A et B ne sont pas exclusifs alors :
p(A ou B) = p(A) + p(B) – p(A et B)
Cours de probabilités
Adil EL MARHOUM Page 9
3.2. Événements mutuellement exclusifs
Plusieurs événements aléatoires associés à une même expérience aléatoire sont dits
mutuellement exclusifs ou mutuellement incompatibles s’ils sont exclusifs deux à deux.
Si k événements A1, A2, …, Ak sont mutuellement exclusifs alors :
p(A1 ou A2 ou … ou Ak) = p(A1) + p(A2) + … + p(Ak)
Si trois événements aléatoires A, B, et C ne sont pas mutuellement exclusifs alors :
p(A ou B ou C) = p(A) + p(B) + p(C) – p(A et B) – p(A et C) – p(B et C) + p(A et B et C)
Cette formule peut être généralisée à plusieurs événements non exclusifs, on l'appelle égalité
de Poincaré :
 

)()()()(
1
21 kjiji
n
i
in etAetAApetAApApouAououAAp 
Dans cette égalité les différents S qui figurent portent sur toutes les combinaisons possibles
des indices différant les uns des autres.
3.3. Evénements complémentaires
Plusieurs événements aléatoires associés à une même expérience aléatoire sont dits totalement
exclusifs ou complémentaires s’ils sont exclusifs deux à deux et si l’un d’eux doit
nécessairement se réaliser.
Si k événements A1, A2, …, Ak sont complémentaires alors :
p(A1 ou A2 ou … ou Ak) = p(A1) + p(A2) + … + p(Ak) = 1
Exemple :
Dans un jeu de cartes contenant 13 cartes de cœur, 13 cartes carreau, 13 cartes pique et 13
cartes trèfles on choisie de façon aléatoire une carte. Les 13 cartes de chaque couleur sont les
cartes As, 2, 3, 4, 5, 6, 7, 8, 9, 10, valet, dame, roi.
Soient les événements :
 A : tirer une carte cœur p(A) =
4
1
52
13

 B : tirer une carte carreau p(B) =
4
1
52
13

 C : tirer une carte pique p(C) =
4
1
52
13

 D : tirer une carte trèfle p(D) =
4
1
52
13

 E : tirer une carte As p(E) =
13
1
52
4

 F : tirer une carte dame p(F) =
13
1
52
4

Cours de probabilités
Adil EL MARHOUM Page 10
* Probabilité de tirer une carte cœur ou carreau :
Les événements A et B sont exclusifs :
p(A ou B) = p(A) + p(B) =
2
1
4
1
4
1

* Probabilité de tirer une carte cœur ou As :
Les événements A et E ne sont pas exclusifs car on peut avoir A et E simultanément c’est le
cas où on tire une carte As de cœur.
p(As de cœur) = p(A et E) =
52
1
p(A ou E) = p(A) + p(E) – p(A et E) =
13
4
52
16
52
1
13
1
4
1

* Probabilité de tirer une carte cœur ou carreau ou pique :
Les événements A, B, et C sont mutuellement exclusifs :
p(A ou B ou C) = p(A) + p(B) + p(C) =
4
3
4
1
4
1
4
1

* Probabilité de tirer une carte cœur ou carreau ou dame :
Les événements A, B, et F ne sont pas mutuellement exclusifs :
p(A ou B ou F) = p(A) + p(B) + p(F) – p(A et B) – p(A et F) – p(B et F) + p(A et B et F)
p(A ou B ou F) =
13
7
52
28
0
52
1
52
1
0
13
1
4
1
4
1

IV. NOTION D’INDEPENDANCE
4.1. Probabilité conditionnelle
Considérons le cas de plusieurs expériences aléatoires simultanées ou successives.
Soient deux événements aléatoires A et B non nécessairement exclusifs.
La probabilité conditionnelle de l’événement A sous la condition B, est la probabilité de
réalisation de l’événement A sachant que l’événement B est déjà réalisé. Elle est désignée
par :
)(
et B)p(A
)/(
Bp
BAp 
Soient deux événements aléatoires A et B non nécessairement exclusifs.
Cours de probabilités
Adil EL MARHOUM Page 11
La probabilité conditionnelle de l’événement B sous la condition A, est la probabilité de
réalisation de l’événement B sachant que l’événement A est déjà réalisé. Elle est désignée
par :
)(
et B)p(A
)/(
Ap
ABp 
Cette définition conduit à la formule de probabilité composée :
P(A et B) = p(A)  p(B/A) = p(B)  p(A/B)
On peut généraliser cette formule à plusieurs événements. Ainsi pour trois événements A, B,
et C :
P(A et B et C) = p(A)  p(B/A)  p(C/A et B)
Exemple :
Dans une urne contenant 20 boules blanches, 15 boules noires, 15 boules rouges et 10 boules
vertes on choisie de façon aléatoire deux boules successives. Quelle est la probabilité que les
deux boules tirées soient blanches ?
Soient A l’événement « première boule tirée est blanche » et B l’événement « deuxième boule
tirée est blanche ».
p(A) est la probabilité de tirer au premier tirage une boule blanche :
p(A) = 33,0
60
20

p(B/A) est la probabilité de tirer au deuxième tirage une boule blanche sachant que la
première boule tirée est blanche.
Au deuxième tirage l’urne contient donc 59 boules dont 19 sont blanches car on a déjà tiré
une boule blanche. On a donc :
p(B/A) = 32,0
59
19

P(A et B) = p(A)  p(B/A) = 0,33  0,32 = 0,1056
Si on tire successivement trois boules, la probabilité que les trois boules soient vertes est :
0035,0
58
8
59
9
60
10
p
Cours de probabilités
Adil EL MARHOUM Page 12
4.2. Evénements indépendants
Deux événements A et B sont indépendants si la probabilité de voir se réaliser l’événement A
ne dépend pas de la réalisation ou de la non réalisation de l’événement B. La probabilité de
voir se réaliser l’événement B ne dépend pas de la réalisation ou de la non réalisation de
l’événement A.
p(A) = p(A/B) = p(A/non B)
p(B) = p(B/A) = p(B/non A)
Deux événements A et B sont donc indépendants si :
p(A et B) = p(A)  p(B)
Plusieurs événements A1, A2, …, Ak sont indépendants si :
p(A1 et A2 et … et Ak) = p(A1)  p(A2)  …  p(Ak)
L'indépendance de plusieurs événements deux à deux n'entraîne pas nécessairement
l'indépendance de l'ensemble des événements.
Exemple :
On lance deux dés parfaitement homogènes numérotés de 1 à 6. Soient :
L’événement A : résultat du premier dé est impair ;
L’événement B : résultat du deuxième dé est impair ;
L’événement A : la somme des deux résultats est impaire.
p(A) =
2
1
6
3
 p(B) =
2
1
6
3
 p(C) =
2
1
36
18

 Indépendance de A et B :
p(A et B) = p(A)  p(B/A) =
4
1
2
1
2
1
 = p(A)  p(B)
A et B sont donc indépendants.
 Indépendance de A et C :
p(A et C) = p(A)  p(C/A) =
4
1
2
1
2
1
 = p(A)  p(C)
A et C sont donc indépendants.
 Indépendance de B et C :
p(B et C) = p(B)  p(C/B) =
4
1
2
1
2
1
 = p(B)  p(C)
B et C sont donc indépendants.
Cours de probabilités
Adil EL MARHOUM Page 13
 Indépendance de A, B, et C :
p(A et B et C) = 0 car la somme de deux résultats impairs ne peut pas être impaire.
p(A et B et C)  p(A)  p(B)  p(C)
A, B, et C sont donc dépendants.
V. THEOREME DE BAYSE
Soient E1, E2, …, Ek, une série de k événements aléatoires totalement exclusifs. À chacun de
ces événements correspond une information initiale qui permet d’évaluer à priori les
probabilités p(E1), p(E2), …, p(Ek).
p(E1) + p(E2) + … + p(Ek) = 1
Soit A un événement quelconque pour lequel on connaît à priori les probabilités
conditionnelles p(A/E1), p(A/E2), …, p(A/Ek).
Les événements E1, E2, Ek étant complémentaires, l’événement A doit se réaliser
nécessairement avec E1 ou E2 ou ... ou Ek.
p(A) = p[(A et E1) ou (A et E2) ou … ou (A et Ek)]
p(A) = p(A et E1) + p(A et E2) + … + p(A et Ek)
Par définition de la probabilité conditionnelle :
p(A et Ei) = p(Ei)  p(A/Ei) (i = 1 à k)
La probabilité de l’événement A est donc :
P(A) = p(E1)  p(A/E1) + p(E2)  p(A/E2) + … + p(Ek)  p(A/Ek)


k
i
ii EApEpAp
1
)/()()(
Le théorème de bayes permet de calculer les probabilités conditionnelles à postériori p(E1/A),
p(E2/A), …, p(Ek/A).
Par définition de la probabilité conditionnelle :
)(
)et E(
)/( i
Ap
Ap
AEp i 
)/()(
)/()E(
)/(
1
i
i
k
i
i
i
i
EApEp
EApp
AEp




Cours de probabilités
Adil EL MARHOUM Page 14
Exemple :
Le tableau suivant donne la description de 400 étudiants d’une école selon le niveau d’études
et l’option étudiée.
Niveau option Gestion Informatique Total
1ère
année 80 60 140
2ème
année 75 40 100
3ème
année 50 30 90
4ème
année 45 20 70
Total 250 150 400
On a choisi au hasard un étudiant de l’école, il est inscrit en gestion, quelle est la probabilité
qu’il soit inscrit en 1ère
année, en 2ème
année, en 3ème
année, en 4ème
année ?
Désignons par N1, N2, N3, et N4 les événements « niveau 1ère
année », « niveau 2ème
année »,
« niveau 3ème
année », et « niveau 4ème
année ».
Ces 4 événements sont complémentaires :
25,0
400
100
)(
35,0
400
140
)(
2
1


Np
Np
175,0
400
70
)(
225,0
400
90
)(
4
3


Np
Np
Désignons par G l’événement « étudiant inscrit en gestion.
 Probabilité qu’un étudiant de la première année soit inscrit en gestion :
32,0
250
80
)/( 1 NGp
 Probabilité qu’un étudiant de la deuxième année soit inscrit en gestion :
30,0
250
75
)/( 2 NGp
 Probabilité qu’un étudiant de la troisième année soit inscrit en gestion :
20,0
250
50
)/( 3 NGp
 Probabilité qu’un étudiant de la quatrième année soit inscrit en gestion :
18,0
250
45
)/( 4 NGp
La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 1ère
année est :
4250,0
18,0175,020,0225,030,025,032,035,0
32,035,0
)/(
)/()()/()()/()()/()(
)/()(
)/(
1
44332211
11
1







GNp
NGpNpNGpNpNGpNpNGpNp
NGpNp
GNp
Cours de probabilités
Adil EL MARHOUM Page 15
La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 2ème
année est :
2846,0
18,0175,020,0225,030,025,032,035,0
30,025,0
)/(
)/()()/()()/()()/()(
)/()(
)/(
2
44332211
22
2







GNp
NGpNpNGpNpNGpNpNGpNp
NGpNp
GNp
La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 3ème
année est :
1708,0
18,0175,020,0225,030,025,032,035,0
20,0225,0
)/(
)/()()/()()/()()/()(
)/()(
)/(
3
44332211
33
3







GNp
NGpNpNGpNpNGpNpNGpNp
NGpNp
GNp
La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 4ème
année est :
1195,0
18,0175,020,0225,030,025,032,035,0
18,0175,0
)/(
)/()()/()()/()()/()(
)/()(
)/(
4
44332211
44
4







GNp
NGpNpNGpNpNGpNpNGpNp
NGpNp
GNp
Cours de probabilités
Adil EL MARHOUM Page 16
NOTION DE VARIABLES ALEATOIRES
I. INTRODUCTION
Au cours de ce chapitre nous définirons pour commencer la notion de variable aléatoire.
Ensuite nous étudierons les différents cas à savoir le cas discret, le cas continu, le cas de
couple de variables aléatoires discrètes et continues. Les caractéristiques des variables
aléatoires seront aussi traitées au cours de ce chapitre, nous définirons la notion d'espérance
mathématique, la variance, la covariance et la corrélation. Enfin, nous terminerons le chapitre
par l'inégalité de Bienaymé Tchebycheff.
II. DEFINITION
Une variable aléatoire X est une variable associée à une expérience ou à un groupe
d'expériences aléatoires et servant à caractériser le résultat de cette expérience ou de ce
groupe d'expériences.
On distingue les variables aléatoires discontinues ou discrètes et les variables aléatoires
continues.
III. VARIABLE ALEATOIRE DISCONTINUE
3.1. Définition
Une variable aléatoire est discrète si elle varie de façon discontinue, la variable ne peut
prendre que des valeurs entières.
Exemple :
 Soit X la variable aléatoire qui caractérise le résultat de l'expérience aléatoire "jet d'un dé
homogène".
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6.
 Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de
quatre enfants.
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 0, 1, 2, 3, et 4.
3.2. Distribution de probabilité
À chacune des valeurs x que peut prendre une variable aléatoire X, correspond une probabilité
p(x), c'est la probabilité que la variable aléatoire X prenne la valeur x :
p(x) = p(X = x)
Cours de probabilités
Adil EL MARHOUM Page 17
L’ensemble des valeurs admissibles x et des probabilités correspondantes p(x) constitue une
distribution de probabilité discontinue. La relation entre x et p(x) est appelée loi de
probabilité.
Pour toutes les distributions de probabilités dont les valeurs x correspondent à des événements
complémentaires, le total des probabilités est égal à 1.
1)(  xp
La distribution cumulée des probabilités est appelée fonction de répartition :
F(x) = p(X  x) = 
x
xp )(
0  F(x)  1
Exemple :
 Soit X la variable aléatoire qui caractérise le résultat de l'expérience aléatoire "jet d'un dé
homogène".
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6
avec la probabilité constante 1/6.
Distribution de probabilité de X
x p(x) F(x)
1
2
3
4
5
6
1/6
1/6
1/6
1/6
1/6
1/6
1/6
2/6
3/6
4/6
5/6
6/6
Total 1
 Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de
quatre enfants.
X est une variable aléatoire discrète, elle peut prendre les valeurs entières 0, 1, 2, 3, et 4.
La probabilité pour qu'un enfant soit un garçon est 1/2.
La probabilité pour qu'un enfant soit une fille est 1/2.
P(0) est la probabilité que les quatre enfants soient des filles. Il y a une seule possibilité :
0625,0)
2
1
(
2
1
2
1
2
1
2
1
)0( 4
p
Cours de probabilités
Adil EL MARHOUM Page 18
P(1) est la probabilité qu’un seul enfant soit un garçon. Ce garçon peut correspondre au
premier enfant, ou au deuxième, ou au troisième ou au quatrième. Il y a donc quatre
possibilités :
25,0)
2
1
(4
2
1
2
1
2
1
2
1
4)1( 4
p
P(2) est la probabilité que deux enfants soient des garçons. Ces deux garçon peuvent
correspondre au premier et deuxième enfants, ou au premier et troisième enfants ou au
premier et quatrième enfants, ou au deuxième et troisième enfants ou au deuxième et
quatrième enfants , ou au troisième et quatrième enfants. Il y a donc six possibilités :
375,0)
2
1
(6
2
1
2
1
2
1
2
1
6)2( 4
p
P(3) est la probabilité que trois enfants soient des garçon. Ces trois garçons peuvent
correspondre au premier et deuxième et troisième enfants, ou au premier et deuxième et
quatrième enfants ou au premier et troisième et quatrième enfants ou au deuxième et troisième
et quatrième enfants. Il y a donc quatre possibilités :
25,0)
2
1
(4
2
1
2
1
2
1
2
1
4)3( 4
p
P(4) est la probabilité que les quatre enfants soient des garçons. Il y a une seule possibilité :
0625,0)
2
1
(
2
1
2
1
2
1
2
1
)4( 4
p
Distribution de probabilité de X
x p(x) F(x)
0
1
2
3
4
0,0625
0,2500
0,3750
0,2500
0,0625
0,0625
0,3125
0,6875
0,9375
1
Total 1
IV. VARIABLE ALEATOIRE CONTINUE
Une variable aléatoire est continue si elle prend n'importe quelle valeur réelle appartenant à
un intervalle donné.
Exemple :
Le poids est une variable aléatoire continue.
La taille est une variable aléatoire continue.
Cours de probabilités
Adil EL MARHOUM Page 19
Un intervalle continu contient une infinité de valeurs. La probabilité d'obtenir exactement un
résultat donné est généralement nulle, bien que ce résultat ne soit pas strictement impossible.
0)(  xXp
La notion de distribution de probabilité n'a donc plus de sens dans le cas continu. Par contre la
fonction de répartition conserve toute sa signification.
Pour une variable aléatoire continue, on calcule la probabilité d'observer une valeur comprise
dans un intervalle donné [x ; x+x].
p(x  X  x+x) = p(X  x+x) - p(X  x) = F(x+x) - F(x)
Cette probabilité tend vers p(x) quand x tend vers 0.
)()()( limlim 00
xFxxFxxXxp
xx


)()('
)()(
limlim 00
xfxF
dx
dF
x
F
x
xFxxF
xx







La fonction f(x), dérivée de la fonction de répartition F(x), est appelée fonction de densité de
probabilité.
L'ensemble des valeurs admissibles pour une variable aléatoire continue et la fonction de
densité de probabilité correspondante est définissent une distribution de probabilité théorique
continue.
Le produit f(x) dx est appelé élément de probabilité, c'est l'équivalent de la probabilité p(x)
pour une variable aléatoire discontinue.
Pour une variable aléatoire continue, le cumul de la fonction de densité de probabilité est égal
à 1 :
1)( 


dxxf
F(x) = 
x
dxxf )(
P(a  X  b) = F(b) - F(a) = 
b
a
dxxf )(
Cours de probabilités
Adil EL MARHOUM Page 20
Exemple :
Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :


 

sinon0
1x0si
)(
k
xf
Pour déterminer la constante k, il faut :
1)( 


dxxf
1
1
1
]
1
0
1
0



k
xk
dxk


 

sinon0
1x0si1
)(xf
On en déduit par intégration la fonction de répartition F(x) :
Si x < 0 :
F(x) = 00)(
0
  
dxdxxf
x
Si 0  x  1 :
F(x) = xdxdxdxxf
xx
   0
0
10)(
Si x > 1 :
F(x) = 1010)(
1
1
0
0
  
xx
dxdxdxdxxf









1xsi1
1x0six
0xsi0
)(xF
Cours de probabilités
Adil EL MARHOUM Page 21
V. COUPLE DE VARIABLES ALEATOIRES
Dans de nombreux cas, les résultats des expériences aléatoires peuvent être caractérisés par
deux variables aléatoires X et Y. on parle alors de couple de variables aléatoires (X , Y). Ces
deux variables peuvent être toutes les deux discrètes, ou toutes les deux continues ou l'une
discontinue et l'autre continue.
5.1. Couple de variables aléatoires discontinues
Dans le cas d'un couple de variables aléatoires discontinues (X , Y), les valeurs respectives de
x de X et y de Y sont des valeurs entières. À chaque couple de valeurs (x,y) correspond une
probabilité p(x,y), c'est la probabilité d'observer simultanément la valeur x pour X et la valeur
y pour Y.
p(X=x et Y=y) = p(x,y)
L'ensemble des valeurs admissibles (x,y) et des probabilités correspondantes p(x,y) forme une
distribution de probabilité discontinue à deux variables.
La fonction de répartition est définie par :
F(x,y) = p( X  x et Y  y)
La distribution de probabilité discontinue à deux variables se présente sous forme d'un tableau
à deux entrées.
X Y y1 y2  yj  yp p(x)
x1 p(x1, y1) p(x1, y2)  p(x1, yj)  p(x1, yp) p(x1)
x2 p(x2, y1) p(x2, y2)  p(x2, yj)  p(x2, yp) p(x2)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Xi p(xi, y1) p(xi, y2)  p(xi, yj)  p(xi, yp) p(xi)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
xk p(xk, y1) p(xk, y2)  p(xk, yj)  p(xk, yp) p(xk)
p(y) p(y1) p(y2)  p(yj)  p(yp) 1
k est le nombre de valeurs possibles de la variable aléatoire X.
p est le nombre de valeurs possibles de la variable aléatoire Y.
 Probabilités conjointes
p(xi , yj) est dite probabilité conjointe. C'est la probabilité d'obtenir la valeur x et la valeur y
en même temps.
Cours de probabilités
Adil EL MARHOUM Page 22
 Probabilités marginales
)(),(
1
i
p
j
ji xpyxp 
p(xi) est dite probabilité marginale de X. C'est la probabilité d'obtenir la valeur xi quelque soit
la valeur de Y.
)(),(
1
j
k
i
ji ypyxp 
p(yj) est dite probabilité marginale de Y. C'est la probabilité d'obtenir la valeur yj quelque soit
la valeur de X.
Le cumul de toutes les probabilités conjointes p(xi , yj) est égal à 1.
  

k
i
p
j
j
k
i
i
p
j
ji ypxpyxp
1 111
1)()(),(
Par extension de la notion d'indépendance de deux événements aléatoires, deux variables
aléatoires discontinues sont indépendantes, si pour tout couple de valeurs (x,y) :
p(x,y) = p(x)  p(y)
Exemple :
Dans une urne contenant 4 boules blanches, 6 boules noires et 10 boules rouges, on prélève au
hasard et avec remise 3 boules.
Soient la variable aléatoire X qui représente le nombre de boules blanches obtenues, et la
variable aléatoire Y qui représente le nombre de boules noires obtenues.
P(0 et 0) est la probabilité que les trois boules tirées soient rouges, les prélèvements sont
indépendants (tirage avec remise), on peut donc écrire :
125,0
20
10
20
10
20
10
)0;0( p
P(0 et 1) est la probabilité que deux boules tirées soient rouges et une noire, il y a trois
possibilités, on peut donc écrire :
225,0
20
6
20
10
20
10
3)1;0( p
P(0 et 2) est la probabilité que deux boules tirées soient noires et une rouge, il y a trois
possibilités, on peut donc écrire :
135,0
20
6
20
6
20
10
3)2;0( p
P(0 et 3) est la probabilité que les trois boules tirées soient noires, on peut donc écrire :
Cours de probabilités
Adil EL MARHOUM Page 23
027,0
20
6
20
6
20
6
)3;0( p
P(1 et 0) est la probabilité que deux boules tirées soient rouges et une blanche, il y a trois
possibilités, on peut donc écrire :
15,0
20
4
20
10
20
10
3)0;1( p
P(1 et 1) est la probabilité qu'une boule tirée soit blanche, et une noire et une rouge, il y a six
possibilités, on peut donc écrire :
18,0
20
10
20
6
20
4
6)1;1( p
P(1 et 2) est la probabilité que deux boules tirées soient noires et une blanche, il y a trois
possibilités, on peut donc écrire :
054,0
20
6
20
6
20
4
3)2;1( p
P(1 et 3) est la probabilité que trois boules tirées soient noires et une blanche, ce qui est
impossible car on tire que trois boules. On peut donc écrire :
P(1;3) = 0
P(2 et 0) est la probabilité que deux boules tirées soient blanches et une rouge, il y a trois
possibilités, on peut donc écrire :
06,0
20
10
20
4
20
4
3)0;2( p
P(2 et 1) est la probabilité qu'une boule tirée soit noire, et deux blanches, il y a trois
possibilités, on peut donc écrire :
036,0
20
6
20
4
20
4
3)1;2( p
P(2 et 2) est la probabilité que deux boules tirées soient noires et deux blanches, ce qui est
impossible car on tire que trois boules. On peut donc écrire :
P(2;2) = 0
P(2 et 3) est la probabilité que trois boules tirées soient noires et deux blanches, ce qui est
impossible car on tire que trois boules. On peut donc écrire :
P(2;3) = 0
P(3 et 0) est la probabilité que les trois boules tirées soient blanches, on peut donc écrire :
008,0
20
4
20
4
20
4
)0;3( p
P(3 et 1) est la probabilité que trois boules tirées soient blanches et une noire, ce qui est
impossible car on tire que trois boules. On peut donc écrire :
Cours de probabilités
Adil EL MARHOUM Page 24
P(3;1) = 0
P(3 et 2) est la probabilité que trois boules tirées soient blanches et deux noires, ce qui est
impossible car on tire que trois boules. On peut donc écrire :
P(3;2) = 0
P(3 et 3) est la probabilité que trois boules tirées soient noires et trois blanches, ce qui est
impossible car on tire que trois boules. On peut donc écrire :
P(3;3) = 0
La distribution de probabilités du couple de variables aléatoires (X,Y) est :
X Y 0 1 2 3 p(x)
0 0,125 0,225 0,135 0,027 0,512
1 0,15 0,18 0,054 0 0,384
2 0,06 0,036 0 0 0,096
3 0,008 0 0 0 0,008
p(y) 0,343 0,441 0,189 0,027 1
5.2. Couple de variables aléatoires continues
Un couple de variables aléatoires est continu si les deux variables X et Y sont continues, c'est
à dire elles peuvent prendre n'importe quelle valeur réelle appartenant à un intervalle donné.
Un intervalle continu contient une infinité de valeurs. La probabilité d'obtenir exactement un
résultat donné est généralement nulle, bien que ce résultat ne soit pas strictement impossible.
0),()yYet(  yxpxXp
La notion de distribution de probabilité n'a donc plus de sens dans le cas continu. Par contre la
fonction de répartition conserve toute sa signification.
Pour un couple de variables aléatoires continues, on calcule la probabilité d'observer des
valeurs comprise dans des intervalles donnés [x ; x+x] pour X et [y ; y+y] pour Y.
p(x  X  x+x et y  Y  y+y) = p(X  x+x et Y  y+y) - p(X  x et Y  y)
p(x  X  x+x et y  Y  y+y) = F(x+x , y+y) - F(x , y)
Cette probabilité tend vers p(x,y) quand x et y tendent tous les deux vers 0.
),(),()et( limlim
0
0
0
0
yxFyyxxFyyYyxxXxp
y
x
y
x





Cours de probabilités
Adil EL MARHOUM Page 25
),(),('
),(),( 2
0
0
lim yxfyxF
dxdy
Fd
yx
yxFyyxxF
y
x





La fonction f(x,y), dérivée de la fonction de répartition F(x,y), est appelée fonction de densité
de probabilité à deux variables.
L'ensemble des valeurs admissibles (x,y) et la fonction de densité de probabilité
correspondante f(x,y) définissent une distribution de probabilité théorique continue à deux
variables.
Le produit f(x,y) dxdy est appelé élément de probabilité, c'est l'équivalent de la probabilité
p(x,y) pour un couple de variables aléatoires discontinues.
Pour une variable aléatoire continue, le cumul de la fonction de densité de probabilité est égal
à 1 :
1),(  




dxdyyxf
F(x,y) =   
x y
dxdyyxf ),(
En intégrant la fonction de densité de probabilité par rapport à l'une des variables, on obtient
les fonctions de densité marginales :



 dyyxfxf ),()( 


 dxyxfyf ),()(
Par extension de la notion d'indépendance de deux événements aléatoires, deux variables
aléatoires continues sont indépendantes, si pour tout couple de valeurs (x,y) :
f(x,y) = f(x)  f(y)
Exemple :
Soit un couple de variables aléatoires continues (X,Y) définie par la fonction de densité de
probabilité :


 

sinon0
1y0et1x0si
),(
k
yxf
Pour déterminer la constante k, il faut :
1),(  




dxdyyxf
Cours de probabilités
Adil EL MARHOUM Page 26
1
1
1
1
1
]
]
1
0
1
0
1
0
1
0
1
0
1
0








k
kdy
dy
dxdyk
ky
kx


 

sinon0
1y0et1x0si1
),( yxf
On en déduit par intégration la fonction de répartition F(x) :
Si x < 0 et y < 0 :
F(x,y) = 00),(       
x yx y
dxdydxdyyxf
Si 0  x  1 et 0  y  1 :
F(x,y) = xyydxdxdydxdyyxf
xx yx y
    00 0
1),(
Si x > 1 et y >1 :
F(x,y) = 11),(
1
0
1
0
   
dxdydxdyyxf
x y









1yet1xsi1
1y0et1x0sixy
0yet0xsi0
),( yxF
Cours de probabilités
Adil EL MARHOUM Page 27
VI. CARACTERISTIQUES D'UNE VARIABLE ALEATOIRE
6.1. Espérance mathématique
6.1.1. Définition
On appelle espérance mathématique la valeur moyenne de la variable, elle remplace la
moyenne arithmétique dans le cas d'une variable statistique.
Cas discret
  )()( xpxXE
Cas continu



 dxxfxXE )()(
Exemple :
 Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de
quatre enfants.
Distribution de probabilité de X
x p(x) F(x)
0
1
2
3
4
0,0625
0,2500
0,3750
0,2500
0,0625
0,0625
0,3125
0,6875
0,9375
1
Total 1
0625,0425,03375,0225,010625,00)()(   xpxXE
2)( XE
Dans une famille de quatre enfants on doit s'attendre à avoir deux garçons.
Exemple :
Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :


 

sinon0
1x0si1
)(xf
2
1
)( ]
2
²
1
0
1
0
 
xdxxXE
Cours de probabilités
Adil EL MARHOUM Page 28
6.1.2. Propriétés
 L'espérance d'une fonction d'une variable X est :
Cas discret
  )()())(( xpxgXgE
Cas continu



 dxxfxgXgE )()())((
Exemple :
Cas discret
  )(²²)( xpxXE
Cas continu



 dxxfxXE )(²²)(
 L'espérance d'une constante est la constante :
E(a) = a
 L'espérance d'une transformation linéaire est la transformation linéaire de l'espérance :
bXaEbaxE
xpbxxpabaxE
xbpxaxpxpbaxbaxE





)()(
)()()(
)()()()()(
 L'espérance d'une somme est la somme des espérances :
E(X + Y) = E(X) + E(Y)
 L'espérance d'une différence est la différence des espérances :
E(X - Y) = E(X) - E(Y)
 L'espérance d'un produit est le produit des espérances si les variables sont indépendantes :
E(X  Y) = E(X)  E(Y)
6.2. Variance et écart-type
6.2.1. Définition
Comme pour la moyenne, la variance d'une variable aléatoire conserve la même définition
que la variance d'une variable statistique. C'est l'espérance mathématique des carrés des écarts
par rapport à l'espérance.
Cours de probabilités
Adil EL MARHOUM Page 29
 Cas discret
V(X) = E[(X - E(X))²] =   )())²(( xpXEx
 Cas continu
V(X) = E[(X - E(X))²] = 


 dxxfXEx )())²((
L'écart-type est égale à la racine carrée de la variance :
)(XV
La variance est calculée à partir de la formule développée suivante :
V(X) = E[(X - E(X))²] = E[X² - 2XE(X) + E(X)²]
V(X) = E(X²) - 2 E(X) E(X) + E(X)²
V(X) = E(X²) - E(X)²
La variance est donc égale à la différence entre l'espérance mathématique des carrés et le carré
de l'espérance mathématique.
Exemple :
 Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de
quatre enfants.
Distribution de probabilité de X
x p(x) F(x)
0
1
2
3
4
0,0625
0,2500
0,3750
0,2500
0,0625
0,0625
0,3125
0,6875
0,9375
1
Total 1
20625,0425,03375,0225,010625,00)()(   xpxXE
50625,0²425,0²3375,0²225,0²10625,0²0)(²²)(   xpxXE
V(X) = E(X²) - E(X)² = 5 - 2² = 1
L’écart-type est la racine carré de 1 : 11 
Cours de probabilités
Adil EL MARHOUM Page 30
Exemple :
Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :


 

sinon0
1x0si1
)(xf
2
1
)( ]
2
²
1
0
1
0
 
xdxxXE
3
1
²²)( ]
3
3
1
0
1
0
 
xdxxXE
12
1
4
1
3
1
)²(²)()(  XEXEXV
12
1

6.2.2. Propriétés
 La variance d'une constante est nulle :
V(a) = 0
 La variance d'une transformation linéaire est :
)(²)(
))²](²([)(
)²])([()(
))²]()[(()(
XVabaXV
XEXaEbaXV
bXaEbaXEbaXV
baXEbaXEbaXV




 La variance d'une somme est la somme des variances si les variables sont indépendantes :
V(X + Y) = E[((X + Y) - E(X+Y))²]
V(X + Y) = E[(X + Y - E(X) - E(Y))²]
V(X + Y) = E[((X-E(X)) + (Y-E(Y)))²]
V(X + Y) = E[(X-E(X))² + 2 (X-E(X)) (Y-E(Y)) + (Y-E(Y))²]
V(X + Y) = E[(X-E(X))²] + 2 E[(X-E(X)) (Y-E(Y))] + E[(Y-E(Y))²]
Cours de probabilités
Adil EL MARHOUM Page 31
Si X et Y sont indépendantes, on peut écrire :
E[(X-E(X)) (Y-E(Y))] = E(X-E(X)) E(Y-E(Y)) = 0
V(X + Y) = E[(X-E(X))²] + E[(Y-E(Y))²]
V(X + Y) = V(X) + V(Y)
 La variance d'une différence est la somme des variances si les variables sont
indépendantes :
V(X - Y) = E[((X - Y) - E(X-Y))²]
V(X - Y) = E[(X - Y - E(X) + E(Y))²]
V(X - Y) = E[((X-E(X)) - (Y-E(Y)))²]
V(X - Y) = E[(X-E(X))² - 2 (X-E(X)) (Y-E(Y)) + (Y-E(Y))²]
V(X - Y) = E[(X-E(X))²] - 2 E[(X-E(X)) (Y-E(Y))] + E[(Y-E(Y))²]
Si X et Y sont indépendantes, on peut écrire :
E[(X-E(X)) (Y-E(Y))] = E(X-E(X)) E(Y-E(Y)) = 0
V(X - Y) = E[(X-E(X))²] + E[(Y-E(Y))²]
V(X - Y) = V(X) + V(Y)
 Variable centrée réduite
Une variable aléatoire est dite centrée si son espérance mathématique est nulle, elle est dite
réduite si son écart-type est égal à 1.
Toute variable aléatoire peut être transformée en une variable centrée réduite par le
changement de variable

)(XEX 
.
6.3. Covariance d'un couple de variables aléatoires
6.3.1. Définition
La covariance d'un couple de variables aléatoires conserve la même définition que la
covariance de deux variables statistiques. Elle permet d'étudier le sens de la relation entre
deux variables. C'est l'espérance mathématique des produits des écarts par rapport aux
espérances.
Cours de probabilités
Adil EL MARHOUM Page 32
 Cas discret
COV(X , Y) = E[(X - E(X) (Y - E(Y))] =   ),())(()(( yxpYEyXEx
 Cas continu
COV(X , Y) = E[(X - E(X) (Y - E(Y))] =  




 dxdyyxfYEyXEx ),())(()((
La covariance est calculée à partir de la formule développée suivante :
COV(X , Y) = E[(X - E(X) (Y - E(Y))] = E[XY - XE(Y) - E(X)Y + E(X)E(Y)]
COV(X , Y) = E(XY) - E(X) E(Y) - E(X) E(Y) + E(X) E(Y)
COV(X , Y) = E(XY) - E(X) E(Y)
La covariance est donc égale à la différence entre l'espérance mathématique des produits et le
produit des espérances mathématiques.
  ),()( yxpyxXYE dans le cas discret.
 




 dxdyyxfxyXYE ),()( dans le cas continu.
La relation entre deux variables aléatoires est croissante ou décroissante selon que la
covariance est positive ou négative.
Exemple :
Soit la distribution de probabilités du couple de variables aléatoires (X,Y) suivante :
X Y 0 1 2 3 p(x)
0 0,125 0,225 0,135 0,027 0,512
1 0,15 0,18 0,054 0 0,384
2 0,06 0,036 0 0 0,096
3 0,008 0 0 0 0,008
p(y) 0,343 0,441 0,189 0,027 1
COV(X , Y) = E(XY) - E(X) E(Y)
6,0008,03096,02384,01512,00)()(   xxpXE
9,0027,03189,02441,01343,00)()(   yypYE
Cours de probabilités
Adil EL MARHOUM Page 33
0,36E(XY)
0330230130,00803
0320220,036120,0602
031054,02118,0110,1501
1027,030135,020225,010125,000)(
),()(





 
XYE
yxpyxXYE
COV(X , Y) = E(XY) - E(X) E(Y) = 0,36 - 0,60,9 = - 0,18
Exemple :
Soit un couple de variables aléatoires continues (X,Y) définie par la fonction de densité de
probabilité :


 

sinon0
1y0et1x0si1
),( yxf
1),()(
1
0
1
0
  dydyyxfxf
1),()(
1
0
1
0
  dxdxyxfyf
2
1
)( ]
2
²
1
0
1
0
 
xdxxXE
2
1
)( ]
2
²
1
0
1
0
 
ydyyYE
4
1
2
1
)(
),()(
1
0
1
0
1
0



 




xdxdxdyxyXYE
dxdyyxfxyXYE
0
2
1
2
1
4
1
)()()(),(  YEXEXYEYXCOV
Cours de probabilités
Adil EL MARHOUM Page 34
6.3.2. propriétés
 La covariance de deux variables aléatoires indépendantes est nulle :
COV(X , Y) = E(XY) - E(X) E(Y) = E(X) E(Y) - E(X) E(Y) = 0
 Covariance des transformations linéaires :
Soient : X' = a X + b et Y' = c Y + d (a, b, c, et d sont des constantes
quelconques).
COV(X' , Y') = E[(X'-E(X')) (Y'-E(Y'))]
COV(X' , Y') = E[((aX+b)-E(aX+b)) ((cY+d)-E(cY+d))]
COV(X' , Y') = E[(aX-aE(X)) (cY-cE(Y))]
COV(X' , Y') = ac E[(X-E(X)) (Y-E(Y))]
COV(X' , Y') = ac COV(X , Y)
 On peut démonter que la covariance en valeur absolue est inférieure ou égale au produit
des écart-types :
)()(),( YVXVYXCOV 
6.4. Coefficient de corrélation linéaire
6.4.1. Définition
Le coefficient de corrélation linéaire, désigné par r, a pour objet de mesurer l'intensité de la
relation linéaire entre deux variables X et Y.
)()(
),(
YVXV
YXCOV
r


Cette définition montre que le coefficient de corrélation linéaire possède le même signe que la
covariance et qu'il est toujours compris entre -1 et 1.
-1  r  1
La corrélation linéaire est forte lorsque le coefficient de corrélation est proche de 1 ou de -1.
 R = 1 : dans ce cas, on parle de corrélation linéaire croissante parfaite ou de dépendance
fonctionnelle.
 R = -1 : dans ce cas, on parle de corrélation linéaire décroissante parfaite ou de
dépendance fonctionnelle.
Cours de probabilités
Adil EL MARHOUM Page 35
 R = 0 : dans ce cas, il n'y a aucune dépendance linéaire entre les deux variables, on parle
de corrélation linéaire nulle.
 -1 < r < 0 : dans ce cas les deux variables varient en sens inverse, la corrélation est faible
ou forte selon que le coefficient de corrélation est proche de 0 ou de -1.
 0 < r < 1 : dans ce cas les deux variables varient dans le même sens, la corrélation est
faible ou forte selon que le coefficient de corrélation est proche de 0 ou de 1.
Exemple :
Soit la distribution de probabilité à deux variables suivante :
X Y 1 2 p(x)
1 0 1/4 1/4
2 1/2 0 1/2
3 0 1/4 1/4
p(y) 1/2 1/2 1
2
1
4
2
9
)²(²)()(
2
9
4
1
²3
2
1
²2
4
1
²1)(²²)(
2
4
1
3
2
1
2
4
1
1)()(





XEXEXV
xpxXE
xxpXE
4
1
4
9
2
5
)²(²)()(
2
5
2
1
²2
2
1
²1)(²²)(
2
3
2
1
2
2
1
1)()(





YEYEYV
ypyYE
yypYE
0
2
3
23)()()(),(
3
4
1
23013022
2
1
12
4
1
21011),()(

 
YEXEXYEYXCOV
yxpxyXYE
0
)()(
),(



YVXV
YXCOV
r
Deux variables non indépendantes peuvent avoir un coefficient de corrélation linéaire nul.
Cours de probabilités
Adil EL MARHOUM Page 36
6.4.2. Propriétés
 Transformations linéaires
Soient : X' = aX + b et Y' = cY + d (a, b, c, et d sont des constantes
quelconques).
),()','(
)(²)(²
),(
)','(
)'()'(
)','(
)','(
YXrYXr
YVcXVa
YXacCOV
YXr
YVXV
YXCOV
YXr





Les transformations linéaires ne modifient pas l'intensité de la relation linéaire mais elles
peuvent changer le sens de cette relation.
VII. INEGALITE DE BIENAYME TCHEBYCHEFF
Cette inégalité concerne des probabilités relatives à des écarts par rapport à l'espérance
mathématique supérieurs à deux fois l'écart-type, c'est à dire à des écarts centrés réduits

)(XEX 
.
Quelque soit la variable aléatoire X, la probabilité d'un intervalle [E(X)-k , E(X)+] a pour
borne inférieure
²
1
1
k
 .
  )())²(()( xpXExXV E(X)-k  x  E(X)+
On peut décomposer la variance en trois somme :
321)( SSSXV 
avec :
 S1 =   )())²(( xpXEx x < E(X)-k
 S2 =   )())²(( xpXEx E(X)-k  x  E(X)+
 S3 =   )())²(( xpXEx x > E(X)+
321)( SSSXV 
31)( SSXV 
Cours de probabilités
Adil EL MARHOUM Page 37
 Pour S1 x < E(X) - k
x - E(X) < - k
(x - E(X))² > k²²
  )(²²)())²(( 11 xpkxpXEx 
 )(²²1 1 xpkS 
 Pour S3 x > E(X) + k
x - E(X) > k
(x - E(X))² > k²²
  )(²²)())²(( 33 xpkxpXEx 
 )(²²3 3 xpkS 
31)( SSXV 
  )(²²)(²²)( 31 xpkxpkXV 
))()((²²)( 31   xpxpkXV 
  )(1)()( 231 xpxpxp
On note : pxp  )(2
 kXEXkXEpxp  )()(()(2
Or ²)( XV
On a donc :
²
1
1
1
²
1
)1(²1
)1(²²²
k
p
p
k
pk
pk



 
L'inégalité de Bienaymé Tchebycheff est donc :
²
1
1))()((
k
kXEXkXEp  
Cours de probabilités
Adil EL MARHOUM Page 38
LOIS THEORIQUES DISCRETES
I. INTRODUCTION
Le but des lois théoriques est la description des phénomènes statistiques dont le but de
calculer la probabilité de certains événements et donc d'avoir une certaine représentation de
l'avenir.
Nous étudierons au cours de ce chapitre les lois de probabilités les plus courantes qui vont
nous permettre la description d'un phénomène aléatoire déterminé. Nous présenterons ainsi la
loi de Bernoulli, la loi binomiale, la loi polynomiale, la loi hypergéométrique, la loi
hypergéométrique généralisée, et la loi de poisson.
II. LOI DE BERNOULLI
La loi de Bernoulli intervient dans le cas d'une seule expérience aléatoire à laquelle on associe
un événement aléatoire quelconque.
La réalisation de l'événement au cours de cette expérience est appelée succès et la probabilité
de réalisation est dite probabilité de succès, désignée par p. Par contre la non réalisation de
l'événement est appelée échec et la probabilité de non réalisation est dite probabilité d'échec,
désignée par q.
q = 1 - p
La variable aléatoire X qui caractérise le nombre de succès au cours d'une seule expérience
aléatoire est appelée variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec les
probabilités respectives q et p.
Loi de probabilité d'une variable Bernoulli
x p(x)
0
1
q
P
Total 1
Les caractéristiques d'une variable Bernoulli sont :
 Espérance mathématique
E(X) = ppqxxp  10)(
 Variance
E(X²) = ppqxpx  ²1²0)(²
V(X) = E(X²) - E(X)² = p - p² = p (1 - p) = pq
Cours de probabilités
Adil EL MARHOUM Page 39
Exemple :
On lance une pièce de monnaie une seule fois. Soit X la variable aléatoire qui caractérise le
nombre de pile obtenus. X est une variable de Bernoulli, elle prend les valeurs entières 0 et 1
avec la probabilité constante 0,5.
Loi de probabilité de X
x p(x)
0
1
0,5
0,5
Total 1
III. LOI BINOMIALE
3.1. Définition
La loi binomiale intervient dans le cas de plusieurs expériences aléatoires identiques et
indépendantes aux quelles on associe un événement aléatoire quelconque.
La réalisation de l'événement au cours de chacune des expériences est appelée succès et la
probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non
réalisation de l'événement est appelée échec et la probabilité de non réalisation est dite
probabilité d'échec, désignée par q.
q = 1 - p
les probabilités p et q restent constantes au cours d'une suite d'expériences aléatoires. C'est le
cas des prélèvements d'individus au hasard dans une populations infinie ou le prélèvement
d'individus dans une population finie, lorsque les individus sont remis en place au fur et à
mesure des prélèvements.
La variable aléatoire X qui caractérise le nombre de succès au cours de n expériences
aléatoires indépendantes est appelée variable binomiale, elle prend les valeurs entières de 0 à
n.
La probabilité d'obtenir x succès et donc (n-x) échecs au cours de n expériences aléatoires
indépendantes est, pour x = 0, 1, ..., n :
xnxx
n
qpxp C

)(
La loi binomiale dépend de deux paramètres :
 n = nombre d'expériences aléatoires indépendantes ;
 p = probabilité de succès au cours de chacune des n expériences aléatoires, p doit rester
constante.
Une variable aléatoire X qui sui une loi binomiale de paramètres n et p, est désignée par :
Cours de probabilités
Adil EL MARHOUM Page 40
X = B(n , p)
3.2. Caractéristiques d'une variable binomiale
La variable Bernoulli est un cas particulier de la loi binomiale, elle correspond à la loi
binomiale de paramètres 1 et p.
Une variable binomiale de paramètres n et p, peut être considérée comme étant la somme de n
variables de Bernoulli identiques et indépendantes de même paramètre p.
X = B(n , p)
X = X1 + X2 + … + Xn
Avec Xi (i=1 à n) est une variable Bernoulli tel que :
E(Xi) = p et V(Xi) = pq
 Espérance mathématique
En appliquant la propriété de l'espérance d'une somme on peut écrire :
E(X) = E(X1 + X2 + … + Xn)
E(X) = E(X1) + E(X2) + … + E(Xn)
E(X) = p + p + … + p
E(X) = np
 Variance et écart-type
En appliquant la propriété de la variance d'une somme de variables aléatoires indépendantes
on peut écrire :
V(X) = V(X1 + X2 + … + Xn)
V(X) = V(X1) + V(X2) + … + V(Xn)
V(X) = pq + pq + … + pq
V(X) = npq
L'écart-type : npq
Exemple :
Dans un lot important de pièces, dont 10 % sont défectueuses, on prélève un échantillon de 20
pièces. Quelle est la probabilité d'obtenir plus de deux pièces défectueuse ?
Cours de probabilités
Adil EL MARHOUM Page 41
On définit la variable aléatoire X comme étant le nombre de pièces défectueuses qu'on peut
obtenir dans l'échantillon. La variable X peut prendre les valeurs entières de 0 à 20.
La population des pièces peut être considérée comme une population pratiquement infinie. La
probabilité de succès, c'est à dire la probabilité qu'une pièce choisie soit défectueuse, est
constante et égale à 0,1. La variable aléatoire X suit donc une loi binomiale de paramètre 20 et
0,1.
X = B(20 ; 0,1)
La probabilité d'avoir plus de deux pièces défectueuses dans l'échantillon est :
P(X > 2) = 1 - p(X  2) = 1 - p(0) - p(1) - p(2)
2945,02852,02702,01501,01)2(
9,01,09,01,09,01,01)2( 1822
20
1911
20
2000
20


Xp
Xp CCC
L'espérance mathématique :
E(X) = np = 20  0,1 = 2 pièces défectueuses.
Dans un échantillon de 20 pièces, on peut s'attendre à avoir deux pièces défectueuses.
La variance : V(X) = npq = 20  0,1  0,9 = 1,8
3.3. Propriétés
 Additivité
La somme de deux ou plusieurs variables binomiales indépendantes de même paramètres p est
elle-même une variable binomiale.
X1 = B(n1 , p) X2 = B(n2 , p) … Xk = B(nk , p)
X1 + X2 + … + Xk = B(n1 + n2 + … + nk , p)
 Formule de récurrence
En effectuant le rapport de deux probabilités successives, on obtient :
)(
)1(
)(
)1( xp
xq
xnp
xp



Exemple :
Soit la distribution binomiale de paramètres 4 et 1/6.
X = B(4 , 1/6)
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 :
Cours de probabilités
Adil EL MARHOUM Page 42
xxx
qpxp C 
 4
4
)(
Les probabilités p(x) peuvent être calculées par récurrence de la manière suivante :
00080154,0
4
6
5
1
6
1
)4(
0154,01157,0
3
6
5
2
6
1
)3(
1157,03858,0
2
6
5
3
6
1
)2(
3858,04823,0
1
6
5
4
6
1
)1(
4823,0)
6
5
()0( 4

















p
p
p
p
p
Distribution de la variable B(4 , 1/6)
x p(x)
0
1
2
3
4
0,4823
0,3858
0,1157
0,0154
0,0008
Total 1
 Les distributions binomiales sont symétriques lorsque p = q = 1/2, la dissymétrie est
d'autant plus grande que p et q sont plus différents de 1/2.
Exemple :
Distribution de la variable B(4 , 1/2)
x p(x)
0
1
2
3
4
0,0625
0,2500
0,3750
0,2500
0,0625
Cours de probabilités
Adil EL MARHOUM Page 43
Total 1
 Table de la loi binomiale
Pour le calcul de p(x), il existe des tables d'usages qui donnent ces calculs. Ces tables
dépendent des paramètres n et p.
IV. LOI POLYNOMIALE
La loi polynomiale est une généralisation de la loi binomiale. elle intervient dans le cas de
plusieurs expériences aléatoires identiques et indépendantes aux quelles on associe k
événements aléatoires complémentaires quelconques. Les probabilités de succès respectives
des k événements sont désignées par p1, p2, …, et pk.
1
1

k
i
ip
La réalisation de l'événement au cours de chacune des expériences est appelée succès et la
probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non
réalisation de l'événement est appelée échec et la probabilité de non réalisation est dite
probabilité d'échec, désignée par q.
q = 1 - p
les probabilités de succès pi (i =1 à k) restent constantes au cours d'une suite d'expériences
aléatoires.
Les variables aléatoires X1, X2, …, Xk désignent respectivement les nombres de succès au
cours de n expériences aléatoires indépendantes pour chacun des k événements. Chaque
variable aléatoire Xi peut prendre les valeurs entières de 0 à n. Ces variables sont telles que :
nx
k
i
i 1
La probabilité d'obtenir x1 succès pour l'événement 1, et x2 succès pour l'événement 2, …, et
xk succès pour l'événement k au cours de n expériences aléatoires indépendantes est :
kx
k
xx
k ppp
xx
n
xxxp 

 21
21
k21
21
!x!!
!
),,,(


Exemple :
On lance quatre fois de suite un dé parfaitement homogène. On désigne par la variable
aléatoire X1 le nombre de faces 1 obtenues, par X2 le nombre de faces 2 obtenues et par X3 le
nombre de faces supérieures ou égales à 3.
La distribution de probabilité relative à ces trois variables est une distributions à deux
variables, puisque la troisième variable est entièrement déterminée par la valeur des deux
autres :
X3 = 4 - X1 - X2
Cours de probabilités
Adil EL MARHOUM Page 44
Ces trois variables peuvent être représentées par une loi polynomiale de probabilités
respectives 1/6, 1/6, et 4/6.
Les différentes probabilités peuvent être calculées à l'aide de la relation :
321
)
6
4
()
6
1
()
6
1
(
!x!!
!4
),,(
k21
321
xxx
xx
xxxp



0370,0)
6
4
()
6
1
()
6
1
(
!1!1!2
!4
)1,1,2(
1975,0)
6
4
()
6
1
()
6
1
(
!4!0!0
!4
)4,0,0(
112
400






p
p
On obtient ainsi la distribution de probabilité du couple (X1 , X2) :
X1 X2 0 1 2 3 4 p(x1)
0
1
2
3
4
0,1976
0,1975
0,0741
0,0123
0,0008
0,1975
0,1482
0,0370
0,0031
0
0,0741
0,0370
0,0046
0
0
0,0123
0,0031
0
0
0
0,0008
0
0
0
0
0,4823
0,3858
0,1157
0,0154
0,0008
p(x2) 0,4823 0,3858 0,1157 0,0154 0,0008 1
V. LOI HYPERGEOMETRIQUE
5.1. Définition
La loi hypergéométrique intervient dans le cas de plusieurs expériences aléatoires
dépendantes aux quelles on associe un caractère étudié quelconque.
la probabilité de succès varie d'une expérience aléatoire à l'autre. C'est le cas des prélèvements
d'individus au hasard dans une populations finie, lorsque les individus ne sont pas remis en
place au fur et à mesure des prélèvements.
Désignons par N l'effectif total de la population dans laquelle on prélève au hasard et sans
remise n individus. La population est composée d'individus qui possèdent la caractère étudié,
le nombre de ces individus sera désigné par n1. n2 désigne le nombre d'individus de la
population qui ne possèdent pas le caractère étudié.
N = n1 + n2
La variable aléatoire X, qui caractérise le nombre d'individus prélevés qui possèdent la
caractère étudié, est appelée variable hypergéométrique, elle prend les valeurs entières de 0 à
n.
Cours de probabilités
Adil EL MARHOUM Page 45
La probabilité d'obtenir x individus possédant le caractère étudié parmi les n individus
prélevés et donc (n-x) individus ne possédant pas le caractère étudié est, pour x = 0, 1, ..., n :
C
CC
n
N
xn
n
x
n
xp

 21
)(
La loi hypergéométrique dépend de trois paramètres :
 N = effectif total de la population ;
 n1 = nombre d'individus de la population qui possèdent le caractère étudié ;
 n = nombre d'individus prélevés sans remise.
Une variable aléatoire X qui sui une loi hypergéométrique de paramètres N, n1, et n est
désignée par :
X = H(N, n1 , n)
5.2. Caractéristiques d'une variable hypergéométrique
les distributions hypergéométriques possèdent des propriétés semblables à celles des
distributions binomiales.
La proportion des individus de la population qui possèdent le caractère étudié est :
N
n
p 1

La proportion des individus de la population qui ne possèdent pas le caractère étudié est :
N
n
q 2

 Espérance mathématique : E(X) = np
 Variance et écart-type : V(X) = npq et npq
Exemple :
Dans une population de 40 personnes, dont 6 personnes sont originaires du Sud, 14 du Nord,
12 de l'Est et 8 de l'Ouest, on choisit au hasard un échantillon de 4 personnes.
La variable aléatoire X désigne le nombre d'individus de l'échantillon qui sont originaire du
Nord.
La population étant finie et les prélèvements s'effectuent sans remise, la variable X suit donc
une loi hypergéométrique de paramètres :
 N = effectif total de la population = 40
 n1 = nombre d'individus de la population qui sont originaires du Nord = 14
 n = nombre d'individus prélevés sans remise = 4
X = H(40, 14, 4)
Cours de probabilités
Adil EL MARHOUM Page 46
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 :
0110,0)4(
1036,0)3(
3236,0)2(
3983,0)1(
1636,0)0(
4
40
0
26
4
14
4
40
1
26
3
14
4
40
2
26
2
14
4
40
3
26
1
14
4
40
4
26
0
14





C
CC
C
CC
C
CC
C
CC
C
CC
p
p
p
p
p
Distribution de probabilité de X
x p(x)
0
1
2
3
4
0,1636
0,3983
0,3236
0,1036
0,0110
Total 1
La proportion des individus de la population qui sont originaires du Nord est :
35,0
40
14
p
La proportion des individus de la population qui ne sont pas originaires du Nord est :
65,0
40
26
q
 Espérance mathématique : E(X) = np = 4  0,35 = 1,4
 Variance et écart-type : V(X) = npq = 40,350,65 = 0,91
 Ecart-type : 95,091,0  npq
Cours de probabilités
Adil EL MARHOUM Page 47
5.3. Approximation de la loi hypergéométrique par la loi binomiale
Dès que l'effectif N de la population devient important, le calcul de
C
CC
n
N
xn
n
x
n
xp

 21
)( devient
fastidieux. On peut démonter dans ce cas que lorsque l'effectif de la population (N) tend vers
l'infini et la proportion des individus possédant le caractère étudié (p) est constante ou tend
vers une constante, la loi hypergéométrique tend vers une loi binomiale de paramètre n et p.
On peut dans ce cas effectuer les calculs de probabilités de façon approximatives à l'aide de la
formule de la loi binomiale. En pratique, l'approximation est satisfaisante dés que la
proportion des individus prélevés est inférieure à 5 %.
n20Nou05,0 
N
n
Exemple :
Soit la variable hypergéométrique H(100, 30, 4)
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 :
C
CC
xx
xp 4
100
4
7030
)(


Distribution de probabilité de X = H(100, 30, 4)
x p(x)
0
1
2
3
4
0,2338
0,4188
0,2679
0,0725
0,0070
Total 1
La distribution de cette variable peut être calculée à l'aide de l'approximation par la loi
binomiale de paramètres 4 et 0,3. Les probabilités approximatives sont telle que, pour x = 0,
1, 2, 3, 4 :
xxx
Cxp 
 4
4
7,03,0)(
Distribution de probabilité de X = B(4 ; 0,3)
x p(x)
0
1
2
3
4
0,2401
0,4116
0,2646
0,0756
0,0081
Total 1
On constate que l'approximation est satisfaisante.
Cours de probabilités
Adil EL MARHOUM Page 48
VI. LOI HYPERGEOMETRIQUE GENERALISEE
La loi hypergéométrique généralisée est une généralisation de la loi hypergéométrique. elle
intervient dans le cas de plusieurs expériences aléatoires dépendantes aux quelles on associe k
caractères étudiés. C'est le cas des prélèvements d'individus au hasard dans une population
finie, lorsque les individus ne sont pas remis en place au fur et à mesure des prélèvements.
Désignons par N l'effectif total de la population dans laquelle on prélève au hasard et sans
remise n individus. La population est composée d'individus qui possèdent le 1er
caractère
étudié, le nombre de ces individus sera désigné par n1. n2 désigne le nombre d'individus de la
population qui possèdent le 2ème
caractère étudié, …, nk désigne le nombre d'individus de la
population qui possèdent le kème
caractère étudié.
N = n1 + n2 + … + nk
Les variables aléatoires X1, X2, …, Xk désignent respectivement les nombres d'individus
prélevés qui possèdent le 1er
caractère, le 2ème
caractère, …, et le kème
caractère. Chaque
variable aléatoire Xi peut prendre les valeurs entières de 0 à n. Ces variables sont telles que :
nx
k
i
i 1
La probabilité d'obtenir x1 individus possédant le 1er
caractère, et x2 individus possédant le
2ème
caractère, …, et xk individus possédant le kème
caractère parmi les n individus prélevés
est :
C
CCC
n
N
x
n
x
n
x
n
k
k
k
xxxp




2
2
1
1
),,,( 21
Exemple :
Dans une population de 40 personnes, dont 6 personnes sont originaires du Sud, 14 du Nord,
12 de l'Est et 8 de l'Ouest, on choisit au hasard un échantillon de 4 personnes.
Quelle est la probabilité d'avoir une personne de chaque région ?
Les variables aléatoires X1, X2, X3 et X4 désignent respectivement les nombres d'individus
prélevés du Sud, du Nord, de l'Est et de l'Ouest. Chaque variable aléatoire Xi peut prendre les
valeurs entières de 0 à 4. Ces variables suivent une loi hypergéométrique généralisée.
La probabilité d'obtenir x1 individus du Sud, et x2 individus du Nord, et x3 individus de l'Est ,
et x4 individus de l'Ouest est :
C
CCCC
xxxx
xxxxp 4
40
812146
4321
4321
),,,(


La probabilité d'avoir une personne de chaque région est donc :
0882,0)1,1,1,1( 4
40
1
8
1
12
1
14
1
6



C
CCCCp
Cours de probabilités
Adil EL MARHOUM Page 49
VI. LOI DE POISSON
POISSON SIMÉON DENIS (1781-1840). Mathématicien français dont les travaux portent
sur les intégrales définies, la théorie électromagnétique et le calcul des probabilités.
C’est dans l’ouvrage Recherches sur la probabilité des jugements ... (1837), qui est un livre
important sur le calcul des probabilités, qu’apparaît pour la première fois la distribution de
Poisson, ou loi de Poisson des grands nombres. Obtenue initialement comme une
approximation de la loi binomiale, elle est devenue fondamentale dans de très nombreux
problèmes.
6.1. Définition
La loi de poisson intervient pour des phénomènes statistiques dont le nombre de réalisation
varie de 0 à l'infini et dont la fréquence moyenne de réalisation est connue.
Exemple :
Nombre d'appels reçus par un standard téléphonique.
Nombre d'accidents de la circulation.
Nombre de visiteur d'un centre commercial.
La variable aléatoire X qui caractérise le nombre de réalisations de ce phénomène est appelée
variable de poisson, elle prend les valeurs entières 0,1, 2, …etc.
La probabilité d'obtenir x réalisations est, pour x = 0, 1, 2, ... :
!
)(
x
me
xp
xm



La loi binomiale dépend d'un seul paramètre :
 m = fréquence moyenne du phénomène étudié.
Une variable aléatoire X qui sui une loi de poisson de paramètre m est désignée par :
X = P(m)
Exemple :
Un port a les moyens techniques de recevoir au maximum 4 bateaux pétroliers par jour. Le
reste est envoyé vers un autres port. Quelle est la probabilité qu'un jour donnée, le port ne
puisse recevoir tous les bateaux qui se présentent, si on sait qu'en moyenne 3 bateaux se
présentent par jour.
Désignons par la variable aléatoire X, le nombre de bateaux qui se présentent un jour donnée.
X suit une loi de poisson de paramètre 3.
X = P(3)
Cours de probabilités
Adil EL MARHOUM Page 50
La probabilité qu'un jour donnée, le port ne puisse recevoir tous les bateaux qui se présentent
est :
P(X > 4) = 1 - p(X  4) = 1 - p(0) - p(1) - p(2) - p(3) - p(4)
1840,01680,02240,02240,01494,00498,01)4(
!4
3
!3
3
!2
3
!1
3
!0
3
1)4(
4333231303












Xp
eeeee
Xp
6.2. Caractéristiques d'une variable binomiale
On peut démontrer que l'espérance mathématique d'une variable de poisson est égale à sa
variance est égale au paramètre m :
E(X) = V(X) = m
6.3. Propriété d'additivité
La somme de deux ou plusieurs variables de poisson indépendantes de paramètres respectives
m1, m2, …, mk est elle-même une variable de poisson de paramètre la somme des paramètres
mi.
X1 = P(m1) X2 = P(m2) … Xk = P(mk)
X1 + X2 + … + Xk = P(m1 + m2 + … + mk)
6.4. Formule de récurrence
En effectuant le rapport de deux probabilités successives, on obtient :
1
)()1(


x
m
xpxp
Exemple :
Soit la distribution de poisson de paramètre 3.
X = P(3)
La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4, …
!
3
)(
3
x
e
xp
x



Cours de probabilités
Adil EL MARHOUM Page 51
Les probabilités p(x) peuvent être calculées par récurrence de la manière suivante :
p(0) = e-3
= 0,0498
1680,0
4
3
2240,0)4(
2240,0
3
3
2240,0)3(
2240,0
2
3
1494,0)2(
1494,0
1
3
0498,0)1(




p
p
p
p
6.5. Table de la loi de poisson
Pour le calcul de p(x), il existe des tables d'usages qui donnent ces calculs. Ces tables
dépendent du paramètre m.
6.6. Approximation de la loi binomiale par la loi de poisson
Dès que le paramètre n de la loi binomiale devient grand, le calcul de xnxx
n
qpxp C

)(
devient fastidieux. On peut démonter dans ce cas que lorsque le nombre d'expériences
indépendantes (n) tend vers l'infini et la probabilité de succès tend vers zéro de telle sorte que
le produit np tend vers une constante, la loi binomiale de paramètre n et p tend vers une loi de
poisson de paramètre np. On peut dans ce cas effectuer les calculs de probabilités de façon
approximatives à l'aide de la formule de la loi de poisson. En pratique, l'approximation est
satisfaisante lorsque la probabilité p est inférieure à 0,1 et le produit np est inférieur à 5.
Exemple :
Une machine fabrique des ampoules avec une proportion d'ampoules défectueuses de 5 %.
Pour contrôler la qualité des ampoules, on a prélevé au hasard, dans un lot important
d'ampoules, un échantillon de 20 ampoules.
Quelle est la probabilité que sur les 20 ampoules prélevées, on ait plus d'une ampoule
défectueuse ?
Désignons par la variable aléatoire X, le nombre d'ampoules défectueuses dans l'échantillon.
La variable X peut prendre les valeurs entières de 0 à 20.
La population des ampoules peut être considérée comme une population pratiquement infinie.
La probabilité de succès, c'est à dire la probabilité qu'une ampoule choisie soit défectueuse,
est constante et égale à 0,05. La variable aléatoire X suit donc une loi binomiale de paramètre
20 et 0,05.
X = B(20 ; 0,05)
Cours de probabilités
Adil EL MARHOUM Page 52
La probabilité d'avoir plus d'une ampoule défectueuse dans l'échantillon est :
p(X > 1) = p(X  1) = 1 - p(0) - p(1)
2641,03774,03585,01)1(
95,005,095,005,01)1( 1911
20
2000
20


Xp
Xp CC
La probabilité d'avoir plus d'une ampoule défectueuse dans l'échantillon peut être calculée de
façon approximative à l'aide de la loi de poisson de paramètre 200,05 = 1, puisque la
probabilité p est inférieure à 0,1 (0,05) et le produit np est inférieur à 5 (200,05 = 1) :
p(X > 1) = p(X  1) = 1 - p(0) - p(1)
2642,03679,03679,01)1(
!1
1
!0
1
1)1(
1101






Xp
ee
Xp
On constate que l'approximation est très satisfaisante.
Cours de probabilités
Adil EL MARHOUM Page 53
LOIS THEORIQUES CONTINUES
I. INTRODUCTION
Le but des lois théoriques est la description des phénomènes statistiques
Nous étudierons au cours de ce chapitre les lois de probabilités continues les plus courantes.
Nous présenterons ainsi la loi Normale dont le principal but est de calculer la probabilité de
certains événements et donc d'avoir une certaine représentation des phénomènes. La loi Khi
deux de Pearson, la loi de Student et la loi de Fisher qui ont un rôle très important dans les
problèmes d'estimation et les tests d'hypothèses.
II. LOI NORMALE
2.1. Définition
La loi normale est la loi continue la plus importante et la plus utilisée dans le calcul de
probabilité. Elle est aussi appelée loi de LAPLACE GAUSS.
Laplace, Pierre Simon (1749-1827). Les réalisations scientifiques majeures de Laplace
concernent la mécanique céleste et le calcul des probabilités. Dans sa Théorie analytique
des probabilités (1812), qui contient des calculs très élaborés d'approximation de grands
nombres, Laplace indiqua les principes et les applications de la géométrie du hasard. Il fut à
l'origine de la loi de Laplace-Gauss, ou loi normale, très utilisée en probabilités.
On appelle variable normale toute variable aléatoire continue X définie dans l'intervalle
  , par la fonction de densité de probabilité suivante :
)²(
2
1
2
1
)( 

mx
exf




m et  sont des paramètres quelconques qui représentent respectivement la moyenne et l'écart
type de la variable.
On peut vérifier que :
1)( 


dxxf
La loi normale dépend de deux paramètres m et .Une variable aléatoire X qui suit une loi
normale de paramètres m et  est désignée par :
X = N(m , )
Cours de probabilités
Adil EL MARHOUM Page 54
2.2. Loi normale centrée réduite
On appelle variable normale réduite toute variable aléatoire normale U de paramètres m = 0 et
 = 1.
Z = N(0 , 1)
Une variable normale réduite est définie par la fonction de densité de probabilité suivante :
2
²
2
1
)(
z
ezf



Toute variable normale X de paramètres m et  peut être transformée en une variable normale
réduite par le changement de variable suivant :

mX
Z


2.3. Forme de la loi normale
La représentation graphique de la fonction de densité de probabilité d'une variable normale est
une courbe en forme de cloche symétrique par rapport à la moyenne m et caractérisée par
l'existence d'un maximum en x = 0 et f(x) =
2
1

.
En particulier la loi normale réduite est symétrique par rapport à l'axe des abscisses et
caractérisée par l'existence d'un maximum en z = 0 et f(z) = 40,0
2
1


.
La fonction de répartition correspond à l'aire comprise entre cette courbe et l'axe des
abscisses.
Cours de probabilités
Adil EL MARHOUM Page 55
2.4. Détermination pratique des probabilités
Pour le calcul de probabilités sans utiliser la fonction de densité, des tables de la loi normale
réduite ont été élaborées. On distingue deux tables de la loi normale réduite, relatives l'une à
la fonction de densité de probabilité et l'autre à la fonction de répartition. En raison de la
symétrie de la distribution, ces tables sont limitées aux valeurs positives de u.
Par le changement de variable

mX
Z

 toutes les variables normales se ramènent à la loi
normale réduite.
2.4.1. Table de la fonction de densité de probabilité
Cette table donne les valeurs f(z) pour des valeurs positives u d'une variable normale réduite.
En raison de la symétrie de f(z), on peut déduire les valeurs f(z) pour les valeurs négatives de
u :
f(-z) = f(z).
Pour une variable normale quelconque X de paramètre m et  :

 )(
)(
)(
zf
mx
f
xf 


Pour lire une valeur f(z) dans la table, il suffit de lire l'intersection entre la ligne
correspondante à la valeur de z et la colonne correspondante au deuxième chiffre après la
virgule de z.
Cours de probabilités
Adil EL MARHOUM Page 56
TABLE DE LA FONCTION DE DENSITE DE LA LOI NORMALE REDUITE
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,3989 0,3989 0,3989 0,3988 0,3986 0,3984 0,3982 0,3980 0,3977 0,3973
0,3970 0,3965 0,3961 0,3956 0,3951 0,3945 0,3939 0,3932 0,3925 0,3918
0,3910 0,3902 0,3894 0,3885 0,3876 0,3867 0,3857 0,3847 0,3836 0,3825
0,3814 0,3802 0,3790 0,3778 0,3765 0,3752 0,3739 0,3725 0,3712 0,3697
0,3683 0,3668 0,3653 0,3637 0,3621 0,3605 0,3589 0,3572 0,3555 0,3538
0,3521 0,3503 0,3485 0,3467 0,3448 0,3429 0,3410 0,3391 0,3372 0,3352
0,3332 0,3312 0,3292 0,3271 0,3251 0,3230 0,3209 0,3187 0,3166 0,3144
0,3123 0,3101 0,3079 0,3056 0,3034 0,3011 0,2989 0,2966 0,2943 0,2920
0,2897 0,2874 0,2850 0,2827 0,2803 0,2780 0,2756 0,2732 0,2709 0,2685
0,2661 0,2637 0,2613 0,2589 0,2565 0,2541 0,2516 0,2492 0,2468 0,2444
0,2420 0,2396 0,2371 0,2347 0,2323 0,2299 0,2275 0,2251 0,2227 0,2203
0,2179 0,2155 0,2131 0,2107 0,2083 0,2059 0,2036 0,2012 0,1989 0,1965
0,1942 0,1919 0,1895 0,1872 0,1849 0,1826 0,1804 0,1781 0,1758 0,1736
0,1714 0,1691 0,1669 0,1647 0,1626 0,1604 0,1582 0,1561 0,1539 0,1518
0,1497 0,1476 0,1456 0,1435 0,1415 0,1394 0,1374 0,1354 0,1334 0,1315
0,1295 0,1276 0,1257 0,1238 0,1219 0,1200 0,1182 0,1163 0,1145 0,1127
0,1109 0,1092 0,1074 0,1057 0,1040 0,1023 0,1006 0,09893 0,09728 0,09566
0,09405 0,09246 0,09089 0,08933 0,08780 0,08628 0,08478 0,08329 0,08183 0,08038
0,07895 0,07754 0,07614 0,07477 0,07341 0,07206 0,07074 0,06943 0,06814 0,06687
0,06562 0,06438 0,06316 0,06195 0,06077 0,05959 0,05844 0,05730 0,05618 0,05508
0,05399 0,05292 0,05186 0,05082 0,04980 0,04879 0,04780 0,04682 0,04586 0,04491
0,04398 0,04307 0,04217 0,04128 0,04041 0,03955 0,03871 0,03788 0,03706 0,03626
0,03547 0,03470 0,03394 0,03319 0,03246 0,03174 0,03103 0,03034 0,02965 0,02898
0,02833 0,02768 0,02705 0,02643 0,02582 0,02522 0,02463 0,02406 0,02349 0,02294
0,02239 0,02186 0,02134 0,02083 0,02033 0,01984 0,01936 0,01888 0,01842 0,01797
0,01753 0,01709 0,01667 0,01625 0,01585 0,01545 0,01506 0,01468 0,01431 0,01394
0,01358 0,01323 0,01289 0,01256 0,01223 0,01191 0,01160 0,01130 0,01100 0,01071
0,01042 0,01014 0,00987 0,00961 0,00935 0,00909 0,00885 0,00861 0,00837 0,00814
0,00792 0,00770 0,00748 0,00727 0,00707 0,00687 0,00668 0,00649 0,00631 0,00613
0,00595 0,00578 0,00562 0,00545 0,00530 0,00514 0,00499 0,00485 0,00471 0,00457
0,00443 0,00430 0,00417 0,00405 0,00393 0,00381 0,00370 0,00358 0,00348 0,00337
0,00327 0,00317 0,00307 0,00298 0,00288 0,00279 0,00271 0,00262 0,00254 0,00246
0,00238 0,00231 0,00224 0,00216 0,00210 0,00203 0,00196 0,00190 0,00184 0,00178
0,00172 0,00167 0,00161 0,00156 0,00151 0,00146 0,00141 0,00136 0,00132 0,00127
0,00123 0,00119 0,00115 0,00111 0,00107 0,00104 0,00100 0,00097 0,00094 0,00090
0,00087 0,00084 0,00081 0,00079 0,00076 0,00073 0,00071 0,00068 0,00066 0,00063
0,00061 0,00059 0,00057 0,00055 0,00053 0,00051 0,00049 0,00047 0,00046 0,00044
0,00042 0,00041 0,00039 0,00038 0,00037 0,00035 0,00034 0,00033 0,00031 0,00030
0,00029 0,00028 0,00027 0,00026 0,00025 0,00024 0,00023 0,00022 0,00021 0,00021
0,00020 0,00019 0,00018 0,00018 0,00017 0,00016 0,00016 0,00015 0,00014 0,00014
Exemple :
La valeur de f(2,25) correspond à l'intersection entre la ligne correspondante à 2,2 et la
colonne correspondante à 0,05, on peut lire la valeur 0,03174.
f(-3,14) = f(3,14) = 0,00288
Cours de probabilités
Adil EL MARHOUM Page 57
2.4.2. Table de la fonction de répartition
Cette table donne les valeurs Π(z) pour des valeurs positives z d'une variable normale centrée
réduite. En raison de la symétrie de f(z), on peut déduire les valeurs Π(z) pour les valeurs
négatives de z :
Π(-z) = p(Z  -z) = p(Z > z) = 1 - p(Z  z) = 1 - Π(z)
Π(-z) = 1 - Π(z)
Pour une variable normale quelconque X de paramètre m et  :
(z))()()()( 



 zZp
mxmX
pxXpxF

F(x) = Π(z)
Pour lire une valeur Π(z) dans la table, il suffit de lire l'intersection entre la ligne
correspondante à la valeur de z et la colonne correspondante au deuxième chiffre après la
virgule de z.
Cours de probabilités
Adil EL MARHOUM Page 58
TABLE DE LA FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 05359
0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 05753
0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 06141
0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 06517
0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 06879
0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 07224
0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 07549
0,7580 0,7611 0,7642 0,7673 0,7703 0,7734 0,7764 0,7794 0,7823 07852
0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 08133
0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 08389
0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 08621
0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 08830
0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 090147
0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99897 0,99900
0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
0,99989 0,99990 0,99990 0,99990 0,99991 0,99991 0,99992 0,99992 0,99992 0,99992
0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995
0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997
Exemple :
La valeur de Π(1,36) correspond à l'intersection entre la ligne correspondante à 1,3 et la
colonne correspondante à 0,06, on peut lire la valeur 0,91309.
Π(-2,24) = 1 - Π(2,24) = 1 - 0,98745 = 0,01255
Cours de probabilités
Adil EL MARHOUM Page 59
Exemple :
Pour qu'une pièce fabriquée par une machine soit utilisable, sa longueur doit être comprise
entre 14,7 et 15,3 cm, sinon elle est rejetée. Sachant que la longueur de cette pièce est une
variable normale de paramètres 15 cm et 0,2 cm, quelle proportion de pièces peuvent être
rejetées.
Si on désigne par la variable X la longueur des pièces, X suit une loi normale :
X = N(15 ; 0,2)
La probabilité de rejet d'une pièce est :
13362,086638,01)(
86638,0193319,02)(
1)50,1(2))50,1(1()50,1()(
)50,1()50,1()
2,0
157,14
()
2,0
153,15
()(
)7,14()3,15()(
)7,14()3,15()3,157,14()(
)(1)(











rejetp
accepterp
accepterp
FFaccepterp
FFaccepterp
XpXpXpaccepterp
accepterprejetp
Chaque pièce a une probabilité de 0,13362 d'être rejetée ou il y a un risque de rejet de 13%
des pièces fabriquées.
2.5. Propriété d'additivité
La somme de deux ou plusieurs variables normales indépendantes est une variable normale de
moyenne la somme des moyennes et d'écart type la racine carrée de la somme des variances
des variables initiales.
Soient X1, X2, …,Xn n variables normales de paramètres respectivement m1, m2, …, mn et 1,
2, …,n.
)²²²,( 212121 nnn mmmNXXX   
Cours de probabilités
Adil EL MARHOUM Page 60
Exemple :
Pour se rendre à son travail un ouvrier prend deux bus. La durée du trajet du premier bus est
une variable normale de paramètres 27 minutes et 5 minutes. La durée du trajet du deuxième
bus est une variable normale de paramètres 30 minutes et 2 minutes. Quelle est la probabilité
que cet ouvrier n'arrive pas en retard s'il dispose d'une heure ?
 Désignons par X1 La durée du trajet du premier bus : X1 = N(27 ; 5).
 Désignons par X2 La durée du trajet du deuxième bus : X2 = N(30 ; 2).
 Désignons par X la durée totale des deux trajets : X = X1 + X2.
La variable X est la somme de deux variables normales indépendantes, elle suit donc une loi
normale :
X = N(30+27 ; ²2²5  ) = N(57 ; 5,4)
Pour ne pas arriver en retard la durée totale des deux trajets ne doit pas dépasser 60 minutes.
7123,0)56,0()60(
)56,0()
)4,5
5760
4,5
57
()60(






Xp
Zp
X
pXp
L'ouvrier a donc 71% de chance de ne pas arriver en retard ou il a un risque de 29 % d'arriver
en retard.
2.6. Le théorème central limite
Le théorème central limite est une généralisation de la propriété d'additivité. Toute somme de
variables aléatoires indépendantes tend à suivre une loi normale quelles que soient les lois de
probabilités suivies par ces variables.
Quels que soient les variables aléatoires indépendantes X1, X2, …, Xn de moyennes
respectivement m1, m2, …, mn et d'écarts type respectivement 1, 2, …, n. La somme de ces
variables tend à suivre une loi normale de moyenne la somme des moyennes et d'écart type la
racine carrée de la somme des variances des variables initiales.
)²²²,( 212121 nnn mmmNXXX   
Exemple :
Une caisse d'assurance maladie reçoit 120 personnes pour l'obtention de remboursements. On
suppose que la somme à rembourser à chaque personne est une variable aléatoire de moyenne
1000 dirhams et d'écart type 600 dirhams. La caisse dispose de 130000 dirhams. Quelle est le
risque que cette somme ne soit pas suffisante pour rembourser toutes les personnes ?
Désignons par Xi (i = 1 à 120) la somme à rembourser à chaque personne.
Désignons par X la somme totale que la caisse doit payer aux 120 personnes.
X = X1 + X2 + … + X121
Cours de probabilités
Adil EL MARHOUM Page 61
D'après le théorème central limite, on peut affirmer que X suit une loi normale moyenne la
somme des moyennes et d'écart type la racine carrée de la somme des variances.
)67,6572;120000()²600120;1000120( NNX 
La somme de 130000 dh ne sera pas suffisante si la somme totale à rembourser aux 120
personnes dépasse 130000 dh :
0643,093574,01)52,1(1)52,1(1)130000(
)
67,6572
120000130000
67,6572
120000
(1)130000(1)130000(





ZpXp
X
pXpXp
Il y a donc un risque de 6,5 % que la somme de 130000 dirhams ne soit pas suffisante pour
rembourser toutes les personnes.
2.7. Approximation de la loi binomiale par la loi normale
Parfois les problèmes relatifs à la loi binomiale se rapportent aux calculs de probabilités dans
un ou plusieurs intervalles donnés :
p(X < x) p(X > x) ou p(x1 < X x2)
La recherche de ces probabilités est souvent longue, car il faut déterminer individuellement et
d'additionner les différentes probabilités p(X = x).
p(X < 10) = p(0)+p(1)+p(2)+p(3)+p(4)+p(5)+p(6)+p(7)+p(8)+p(9)
Lorsque le paramètre n de la loi binomiale est grand et les probabilités de succès p et d'échec
q ne sont pas trop petites, on peut effectuer ce calcul d'une manière approchée à l'aide de la loi
normale de paramètres np et npq .
En pratique l'approximation est satisfaisante lorsque les produits np et nq sont supérieurs à 5 :
B(n ; p)  N(np ; npq )
Pour améliorer la qualité de l'approximation de la loi binomiale, qui est discrète, par la loi
normale, qui est continue, on introduit généralement une correction de continuité de 0,5. Les
différentes probabilités deviennent :
 p(X < x - 0,5) au leu de p(X < x)
 p(X > x + 0,5) au leu de p(X > x)
 p(x1 - 0,5 < X < x2 + 0,5) au lieu de p(x1 < X < x2)
Cours de probabilités
Adil EL MARHOUM Page 62
Exemple :
On suppose que la probabilité qu'un étudiant réussisse un examen est de 0,8. Quelle est la
probabilité qu'au moins 75 étudiants parmi 100 étudiants réussissent l'examen ?
Désignons par X le nombre d'étudiants qui réussissent l'examen.
X est une variable discrète qui prend les valeurs entières de 0 à 100. Elle suit une loi
binomiale de paramètres 100 et 0,8.
X = B(100 ; 0,8)
La probabilité qu'au moins 75 étudiants parmi 100 étudiants réussissent l'examen est :
p(X  75)
Les produits np et nq sont respectivement 1000,8 = 80 et 1000,2 = 20, ils sont supérieurs à
5. On peut donc effectuer le calcul de cette probabilité d'une manière approchée à l'aide de la
loi normale de paramètres np = 80 et npq = 4.
X = B(100 ; 0,8)  N(80 ; 4)
Pour améliorer la qualité de l'approximation on introduit la correction de continuité, la
probabilité p(X  75) devient :
p(X  75 + 0,5) = 1 - p(X < 75,5)
8708,0)13,1()13,1(1)5,75(
)13,1(1)
4
805,75
4
80
(1)5,75(






Xp
Zp
X
pXp
p(X  75)  0,8708
La probabilité qu'au moins 75 étudiants parmi 100 étudiants réussissent l'examen est à peu
près 0,8708.
Le calcul exact à partir de la loi binomiale donne un résultat de 0,8686. On constate que
l'approximation est très satisfaisante.
Cours de probabilités
Adil EL MARHOUM Page 63
III. LOIS DERIVEES DE LA LOI NORMALE
Cet ensemble de lois de répartition est particulièrement utile dans la partie de la statistique
appelée l’analyse de variance.
3.1. La loi Khi deux de Pearson
3.1.1. Définition
On appelle variable Khi deux de Pearson, la variable ² qui varie entre 0 et + et définie par
la fonction de densité de probabilité :
2
1
2)(
xk
excxf


Le paramètre k est une constante entière positive appelée nombre de degrés de liberté, on dit
variable Khi carré à k degré de liberté, désignée par ²à k dl.
c est une constante telle que : 1)(
0


dxxf
La variable Khi deux de Pearson correspond aussi à la somme des carrés de k variables
normales réduites indépendantes.
Soient Z1, Z2, …, Zk k variables normales réduites indépendantes, on peut démontrer :
²à k dl = Z1² + Z2² + … + Zk²
3.1.2. Caractéristiques de la loi ²à k dl
On peut démontrer que :
 Espérance mathématique : E(²à k dl) = k
 Variance : V(²à k dl) = 2 k
3.1.3. Propriété d'additivité
La somme de deux ou plusieurs variables Khi carrés indépendantes est une variable Khi
carrée.
Soient n variables Khi deux de degrés de liberté respectivement k1, k2, …, kn :
²à k1 dl + ²à k2 dl + … + ²à kn dl = ²à (k1+k2+…+kn) dl
Une variable Khi carré à k degré de liberté peut donc être considéré comme étant la somme de
k variables Khi carré à 1 degré de liberté indépendantes.
Cours de probabilités
Adil EL MARHOUM Page 64
3.1.4. Table de la loi Khi deux de Pearson
La table de la loi Khi carré dépend du paramètre k, elle donne les valeurs de ²à k dl pour les
valeurs de la fonction de répartition F(²à k dl).
TABLE DE LA LOI KHI DEUX DE PEARSON
k / p 0,0005 0,001 0,005 0,01 0,025 0,05 0,1 0,2 0,3 0,4
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0,06
393 0,05
157 0,04
393 0,03
157 0,03
982 0,02
393 0,0158 0,0642 0,148 0,275
0,02
100 0,02
200 0,0100 0,0201 0,0506 0,103 0,211 0,446 0,713 1,02
0,0153 0,0243 0,0717 0,115 0,216 0,352 0,584 1,00 1,42 1,87
0,0639 0,0908 0,207 0,297 0,484 0,711 1,06 1,65 2,19 2,75
0,158 0,210 0,412 0,554 0,831 1,15 1,61 2,34 3,00 3,66
0,299 0,381 0,676 0,872 1,24 1,64 2,20 3,07 3,83 4,57
0,485 0,598 0,989 1,24 1,69 2,17 2,83 3,82 4,67 5,49
0,710 0,857 1,34 1,65 2,18 2,73 3,49 4,59 5,53 6,42
0,972 1,15 1,73 2,09 2,70 3,33 4,17 5,38 6,39 7,36
1,26 1,48 2,16 2,56 3,25 3,94 4,87 6,18 7,27 8,30
1,59 1,83 2,60 3,05 3,82 4,57 5,58 6,99 8,15 9,24
1,93 2,21 3,07 3,57 4,40 5,23 6,30 7,81 9,03 10,2
2,31 2,62 3,57 4,11 5,01 5,89 7,04 8,63 9,93 11,1
2,70 3,04 4,07 4,66 5,63 6,57 7,79 9,47 10,8 12,1
3,11 3,48 4,60 5,23 6,26 7,26 8,55 10,3 11,7 13,0
3,54 3,94 5,14 5,81 6,91 7,96 9,31 11,2 12,6 14,0
3,98 4,42 5,70 6,41 7,56 8,67 10,1 12,0 13,5 14,9
4,44 4,90 6,26 7,01 8,23 9,39 10,9 12,9 14,4 15,9
4,91 5,41 6,84 7,63 8,91 10,1 11,7 13,7 15,4 16,9
5,40 5,92 7,43 8,26 9,59 10,9 12,4 14,6 16,3 17,8
5,90 6,45 8,03 8,90 10,3 11,6 13,2 15,4 17,2 18,8
6,40 6,98 8,64 9,54 11,0 12,3 14,0 16,3 18,1 19,7
6,92 7,53 9,26 10,2 11,7 13,1 14,8 17,2 19,0 20,7
7,45 8,08 9,89 10,9 12,4 13,8 15,7 18,1 19,9 21,7
7,99 8,65 10,5 11,5 13,1 14,6 16,5 18,9 20,9 22,6
8,54 9,22 11,2 12,2 13,8 15,4 17,3 19,8 21,8 23,6
9,09 9,80 11,8 12,9 14,6 16,2 18,1 20,7 22,7 24,5
9,66 10,4 12,5 13,6 15,3 16,9 18,9 21,6 23,6 25,5
10,2 11,0 13,1 14,3 16,0 17,7 19,8 22,5 24,6 26,5
10,8 11,6 13,8 15,0 16,8 18,5 20,6 23,4 25,5 27,4
Cours de probabilites
Cours de probabilites
Cours de probabilites
Cours de probabilites
Cours de probabilites
Cours de probabilites
Cours de probabilites
Cours de probabilites

Contenu connexe

Similaire à Cours de probabilites

Introduction a l'econometrie luxembourg 2008 2009
Introduction a l'econometrie luxembourg 2008 2009Introduction a l'econometrie luxembourg 2008 2009
Introduction a l'econometrie luxembourg 2008 2009mohamedchaouche
 
1 - Rappel Statistiques et probabilités.pdf
1 - Rappel Statistiques et probabilités.pdf1 - Rappel Statistiques et probabilités.pdf
1 - Rappel Statistiques et probabilités.pdfhamidyazami1
 
Brisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De LychrelBrisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De LychrelIOSRjournaljce
 
S3.echantillonnage estimation-s3
S3.echantillonnage estimation-s3S3.echantillonnage estimation-s3
S3.echantillonnage estimation-s3Jamal Yasser
 
Métrologie source de profits
Métrologie source de profitsMétrologie source de profits
Métrologie source de profitsJean-Michel POU
 
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2Ettaoufik Elayedi
 
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles202023133 es-maths-cned-sequence-4-probabilites-conditionnelles
202023133 es-maths-cned-sequence-4-probabilites-conditionnellesEttaoufik Elayedi
 
Yves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processusYves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processusBliyaminou Mamane Issa
 

Similaire à Cours de probabilites (11)

Introduction a l'econometrie luxembourg 2008 2009
Introduction a l'econometrie luxembourg 2008 2009Introduction a l'econometrie luxembourg 2008 2009
Introduction a l'econometrie luxembourg 2008 2009
 
1 - Rappel Statistiques et probabilités.pdf
1 - Rappel Statistiques et probabilités.pdf1 - Rappel Statistiques et probabilités.pdf
1 - Rappel Statistiques et probabilités.pdf
 
Brisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De LychrelBrisure De Symétrie Et Nombres De Lychrel
Brisure De Symétrie Et Nombres De Lychrel
 
S3.echantillonnage estimation-s3
S3.echantillonnage estimation-s3S3.echantillonnage estimation-s3
S3.echantillonnage estimation-s3
 
Métrologie source de profits
Métrologie source de profitsMétrologie source de profits
Métrologie source de profits
 
Cox
CoxCox
Cox
 
Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)Classifieur d'entropie maximale (MaxEnt)
Classifieur d'entropie maximale (MaxEnt)
 
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles 2
 
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles202023133 es-maths-cned-sequence-4-probabilites-conditionnelles
202023133 es-maths-cned-sequence-4-probabilites-conditionnelles
 
cours1_sondage_Besancon.pdf
cours1_sondage_Besancon.pdfcours1_sondage_Besancon.pdf
cours1_sondage_Besancon.pdf
 
Yves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processusYves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processus
 

Cours de probabilites

  • 1. UNIVERSITE MOHAMMED V RABAT FACULTE DES SCIENCES JURIDIQUES ECONOMIQUES ET SOCIALES AGDAL ‫اﻟﺨﺎﻣﺲ‬ ‫ﻣﺤﻤﺪ‬ ‫ﺟﺎﻣﻌﺔ‬–‫اﻟﺮﺑﺎط‬ ‫واﻻﻗﺘﺼﺎدﯾﺔ‬ ‫اﻟﻘﺎﻧﻮﻧﯿﺔ‬ ‫اﻟﻌﻠﻮم‬ ‫ﻛﻠﯿﺔ‬ ‫اﻛﺪال‬ ‫واﻻﺟﺘﻤﺎﻋﯿﺔ‬ DEPARTEMENT DE SCIENCES ECONOMIQUES Licence fondamentale en Sciences Economiques et Gestion COURS DE PROBABILITES Professeur : Adil EL MARHOUM ANNEE UNIVERSITAIRE 2014/2015
  • 2. Cours de probabilités Adil EL MARHOUM Page 2 INTRODUCTION La théorie des probabilités est constamment utilisée en analyse statistique. Elle permet notamment de déterminer statistiquement la probabilité d'un événement qui ne peut pas être testé directement. Les probabilités mathématiques sont largement utilisées en physique, en biologie, en sciences sociales ainsi que dans l'industrie et le commerce. Elles font l'objet d'applications dans des domaines aussi variés que la génétique, la mécanique quantique ou les assurances. Probabilités, ou théorie des probabilités, branche des mathématiques qui s'attache à mesurer ou à déterminer quantitativement la probabilité qu'a un événement ou une expérience d'aboutir à un résultat donné. Cette théorie est fondée sur l'étude des permutations et des combinaisons. Elle constitue la base de tous les travaux en statistiques. Historique On attribue en général à Blaise Pascal et à Pierre de Fermat l'invention au XVIIe siècle d'une première théorie des probabilités appliquée aux jeux de hasard, même si Jérôme Cardan s'était déjà penché sur la question dès le XVIe siècle. Cinquante ans plus tard, dans son ouvrage posthume Ars conjectandi (1713), Jacques Bernoulli systématisa le calcul des probabilités, en énonçant des théorèmes prometteurs tels que l'additivité des probabilités. Au même moment, en Angleterre, Abraham de Moivre introduisit la notion de loi normale dans son œuvre Doctrine of Chances. Le XIXe siècle fut marqué par la publication en 1814 de la Théorie analytique des probabilités de Laplace, dans lequel la théorie des probabilités est appliquée à la mécanique et aux statistiques. Cet ouvrage eut une influence considérable sur tous les mathématiciens de ce siècle. Avec les travaux de Darwin et du statisticien Quételet, la vision probabiliste du monde s'affirma encore davantage, englobant tous les domaines de la science. Le calcul des probabilités est certainement l’une des branches les plus récentes des mathématiques, bien qu’il ait en fait trois siècles et demi d’existence. Après s’être cantonné dans l’étude des jeux de hasard, il s’est introduit dans presque toutes les branches de l’activité scientifique, aussi bien dans l’analyse (théorie du potentiel), l’économie, la génétique (lois de Mendel), la physique corpusculaire (toutes les théories statistiques) que dans la psychologie et l’informatique, dont la source est l’étude de la quantité d’information, donnée probabiliste s’il en est. Il est rare de trouver un tel exemple de « recouvrement » dans le domaine scientifique. On peut, sans paradoxe, soutenir que toutes les mathématiques anciennes sont un cas particulier du calcul des probabilités, le certain étant de l’aléatoire dont la réalisation a une probabilité égale à 1.
  • 3. Cours de probabilités Adil EL MARHOUM Page 3 Le calcul des probabilités est né de l’étude des jeux de hasard. Ce dernier mot, transmis par l’Espagne, vient d’Arabie. L’arabe az-zahr, « dé à jouer », s’est transformé en azar, « hasard » (et souvent « revers ») en espagnol. La base philologique, si l’on peut dire, du calcul des probabilités est donc le jeu (pile ou face, jeu de roulette, cartes). Pascal et le chevalier de Méré sont certainement les premiers à avoir voulu introduire le quantitatif dans ces études et à les mathématiser. On essaye aujourd’hui de réduire l’importance de ce point de départ en cherchant un fondement axiomatique et en enseignant le calcul des probabilités sans parler de hasard (à peine ose-t-on parler d’aléa). Il n’en est pas moins vrai que, sans l’activité des joueurs, le calcul des probabilités n’aurait sûrement pas vu le jour. Depuis le XVIIe siècle, de nombreux mathématiciens ont apporté une très importante contribution au développement de cette science : parmi les plus marquants, citons Laplace, dont le tome VII des Œuvres complètes est consacré au calcul des probabilités, et Denis Poisson, Carl Friedrich Gauss, Henri Poincaré, Émile Borel, Maurice Fréchet, Paul Levy, A. N. Kolmogorov et A. Khintchine.
  • 4. Cours de probabilités Adil EL MARHOUM Page 4 ANALYSE COMBINATOIRE I. INTRODUCTION L'analyse combinatoire, fondée sur des formules de permutations et de combinaisons, possède d'importantes applications dans de nombreuses branches des mathématiques, comme par exemple dans la théorie des probabilités et en statistiques, où elles peuvent servir à compter le nombre d'arrangements possibles des éléments d'un système. Au cours de ce chapitre nous définirons pour commencer la notion de disposition ordonnée et disposition non ordonnée. Ensuite nous étudierons les différentes dispositions à savoir les permutations, les arrangements et les combinaisons. II. DISPOSITIONS Soient deux éléments a et b :  Si (a , b)  (b , a) alors on parle de disposition ordonnée.  Si (a , b)  (b , a) alors on parle de disposition non ordonnée. III. PERMUTATIONS Une permutation est une disposition ordonnée. Le nombre de permutations que l’on peut faire avec n éléments est : Pn = n ! = n  (n-1)  (n-2)  …  2  1 Exemple : Le nombre de permutations que l’on peut faire avec trois éléments a, b, c est : P3 = 3 ! = 3  2  1 = 6 Ces 6 permutations sont : (a,b,c), (a,c,b), (b,a,c), (b,c,a), (c,a,b), et (c,b,a). IV. ARRANGEMENTS Un arrangement de p éléments choisis parmi n éléments est une disposition ordonnée de p de ces n éléments. On distingue les arrangements avec répétitions et les arrangements sans répétitions. 4.1. Arrangements sans répétitions C’est le nombre d’arrangements que l’on peut faire avec p éléments choisis parmi n éléments, chacun d’eux ne peut figurer qu’une seule fois dans le même arrangement. Le nombre d’arrangements sans répétitions est : )!( ! pn n A p n  
  • 5. Cours de probabilités Adil EL MARHOUM Page 5 Exemple : Le nombre d’arrangements sans répétitions que l’on peut faire avec deux éléments choisis parmi trois éléments a, b, c est : 6 1 123 )!23( !32 3     A Ces 6 arrangements sont : (a,b), (b,a), (a,c), (c,a), (b,c), et (c,b). 4.2. Arrangements avec répétitions C’est le nombre d’arrangements que l’on peut faire avec p éléments choisis parmi n éléments, chacun d’eux peut figurer plusieurs fois dans le même arrangement. Le nombre d’arrangements avec répétitions est : np Exemple : Le nombre d’arrangements avec répétitions que l’on peut faire avec deux éléments choisis parmi trois éléments a, b, c est : 32 = 9 Ces 9 arrangements sont : (a,a), (a,b), (b,a), (a,c), (c,a), (b,b), (b,c), (c,b) et (c,c). V. COMBINAISONS Une combinaison de p éléments choisis parmi n éléments est une disposition non ordonnée de p de ces n éléments. On distingue les combinaisons avec répétitions et les combinaisons sans répétitions. 5.1. Combinaisons sans répétitions C’est le nombre de combinaisons que l’on peut faire avec p éléments choisis parmi n éléments, chacun d’eux ne peut figurer qu’une seule fois dans la même combinaison. Le nombre de combinaisons sans répétitions est : )!(! ! pnp n C p n   Exemple : Le nombre de combinaisons sans répétitions que l’on peut faire avec deux éléments choisis parmi trois éléments a, b, c est : 3 !1!2 !32 3   C Ces 3 combinaisons sont : (a,b), (a,c), et (b,c).
  • 6. Cours de probabilités Adil EL MARHOUM Page 6 5.2. Combinaisons avec répétitions C’est le nombre de combinaisons que l’on peut faire avec p éléments choisis parmi n éléments, chacun d’eux peut figurer plusieurs fois dans la même combinaison. Le nombre de combinaisons avec répétitions est : )!1(! )!1( 1     np pn CK p pn p n Exemple : Le nombre de combinaisons avec répétitions que l’on peut faire avec deux éléments choisis parmi trois éléments a, b, c est : 6 !2!2 !42 4 2 123 2 3     CCK Ces 6 combinaisons sont : (a,a), (a,b), (a,c), (b,b), (b,c), et (c,c).
  • 7. Cours de probabilités Adil EL MARHOUM Page 7 CALCUL DE PROBABILITES I. INTRODUCTION Au cours de ce chapitre nous définirons pour commencer la notion d'expérience aléatoire et d'événement aléatoire. Ensuite nous étudierons la notion de probabilité : définition et propriétés. Nous présenterons aussi la notion d'exclusivité, la probabilité conditionnelle et la notion d'indépendance. Enfin, nous terminerons le chapitre par le théorème de bayes. II. DEFINITIONS 2.1. Notion d’aléatoire La définition de la probabilité est liée aux notions d’expérience aléatoire et d’événement aléatoire.  Une expérience est dite aléatoire lorsqu’on ne peut en prévoir exactement le résultat, du fait que tous les facteurs qui déterminent ce résultat ne sont pas maîtrisés.  Un événement aléatoire est un événement qui peut se réaliser ou ne pas se réaliser au cours d’une expérience aléatoire. Exemple : Le jet d’un dé numéroté de 1 à 6 est une expérience aléatoire car le résultat du jet est imprévisible. L’événement avoir une face paire du dé est un événement aléatoire car le résultat du jet peut être impair comme il peut être pair. Le choix d’une personne dans un groupe d’individus contenant des hommes et des femmes est une expérience aléatoire car le résultat du choix est imprévisible. L’événement choisir une femme est un événement aléatoire car la personne choisie peut être une femme comme elle peut être un homme. 2.2. Définition classique de la probabilité Si au cours d’une expérience aléatoire on peut dénombrer tous les résultats possibles, et si parmi ces résultats on peut dénombrer tous les résultats favorables à la réalisation d’un événement aléatoire quelconque A, on définit classiquement la probabilité de l’événement A comme étant le rapport du nombre de résultats favorables au nombre de résultats possibles. possiblesrésultatsdeNombre favorablesrésultatsdeNombre )( Ap Il faut noter que tous les résultats possibles doivent avoir la même chance de réalisation.
  • 8. Cours de probabilités Adil EL MARHOUM Page 8 Cette définition montre que la probabilité est toujours comprise entre 0 et 1. 0  p  1 La probabilité de tout événement qui doit nécessairement se réaliser au cours d’une expérience aléatoire est égale à 1, il s’agit d’un événement certain. P(événement certain) = 1 La probabilité de tout événement qui ne peut pas se réaliser au cours d’une expérience aléatoire est nulle, il s’agit d’un événement impossible. P(événement impossible) = 0 Exemple : Dans une urne contenant 20 boules blanches, 15 boules noires, 15 boules rouges et 10 boules vertes on choisie de façon aléatoire une boule. Le tirage de la boule est une expérience aléatoire car le résultat du tirage est imprévisible. L’événement choisir une boule blanche est un événement aléatoire car la boule tirée peut être blanche comme elle peut être d’une autre couleur. Le nombre de boules pouvant être choisies est 60 car l’urne contient au total 60 boules. Le nombre de boules favorables à l’événement « boule blanche » est 20 car l’urne contient 20 boules blanches. La probabilité de tirer une boule blanche est donc : 33,0 60 20 p III. NOTION D’EXCLUSIVITE 3.1. Événements exclusifs Deux événements aléatoires associés à une même expérience aléatoire sont dits exclusifs ou incompatibles s’ils ne peuvent pas se réaliser simultanément. Si deux événements aléatoires A et B sont exclusifs alors : p(A ou B) = p(A) + p(B) et p(A et B) = 0 Si deux événements aléatoires A et B ne sont pas exclusifs alors : p(A ou B) = p(A) + p(B) – p(A et B)
  • 9. Cours de probabilités Adil EL MARHOUM Page 9 3.2. Événements mutuellement exclusifs Plusieurs événements aléatoires associés à une même expérience aléatoire sont dits mutuellement exclusifs ou mutuellement incompatibles s’ils sont exclusifs deux à deux. Si k événements A1, A2, …, Ak sont mutuellement exclusifs alors : p(A1 ou A2 ou … ou Ak) = p(A1) + p(A2) + … + p(Ak) Si trois événements aléatoires A, B, et C ne sont pas mutuellement exclusifs alors : p(A ou B ou C) = p(A) + p(B) + p(C) – p(A et B) – p(A et C) – p(B et C) + p(A et B et C) Cette formule peut être généralisée à plusieurs événements non exclusifs, on l'appelle égalité de Poincaré :    )()()()( 1 21 kjiji n i in etAetAApetAApApouAououAAp  Dans cette égalité les différents S qui figurent portent sur toutes les combinaisons possibles des indices différant les uns des autres. 3.3. Evénements complémentaires Plusieurs événements aléatoires associés à une même expérience aléatoire sont dits totalement exclusifs ou complémentaires s’ils sont exclusifs deux à deux et si l’un d’eux doit nécessairement se réaliser. Si k événements A1, A2, …, Ak sont complémentaires alors : p(A1 ou A2 ou … ou Ak) = p(A1) + p(A2) + … + p(Ak) = 1 Exemple : Dans un jeu de cartes contenant 13 cartes de cœur, 13 cartes carreau, 13 cartes pique et 13 cartes trèfles on choisie de façon aléatoire une carte. Les 13 cartes de chaque couleur sont les cartes As, 2, 3, 4, 5, 6, 7, 8, 9, 10, valet, dame, roi. Soient les événements :  A : tirer une carte cœur p(A) = 4 1 52 13   B : tirer une carte carreau p(B) = 4 1 52 13   C : tirer une carte pique p(C) = 4 1 52 13   D : tirer une carte trèfle p(D) = 4 1 52 13   E : tirer une carte As p(E) = 13 1 52 4   F : tirer une carte dame p(F) = 13 1 52 4 
  • 10. Cours de probabilités Adil EL MARHOUM Page 10 * Probabilité de tirer une carte cœur ou carreau : Les événements A et B sont exclusifs : p(A ou B) = p(A) + p(B) = 2 1 4 1 4 1  * Probabilité de tirer une carte cœur ou As : Les événements A et E ne sont pas exclusifs car on peut avoir A et E simultanément c’est le cas où on tire une carte As de cœur. p(As de cœur) = p(A et E) = 52 1 p(A ou E) = p(A) + p(E) – p(A et E) = 13 4 52 16 52 1 13 1 4 1  * Probabilité de tirer une carte cœur ou carreau ou pique : Les événements A, B, et C sont mutuellement exclusifs : p(A ou B ou C) = p(A) + p(B) + p(C) = 4 3 4 1 4 1 4 1  * Probabilité de tirer une carte cœur ou carreau ou dame : Les événements A, B, et F ne sont pas mutuellement exclusifs : p(A ou B ou F) = p(A) + p(B) + p(F) – p(A et B) – p(A et F) – p(B et F) + p(A et B et F) p(A ou B ou F) = 13 7 52 28 0 52 1 52 1 0 13 1 4 1 4 1  IV. NOTION D’INDEPENDANCE 4.1. Probabilité conditionnelle Considérons le cas de plusieurs expériences aléatoires simultanées ou successives. Soient deux événements aléatoires A et B non nécessairement exclusifs. La probabilité conditionnelle de l’événement A sous la condition B, est la probabilité de réalisation de l’événement A sachant que l’événement B est déjà réalisé. Elle est désignée par : )( et B)p(A )/( Bp BAp  Soient deux événements aléatoires A et B non nécessairement exclusifs.
  • 11. Cours de probabilités Adil EL MARHOUM Page 11 La probabilité conditionnelle de l’événement B sous la condition A, est la probabilité de réalisation de l’événement B sachant que l’événement A est déjà réalisé. Elle est désignée par : )( et B)p(A )/( Ap ABp  Cette définition conduit à la formule de probabilité composée : P(A et B) = p(A)  p(B/A) = p(B)  p(A/B) On peut généraliser cette formule à plusieurs événements. Ainsi pour trois événements A, B, et C : P(A et B et C) = p(A)  p(B/A)  p(C/A et B) Exemple : Dans une urne contenant 20 boules blanches, 15 boules noires, 15 boules rouges et 10 boules vertes on choisie de façon aléatoire deux boules successives. Quelle est la probabilité que les deux boules tirées soient blanches ? Soient A l’événement « première boule tirée est blanche » et B l’événement « deuxième boule tirée est blanche ». p(A) est la probabilité de tirer au premier tirage une boule blanche : p(A) = 33,0 60 20  p(B/A) est la probabilité de tirer au deuxième tirage une boule blanche sachant que la première boule tirée est blanche. Au deuxième tirage l’urne contient donc 59 boules dont 19 sont blanches car on a déjà tiré une boule blanche. On a donc : p(B/A) = 32,0 59 19  P(A et B) = p(A)  p(B/A) = 0,33  0,32 = 0,1056 Si on tire successivement trois boules, la probabilité que les trois boules soient vertes est : 0035,0 58 8 59 9 60 10 p
  • 12. Cours de probabilités Adil EL MARHOUM Page 12 4.2. Evénements indépendants Deux événements A et B sont indépendants si la probabilité de voir se réaliser l’événement A ne dépend pas de la réalisation ou de la non réalisation de l’événement B. La probabilité de voir se réaliser l’événement B ne dépend pas de la réalisation ou de la non réalisation de l’événement A. p(A) = p(A/B) = p(A/non B) p(B) = p(B/A) = p(B/non A) Deux événements A et B sont donc indépendants si : p(A et B) = p(A)  p(B) Plusieurs événements A1, A2, …, Ak sont indépendants si : p(A1 et A2 et … et Ak) = p(A1)  p(A2)  …  p(Ak) L'indépendance de plusieurs événements deux à deux n'entraîne pas nécessairement l'indépendance de l'ensemble des événements. Exemple : On lance deux dés parfaitement homogènes numérotés de 1 à 6. Soient : L’événement A : résultat du premier dé est impair ; L’événement B : résultat du deuxième dé est impair ; L’événement A : la somme des deux résultats est impaire. p(A) = 2 1 6 3  p(B) = 2 1 6 3  p(C) = 2 1 36 18   Indépendance de A et B : p(A et B) = p(A)  p(B/A) = 4 1 2 1 2 1  = p(A)  p(B) A et B sont donc indépendants.  Indépendance de A et C : p(A et C) = p(A)  p(C/A) = 4 1 2 1 2 1  = p(A)  p(C) A et C sont donc indépendants.  Indépendance de B et C : p(B et C) = p(B)  p(C/B) = 4 1 2 1 2 1  = p(B)  p(C) B et C sont donc indépendants.
  • 13. Cours de probabilités Adil EL MARHOUM Page 13  Indépendance de A, B, et C : p(A et B et C) = 0 car la somme de deux résultats impairs ne peut pas être impaire. p(A et B et C)  p(A)  p(B)  p(C) A, B, et C sont donc dépendants. V. THEOREME DE BAYSE Soient E1, E2, …, Ek, une série de k événements aléatoires totalement exclusifs. À chacun de ces événements correspond une information initiale qui permet d’évaluer à priori les probabilités p(E1), p(E2), …, p(Ek). p(E1) + p(E2) + … + p(Ek) = 1 Soit A un événement quelconque pour lequel on connaît à priori les probabilités conditionnelles p(A/E1), p(A/E2), …, p(A/Ek). Les événements E1, E2, Ek étant complémentaires, l’événement A doit se réaliser nécessairement avec E1 ou E2 ou ... ou Ek. p(A) = p[(A et E1) ou (A et E2) ou … ou (A et Ek)] p(A) = p(A et E1) + p(A et E2) + … + p(A et Ek) Par définition de la probabilité conditionnelle : p(A et Ei) = p(Ei)  p(A/Ei) (i = 1 à k) La probabilité de l’événement A est donc : P(A) = p(E1)  p(A/E1) + p(E2)  p(A/E2) + … + p(Ek)  p(A/Ek)   k i ii EApEpAp 1 )/()()( Le théorème de bayes permet de calculer les probabilités conditionnelles à postériori p(E1/A), p(E2/A), …, p(Ek/A). Par définition de la probabilité conditionnelle : )( )et E( )/( i Ap Ap AEp i  )/()( )/()E( )/( 1 i i k i i i i EApEp EApp AEp    
  • 14. Cours de probabilités Adil EL MARHOUM Page 14 Exemple : Le tableau suivant donne la description de 400 étudiants d’une école selon le niveau d’études et l’option étudiée. Niveau option Gestion Informatique Total 1ère année 80 60 140 2ème année 75 40 100 3ème année 50 30 90 4ème année 45 20 70 Total 250 150 400 On a choisi au hasard un étudiant de l’école, il est inscrit en gestion, quelle est la probabilité qu’il soit inscrit en 1ère année, en 2ème année, en 3ème année, en 4ème année ? Désignons par N1, N2, N3, et N4 les événements « niveau 1ère année », « niveau 2ème année », « niveau 3ème année », et « niveau 4ème année ». Ces 4 événements sont complémentaires : 25,0 400 100 )( 35,0 400 140 )( 2 1   Np Np 175,0 400 70 )( 225,0 400 90 )( 4 3   Np Np Désignons par G l’événement « étudiant inscrit en gestion.  Probabilité qu’un étudiant de la première année soit inscrit en gestion : 32,0 250 80 )/( 1 NGp  Probabilité qu’un étudiant de la deuxième année soit inscrit en gestion : 30,0 250 75 )/( 2 NGp  Probabilité qu’un étudiant de la troisième année soit inscrit en gestion : 20,0 250 50 )/( 3 NGp  Probabilité qu’un étudiant de la quatrième année soit inscrit en gestion : 18,0 250 45 )/( 4 NGp La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 1ère année est : 4250,0 18,0175,020,0225,030,025,032,035,0 32,035,0 )/( )/()()/()()/()()/()( )/()( )/( 1 44332211 11 1        GNp NGpNpNGpNpNGpNpNGpNp NGpNp GNp
  • 15. Cours de probabilités Adil EL MARHOUM Page 15 La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 2ème année est : 2846,0 18,0175,020,0225,030,025,032,035,0 30,025,0 )/( )/()()/()()/()()/()( )/()( )/( 2 44332211 22 2        GNp NGpNpNGpNpNGpNpNGpNp NGpNp GNp La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 3ème année est : 1708,0 18,0175,020,0225,030,025,032,035,0 20,0225,0 )/( )/()()/()()/()()/()( )/()( )/( 3 44332211 33 3        GNp NGpNpNGpNpNGpNpNGpNp NGpNp GNp La probabilité à postériori qu’un étudiant inscrit en gestion soit inscrit en 4ème année est : 1195,0 18,0175,020,0225,030,025,032,035,0 18,0175,0 )/( )/()()/()()/()()/()( )/()( )/( 4 44332211 44 4        GNp NGpNpNGpNpNGpNpNGpNp NGpNp GNp
  • 16. Cours de probabilités Adil EL MARHOUM Page 16 NOTION DE VARIABLES ALEATOIRES I. INTRODUCTION Au cours de ce chapitre nous définirons pour commencer la notion de variable aléatoire. Ensuite nous étudierons les différents cas à savoir le cas discret, le cas continu, le cas de couple de variables aléatoires discrètes et continues. Les caractéristiques des variables aléatoires seront aussi traitées au cours de ce chapitre, nous définirons la notion d'espérance mathématique, la variance, la covariance et la corrélation. Enfin, nous terminerons le chapitre par l'inégalité de Bienaymé Tchebycheff. II. DEFINITION Une variable aléatoire X est une variable associée à une expérience ou à un groupe d'expériences aléatoires et servant à caractériser le résultat de cette expérience ou de ce groupe d'expériences. On distingue les variables aléatoires discontinues ou discrètes et les variables aléatoires continues. III. VARIABLE ALEATOIRE DISCONTINUE 3.1. Définition Une variable aléatoire est discrète si elle varie de façon discontinue, la variable ne peut prendre que des valeurs entières. Exemple :  Soit X la variable aléatoire qui caractérise le résultat de l'expérience aléatoire "jet d'un dé homogène". X est une variable aléatoire discrète, elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6.  Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants. X est une variable aléatoire discrète, elle peut prendre les valeurs entières 0, 1, 2, 3, et 4. 3.2. Distribution de probabilité À chacune des valeurs x que peut prendre une variable aléatoire X, correspond une probabilité p(x), c'est la probabilité que la variable aléatoire X prenne la valeur x : p(x) = p(X = x)
  • 17. Cours de probabilités Adil EL MARHOUM Page 17 L’ensemble des valeurs admissibles x et des probabilités correspondantes p(x) constitue une distribution de probabilité discontinue. La relation entre x et p(x) est appelée loi de probabilité. Pour toutes les distributions de probabilités dont les valeurs x correspondent à des événements complémentaires, le total des probabilités est égal à 1. 1)(  xp La distribution cumulée des probabilités est appelée fonction de répartition : F(x) = p(X  x) =  x xp )( 0  F(x)  1 Exemple :  Soit X la variable aléatoire qui caractérise le résultat de l'expérience aléatoire "jet d'un dé homogène". X est une variable aléatoire discrète, elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6 avec la probabilité constante 1/6. Distribution de probabilité de X x p(x) F(x) 1 2 3 4 5 6 1/6 1/6 1/6 1/6 1/6 1/6 1/6 2/6 3/6 4/6 5/6 6/6 Total 1  Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants. X est une variable aléatoire discrète, elle peut prendre les valeurs entières 0, 1, 2, 3, et 4. La probabilité pour qu'un enfant soit un garçon est 1/2. La probabilité pour qu'un enfant soit une fille est 1/2. P(0) est la probabilité que les quatre enfants soient des filles. Il y a une seule possibilité : 0625,0) 2 1 ( 2 1 2 1 2 1 2 1 )0( 4 p
  • 18. Cours de probabilités Adil EL MARHOUM Page 18 P(1) est la probabilité qu’un seul enfant soit un garçon. Ce garçon peut correspondre au premier enfant, ou au deuxième, ou au troisième ou au quatrième. Il y a donc quatre possibilités : 25,0) 2 1 (4 2 1 2 1 2 1 2 1 4)1( 4 p P(2) est la probabilité que deux enfants soient des garçons. Ces deux garçon peuvent correspondre au premier et deuxième enfants, ou au premier et troisième enfants ou au premier et quatrième enfants, ou au deuxième et troisième enfants ou au deuxième et quatrième enfants , ou au troisième et quatrième enfants. Il y a donc six possibilités : 375,0) 2 1 (6 2 1 2 1 2 1 2 1 6)2( 4 p P(3) est la probabilité que trois enfants soient des garçon. Ces trois garçons peuvent correspondre au premier et deuxième et troisième enfants, ou au premier et deuxième et quatrième enfants ou au premier et troisième et quatrième enfants ou au deuxième et troisième et quatrième enfants. Il y a donc quatre possibilités : 25,0) 2 1 (4 2 1 2 1 2 1 2 1 4)3( 4 p P(4) est la probabilité que les quatre enfants soient des garçons. Il y a une seule possibilité : 0625,0) 2 1 ( 2 1 2 1 2 1 2 1 )4( 4 p Distribution de probabilité de X x p(x) F(x) 0 1 2 3 4 0,0625 0,2500 0,3750 0,2500 0,0625 0,0625 0,3125 0,6875 0,9375 1 Total 1 IV. VARIABLE ALEATOIRE CONTINUE Une variable aléatoire est continue si elle prend n'importe quelle valeur réelle appartenant à un intervalle donné. Exemple : Le poids est une variable aléatoire continue. La taille est une variable aléatoire continue.
  • 19. Cours de probabilités Adil EL MARHOUM Page 19 Un intervalle continu contient une infinité de valeurs. La probabilité d'obtenir exactement un résultat donné est généralement nulle, bien que ce résultat ne soit pas strictement impossible. 0)(  xXp La notion de distribution de probabilité n'a donc plus de sens dans le cas continu. Par contre la fonction de répartition conserve toute sa signification. Pour une variable aléatoire continue, on calcule la probabilité d'observer une valeur comprise dans un intervalle donné [x ; x+x]. p(x  X  x+x) = p(X  x+x) - p(X  x) = F(x+x) - F(x) Cette probabilité tend vers p(x) quand x tend vers 0. )()()( limlim 00 xFxxFxxXxp xx   )()(' )()( limlim 00 xfxF dx dF x F x xFxxF xx        La fonction f(x), dérivée de la fonction de répartition F(x), est appelée fonction de densité de probabilité. L'ensemble des valeurs admissibles pour une variable aléatoire continue et la fonction de densité de probabilité correspondante est définissent une distribution de probabilité théorique continue. Le produit f(x) dx est appelé élément de probabilité, c'est l'équivalent de la probabilité p(x) pour une variable aléatoire discontinue. Pour une variable aléatoire continue, le cumul de la fonction de densité de probabilité est égal à 1 : 1)(    dxxf F(x) =  x dxxf )( P(a  X  b) = F(b) - F(a) =  b a dxxf )(
  • 20. Cours de probabilités Adil EL MARHOUM Page 20 Exemple : Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :      sinon0 1x0si )( k xf Pour déterminer la constante k, il faut : 1)(    dxxf 1 1 1 ] 1 0 1 0    k xk dxk      sinon0 1x0si1 )(xf On en déduit par intégration la fonction de répartition F(x) : Si x < 0 : F(x) = 00)( 0    dxdxxf x Si 0  x  1 : F(x) = xdxdxdxxf xx    0 0 10)( Si x > 1 : F(x) = 1010)( 1 1 0 0    xx dxdxdxdxxf          1xsi1 1x0six 0xsi0 )(xF
  • 21. Cours de probabilités Adil EL MARHOUM Page 21 V. COUPLE DE VARIABLES ALEATOIRES Dans de nombreux cas, les résultats des expériences aléatoires peuvent être caractérisés par deux variables aléatoires X et Y. on parle alors de couple de variables aléatoires (X , Y). Ces deux variables peuvent être toutes les deux discrètes, ou toutes les deux continues ou l'une discontinue et l'autre continue. 5.1. Couple de variables aléatoires discontinues Dans le cas d'un couple de variables aléatoires discontinues (X , Y), les valeurs respectives de x de X et y de Y sont des valeurs entières. À chaque couple de valeurs (x,y) correspond une probabilité p(x,y), c'est la probabilité d'observer simultanément la valeur x pour X et la valeur y pour Y. p(X=x et Y=y) = p(x,y) L'ensemble des valeurs admissibles (x,y) et des probabilités correspondantes p(x,y) forme une distribution de probabilité discontinue à deux variables. La fonction de répartition est définie par : F(x,y) = p( X  x et Y  y) La distribution de probabilité discontinue à deux variables se présente sous forme d'un tableau à deux entrées. X Y y1 y2  yj  yp p(x) x1 p(x1, y1) p(x1, y2)  p(x1, yj)  p(x1, yp) p(x1) x2 p(x2, y1) p(x2, y2)  p(x2, yj)  p(x2, yp) p(x2) . . . . . . . . . . . . . . . . . . . . . . . . Xi p(xi, y1) p(xi, y2)  p(xi, yj)  p(xi, yp) p(xi) . . . . . . . . . . . . . . . . . . . . . . . . xk p(xk, y1) p(xk, y2)  p(xk, yj)  p(xk, yp) p(xk) p(y) p(y1) p(y2)  p(yj)  p(yp) 1 k est le nombre de valeurs possibles de la variable aléatoire X. p est le nombre de valeurs possibles de la variable aléatoire Y.  Probabilités conjointes p(xi , yj) est dite probabilité conjointe. C'est la probabilité d'obtenir la valeur x et la valeur y en même temps.
  • 22. Cours de probabilités Adil EL MARHOUM Page 22  Probabilités marginales )(),( 1 i p j ji xpyxp  p(xi) est dite probabilité marginale de X. C'est la probabilité d'obtenir la valeur xi quelque soit la valeur de Y. )(),( 1 j k i ji ypyxp  p(yj) est dite probabilité marginale de Y. C'est la probabilité d'obtenir la valeur yj quelque soit la valeur de X. Le cumul de toutes les probabilités conjointes p(xi , yj) est égal à 1.     k i p j j k i i p j ji ypxpyxp 1 111 1)()(),( Par extension de la notion d'indépendance de deux événements aléatoires, deux variables aléatoires discontinues sont indépendantes, si pour tout couple de valeurs (x,y) : p(x,y) = p(x)  p(y) Exemple : Dans une urne contenant 4 boules blanches, 6 boules noires et 10 boules rouges, on prélève au hasard et avec remise 3 boules. Soient la variable aléatoire X qui représente le nombre de boules blanches obtenues, et la variable aléatoire Y qui représente le nombre de boules noires obtenues. P(0 et 0) est la probabilité que les trois boules tirées soient rouges, les prélèvements sont indépendants (tirage avec remise), on peut donc écrire : 125,0 20 10 20 10 20 10 )0;0( p P(0 et 1) est la probabilité que deux boules tirées soient rouges et une noire, il y a trois possibilités, on peut donc écrire : 225,0 20 6 20 10 20 10 3)1;0( p P(0 et 2) est la probabilité que deux boules tirées soient noires et une rouge, il y a trois possibilités, on peut donc écrire : 135,0 20 6 20 6 20 10 3)2;0( p P(0 et 3) est la probabilité que les trois boules tirées soient noires, on peut donc écrire :
  • 23. Cours de probabilités Adil EL MARHOUM Page 23 027,0 20 6 20 6 20 6 )3;0( p P(1 et 0) est la probabilité que deux boules tirées soient rouges et une blanche, il y a trois possibilités, on peut donc écrire : 15,0 20 4 20 10 20 10 3)0;1( p P(1 et 1) est la probabilité qu'une boule tirée soit blanche, et une noire et une rouge, il y a six possibilités, on peut donc écrire : 18,0 20 10 20 6 20 4 6)1;1( p P(1 et 2) est la probabilité que deux boules tirées soient noires et une blanche, il y a trois possibilités, on peut donc écrire : 054,0 20 6 20 6 20 4 3)2;1( p P(1 et 3) est la probabilité que trois boules tirées soient noires et une blanche, ce qui est impossible car on tire que trois boules. On peut donc écrire : P(1;3) = 0 P(2 et 0) est la probabilité que deux boules tirées soient blanches et une rouge, il y a trois possibilités, on peut donc écrire : 06,0 20 10 20 4 20 4 3)0;2( p P(2 et 1) est la probabilité qu'une boule tirée soit noire, et deux blanches, il y a trois possibilités, on peut donc écrire : 036,0 20 6 20 4 20 4 3)1;2( p P(2 et 2) est la probabilité que deux boules tirées soient noires et deux blanches, ce qui est impossible car on tire que trois boules. On peut donc écrire : P(2;2) = 0 P(2 et 3) est la probabilité que trois boules tirées soient noires et deux blanches, ce qui est impossible car on tire que trois boules. On peut donc écrire : P(2;3) = 0 P(3 et 0) est la probabilité que les trois boules tirées soient blanches, on peut donc écrire : 008,0 20 4 20 4 20 4 )0;3( p P(3 et 1) est la probabilité que trois boules tirées soient blanches et une noire, ce qui est impossible car on tire que trois boules. On peut donc écrire :
  • 24. Cours de probabilités Adil EL MARHOUM Page 24 P(3;1) = 0 P(3 et 2) est la probabilité que trois boules tirées soient blanches et deux noires, ce qui est impossible car on tire que trois boules. On peut donc écrire : P(3;2) = 0 P(3 et 3) est la probabilité que trois boules tirées soient noires et trois blanches, ce qui est impossible car on tire que trois boules. On peut donc écrire : P(3;3) = 0 La distribution de probabilités du couple de variables aléatoires (X,Y) est : X Y 0 1 2 3 p(x) 0 0,125 0,225 0,135 0,027 0,512 1 0,15 0,18 0,054 0 0,384 2 0,06 0,036 0 0 0,096 3 0,008 0 0 0 0,008 p(y) 0,343 0,441 0,189 0,027 1 5.2. Couple de variables aléatoires continues Un couple de variables aléatoires est continu si les deux variables X et Y sont continues, c'est à dire elles peuvent prendre n'importe quelle valeur réelle appartenant à un intervalle donné. Un intervalle continu contient une infinité de valeurs. La probabilité d'obtenir exactement un résultat donné est généralement nulle, bien que ce résultat ne soit pas strictement impossible. 0),()yYet(  yxpxXp La notion de distribution de probabilité n'a donc plus de sens dans le cas continu. Par contre la fonction de répartition conserve toute sa signification. Pour un couple de variables aléatoires continues, on calcule la probabilité d'observer des valeurs comprise dans des intervalles donnés [x ; x+x] pour X et [y ; y+y] pour Y. p(x  X  x+x et y  Y  y+y) = p(X  x+x et Y  y+y) - p(X  x et Y  y) p(x  X  x+x et y  Y  y+y) = F(x+x , y+y) - F(x , y) Cette probabilité tend vers p(x,y) quand x et y tendent tous les deux vers 0. ),(),()et( limlim 0 0 0 0 yxFyyxxFyyYyxxXxp y x y x     
  • 25. Cours de probabilités Adil EL MARHOUM Page 25 ),(),(' ),(),( 2 0 0 lim yxfyxF dxdy Fd yx yxFyyxxF y x      La fonction f(x,y), dérivée de la fonction de répartition F(x,y), est appelée fonction de densité de probabilité à deux variables. L'ensemble des valeurs admissibles (x,y) et la fonction de densité de probabilité correspondante f(x,y) définissent une distribution de probabilité théorique continue à deux variables. Le produit f(x,y) dxdy est appelé élément de probabilité, c'est l'équivalent de la probabilité p(x,y) pour un couple de variables aléatoires discontinues. Pour une variable aléatoire continue, le cumul de la fonction de densité de probabilité est égal à 1 : 1),(       dxdyyxf F(x,y) =    x y dxdyyxf ),( En intégrant la fonction de densité de probabilité par rapport à l'une des variables, on obtient les fonctions de densité marginales :     dyyxfxf ),()(     dxyxfyf ),()( Par extension de la notion d'indépendance de deux événements aléatoires, deux variables aléatoires continues sont indépendantes, si pour tout couple de valeurs (x,y) : f(x,y) = f(x)  f(y) Exemple : Soit un couple de variables aléatoires continues (X,Y) définie par la fonction de densité de probabilité :      sinon0 1y0et1x0si ),( k yxf Pour déterminer la constante k, il faut : 1),(       dxdyyxf
  • 26. Cours de probabilités Adil EL MARHOUM Page 26 1 1 1 1 1 ] ] 1 0 1 0 1 0 1 0 1 0 1 0         k kdy dy dxdyk ky kx      sinon0 1y0et1x0si1 ),( yxf On en déduit par intégration la fonction de répartition F(x) : Si x < 0 et y < 0 : F(x,y) = 00),(        x yx y dxdydxdyyxf Si 0  x  1 et 0  y  1 : F(x,y) = xyydxdxdydxdyyxf xx yx y     00 0 1),( Si x > 1 et y >1 : F(x,y) = 11),( 1 0 1 0     dxdydxdyyxf x y          1yet1xsi1 1y0et1x0sixy 0yet0xsi0 ),( yxF
  • 27. Cours de probabilités Adil EL MARHOUM Page 27 VI. CARACTERISTIQUES D'UNE VARIABLE ALEATOIRE 6.1. Espérance mathématique 6.1.1. Définition On appelle espérance mathématique la valeur moyenne de la variable, elle remplace la moyenne arithmétique dans le cas d'une variable statistique. Cas discret   )()( xpxXE Cas continu     dxxfxXE )()( Exemple :  Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants. Distribution de probabilité de X x p(x) F(x) 0 1 2 3 4 0,0625 0,2500 0,3750 0,2500 0,0625 0,0625 0,3125 0,6875 0,9375 1 Total 1 0625,0425,03375,0225,010625,00)()(   xpxXE 2)( XE Dans une famille de quatre enfants on doit s'attendre à avoir deux garçons. Exemple : Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :      sinon0 1x0si1 )(xf 2 1 )( ] 2 ² 1 0 1 0   xdxxXE
  • 28. Cours de probabilités Adil EL MARHOUM Page 28 6.1.2. Propriétés  L'espérance d'une fonction d'une variable X est : Cas discret   )()())(( xpxgXgE Cas continu     dxxfxgXgE )()())(( Exemple : Cas discret   )(²²)( xpxXE Cas continu     dxxfxXE )(²²)(  L'espérance d'une constante est la constante : E(a) = a  L'espérance d'une transformation linéaire est la transformation linéaire de l'espérance : bXaEbaxE xpbxxpabaxE xbpxaxpxpbaxbaxE      )()( )()()( )()()()()(  L'espérance d'une somme est la somme des espérances : E(X + Y) = E(X) + E(Y)  L'espérance d'une différence est la différence des espérances : E(X - Y) = E(X) - E(Y)  L'espérance d'un produit est le produit des espérances si les variables sont indépendantes : E(X  Y) = E(X)  E(Y) 6.2. Variance et écart-type 6.2.1. Définition Comme pour la moyenne, la variance d'une variable aléatoire conserve la même définition que la variance d'une variable statistique. C'est l'espérance mathématique des carrés des écarts par rapport à l'espérance.
  • 29. Cours de probabilités Adil EL MARHOUM Page 29  Cas discret V(X) = E[(X - E(X))²] =   )())²(( xpXEx  Cas continu V(X) = E[(X - E(X))²] =     dxxfXEx )())²(( L'écart-type est égale à la racine carrée de la variance : )(XV La variance est calculée à partir de la formule développée suivante : V(X) = E[(X - E(X))²] = E[X² - 2XE(X) + E(X)²] V(X) = E(X²) - 2 E(X) E(X) + E(X)² V(X) = E(X²) - E(X)² La variance est donc égale à la différence entre l'espérance mathématique des carrés et le carré de l'espérance mathématique. Exemple :  Soit X la variable aléatoire qui caractérise le nombre de garçons dans une famille de quatre enfants. Distribution de probabilité de X x p(x) F(x) 0 1 2 3 4 0,0625 0,2500 0,3750 0,2500 0,0625 0,0625 0,3125 0,6875 0,9375 1 Total 1 20625,0425,03375,0225,010625,00)()(   xpxXE 50625,0²425,0²3375,0²225,0²10625,0²0)(²²)(   xpxXE V(X) = E(X²) - E(X)² = 5 - 2² = 1 L’écart-type est la racine carré de 1 : 11 
  • 30. Cours de probabilités Adil EL MARHOUM Page 30 Exemple : Soit une variable aléatoire continue X définie par la fonction de densité de probabilité :      sinon0 1x0si1 )(xf 2 1 )( ] 2 ² 1 0 1 0   xdxxXE 3 1 ²²)( ] 3 3 1 0 1 0   xdxxXE 12 1 4 1 3 1 )²(²)()(  XEXEXV 12 1  6.2.2. Propriétés  La variance d'une constante est nulle : V(a) = 0  La variance d'une transformation linéaire est : )(²)( ))²](²([)( )²])([()( ))²]()[(()( XVabaXV XEXaEbaXV bXaEbaXEbaXV baXEbaXEbaXV      La variance d'une somme est la somme des variances si les variables sont indépendantes : V(X + Y) = E[((X + Y) - E(X+Y))²] V(X + Y) = E[(X + Y - E(X) - E(Y))²] V(X + Y) = E[((X-E(X)) + (Y-E(Y)))²] V(X + Y) = E[(X-E(X))² + 2 (X-E(X)) (Y-E(Y)) + (Y-E(Y))²] V(X + Y) = E[(X-E(X))²] + 2 E[(X-E(X)) (Y-E(Y))] + E[(Y-E(Y))²]
  • 31. Cours de probabilités Adil EL MARHOUM Page 31 Si X et Y sont indépendantes, on peut écrire : E[(X-E(X)) (Y-E(Y))] = E(X-E(X)) E(Y-E(Y)) = 0 V(X + Y) = E[(X-E(X))²] + E[(Y-E(Y))²] V(X + Y) = V(X) + V(Y)  La variance d'une différence est la somme des variances si les variables sont indépendantes : V(X - Y) = E[((X - Y) - E(X-Y))²] V(X - Y) = E[(X - Y - E(X) + E(Y))²] V(X - Y) = E[((X-E(X)) - (Y-E(Y)))²] V(X - Y) = E[(X-E(X))² - 2 (X-E(X)) (Y-E(Y)) + (Y-E(Y))²] V(X - Y) = E[(X-E(X))²] - 2 E[(X-E(X)) (Y-E(Y))] + E[(Y-E(Y))²] Si X et Y sont indépendantes, on peut écrire : E[(X-E(X)) (Y-E(Y))] = E(X-E(X)) E(Y-E(Y)) = 0 V(X - Y) = E[(X-E(X))²] + E[(Y-E(Y))²] V(X - Y) = V(X) + V(Y)  Variable centrée réduite Une variable aléatoire est dite centrée si son espérance mathématique est nulle, elle est dite réduite si son écart-type est égal à 1. Toute variable aléatoire peut être transformée en une variable centrée réduite par le changement de variable  )(XEX  . 6.3. Covariance d'un couple de variables aléatoires 6.3.1. Définition La covariance d'un couple de variables aléatoires conserve la même définition que la covariance de deux variables statistiques. Elle permet d'étudier le sens de la relation entre deux variables. C'est l'espérance mathématique des produits des écarts par rapport aux espérances.
  • 32. Cours de probabilités Adil EL MARHOUM Page 32  Cas discret COV(X , Y) = E[(X - E(X) (Y - E(Y))] =   ),())(()(( yxpYEyXEx  Cas continu COV(X , Y) = E[(X - E(X) (Y - E(Y))] =        dxdyyxfYEyXEx ),())(()(( La covariance est calculée à partir de la formule développée suivante : COV(X , Y) = E[(X - E(X) (Y - E(Y))] = E[XY - XE(Y) - E(X)Y + E(X)E(Y)] COV(X , Y) = E(XY) - E(X) E(Y) - E(X) E(Y) + E(X) E(Y) COV(X , Y) = E(XY) - E(X) E(Y) La covariance est donc égale à la différence entre l'espérance mathématique des produits et le produit des espérances mathématiques.   ),()( yxpyxXYE dans le cas discret.        dxdyyxfxyXYE ),()( dans le cas continu. La relation entre deux variables aléatoires est croissante ou décroissante selon que la covariance est positive ou négative. Exemple : Soit la distribution de probabilités du couple de variables aléatoires (X,Y) suivante : X Y 0 1 2 3 p(x) 0 0,125 0,225 0,135 0,027 0,512 1 0,15 0,18 0,054 0 0,384 2 0,06 0,036 0 0 0,096 3 0,008 0 0 0 0,008 p(y) 0,343 0,441 0,189 0,027 1 COV(X , Y) = E(XY) - E(X) E(Y) 6,0008,03096,02384,01512,00)()(   xxpXE 9,0027,03189,02441,01343,00)()(   yypYE
  • 33. Cours de probabilités Adil EL MARHOUM Page 33 0,36E(XY) 0330230130,00803 0320220,036120,0602 031054,02118,0110,1501 1027,030135,020225,010125,000)( ),()(        XYE yxpyxXYE COV(X , Y) = E(XY) - E(X) E(Y) = 0,36 - 0,60,9 = - 0,18 Exemple : Soit un couple de variables aléatoires continues (X,Y) définie par la fonction de densité de probabilité :      sinon0 1y0et1x0si1 ),( yxf 1),()( 1 0 1 0   dydyyxfxf 1),()( 1 0 1 0   dxdxyxfyf 2 1 )( ] 2 ² 1 0 1 0   xdxxXE 2 1 )( ] 2 ² 1 0 1 0   ydyyYE 4 1 2 1 )( ),()( 1 0 1 0 1 0          xdxdxdyxyXYE dxdyyxfxyXYE 0 2 1 2 1 4 1 )()()(),(  YEXEXYEYXCOV
  • 34. Cours de probabilités Adil EL MARHOUM Page 34 6.3.2. propriétés  La covariance de deux variables aléatoires indépendantes est nulle : COV(X , Y) = E(XY) - E(X) E(Y) = E(X) E(Y) - E(X) E(Y) = 0  Covariance des transformations linéaires : Soient : X' = a X + b et Y' = c Y + d (a, b, c, et d sont des constantes quelconques). COV(X' , Y') = E[(X'-E(X')) (Y'-E(Y'))] COV(X' , Y') = E[((aX+b)-E(aX+b)) ((cY+d)-E(cY+d))] COV(X' , Y') = E[(aX-aE(X)) (cY-cE(Y))] COV(X' , Y') = ac E[(X-E(X)) (Y-E(Y))] COV(X' , Y') = ac COV(X , Y)  On peut démonter que la covariance en valeur absolue est inférieure ou égale au produit des écart-types : )()(),( YVXVYXCOV  6.4. Coefficient de corrélation linéaire 6.4.1. Définition Le coefficient de corrélation linéaire, désigné par r, a pour objet de mesurer l'intensité de la relation linéaire entre deux variables X et Y. )()( ),( YVXV YXCOV r   Cette définition montre que le coefficient de corrélation linéaire possède le même signe que la covariance et qu'il est toujours compris entre -1 et 1. -1  r  1 La corrélation linéaire est forte lorsque le coefficient de corrélation est proche de 1 ou de -1.  R = 1 : dans ce cas, on parle de corrélation linéaire croissante parfaite ou de dépendance fonctionnelle.  R = -1 : dans ce cas, on parle de corrélation linéaire décroissante parfaite ou de dépendance fonctionnelle.
  • 35. Cours de probabilités Adil EL MARHOUM Page 35  R = 0 : dans ce cas, il n'y a aucune dépendance linéaire entre les deux variables, on parle de corrélation linéaire nulle.  -1 < r < 0 : dans ce cas les deux variables varient en sens inverse, la corrélation est faible ou forte selon que le coefficient de corrélation est proche de 0 ou de -1.  0 < r < 1 : dans ce cas les deux variables varient dans le même sens, la corrélation est faible ou forte selon que le coefficient de corrélation est proche de 0 ou de 1. Exemple : Soit la distribution de probabilité à deux variables suivante : X Y 1 2 p(x) 1 0 1/4 1/4 2 1/2 0 1/2 3 0 1/4 1/4 p(y) 1/2 1/2 1 2 1 4 2 9 )²(²)()( 2 9 4 1 ²3 2 1 ²2 4 1 ²1)(²²)( 2 4 1 3 2 1 2 4 1 1)()(      XEXEXV xpxXE xxpXE 4 1 4 9 2 5 )²(²)()( 2 5 2 1 ²2 2 1 ²1)(²²)( 2 3 2 1 2 2 1 1)()(      YEYEYV ypyYE yypYE 0 2 3 23)()()(),( 3 4 1 23013022 2 1 12 4 1 21011),()(    YEXEXYEYXCOV yxpxyXYE 0 )()( ),(    YVXV YXCOV r Deux variables non indépendantes peuvent avoir un coefficient de corrélation linéaire nul.
  • 36. Cours de probabilités Adil EL MARHOUM Page 36 6.4.2. Propriétés  Transformations linéaires Soient : X' = aX + b et Y' = cY + d (a, b, c, et d sont des constantes quelconques). ),()','( )(²)(² ),( )','( )'()'( )','( )','( YXrYXr YVcXVa YXacCOV YXr YVXV YXCOV YXr      Les transformations linéaires ne modifient pas l'intensité de la relation linéaire mais elles peuvent changer le sens de cette relation. VII. INEGALITE DE BIENAYME TCHEBYCHEFF Cette inégalité concerne des probabilités relatives à des écarts par rapport à l'espérance mathématique supérieurs à deux fois l'écart-type, c'est à dire à des écarts centrés réduits  )(XEX  . Quelque soit la variable aléatoire X, la probabilité d'un intervalle [E(X)-k , E(X)+] a pour borne inférieure ² 1 1 k  .   )())²(()( xpXExXV E(X)-k  x  E(X)+ On peut décomposer la variance en trois somme : 321)( SSSXV  avec :  S1 =   )())²(( xpXEx x < E(X)-k  S2 =   )())²(( xpXEx E(X)-k  x  E(X)+  S3 =   )())²(( xpXEx x > E(X)+ 321)( SSSXV  31)( SSXV 
  • 37. Cours de probabilités Adil EL MARHOUM Page 37  Pour S1 x < E(X) - k x - E(X) < - k (x - E(X))² > k²²   )(²²)())²(( 11 xpkxpXEx   )(²²1 1 xpkS   Pour S3 x > E(X) + k x - E(X) > k (x - E(X))² > k²²   )(²²)())²(( 33 xpkxpXEx   )(²²3 3 xpkS  31)( SSXV    )(²²)(²²)( 31 xpkxpkXV  ))()((²²)( 31   xpxpkXV    )(1)()( 231 xpxpxp On note : pxp  )(2  kXEXkXEpxp  )()(()(2 Or ²)( XV On a donc : ² 1 1 1 ² 1 )1(²1 )1(²²² k p p k pk pk      L'inégalité de Bienaymé Tchebycheff est donc : ² 1 1))()(( k kXEXkXEp  
  • 38. Cours de probabilités Adil EL MARHOUM Page 38 LOIS THEORIQUES DISCRETES I. INTRODUCTION Le but des lois théoriques est la description des phénomènes statistiques dont le but de calculer la probabilité de certains événements et donc d'avoir une certaine représentation de l'avenir. Nous étudierons au cours de ce chapitre les lois de probabilités les plus courantes qui vont nous permettre la description d'un phénomène aléatoire déterminé. Nous présenterons ainsi la loi de Bernoulli, la loi binomiale, la loi polynomiale, la loi hypergéométrique, la loi hypergéométrique généralisée, et la loi de poisson. II. LOI DE BERNOULLI La loi de Bernoulli intervient dans le cas d'une seule expérience aléatoire à laquelle on associe un événement aléatoire quelconque. La réalisation de l'événement au cours de cette expérience est appelée succès et la probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non réalisation de l'événement est appelée échec et la probabilité de non réalisation est dite probabilité d'échec, désignée par q. q = 1 - p La variable aléatoire X qui caractérise le nombre de succès au cours d'une seule expérience aléatoire est appelée variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec les probabilités respectives q et p. Loi de probabilité d'une variable Bernoulli x p(x) 0 1 q P Total 1 Les caractéristiques d'une variable Bernoulli sont :  Espérance mathématique E(X) = ppqxxp  10)(  Variance E(X²) = ppqxpx  ²1²0)(² V(X) = E(X²) - E(X)² = p - p² = p (1 - p) = pq
  • 39. Cours de probabilités Adil EL MARHOUM Page 39 Exemple : On lance une pièce de monnaie une seule fois. Soit X la variable aléatoire qui caractérise le nombre de pile obtenus. X est une variable de Bernoulli, elle prend les valeurs entières 0 et 1 avec la probabilité constante 0,5. Loi de probabilité de X x p(x) 0 1 0,5 0,5 Total 1 III. LOI BINOMIALE 3.1. Définition La loi binomiale intervient dans le cas de plusieurs expériences aléatoires identiques et indépendantes aux quelles on associe un événement aléatoire quelconque. La réalisation de l'événement au cours de chacune des expériences est appelée succès et la probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non réalisation de l'événement est appelée échec et la probabilité de non réalisation est dite probabilité d'échec, désignée par q. q = 1 - p les probabilités p et q restent constantes au cours d'une suite d'expériences aléatoires. C'est le cas des prélèvements d'individus au hasard dans une populations infinie ou le prélèvement d'individus dans une population finie, lorsque les individus sont remis en place au fur et à mesure des prélèvements. La variable aléatoire X qui caractérise le nombre de succès au cours de n expériences aléatoires indépendantes est appelée variable binomiale, elle prend les valeurs entières de 0 à n. La probabilité d'obtenir x succès et donc (n-x) échecs au cours de n expériences aléatoires indépendantes est, pour x = 0, 1, ..., n : xnxx n qpxp C  )( La loi binomiale dépend de deux paramètres :  n = nombre d'expériences aléatoires indépendantes ;  p = probabilité de succès au cours de chacune des n expériences aléatoires, p doit rester constante. Une variable aléatoire X qui sui une loi binomiale de paramètres n et p, est désignée par :
  • 40. Cours de probabilités Adil EL MARHOUM Page 40 X = B(n , p) 3.2. Caractéristiques d'une variable binomiale La variable Bernoulli est un cas particulier de la loi binomiale, elle correspond à la loi binomiale de paramètres 1 et p. Une variable binomiale de paramètres n et p, peut être considérée comme étant la somme de n variables de Bernoulli identiques et indépendantes de même paramètre p. X = B(n , p) X = X1 + X2 + … + Xn Avec Xi (i=1 à n) est une variable Bernoulli tel que : E(Xi) = p et V(Xi) = pq  Espérance mathématique En appliquant la propriété de l'espérance d'une somme on peut écrire : E(X) = E(X1 + X2 + … + Xn) E(X) = E(X1) + E(X2) + … + E(Xn) E(X) = p + p + … + p E(X) = np  Variance et écart-type En appliquant la propriété de la variance d'une somme de variables aléatoires indépendantes on peut écrire : V(X) = V(X1 + X2 + … + Xn) V(X) = V(X1) + V(X2) + … + V(Xn) V(X) = pq + pq + … + pq V(X) = npq L'écart-type : npq Exemple : Dans un lot important de pièces, dont 10 % sont défectueuses, on prélève un échantillon de 20 pièces. Quelle est la probabilité d'obtenir plus de deux pièces défectueuse ?
  • 41. Cours de probabilités Adil EL MARHOUM Page 41 On définit la variable aléatoire X comme étant le nombre de pièces défectueuses qu'on peut obtenir dans l'échantillon. La variable X peut prendre les valeurs entières de 0 à 20. La population des pièces peut être considérée comme une population pratiquement infinie. La probabilité de succès, c'est à dire la probabilité qu'une pièce choisie soit défectueuse, est constante et égale à 0,1. La variable aléatoire X suit donc une loi binomiale de paramètre 20 et 0,1. X = B(20 ; 0,1) La probabilité d'avoir plus de deux pièces défectueuses dans l'échantillon est : P(X > 2) = 1 - p(X  2) = 1 - p(0) - p(1) - p(2) 2945,02852,02702,01501,01)2( 9,01,09,01,09,01,01)2( 1822 20 1911 20 2000 20   Xp Xp CCC L'espérance mathématique : E(X) = np = 20  0,1 = 2 pièces défectueuses. Dans un échantillon de 20 pièces, on peut s'attendre à avoir deux pièces défectueuses. La variance : V(X) = npq = 20  0,1  0,9 = 1,8 3.3. Propriétés  Additivité La somme de deux ou plusieurs variables binomiales indépendantes de même paramètres p est elle-même une variable binomiale. X1 = B(n1 , p) X2 = B(n2 , p) … Xk = B(nk , p) X1 + X2 + … + Xk = B(n1 + n2 + … + nk , p)  Formule de récurrence En effectuant le rapport de deux probabilités successives, on obtient : )( )1( )( )1( xp xq xnp xp    Exemple : Soit la distribution binomiale de paramètres 4 et 1/6. X = B(4 , 1/6) La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 :
  • 42. Cours de probabilités Adil EL MARHOUM Page 42 xxx qpxp C   4 4 )( Les probabilités p(x) peuvent être calculées par récurrence de la manière suivante : 00080154,0 4 6 5 1 6 1 )4( 0154,01157,0 3 6 5 2 6 1 )3( 1157,03858,0 2 6 5 3 6 1 )2( 3858,04823,0 1 6 5 4 6 1 )1( 4823,0) 6 5 ()0( 4                  p p p p p Distribution de la variable B(4 , 1/6) x p(x) 0 1 2 3 4 0,4823 0,3858 0,1157 0,0154 0,0008 Total 1  Les distributions binomiales sont symétriques lorsque p = q = 1/2, la dissymétrie est d'autant plus grande que p et q sont plus différents de 1/2. Exemple : Distribution de la variable B(4 , 1/2) x p(x) 0 1 2 3 4 0,0625 0,2500 0,3750 0,2500 0,0625
  • 43. Cours de probabilités Adil EL MARHOUM Page 43 Total 1  Table de la loi binomiale Pour le calcul de p(x), il existe des tables d'usages qui donnent ces calculs. Ces tables dépendent des paramètres n et p. IV. LOI POLYNOMIALE La loi polynomiale est une généralisation de la loi binomiale. elle intervient dans le cas de plusieurs expériences aléatoires identiques et indépendantes aux quelles on associe k événements aléatoires complémentaires quelconques. Les probabilités de succès respectives des k événements sont désignées par p1, p2, …, et pk. 1 1  k i ip La réalisation de l'événement au cours de chacune des expériences est appelée succès et la probabilité de réalisation est dite probabilité de succès, désignée par p. Par contre la non réalisation de l'événement est appelée échec et la probabilité de non réalisation est dite probabilité d'échec, désignée par q. q = 1 - p les probabilités de succès pi (i =1 à k) restent constantes au cours d'une suite d'expériences aléatoires. Les variables aléatoires X1, X2, …, Xk désignent respectivement les nombres de succès au cours de n expériences aléatoires indépendantes pour chacun des k événements. Chaque variable aléatoire Xi peut prendre les valeurs entières de 0 à n. Ces variables sont telles que : nx k i i 1 La probabilité d'obtenir x1 succès pour l'événement 1, et x2 succès pour l'événement 2, …, et xk succès pour l'événement k au cours de n expériences aléatoires indépendantes est : kx k xx k ppp xx n xxxp    21 21 k21 21 !x!! ! ),,,(   Exemple : On lance quatre fois de suite un dé parfaitement homogène. On désigne par la variable aléatoire X1 le nombre de faces 1 obtenues, par X2 le nombre de faces 2 obtenues et par X3 le nombre de faces supérieures ou égales à 3. La distribution de probabilité relative à ces trois variables est une distributions à deux variables, puisque la troisième variable est entièrement déterminée par la valeur des deux autres : X3 = 4 - X1 - X2
  • 44. Cours de probabilités Adil EL MARHOUM Page 44 Ces trois variables peuvent être représentées par une loi polynomiale de probabilités respectives 1/6, 1/6, et 4/6. Les différentes probabilités peuvent être calculées à l'aide de la relation : 321 ) 6 4 () 6 1 () 6 1 ( !x!! !4 ),,( k21 321 xxx xx xxxp    0370,0) 6 4 () 6 1 () 6 1 ( !1!1!2 !4 )1,1,2( 1975,0) 6 4 () 6 1 () 6 1 ( !4!0!0 !4 )4,0,0( 112 400       p p On obtient ainsi la distribution de probabilité du couple (X1 , X2) : X1 X2 0 1 2 3 4 p(x1) 0 1 2 3 4 0,1976 0,1975 0,0741 0,0123 0,0008 0,1975 0,1482 0,0370 0,0031 0 0,0741 0,0370 0,0046 0 0 0,0123 0,0031 0 0 0 0,0008 0 0 0 0 0,4823 0,3858 0,1157 0,0154 0,0008 p(x2) 0,4823 0,3858 0,1157 0,0154 0,0008 1 V. LOI HYPERGEOMETRIQUE 5.1. Définition La loi hypergéométrique intervient dans le cas de plusieurs expériences aléatoires dépendantes aux quelles on associe un caractère étudié quelconque. la probabilité de succès varie d'une expérience aléatoire à l'autre. C'est le cas des prélèvements d'individus au hasard dans une populations finie, lorsque les individus ne sont pas remis en place au fur et à mesure des prélèvements. Désignons par N l'effectif total de la population dans laquelle on prélève au hasard et sans remise n individus. La population est composée d'individus qui possèdent la caractère étudié, le nombre de ces individus sera désigné par n1. n2 désigne le nombre d'individus de la population qui ne possèdent pas le caractère étudié. N = n1 + n2 La variable aléatoire X, qui caractérise le nombre d'individus prélevés qui possèdent la caractère étudié, est appelée variable hypergéométrique, elle prend les valeurs entières de 0 à n.
  • 45. Cours de probabilités Adil EL MARHOUM Page 45 La probabilité d'obtenir x individus possédant le caractère étudié parmi les n individus prélevés et donc (n-x) individus ne possédant pas le caractère étudié est, pour x = 0, 1, ..., n : C CC n N xn n x n xp   21 )( La loi hypergéométrique dépend de trois paramètres :  N = effectif total de la population ;  n1 = nombre d'individus de la population qui possèdent le caractère étudié ;  n = nombre d'individus prélevés sans remise. Une variable aléatoire X qui sui une loi hypergéométrique de paramètres N, n1, et n est désignée par : X = H(N, n1 , n) 5.2. Caractéristiques d'une variable hypergéométrique les distributions hypergéométriques possèdent des propriétés semblables à celles des distributions binomiales. La proportion des individus de la population qui possèdent le caractère étudié est : N n p 1  La proportion des individus de la population qui ne possèdent pas le caractère étudié est : N n q 2   Espérance mathématique : E(X) = np  Variance et écart-type : V(X) = npq et npq Exemple : Dans une population de 40 personnes, dont 6 personnes sont originaires du Sud, 14 du Nord, 12 de l'Est et 8 de l'Ouest, on choisit au hasard un échantillon de 4 personnes. La variable aléatoire X désigne le nombre d'individus de l'échantillon qui sont originaire du Nord. La population étant finie et les prélèvements s'effectuent sans remise, la variable X suit donc une loi hypergéométrique de paramètres :  N = effectif total de la population = 40  n1 = nombre d'individus de la population qui sont originaires du Nord = 14  n = nombre d'individus prélevés sans remise = 4 X = H(40, 14, 4)
  • 46. Cours de probabilités Adil EL MARHOUM Page 46 La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 : 0110,0)4( 1036,0)3( 3236,0)2( 3983,0)1( 1636,0)0( 4 40 0 26 4 14 4 40 1 26 3 14 4 40 2 26 2 14 4 40 3 26 1 14 4 40 4 26 0 14      C CC C CC C CC C CC C CC p p p p p Distribution de probabilité de X x p(x) 0 1 2 3 4 0,1636 0,3983 0,3236 0,1036 0,0110 Total 1 La proportion des individus de la population qui sont originaires du Nord est : 35,0 40 14 p La proportion des individus de la population qui ne sont pas originaires du Nord est : 65,0 40 26 q  Espérance mathématique : E(X) = np = 4  0,35 = 1,4  Variance et écart-type : V(X) = npq = 40,350,65 = 0,91  Ecart-type : 95,091,0  npq
  • 47. Cours de probabilités Adil EL MARHOUM Page 47 5.3. Approximation de la loi hypergéométrique par la loi binomiale Dès que l'effectif N de la population devient important, le calcul de C CC n N xn n x n xp   21 )( devient fastidieux. On peut démonter dans ce cas que lorsque l'effectif de la population (N) tend vers l'infini et la proportion des individus possédant le caractère étudié (p) est constante ou tend vers une constante, la loi hypergéométrique tend vers une loi binomiale de paramètre n et p. On peut dans ce cas effectuer les calculs de probabilités de façon approximatives à l'aide de la formule de la loi binomiale. En pratique, l'approximation est satisfaisante dés que la proportion des individus prélevés est inférieure à 5 %. n20Nou05,0  N n Exemple : Soit la variable hypergéométrique H(100, 30, 4) La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4 : C CC xx xp 4 100 4 7030 )(   Distribution de probabilité de X = H(100, 30, 4) x p(x) 0 1 2 3 4 0,2338 0,4188 0,2679 0,0725 0,0070 Total 1 La distribution de cette variable peut être calculée à l'aide de l'approximation par la loi binomiale de paramètres 4 et 0,3. Les probabilités approximatives sont telle que, pour x = 0, 1, 2, 3, 4 : xxx Cxp   4 4 7,03,0)( Distribution de probabilité de X = B(4 ; 0,3) x p(x) 0 1 2 3 4 0,2401 0,4116 0,2646 0,0756 0,0081 Total 1 On constate que l'approximation est satisfaisante.
  • 48. Cours de probabilités Adil EL MARHOUM Page 48 VI. LOI HYPERGEOMETRIQUE GENERALISEE La loi hypergéométrique généralisée est une généralisation de la loi hypergéométrique. elle intervient dans le cas de plusieurs expériences aléatoires dépendantes aux quelles on associe k caractères étudiés. C'est le cas des prélèvements d'individus au hasard dans une population finie, lorsque les individus ne sont pas remis en place au fur et à mesure des prélèvements. Désignons par N l'effectif total de la population dans laquelle on prélève au hasard et sans remise n individus. La population est composée d'individus qui possèdent le 1er caractère étudié, le nombre de ces individus sera désigné par n1. n2 désigne le nombre d'individus de la population qui possèdent le 2ème caractère étudié, …, nk désigne le nombre d'individus de la population qui possèdent le kème caractère étudié. N = n1 + n2 + … + nk Les variables aléatoires X1, X2, …, Xk désignent respectivement les nombres d'individus prélevés qui possèdent le 1er caractère, le 2ème caractère, …, et le kème caractère. Chaque variable aléatoire Xi peut prendre les valeurs entières de 0 à n. Ces variables sont telles que : nx k i i 1 La probabilité d'obtenir x1 individus possédant le 1er caractère, et x2 individus possédant le 2ème caractère, …, et xk individus possédant le kème caractère parmi les n individus prélevés est : C CCC n N x n x n x n k k k xxxp     2 2 1 1 ),,,( 21 Exemple : Dans une population de 40 personnes, dont 6 personnes sont originaires du Sud, 14 du Nord, 12 de l'Est et 8 de l'Ouest, on choisit au hasard un échantillon de 4 personnes. Quelle est la probabilité d'avoir une personne de chaque région ? Les variables aléatoires X1, X2, X3 et X4 désignent respectivement les nombres d'individus prélevés du Sud, du Nord, de l'Est et de l'Ouest. Chaque variable aléatoire Xi peut prendre les valeurs entières de 0 à 4. Ces variables suivent une loi hypergéométrique généralisée. La probabilité d'obtenir x1 individus du Sud, et x2 individus du Nord, et x3 individus de l'Est , et x4 individus de l'Ouest est : C CCCC xxxx xxxxp 4 40 812146 4321 4321 ),,,(   La probabilité d'avoir une personne de chaque région est donc : 0882,0)1,1,1,1( 4 40 1 8 1 12 1 14 1 6    C CCCCp
  • 49. Cours de probabilités Adil EL MARHOUM Page 49 VI. LOI DE POISSON POISSON SIMÉON DENIS (1781-1840). Mathématicien français dont les travaux portent sur les intégrales définies, la théorie électromagnétique et le calcul des probabilités. C’est dans l’ouvrage Recherches sur la probabilité des jugements ... (1837), qui est un livre important sur le calcul des probabilités, qu’apparaît pour la première fois la distribution de Poisson, ou loi de Poisson des grands nombres. Obtenue initialement comme une approximation de la loi binomiale, elle est devenue fondamentale dans de très nombreux problèmes. 6.1. Définition La loi de poisson intervient pour des phénomènes statistiques dont le nombre de réalisation varie de 0 à l'infini et dont la fréquence moyenne de réalisation est connue. Exemple : Nombre d'appels reçus par un standard téléphonique. Nombre d'accidents de la circulation. Nombre de visiteur d'un centre commercial. La variable aléatoire X qui caractérise le nombre de réalisations de ce phénomène est appelée variable de poisson, elle prend les valeurs entières 0,1, 2, …etc. La probabilité d'obtenir x réalisations est, pour x = 0, 1, 2, ... : ! )( x me xp xm    La loi binomiale dépend d'un seul paramètre :  m = fréquence moyenne du phénomène étudié. Une variable aléatoire X qui sui une loi de poisson de paramètre m est désignée par : X = P(m) Exemple : Un port a les moyens techniques de recevoir au maximum 4 bateaux pétroliers par jour. Le reste est envoyé vers un autres port. Quelle est la probabilité qu'un jour donnée, le port ne puisse recevoir tous les bateaux qui se présentent, si on sait qu'en moyenne 3 bateaux se présentent par jour. Désignons par la variable aléatoire X, le nombre de bateaux qui se présentent un jour donnée. X suit une loi de poisson de paramètre 3. X = P(3)
  • 50. Cours de probabilités Adil EL MARHOUM Page 50 La probabilité qu'un jour donnée, le port ne puisse recevoir tous les bateaux qui se présentent est : P(X > 4) = 1 - p(X  4) = 1 - p(0) - p(1) - p(2) - p(3) - p(4) 1840,01680,02240,02240,01494,00498,01)4( !4 3 !3 3 !2 3 !1 3 !0 3 1)4( 4333231303             Xp eeeee Xp 6.2. Caractéristiques d'une variable binomiale On peut démontrer que l'espérance mathématique d'une variable de poisson est égale à sa variance est égale au paramètre m : E(X) = V(X) = m 6.3. Propriété d'additivité La somme de deux ou plusieurs variables de poisson indépendantes de paramètres respectives m1, m2, …, mk est elle-même une variable de poisson de paramètre la somme des paramètres mi. X1 = P(m1) X2 = P(m2) … Xk = P(mk) X1 + X2 + … + Xk = P(m1 + m2 + … + mk) 6.4. Formule de récurrence En effectuant le rapport de deux probabilités successives, on obtient : 1 )()1(   x m xpxp Exemple : Soit la distribution de poisson de paramètre 3. X = P(3) La distribution de cette variable est telle que, pour x = 0, 1, 2, 3, 4, … ! 3 )( 3 x e xp x   
  • 51. Cours de probabilités Adil EL MARHOUM Page 51 Les probabilités p(x) peuvent être calculées par récurrence de la manière suivante : p(0) = e-3 = 0,0498 1680,0 4 3 2240,0)4( 2240,0 3 3 2240,0)3( 2240,0 2 3 1494,0)2( 1494,0 1 3 0498,0)1(     p p p p 6.5. Table de la loi de poisson Pour le calcul de p(x), il existe des tables d'usages qui donnent ces calculs. Ces tables dépendent du paramètre m. 6.6. Approximation de la loi binomiale par la loi de poisson Dès que le paramètre n de la loi binomiale devient grand, le calcul de xnxx n qpxp C  )( devient fastidieux. On peut démonter dans ce cas que lorsque le nombre d'expériences indépendantes (n) tend vers l'infini et la probabilité de succès tend vers zéro de telle sorte que le produit np tend vers une constante, la loi binomiale de paramètre n et p tend vers une loi de poisson de paramètre np. On peut dans ce cas effectuer les calculs de probabilités de façon approximatives à l'aide de la formule de la loi de poisson. En pratique, l'approximation est satisfaisante lorsque la probabilité p est inférieure à 0,1 et le produit np est inférieur à 5. Exemple : Une machine fabrique des ampoules avec une proportion d'ampoules défectueuses de 5 %. Pour contrôler la qualité des ampoules, on a prélevé au hasard, dans un lot important d'ampoules, un échantillon de 20 ampoules. Quelle est la probabilité que sur les 20 ampoules prélevées, on ait plus d'une ampoule défectueuse ? Désignons par la variable aléatoire X, le nombre d'ampoules défectueuses dans l'échantillon. La variable X peut prendre les valeurs entières de 0 à 20. La population des ampoules peut être considérée comme une population pratiquement infinie. La probabilité de succès, c'est à dire la probabilité qu'une ampoule choisie soit défectueuse, est constante et égale à 0,05. La variable aléatoire X suit donc une loi binomiale de paramètre 20 et 0,05. X = B(20 ; 0,05)
  • 52. Cours de probabilités Adil EL MARHOUM Page 52 La probabilité d'avoir plus d'une ampoule défectueuse dans l'échantillon est : p(X > 1) = p(X  1) = 1 - p(0) - p(1) 2641,03774,03585,01)1( 95,005,095,005,01)1( 1911 20 2000 20   Xp Xp CC La probabilité d'avoir plus d'une ampoule défectueuse dans l'échantillon peut être calculée de façon approximative à l'aide de la loi de poisson de paramètre 200,05 = 1, puisque la probabilité p est inférieure à 0,1 (0,05) et le produit np est inférieur à 5 (200,05 = 1) : p(X > 1) = p(X  1) = 1 - p(0) - p(1) 2642,03679,03679,01)1( !1 1 !0 1 1)1( 1101       Xp ee Xp On constate que l'approximation est très satisfaisante.
  • 53. Cours de probabilités Adil EL MARHOUM Page 53 LOIS THEORIQUES CONTINUES I. INTRODUCTION Le but des lois théoriques est la description des phénomènes statistiques Nous étudierons au cours de ce chapitre les lois de probabilités continues les plus courantes. Nous présenterons ainsi la loi Normale dont le principal but est de calculer la probabilité de certains événements et donc d'avoir une certaine représentation des phénomènes. La loi Khi deux de Pearson, la loi de Student et la loi de Fisher qui ont un rôle très important dans les problèmes d'estimation et les tests d'hypothèses. II. LOI NORMALE 2.1. Définition La loi normale est la loi continue la plus importante et la plus utilisée dans le calcul de probabilité. Elle est aussi appelée loi de LAPLACE GAUSS. Laplace, Pierre Simon (1749-1827). Les réalisations scientifiques majeures de Laplace concernent la mécanique céleste et le calcul des probabilités. Dans sa Théorie analytique des probabilités (1812), qui contient des calculs très élaborés d'approximation de grands nombres, Laplace indiqua les principes et les applications de la géométrie du hasard. Il fut à l'origine de la loi de Laplace-Gauss, ou loi normale, très utilisée en probabilités. On appelle variable normale toute variable aléatoire continue X définie dans l'intervalle   , par la fonction de densité de probabilité suivante : )²( 2 1 2 1 )(   mx exf     m et  sont des paramètres quelconques qui représentent respectivement la moyenne et l'écart type de la variable. On peut vérifier que : 1)(    dxxf La loi normale dépend de deux paramètres m et .Une variable aléatoire X qui suit une loi normale de paramètres m et  est désignée par : X = N(m , )
  • 54. Cours de probabilités Adil EL MARHOUM Page 54 2.2. Loi normale centrée réduite On appelle variable normale réduite toute variable aléatoire normale U de paramètres m = 0 et  = 1. Z = N(0 , 1) Une variable normale réduite est définie par la fonction de densité de probabilité suivante : 2 ² 2 1 )( z ezf    Toute variable normale X de paramètres m et  peut être transformée en une variable normale réduite par le changement de variable suivant :  mX Z   2.3. Forme de la loi normale La représentation graphique de la fonction de densité de probabilité d'une variable normale est une courbe en forme de cloche symétrique par rapport à la moyenne m et caractérisée par l'existence d'un maximum en x = 0 et f(x) = 2 1  . En particulier la loi normale réduite est symétrique par rapport à l'axe des abscisses et caractérisée par l'existence d'un maximum en z = 0 et f(z) = 40,0 2 1   . La fonction de répartition correspond à l'aire comprise entre cette courbe et l'axe des abscisses.
  • 55. Cours de probabilités Adil EL MARHOUM Page 55 2.4. Détermination pratique des probabilités Pour le calcul de probabilités sans utiliser la fonction de densité, des tables de la loi normale réduite ont été élaborées. On distingue deux tables de la loi normale réduite, relatives l'une à la fonction de densité de probabilité et l'autre à la fonction de répartition. En raison de la symétrie de la distribution, ces tables sont limitées aux valeurs positives de u. Par le changement de variable  mX Z   toutes les variables normales se ramènent à la loi normale réduite. 2.4.1. Table de la fonction de densité de probabilité Cette table donne les valeurs f(z) pour des valeurs positives u d'une variable normale réduite. En raison de la symétrie de f(z), on peut déduire les valeurs f(z) pour les valeurs négatives de u : f(-z) = f(z). Pour une variable normale quelconque X de paramètre m et  :   )( )( )( zf mx f xf    Pour lire une valeur f(z) dans la table, il suffit de lire l'intersection entre la ligne correspondante à la valeur de z et la colonne correspondante au deuxième chiffre après la virgule de z.
  • 56. Cours de probabilités Adil EL MARHOUM Page 56 TABLE DE LA FONCTION DE DENSITE DE LA LOI NORMALE REDUITE z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9 0,3989 0,3989 0,3989 0,3988 0,3986 0,3984 0,3982 0,3980 0,3977 0,3973 0,3970 0,3965 0,3961 0,3956 0,3951 0,3945 0,3939 0,3932 0,3925 0,3918 0,3910 0,3902 0,3894 0,3885 0,3876 0,3867 0,3857 0,3847 0,3836 0,3825 0,3814 0,3802 0,3790 0,3778 0,3765 0,3752 0,3739 0,3725 0,3712 0,3697 0,3683 0,3668 0,3653 0,3637 0,3621 0,3605 0,3589 0,3572 0,3555 0,3538 0,3521 0,3503 0,3485 0,3467 0,3448 0,3429 0,3410 0,3391 0,3372 0,3352 0,3332 0,3312 0,3292 0,3271 0,3251 0,3230 0,3209 0,3187 0,3166 0,3144 0,3123 0,3101 0,3079 0,3056 0,3034 0,3011 0,2989 0,2966 0,2943 0,2920 0,2897 0,2874 0,2850 0,2827 0,2803 0,2780 0,2756 0,2732 0,2709 0,2685 0,2661 0,2637 0,2613 0,2589 0,2565 0,2541 0,2516 0,2492 0,2468 0,2444 0,2420 0,2396 0,2371 0,2347 0,2323 0,2299 0,2275 0,2251 0,2227 0,2203 0,2179 0,2155 0,2131 0,2107 0,2083 0,2059 0,2036 0,2012 0,1989 0,1965 0,1942 0,1919 0,1895 0,1872 0,1849 0,1826 0,1804 0,1781 0,1758 0,1736 0,1714 0,1691 0,1669 0,1647 0,1626 0,1604 0,1582 0,1561 0,1539 0,1518 0,1497 0,1476 0,1456 0,1435 0,1415 0,1394 0,1374 0,1354 0,1334 0,1315 0,1295 0,1276 0,1257 0,1238 0,1219 0,1200 0,1182 0,1163 0,1145 0,1127 0,1109 0,1092 0,1074 0,1057 0,1040 0,1023 0,1006 0,09893 0,09728 0,09566 0,09405 0,09246 0,09089 0,08933 0,08780 0,08628 0,08478 0,08329 0,08183 0,08038 0,07895 0,07754 0,07614 0,07477 0,07341 0,07206 0,07074 0,06943 0,06814 0,06687 0,06562 0,06438 0,06316 0,06195 0,06077 0,05959 0,05844 0,05730 0,05618 0,05508 0,05399 0,05292 0,05186 0,05082 0,04980 0,04879 0,04780 0,04682 0,04586 0,04491 0,04398 0,04307 0,04217 0,04128 0,04041 0,03955 0,03871 0,03788 0,03706 0,03626 0,03547 0,03470 0,03394 0,03319 0,03246 0,03174 0,03103 0,03034 0,02965 0,02898 0,02833 0,02768 0,02705 0,02643 0,02582 0,02522 0,02463 0,02406 0,02349 0,02294 0,02239 0,02186 0,02134 0,02083 0,02033 0,01984 0,01936 0,01888 0,01842 0,01797 0,01753 0,01709 0,01667 0,01625 0,01585 0,01545 0,01506 0,01468 0,01431 0,01394 0,01358 0,01323 0,01289 0,01256 0,01223 0,01191 0,01160 0,01130 0,01100 0,01071 0,01042 0,01014 0,00987 0,00961 0,00935 0,00909 0,00885 0,00861 0,00837 0,00814 0,00792 0,00770 0,00748 0,00727 0,00707 0,00687 0,00668 0,00649 0,00631 0,00613 0,00595 0,00578 0,00562 0,00545 0,00530 0,00514 0,00499 0,00485 0,00471 0,00457 0,00443 0,00430 0,00417 0,00405 0,00393 0,00381 0,00370 0,00358 0,00348 0,00337 0,00327 0,00317 0,00307 0,00298 0,00288 0,00279 0,00271 0,00262 0,00254 0,00246 0,00238 0,00231 0,00224 0,00216 0,00210 0,00203 0,00196 0,00190 0,00184 0,00178 0,00172 0,00167 0,00161 0,00156 0,00151 0,00146 0,00141 0,00136 0,00132 0,00127 0,00123 0,00119 0,00115 0,00111 0,00107 0,00104 0,00100 0,00097 0,00094 0,00090 0,00087 0,00084 0,00081 0,00079 0,00076 0,00073 0,00071 0,00068 0,00066 0,00063 0,00061 0,00059 0,00057 0,00055 0,00053 0,00051 0,00049 0,00047 0,00046 0,00044 0,00042 0,00041 0,00039 0,00038 0,00037 0,00035 0,00034 0,00033 0,00031 0,00030 0,00029 0,00028 0,00027 0,00026 0,00025 0,00024 0,00023 0,00022 0,00021 0,00021 0,00020 0,00019 0,00018 0,00018 0,00017 0,00016 0,00016 0,00015 0,00014 0,00014 Exemple : La valeur de f(2,25) correspond à l'intersection entre la ligne correspondante à 2,2 et la colonne correspondante à 0,05, on peut lire la valeur 0,03174. f(-3,14) = f(3,14) = 0,00288
  • 57. Cours de probabilités Adil EL MARHOUM Page 57 2.4.2. Table de la fonction de répartition Cette table donne les valeurs Π(z) pour des valeurs positives z d'une variable normale centrée réduite. En raison de la symétrie de f(z), on peut déduire les valeurs Π(z) pour les valeurs négatives de z : Π(-z) = p(Z  -z) = p(Z > z) = 1 - p(Z  z) = 1 - Π(z) Π(-z) = 1 - Π(z) Pour une variable normale quelconque X de paramètre m et  : (z))()()()(      zZp mxmX pxXpxF  F(x) = Π(z) Pour lire une valeur Π(z) dans la table, il suffit de lire l'intersection entre la ligne correspondante à la valeur de z et la colonne correspondante au deuxième chiffre après la virgule de z.
  • 58. Cours de probabilités Adil EL MARHOUM Page 58 TABLE DE LA FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 05359 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 05753 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 06141 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 06517 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 06879 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 07224 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 07549 0,7580 0,7611 0,7642 0,7673 0,7703 0,7734 0,7764 0,7794 0,7823 07852 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 08133 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 08389 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 08621 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 08830 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 090147 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99897 0,99900 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989 0,99989 0,99990 0,99990 0,99990 0,99991 0,99991 0,99992 0,99992 0,99992 0,99992 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997 Exemple : La valeur de Π(1,36) correspond à l'intersection entre la ligne correspondante à 1,3 et la colonne correspondante à 0,06, on peut lire la valeur 0,91309. Π(-2,24) = 1 - Π(2,24) = 1 - 0,98745 = 0,01255
  • 59. Cours de probabilités Adil EL MARHOUM Page 59 Exemple : Pour qu'une pièce fabriquée par une machine soit utilisable, sa longueur doit être comprise entre 14,7 et 15,3 cm, sinon elle est rejetée. Sachant que la longueur de cette pièce est une variable normale de paramètres 15 cm et 0,2 cm, quelle proportion de pièces peuvent être rejetées. Si on désigne par la variable X la longueur des pièces, X suit une loi normale : X = N(15 ; 0,2) La probabilité de rejet d'une pièce est : 13362,086638,01)( 86638,0193319,02)( 1)50,1(2))50,1(1()50,1()( )50,1()50,1() 2,0 157,14 () 2,0 153,15 ()( )7,14()3,15()( )7,14()3,15()3,157,14()( )(1)(            rejetp accepterp accepterp FFaccepterp FFaccepterp XpXpXpaccepterp accepterprejetp Chaque pièce a une probabilité de 0,13362 d'être rejetée ou il y a un risque de rejet de 13% des pièces fabriquées. 2.5. Propriété d'additivité La somme de deux ou plusieurs variables normales indépendantes est une variable normale de moyenne la somme des moyennes et d'écart type la racine carrée de la somme des variances des variables initiales. Soient X1, X2, …,Xn n variables normales de paramètres respectivement m1, m2, …, mn et 1, 2, …,n. )²²²,( 212121 nnn mmmNXXX   
  • 60. Cours de probabilités Adil EL MARHOUM Page 60 Exemple : Pour se rendre à son travail un ouvrier prend deux bus. La durée du trajet du premier bus est une variable normale de paramètres 27 minutes et 5 minutes. La durée du trajet du deuxième bus est une variable normale de paramètres 30 minutes et 2 minutes. Quelle est la probabilité que cet ouvrier n'arrive pas en retard s'il dispose d'une heure ?  Désignons par X1 La durée du trajet du premier bus : X1 = N(27 ; 5).  Désignons par X2 La durée du trajet du deuxième bus : X2 = N(30 ; 2).  Désignons par X la durée totale des deux trajets : X = X1 + X2. La variable X est la somme de deux variables normales indépendantes, elle suit donc une loi normale : X = N(30+27 ; ²2²5  ) = N(57 ; 5,4) Pour ne pas arriver en retard la durée totale des deux trajets ne doit pas dépasser 60 minutes. 7123,0)56,0()60( )56,0() )4,5 5760 4,5 57 ()60(       Xp Zp X pXp L'ouvrier a donc 71% de chance de ne pas arriver en retard ou il a un risque de 29 % d'arriver en retard. 2.6. Le théorème central limite Le théorème central limite est une généralisation de la propriété d'additivité. Toute somme de variables aléatoires indépendantes tend à suivre une loi normale quelles que soient les lois de probabilités suivies par ces variables. Quels que soient les variables aléatoires indépendantes X1, X2, …, Xn de moyennes respectivement m1, m2, …, mn et d'écarts type respectivement 1, 2, …, n. La somme de ces variables tend à suivre une loi normale de moyenne la somme des moyennes et d'écart type la racine carrée de la somme des variances des variables initiales. )²²²,( 212121 nnn mmmNXXX    Exemple : Une caisse d'assurance maladie reçoit 120 personnes pour l'obtention de remboursements. On suppose que la somme à rembourser à chaque personne est une variable aléatoire de moyenne 1000 dirhams et d'écart type 600 dirhams. La caisse dispose de 130000 dirhams. Quelle est le risque que cette somme ne soit pas suffisante pour rembourser toutes les personnes ? Désignons par Xi (i = 1 à 120) la somme à rembourser à chaque personne. Désignons par X la somme totale que la caisse doit payer aux 120 personnes. X = X1 + X2 + … + X121
  • 61. Cours de probabilités Adil EL MARHOUM Page 61 D'après le théorème central limite, on peut affirmer que X suit une loi normale moyenne la somme des moyennes et d'écart type la racine carrée de la somme des variances. )67,6572;120000()²600120;1000120( NNX  La somme de 130000 dh ne sera pas suffisante si la somme totale à rembourser aux 120 personnes dépasse 130000 dh : 0643,093574,01)52,1(1)52,1(1)130000( ) 67,6572 120000130000 67,6572 120000 (1)130000(1)130000(      ZpXp X pXpXp Il y a donc un risque de 6,5 % que la somme de 130000 dirhams ne soit pas suffisante pour rembourser toutes les personnes. 2.7. Approximation de la loi binomiale par la loi normale Parfois les problèmes relatifs à la loi binomiale se rapportent aux calculs de probabilités dans un ou plusieurs intervalles donnés : p(X < x) p(X > x) ou p(x1 < X x2) La recherche de ces probabilités est souvent longue, car il faut déterminer individuellement et d'additionner les différentes probabilités p(X = x). p(X < 10) = p(0)+p(1)+p(2)+p(3)+p(4)+p(5)+p(6)+p(7)+p(8)+p(9) Lorsque le paramètre n de la loi binomiale est grand et les probabilités de succès p et d'échec q ne sont pas trop petites, on peut effectuer ce calcul d'une manière approchée à l'aide de la loi normale de paramètres np et npq . En pratique l'approximation est satisfaisante lorsque les produits np et nq sont supérieurs à 5 : B(n ; p)  N(np ; npq ) Pour améliorer la qualité de l'approximation de la loi binomiale, qui est discrète, par la loi normale, qui est continue, on introduit généralement une correction de continuité de 0,5. Les différentes probabilités deviennent :  p(X < x - 0,5) au leu de p(X < x)  p(X > x + 0,5) au leu de p(X > x)  p(x1 - 0,5 < X < x2 + 0,5) au lieu de p(x1 < X < x2)
  • 62. Cours de probabilités Adil EL MARHOUM Page 62 Exemple : On suppose que la probabilité qu'un étudiant réussisse un examen est de 0,8. Quelle est la probabilité qu'au moins 75 étudiants parmi 100 étudiants réussissent l'examen ? Désignons par X le nombre d'étudiants qui réussissent l'examen. X est une variable discrète qui prend les valeurs entières de 0 à 100. Elle suit une loi binomiale de paramètres 100 et 0,8. X = B(100 ; 0,8) La probabilité qu'au moins 75 étudiants parmi 100 étudiants réussissent l'examen est : p(X  75) Les produits np et nq sont respectivement 1000,8 = 80 et 1000,2 = 20, ils sont supérieurs à 5. On peut donc effectuer le calcul de cette probabilité d'une manière approchée à l'aide de la loi normale de paramètres np = 80 et npq = 4. X = B(100 ; 0,8)  N(80 ; 4) Pour améliorer la qualité de l'approximation on introduit la correction de continuité, la probabilité p(X  75) devient : p(X  75 + 0,5) = 1 - p(X < 75,5) 8708,0)13,1()13,1(1)5,75( )13,1(1) 4 805,75 4 80 (1)5,75(       Xp Zp X pXp p(X  75)  0,8708 La probabilité qu'au moins 75 étudiants parmi 100 étudiants réussissent l'examen est à peu près 0,8708. Le calcul exact à partir de la loi binomiale donne un résultat de 0,8686. On constate que l'approximation est très satisfaisante.
  • 63. Cours de probabilités Adil EL MARHOUM Page 63 III. LOIS DERIVEES DE LA LOI NORMALE Cet ensemble de lois de répartition est particulièrement utile dans la partie de la statistique appelée l’analyse de variance. 3.1. La loi Khi deux de Pearson 3.1.1. Définition On appelle variable Khi deux de Pearson, la variable ² qui varie entre 0 et + et définie par la fonction de densité de probabilité : 2 1 2)( xk excxf   Le paramètre k est une constante entière positive appelée nombre de degrés de liberté, on dit variable Khi carré à k degré de liberté, désignée par ²à k dl. c est une constante telle que : 1)( 0   dxxf La variable Khi deux de Pearson correspond aussi à la somme des carrés de k variables normales réduites indépendantes. Soient Z1, Z2, …, Zk k variables normales réduites indépendantes, on peut démontrer : ²à k dl = Z1² + Z2² + … + Zk² 3.1.2. Caractéristiques de la loi ²à k dl On peut démontrer que :  Espérance mathématique : E(²à k dl) = k  Variance : V(²à k dl) = 2 k 3.1.3. Propriété d'additivité La somme de deux ou plusieurs variables Khi carrés indépendantes est une variable Khi carrée. Soient n variables Khi deux de degrés de liberté respectivement k1, k2, …, kn : ²à k1 dl + ²à k2 dl + … + ²à kn dl = ²à (k1+k2+…+kn) dl Une variable Khi carré à k degré de liberté peut donc être considéré comme étant la somme de k variables Khi carré à 1 degré de liberté indépendantes.
  • 64. Cours de probabilités Adil EL MARHOUM Page 64 3.1.4. Table de la loi Khi deux de Pearson La table de la loi Khi carré dépend du paramètre k, elle donne les valeurs de ²à k dl pour les valeurs de la fonction de répartition F(²à k dl). TABLE DE LA LOI KHI DEUX DE PEARSON k / p 0,0005 0,001 0,005 0,01 0,025 0,05 0,1 0,2 0,3 0,4 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0,06 393 0,05 157 0,04 393 0,03 157 0,03 982 0,02 393 0,0158 0,0642 0,148 0,275 0,02 100 0,02 200 0,0100 0,0201 0,0506 0,103 0,211 0,446 0,713 1,02 0,0153 0,0243 0,0717 0,115 0,216 0,352 0,584 1,00 1,42 1,87 0,0639 0,0908 0,207 0,297 0,484 0,711 1,06 1,65 2,19 2,75 0,158 0,210 0,412 0,554 0,831 1,15 1,61 2,34 3,00 3,66 0,299 0,381 0,676 0,872 1,24 1,64 2,20 3,07 3,83 4,57 0,485 0,598 0,989 1,24 1,69 2,17 2,83 3,82 4,67 5,49 0,710 0,857 1,34 1,65 2,18 2,73 3,49 4,59 5,53 6,42 0,972 1,15 1,73 2,09 2,70 3,33 4,17 5,38 6,39 7,36 1,26 1,48 2,16 2,56 3,25 3,94 4,87 6,18 7,27 8,30 1,59 1,83 2,60 3,05 3,82 4,57 5,58 6,99 8,15 9,24 1,93 2,21 3,07 3,57 4,40 5,23 6,30 7,81 9,03 10,2 2,31 2,62 3,57 4,11 5,01 5,89 7,04 8,63 9,93 11,1 2,70 3,04 4,07 4,66 5,63 6,57 7,79 9,47 10,8 12,1 3,11 3,48 4,60 5,23 6,26 7,26 8,55 10,3 11,7 13,0 3,54 3,94 5,14 5,81 6,91 7,96 9,31 11,2 12,6 14,0 3,98 4,42 5,70 6,41 7,56 8,67 10,1 12,0 13,5 14,9 4,44 4,90 6,26 7,01 8,23 9,39 10,9 12,9 14,4 15,9 4,91 5,41 6,84 7,63 8,91 10,1 11,7 13,7 15,4 16,9 5,40 5,92 7,43 8,26 9,59 10,9 12,4 14,6 16,3 17,8 5,90 6,45 8,03 8,90 10,3 11,6 13,2 15,4 17,2 18,8 6,40 6,98 8,64 9,54 11,0 12,3 14,0 16,3 18,1 19,7 6,92 7,53 9,26 10,2 11,7 13,1 14,8 17,2 19,0 20,7 7,45 8,08 9,89 10,9 12,4 13,8 15,7 18,1 19,9 21,7 7,99 8,65 10,5 11,5 13,1 14,6 16,5 18,9 20,9 22,6 8,54 9,22 11,2 12,2 13,8 15,4 17,3 19,8 21,8 23,6 9,09 9,80 11,8 12,9 14,6 16,2 18,1 20,7 22,7 24,5 9,66 10,4 12,5 13,6 15,3 16,9 18,9 21,6 23,6 25,5 10,2 11,0 13,1 14,3 16,0 17,7 19,8 22,5 24,6 26,5 10,8 11,6 13,8 15,0 16,8 18,5 20,6 23,4 25,5 27,4