SlideShare une entreprise Scribd logo
1  sur  63
Télécharger pour lire hors ligne
1
Probabilités et statistiques
appliquées à l’hydrologie
Master « Mécanique appliquée au transport et à
l’environnement »
Benjamin RENARD
renard@lyon.cemagref.fr
Année 2004-2005
2
3
Sommaire
I. INTRODUCTION 5
II. STATISTIQUES DESCRIPTIVES 7
II.1. Quelques définitions 7
II.2. Comment résumer un échantillon ? 7
II.2.1. Représentations graphiques d’un échantillon 7
II.2.2. Les indicateurs de localisation 9
II.2.3. Les indicateurs de dispersion 10
II.2.4. Autres indicateurs 10
II.3. Etude de deux variables 11
II.3.1. La régression linéaire 11
II.3.2. Représentation fréquentielle d’un couple de variables 14
III. LE MODELE PROBABILISTE 16
III.1. Quelques rappels de théorie des ensembles 16
III.2. Premières définitions : probabilité et variables aléatoires. 16
III.3. Loi de probabilité d’une variable aléatoire 18
III.3.1. Variable aléatoire discrète 18
III.3.2. Généralisation au cas continu 19
III.3.3. Quelques lois de probabilités classiques 20
III.3.4. Quelques mots sur le cas multivarié 25
IV. STATISTIQUE INFERENTIELLE 28
IV.1. Retour sur la notion d’échantillon 28
IV.1.1. La fluctuation d’échantillonnage 28
IV.1.2. L’échantillon du point de vue probabiliste 29
IV.1.3. Quelques théorèmes importants 30
IV.1.4. Techniques de rééchantillonage 32
IV.2. L’estimation 33
IV.2.1. Quelques définitions 33
IV.2.2. Estimation par la méthode des moments 34
IV.2.3. Estimation par maximum de vraisemblance 34
4
IV.2.4. Quel estimateur choisir ? 35
IV.2.5. Intervalles de confiance 36
IV.3. Les tests statistiques 37
IV.3.1. Le principe des tests statistiques 37
IV.3.2. Quelques tests classiques 38
V. APPLICATIONS A L’ETUDE DES CRUES 42
V.1. Les données 42
V.2. L’échantillonnage 44
V.2.1. Techniques d’échantillonnage 44
V.2.2. Propriétés probabilistes des échantillons 46
V.3. Estimation des paramètres des distributions 48
V.3.1. Formulaire des estimateurs 49
V.3.2. Représentation graphique 49
V.4. Quantiles, périodes de retour et intervalles de confiance 52
VI. ANNEXES 56
5
I. Introduction
Ce fascicule présente les principaux résultats de probabilités et statistiques utilisés en
hydrologie. Le cours fait partie de l’UE « cycle de l’eau et risque d’inondation» du Master
professionnel « Mécanique appliquée au transport et à l’environnement ». Il est décomposé en
quatre parties :
Dans la première partie, nous donnerons quelques résultats et techniques permettant
de résumer ou d’extraire de l’information à partir d’un échantillon de données.
L’ensemble de ces méthodes se rapporte au domaine des statistiques descriptives.
La théorie des probabilités fournit un ensemble d’outils pour quantifier le hasard.
Nous allons en fait étudier une version « allégée » de la théorie probabiliste, qui
nécessite pour être abordée en toute rigueur des notions mathématiques assez
sophistiquées.
Ces deux premières parties seront ensuite utilisées conjointement dans le cadre de
la statistique inférentielle, qui permet de quantifier l’influence du hasard dans les
processus générateurs de données.
Enfin, nous étudierons l’application de ces méthodes pour l’analyse fréquentielle
des crues, qui constitue un des outils de base de l’hydrologue.
Aucun prérequis particulier n’est nécessaire pour comprendre ce cours, les notions
mathématiques utilisées devraient vous être plus ou moins familières.
Les ouvrages et sites suivants constituent d’excellentes sources d’information :
Saporta, G., 1990. Probabilités, Analyse de données et Statistiques. Editions Technip.
Wonnacott, T.H. & Wonnacott, R.J., 1991. Statistique. Editions Economica.
Deux excellents sites :
http://www.math-info.univ-paris5.fr/smel/
http://www.agro-montpellier.fr/cnam-lr/statnet/
Cours en ligne :
http://www.hds.utc.fr/~ggovaert/sy02/documents/poly.pdf
Statistiques descriptives :
http://www.lsp.ups-tlse.fr/Besse/pub/sdm1.pdf
Bonne lecture !
6
7
II. Statistiques descriptives
Dans cette partie, nous allons nous intéresser à la description d’un ensemble de données, en
résumant l’information qu’il contient grâce à quelques grandeurs caractéristiques.
II.1. Quelques définitions
Le plus simple est de considérer l’exemple suivant : on souhaite étudier la taille des
Français. On dispose pour cela de valeurs observées sur 35 personnes, que nous noterons
(x1,…,x35). Les Français constituent la population à laquelle on s’intéresse, via un échantillon
d’effectif 35. Chaque personne de cet échantillon est un individu, sur lequel on a mesuré la
variable quantitative continue « taille ». Chacun de ces termes peut être utilisé dans toutes
les situations que nous rencontrerons, il ne faut donc pas s’attacher à leur signification
« démographique ». Ainsi, si on étudie la taille des gouttes d’eau à la sortie d’un mécanisme
d’irrigation (http://afeid.montpellier.cemagref.fr/Montreal/Molle.PDF), alors l’ensemble des
gouttes constitue notre population, celles ayant transité par l’appareil de mesure (un spectro-
pluviomètre optique) sont les individus de notre échantillon, sur lequel on a relevé la variable
quantitative continue « diamètre de la goutte ».
Remarque : la constitution d’un échantillon est la première étape de toute analyse
statistique, c’est également une des plus importantes et parfois une des plus difficiles. Il faut
en particulier s’assurer de la représentativité de l’échantillon, et rester attentif aux biais
pouvant être « cachés » dans les données (la taille de la goutte est sûrement fonction de la
distance à l’asperseur).
Il est possible de mesurer différents types de variables sur les individus :
Variables quantitatives continues, comme dans les exemples précédents. Il s’agit
de variables dont les valeurs varient théoriquement de manière continue (entre deux
valeurs, il en existe toujours une troisième possible). Dans la pratique, la continuité
est souvent limitée par la précision des instruments de mesure.
Variables quantitatives discrètes, dont les valeurs possibles sont discontinues (les
données issues de comptage, par exemple).
Variables qualitatives ordonnées, par exemple l’intensité d’une douleur : faible,
moyenne, forte.
Variables qualitatives non ordonnées, par exemple la couleur des cheveux de
notre échantillon de 35 Français.
Dans la suite de ce cours, nous nous intéresserons principalement aux variables
quantitatives, continues ou non. Nous noterons (x1,…,xn) les valeurs de telles variables
observées sur un échantillon de taille n.
II.2. Comment résumer un échantillon ?
II.2.1. Représentations graphiques d’un échantillon
Il existe une infinité de façons de représenter graphiquement un jeu de données :
« camemberts », diagrammes en bâtons, courbes, nuages de point…. Tout dépend de la
structure des données, mais également de l’information que l’on souhaite faire passer. Nous
allons nous intéresser ici à deux représentations fondamentales pour les données
quantitatives : l’histogramme et la courbe des fréquences cumulées.
8
L’histogramme consiste à représenter la fréquence (ou parfois l’effectif) de chaque valeur
présente dans l’échantillon. Notre variable étant supposée ordonnée, il est possible de cumuler
ces fréquences par ordre croissant des valeurs rencontrées : on peut ainsi tracer la courbe des
fréquences cumulées, qui représente, à chaque abscisse, la proportion de valeurs de
l’échantillon inférieures ou égales à cette abscisse.
Ces deux représentations sont primordiales, car elles peuvent être reliées aux notions
probabilistes de densité et de fonction de répartition, dont nous parlerons prochainement.
Exemple 1 : Nombre de crues supérieures à 24.7 m3
.s-1
pour L’Ubaye à Barcelonnette.
Année 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003
Nb 1 1 3 1 5 2 1 3 3 5 0 3 5 2
Tableau 1. Tableau de données.
Les individus sont ici des années, la variable « nombre de crues » est quantitative discrète.
Calcul des effectifs, des fréquences et des fréquences cumulées :
Valeur Effectif Fréquence Fréq. cumulée
0 1 0.07 0.07
1 4 0.29 0.036
2 2 0.14 0.5
3 4 0.29 0.79
4 0 0.00 0.79
5 3 0.21 1
Tableau 2. Effectifs, fréquences et fréquences cumulées.
Histogramme des fréquences
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0 1 2 3 4 5
Nombre de crues
Fréquence
Figure 1. Histogramme des fréquences
Courbe des fréquences cumulées
0
0.2
0.4
0.6
0.8
1
-1 1 3 5
Nombre de crues
Fréquencecumulée
Figure 2. Courbe des fréquences
cumulées.
Pour des données quantitatives continues, il y a de fortes chances pour que chaque valeur
n’apparaisse qu’une seule fois. Ceci ne pose pas de problème pour le tracé de la courbe des
fréquences cumulées, par contre un histogramme dont toutes les ordonnées seraient égales à 1
ne serait pas très informatif. Pour y remédier, on effectue un regroupement des individus en
classes, ce qui revient à « discrétiser » notre variable continue. Le choix des classes reste
arbitraire ; on essaiera en général de créer entre 5 et 15 classes de même étendue.
Exemple 2 : Lors des 14 dernières crues de La Zorn à Waltenheim, les débits journaliers
maximaux ont été de 28.9, 45.8, 67.6, 60.8, 53.6, 33.5, 49.9, 58.1, 35.9, 33.3, 28.4, 28.3, 49.5
et 25.9 m3
.s-1
. L’histogramme des fréquences pour des classes d’étendue 10 m3
s-1
, en partant
de 25 m3
s-1
, a la forme suivante :
9
Histogramme des fréquences
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
25-35 35-45 45-55 55-65 65-75
Débit journalier maximal (m
3
s
-1
)
fréquence
Figure 3. Histogramme des fréquences.
Notez la différence de représentation par rapport au précédent histogramme : on a
représenté des rectangles pleins pour bien signifier qu’il s’agit de la fréquence d’une classe, et
non d’une valeur ponctuelle discrète. Pour être tout à fait précis, seul ce dernier graphique est
un histogramme, le terme de « diagramme en bâtons » est plutôt utilisé pour le cas discret.
II.2.2. Les indicateurs de localisation
La moyenne, que nous noterons x .
1
1 n
i
i
x x
n =
= ∑
La médiane : c’est la valeur qui sépare l’échantillon ordonné en deux sous-parties de
même effectif. Par exemple, la médiane des valeurs 10, 15, 18, 19, 20 vaut 18. Si le nombre
de valeurs est pair, on calculera la demi-somme entre les deux valeurs du milieu, soit une
médiane de 16.5 pour l’échantillon des quatre premières valeurs ci-dessus. La médiane peut
également être lue sur la courbe des fréquences cumulées : c’est la valeur correspondant à une
fréquence cumulée de 0.5.
L’exemple classique pour bien comprendre la différence entre ces deux indicateurs est le
salaire des Français : la moyenne vaut environ 1750 €, la médiane 1400 €… (salaires nets en
2001 dans le secteur privé, source INSEE).
Un troisième indicateur est parfois utilisé, surtout pour les données discrètes, il s’agit du
mode, qui est la valeur (pas forcément unique) la plus fréquente dans l’échantillon. Pour des
données quantitatives continues, il faut (comme pour l’histogramme) procéder à un
regroupement des individus. L’inconvénient est que le mode devient dépendant du
regroupement arbitraire effectué.
Il est également fréquent de s’intéresser aux valeurs extrêmes d’un échantillon. On utilisera
pour cela le quantile d’ordre p, qui est la valeur de l’échantillon dont la fréquence cumulée
vaut p. Le quantile peut donc être lu sur la courbe des fréquences cumulées, en faisant
éventuellement une interpolation linéaire entre deux points. La médiane est ainsi le quantile
d’ordre 0.5.
Exemple 3 : Pour les données de l’Exemple 1, la moyenne vaut 2.5, la médiane 2 et les
modes (distribution bimodale) 2 et 4. Pour l’Exemple 2, le quantile d’ordre 0.9 peut se
déduire de la figure ci-après. On trouve environ 60 m3
s-1
.
10
Courbe des fréquences cumulées
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
20 30 40 50 60 70 80
Débit (m3
s-1
)
fréquencecumulée
Figure 4. Courbe des fréquences cumulées
II.2.3. Les indicateurs de dispersion
La variance permet de mesurer la façon dont les données se dispersent autour de la
moyenne :
( )
2
1
1
1
n
i
i
Var x x
n =
= −
−
∑
On trouve parfois (notamment dans les calculettes ou les tableurs type Excel) une autre
définition, qui n’est pas recommandée pour les petits échantillons :
( )
2
*
1
1 n
i
i
Var x x
n =
= −∑
Ces deux définitions deviennent équivalentes lorsque n est grand. Nous verrons
ultérieurement la raison pour laquelle ces deux définitions coexistent.
On définit également l’écart-type, qui a l’avantage d’avoir la même dimension que les
données :
( )
2
1
1
1
n
i
i
Var x x
n
σ
=
= = −
−
∑
Le coefficient de variation est également utilisé pour comparer la variabilité de plusieurs
séries de données dont les ordres de grandeurs ne sont pas comparables :
x
CV σ= .
Il n’est évidemment pas défini pour les données dont la moyenne est nulle.
II.2.4. Autres indicateurs
Le moment d’ordre k est défini de la manière suivante :
1
1 n
k
k i
i
m x
n =
= ∑
Pour k=1, on reconnaît la moyenne. Les moments n’ont pas de signification aussi claire
que les autres indicateurs, mais ils seront centraux lorsque nous nous intéresserons à la théorie
de l’estimation.
On définit de même le moment centré d’ordre k :
11
'
1
1
( )
n
k
k i
i
m x x
n =
= −∑
On peut déduire de ces moments centrés deux indicateurs relatifs à la forme de
l’histogramme :
'
3
1 3
m
β
σ
=Asymétrie
'
4
2 4
m
β
σ
=Applatissement
II.3. Etude de deux variables
Plaçons-nous dans la situation suivante : sur un échantillon, nous avons mesuré deux
variables quantitatives, que nous noterons X et Y. Nous obtenons donc deux séries de valeurs
x=(x1,…,xn) et y=(y1,…,yn). Remarquez les notations, que nous conserverons tout au long du
cours : les variables (que nous appellerons plus tard variables aléatoires) sont en majuscules,
les observations de ces variables sur l’échantillon en minuscule (gras pour une notation
vectorielle). Les deux séries peuvent bien sûr être décrites indépendamment l’une de l’autre,
comme expliqué au paragraphe II.2, mais nous allons ici nous intéresser à la liaison qui peut
exister entre ces variables.
II.3.1. La régression linéaire
Exemple 4 : Sur un échantillon de 10 petits cours d’eau, on a calculé la superficie du bassin
versant (X) ainsi que la crue décennale (Y) :
BV Superficie Q10
1 16.2 5.77
2 21.4 5.37
3 38.7 7.29
4 42.3 12.66
5 55.8 11.09
6 62.1 25.31
7 64 20.18
8 68 39.27
9 73 39.59
10 94 28.30
Tableau 3. Tableau de données.
La manière la plus simple de représenter ces données est de projeter les couples (xi,yi) dans
le plan : on obtient ainsi un nuage de points.
12
Nuage de points (xi, yi)
0
5
10
15
20
25
30
35
40
45
0 20 40 60 80 100
x: Superficie (km²)
y:Q10
Figure 5. Nuage de points.
A la vue de ce graphique, il apparaît que les deux variables ont tendance à évoluer
conjointement : les « grands » bassins versants ont des crues décennales plus importantes.
C’est cette co-évolution que nous allons tenter d’étudier.
Commençons par définir la covariance entre x et y :
1
1
( ) ( )( )
1
n
i i
i
Cov x x y y
n =
= − −
−
∑x, y
Cette quantité mesure la manière avec laquelle X et Y varient « ensemble ». Comme pour
la variance, on trouve parfois une définition alternative avec 1/n. Le coefficient de
corrélation linéaire est directement dérivé de la covariance :
( )Cov
r
σ σ
=
x y
x, y
Il s’agit d’un coefficient adimensionnel, compris entre –1 et 1 : une valeur absolue proche
de 1 sera la signature de deux variables liées linéairement, une valeur proche de zéro
signifiera l’absence de relation linéaire. Il est important de noter que ceci n’interdit pas que
les variables soient liées par un autre type de relation (polynomiale, sinusoïdale, …). Pour
notre exemple ci-dessus, nous avons les valeurs suivantes :
24
13.17
( , ) 255.01
0.81
Cov
r
σ
σ
=
=
=
=
x
y
x y
Ces chiffres confirment la liaison entre les variables. Nous pouvons essayer d’aller plus
loin, en cherchant la droite la plus pertinente qui s’ajusterait au nuage de point, c’est en dire
en évaluant une relation du type Y=aX+b. Evidemment cette relation ne peut pas être parfaite
(tous les points ne sont pas alignés), nous introduisons donc des termes d’erreurs, ce qui nous
donne la relation :
1,...,i i iy ax b e i n= + + ∀ =
Une « bonne » droite permettrait de minimiser ces erreurs. Nous allons donc définir un
critère, dit des moindres carrés, construit à partir de la somme des carrés des erreurs :
13
2
1
n
i
i
S e
=
= ∑
Il s’agit donc à présent de trouver les valeurs de a et b minimisant S.
Exercice : 1/ Exprimer S en fonction de a et b.
2/ Calculer les valeurs de a et b minimisant S, que l’on notera ˆˆ eta b .
3/ Vérifier qu’avec ces valeurs, la somme (et donc la moyenne) des erreurs est nulle.
4/ Démontrer que ˆ( ) ( ) ( )Var Var Var= +y y e , où ˆˆ ˆi iy ax b= + est la valeur du débit
décennal estimée par notre modèle.
5/ On définit un critère pour mesurer la qualité de notre modèle, égal à
( )
1
( )
Var
c
Var
= −
e
y
.
Interprétez cet indicateur, et démontrer que c=r².
La droite de régression dite des moindres carrés est donc définie par les paramètres ˆa et ˆb
suivants :
( , )
ˆ
( )
ˆ ˆ
Y
X
Cov X Y
a r
Var X
b y ax
σ
σ
= =
= −
La qualité de cet ajustement est mesurée par r² (qui varie dans [0,1]), qui mesure la part de
variance expliquée par notre modèle linéaire. Voici l’ajustement pour les données
précédentes :
y = 0.4426x - 4.2203
R
2
= 0.651
0
5
10
15
20
25
30
35
40
45
0 20 40 60 80 100
Superficie (km²)
Q10
Figure 6. Ajustement de la droite de regression.
La démarche présentée dans ce cadre de recherche de relation linéaire entre variables peut
être généralisée à toute forme de dépendance du type Y=f(X) :
Choix d’une fonction f
Calcul des paramètres optimaux de cette fonction, au sens d’un certain critère
(moindres carrés, par exemple)
Evaluation de la qualité de l’ajustement, par un indicateur du type
( )
1
( )
Var
Var
−
e
y
(qui
n’est plus égal à r² si f n’est pas affine)
14
Evidemment, la plupart des calculs se compliquent par rapport au cas linéaire, le recours à
des méthodes d’optimisation numérique est souvent indispensable.
Une autre extension de la méthode consiste à intégrer plusieurs variables pour en
« expliquer » une autre : dans le cas précédent, il pourrait ainsi être bénéfique d’intégrer la
pluviométrie ou la nature et l’occupation du sol pour améliorer l’explication du débit
décennal. En guise d’exemple, la méthode dite CRUPEDIX est présentée en annexe, il s’agit
d’une régression non linéaire multiple visant à estimer le débit décennal sur des sites non
jaugés.
II.3.2. Représentation fréquentielle d’un couple de variables
Nous allons à présent généraliser la notion d’histogramme au cas de deux variables, et en
profiter pour proposer quelques définitions. Nous nous appuierons sur un exemple utilisant
des données quantitatives discrètes ; pour des données continues, le même type de
représentation est possible moyennant un regroupement des couples de valeurs en classes.
Exemple 5 : On se propose d’étudier le nombre annuel de crues entre les années 1958 et
2002 pour deux stations S1 et S2. Le tableau de données est de la forme suivante :
Année
N1=Nombre de
crues en S1
N2=Nombre de
crues en S2
1958 2 1
1959 1 3
… … …
2002 0 4
Tableau 4. Tableau de données.
Il est fréquent de représenter ce type de données bivariées par un tableau de contingence,
qui permet de dénombrer l’effectif ou la fréquence de chaque couple de valeurs possible.
Notre tableau de contingence (en fréquence) est ici le suivant :
N1
N2
0 1 2 3 4 5 6 cumul
0 0.044 0.022 0.044 0.022 0.022 0.000 0.000 0.156
1 0.044 0.067 0.022 0.022 0.022 0.000 0.000 0.178
2 0.044 0.089 0.111 0.000 0.000 0.000 0.000 0.244
3 0.000 0.000 0.067 0.022 0.044 0.000 0.000 0.133
4 0.022 0.044 0.022 0.044 0.044 0.000 0.000 0.178
5 0.000 0.022 0.000 0.044 0.000 0.000 0.022 0.089
6 0.000 0.022 0.000 0.000 0.000 0.000 0.000 0.022
cumul 0.156 0.267 0.267 0.156 0.133 0.000 0.022 1.000
Tableau 5. Tableau de contingence.
Ce tableau se lit de la manière suivante: la cellule grisée nous informe que pour 2.2% des
années étudiées, on a observé 2 crues en S1 et 1 crue en S2. La dernière colonne représente les
cumuls de fréquence par ligne, de même pour la dernière ligne. Enfin, la dernière case en bas
à droite est le « cumul des cumuls », qui vaut heureusement 1. Le tableau équivalent en
effectif peut se déduire aisément en multipliant chaque case par l’effectif de l’échantillon (ici,
45 années).
Intéressons-nous à une ligne particulière, la première par exemple. Y figurent les
fréquences associées aux différentes valeurs de N1, dans le cas particulier où N2=0. Nous
15
pouvons identifier cette première ligne à la distribution conditionnelle de N1, sachant que
N2=0. Cette identification est abusive, il faudrait en fait diviser toutes les valeurs par le cumul
de leur fréquence (0.156), qui représente la fréquence de la valeur 0 pour N2, en considérant
toutes les associations possibles avec N1. En raisonnant de même ligne par ligne, on voit que
la dernière colonne représente les fréquences des différentes valeurs prises par N2, compte
tenu des différentes associations observées avec N1 : nous parlerons de la distribution
marginale de la variable N2. De même, la dernière ligne est la distribution marginale de N1.
Le tableau de contingence représente quant à lui la distribution jointe des variables N1 et N2.
Il est possible de représenter cette distribution par un histogramme en trois dimensions :
0
1
2
3
4
5
6
0
1
2
3
4
5
6
0
0.02
0.04
0.06
0.08
0.1
0.12
Nombre de crues en S1
Nombre de crues en S2
Fréquence
Figure 7. Histogramme multidimensionnel.
Dans la figure ci-dessus, l’histogramme représenté en noir est proportionnel à la
distribution de N2, conditionnellement à N1=0.
16
III. Le modèle probabiliste
Nous avons exposé dans le chapitre précédent un certain nombre de méthodes permettant
de décrire une série d’observations et d’en extraire de l’information. La théorie des
probabilités fournit un cadre pour représenter de manière plus abstraite le comportement de
variables « génératrices » de données. La puissance de cette théorie tient à sa généralité, mais
en contrepartie, la définition même du terme « probabilité » fait appel à des notions
mathématiques trop élaborées pour être présentées dans ce cours. Nous allons donc étudier
une version « allégée » de la théorie probabiliste, qui sera cependant valable dans l’immense
majorité des cas que vous rencontrerez.
III.1. Quelques rappels de théorie des ensembles
Sans entrer dans le détail, nous définirons un ensemble E comme une collection d’objets
bien définis. Ci-après figurent quelques définitions et notations qui nous seront utiles par la
suite :
x E∈ signifie que l'élément x appartient à E.
∅ est l'ensemble vide.
A E⊂ signifie que l’ensemble A est inclus dans E : x A x E∈ ⇒ ∈ .
A B∪ est la réunion des ensembles A et B. oux A B x A x B∈ ∪ ⇔ ∈ ∈ .
A B∩ est l’intersection des ensembles A et B. etx A B x A x B∈ ∩ ⇔ ∈ ∈ .
Si A B∩ = ∅ on dit que les ensembles A et B sont disjoints.
Si etA B A B E∩ = ∅ ∪ = , on dit que A et B forment une partition de l’ensemble
E. De même si eti j i
i
A A i j A E∩ = ∅ ∀ ≠ =U .
ou ouc
A A Að est le complémentaire de A. c
x A x A∈ ⇔ ∉ .
( )E℘ est l’ensemble des parties de E, c’est à dire l’ensemble de tous les sous-
ensembles de E. ( )A E A E∈℘ ⇔ ⊂ .
A B A B A
ABAΥBAΙ
Figure 8. Réunion, intersection et complémentaire.
III.2. Premières définitions : probabilité et variables aléatoires.
Une probabilité sur un ensemble Ω est une fonction : ( )P ℘ Ω a ¡ qui vérifie les trois
propriétés suivantes :
17
( ) 0,P A A≥ ∀ ⊂ Ω
( ) 1P Ω =
Soit (Ai) une suite de sous-ensembles de Ω deux à deux disjoints, c’est à dire
,i jA A i j∩ = ∅ ∀ ≠ . Alors
11
( ) ( )i i
ii
P A P A
∞ ∞
==
= ∑U
Ces trois axiomes conduisent aux propriétés suivantes :
( ) [0,1],P A A∈ ∀ ⊂ Ω
( ) 0P ∅ =
( ) ( )A B P A P B⊂ ⇒ ≤
( ) 1 ( )c
P A P A= −
( ) ( ) ( ) ( )P A B P A P B P A B∪ = + − ∩
Traduction intuitive : Supposons que nous ayons réalisé une expérience aléatoire, ou
effectué des mesures sur un ensemble d’individus. Ω représente l’ensemble des issues
possibles de l’expérience, il est appelé univers ou ensemble fondamental. Un sous-ensemble
de A de Ω est appelé un événement. Une probabilité est ainsi une fonction permettant de
mesurer la « vraisemblance » d’un événement.
Remarque : la définition donnée ci-dessus est abusive, car il peut exister (cas
pathologiques) des sous-ensembles de Ω pour lesquels la probabilité n’est pas définie. Il faut
alors définir en ensemble d’évènements mesurables, ce qui requiert des outils mathématiques
trop sophistiqués pour être évoqués dans ce cours.
Une variable aléatoire réelle est une fonction :X Ω a ¡ . Elle permet de traduire un
événement en nombre réel. Supposons par exemple que nous lancions deux dés, et que nous
nous intéressions à la somme des deux faces observées. L’ensemble Ω est ici égal à
l’ensemble des couples (a, b), où a et b sont des entiers entre 1 et 6. X sera la fonction
somme :
:(1,...,6) (1,...,6)
( , )
X
a b a b
×
+
a ¡
a
Ainsi, l’événement « la somme des deux dés vaut 4 » sera noté X=4. Il s’agit d’une
notation simplifiée, car en toute rigueur, nous nous intéressons à l’ensemble des couples (a, b)
pour lesquels a+b=4, soit X-1
({4})={(1, 3), (3, 1), (2, 2)}. De même X<6 représentera
l’événement « La somme des deux dés est strictement inférieure à 6 ». Il est possible de
mesurer la probabilité de tels évènements, que nous noterons P(X=4) ou P(X<6). On voit
dans ce cas que X ne prend pas ses valeurs dans ¡ tout entier, mais seulement dans un sous-
ensemble de ¥ : il s’agit d’une variable aléatoire discrète.
En des termes plus intuitifs, la variable aléatoire X représente tout simplement la variable
que nous souhaitons étudier. Etant donné que cette variable est fréquemment mesurée sur des
individus, sa définition est en général très naturelle, comme par exemple « Nombre de crues
observées en une année » pour l’Exemple 1. Il est par contre important de bien faire la
différence entre des observations (x1,…,xn), qui sont des valeurs numériques mesurées, et la
variable aléatoire X qui génère ces données, qui est un objet abstrait.
18
III.3. Loi de probabilité d’une variable aléatoire
III.3.1. Variable aléatoire discrète
Soit X une variable aléatoire discrète, à valeurs dans un ensemble dénombrable ordonné
{ , }ix i∈¥ . La loi de probabilité de X est la donnée des quantités
( ) ( ),i if x P X x i= = ∀ ∈¥ . Cette loi de probabilité peut être décrite par un diagramme en
bâtons :
x1 x2 x3 x4 x5
f(xi)
Figure 9. Loi de probabilité discrète.
Il existe évidemment une analogie entre cette représentation est celle présentée au
précédent chapitre, où nous avions reporté les fréquences observées en ordonnées : nous
aurons l’occasion de revenir à plusieurs reprises sur cette analogie fréquence / probabilité.
Nous définissons également la fonction de répartition F de la variable aléatoire X de la
manière suivante : ( ) ( )i iF x P X x= ≤ .
x1 x2 x3 x4 x5
F(xi)
1
0
Figure 10. Fonction de répartition discrète.
Il est aisé de démontré la relation suivante (à faire en exercice) :
0
( ) ( )
i
i k
k
F x f x
=
= ∑ . En
corollaire, F est une fonction croissante, qui part de 0 et tend vers 1 en l’infini.
De ces deux définitions découlent quelques grandeurs caractéristiques de la variable
aléatoire X (notez encore une fois l’analogie avec le chapitre précédent) :
L’espérance,
0
( ) ( )i i
i
E X x f x
∞
=
= ∑
La variance,
0
( ) ( ( ))² ( )i i
i
Var X x E X f x
∞
=
= −∑ , et l’écart type ( ) ( )X Var Xσ =
19
Les moments d’ordre k,
0
( )k
k i i
i
x f xµ
∞
=
= ∑ . Si k=1, on reconnaît l’espérance.
Les moments centrés d’ordre k, '
0
( ( )) ( )k
k i i
i
x E X f xµ
∞
=
= −∑ . Si k=2, on reconnaît
la variance.
Le quantile d’ordre p, noté xp, qui vérifie 1
( ) ( ( ))p pF x p x F p−
= ⇔ =
Remarque : Les quantités faisant intervenir des sommes infinies peuvent ne pas exister.
III.3.2. Généralisation au cas continu
Nous allons commencer cette fois ci par définir la loi de probabilité d’une variable
aléatoire continue X comme la donnée d’une fonction de répartition F, telle que
( ) ( ),F x P X x x= ≤ ∀ ∈¡ . La densité de probabilité de X sera alors la fonction f telle que :
( ) ( )
x
F x f t dt
−∞
= ∫ . En d’autres termes, f est la dérivée de la fonction de répartition F.
f
F
x
x
F(a)
1
a
Figure 11. Densité et fonction de répartion continues.
Propriété : si f est continue, alors ( ) ( ) ( ) ( )
b
a
P a X b f t dt F b F a< ≤ = = −∫ .
Dans le cas continu, on voit ainsi apparaître une analogie entre la probabilité d’un
événement et l’aire sous la courbe de la densité. Cette analogie implique en particulier que
0 0( ) 0,P X x x= = ∀ ∈R . C’est la raison pour laquelle il n’est pas possible de définir la loi de
probabilité directement à partir des probabilités des éléments de Ω, ce qui conduit à raisonner
20
sur des intervalles. On remarque encore une fois l’analogie avec les histogrammes dans le cas
continu du chapitre précédent, où nous étions obligés de procéder à des regroupements.
A partir de la densité de probabilité, il est possible de définir les mêmes grandeurs
caractéristiques que dans le cas discret, en remplaçant les sommes par des intégrales :
L’espérance,
-
( ) ( )E X xf x dx
+∞
∞
= ∫
La variance, ( )2
-
Var( ) ( ) ( )X x E X f x dx
+∞
∞
= −∫ , et l’écart type ( ) ( )X Var Xσ =
Les moments d’ordre k,
-
( )k
k x f x dxµ
+∞
∞
= ∫ . Si k=1, on reconnaît l’espérance.
Les moments centrés d’ordre k,
-
' ( ( )) ( )k
k x E X f x dxµ
+∞
∞
= −∫ . Si k=2, on
reconnaît la variance.
Le quantile d’ordre p, noté xp, qui vérifie 1
( ) ( ( ))p pF x p x F p−
= ⇔ =
Remarque : Encore une fois, rien ne garantit l’existence des intégrales infinies. De plus,
certaines lois ne sont pas définies sur R tout entier, ces intégrales doivent alors être réduites
aux supports de ces lois.
III.3.3. Quelques lois de probabilités classiques
Nous donnons ci-dessous quelques lois de probabilités qui sont régulièrement utilisées,
notamment en hydrologie. Ces lois dépendent d’un certain nombre de paramètres afin de
pouvoir s’adapter à une plus grande variété de situations.
A. Lois discrètes
Loi de Bernoulli Be(p) : utilisée pour des variables aléatoires binaires, de type succès-
échec ou présence-absence, qui prendront donc pour valeurs 0 ou 1.
( 1) , ( 0) 1 .
( )
( ) (1 )
P X p P X p
E X p
Var X p p
= = = = −
=
= −
Loi binomiale B(n, p) : Si l’on répète n fois indépendamment une épreuve de type
Bernoulli, alors la variable aléatoire X mesurant le nombre de succès suit une loi binomiale :
( ) (1 ) ,
!
avec
!( )!
( )
( ) (1 )
k k n k
n
k
n
P X k C p p
n
C
k n k
E X np
Var X np p
−
= = −
=
−
=
= −
21
B(10, 0.2)
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0 1 2 3 4 5 6 7 8 9 10
k
P(X=k)
Figure 12. Loi binomiale.
Loi de Poisson P(µ) : cette loi est fréquemment utilisée pour décrire des données issues de
comptages d’évènements rares (processus d’occurrences de crues, par exemple), et respectant
quelques propriétés supplémentaires (stationnarité, indépendance, absence de regroupements).
(X ) e
!
( )
( )
k
P k
k
E X
Var X
µ µ
µ
µ
−
= =
=
=
Poisson(2)
0
0.05
0.1
0.15
0.2
0.25
0.3
0 1 2 3 4 5 6 7 8 9 10
k
P(X=k)
Figure 13. Loi de Poisson.
22
B. Lois continues
Loi uniforme U(a, b) :
1
si [ , ]
( )
0 sinon
( )
2
( )²
( )
12
x a b
f x b a
a b
E X
b a
Var X

∈
= −

+
=
−
=
U(0,1)
0
0.2
0.4
0.6
0.8
1
1.2
-1 -0.5 0 0.5 1 1.5 2
x
f(x)
Figure 14. Loi uniforme.
Loi de Gauss ou loi Normale N(µ, σ) : Cette loi est centrale en statistiques, puisqu’un
grand nombre de phénomènes ont un comportement approximativement Gaussien. De plus,
un théorème que nous verrons ultérieurement affirme qu’une somme de variables aléatoires
tend (presque) toujours en distribution vers une loi normale. Par exemple, un débit moyen
annuel pourra être supposé gaussien.
2
2
1 1
( ) exp [( ) / ]
22
( )
( )
f x x
E X
Var X
µ σ
σ π
µ
σ
 
= − −  
=
=
23
Loi Normale
-0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
-3 -1 1 3
x
f(x)
N(0,1)
N(0,0.5)
N(1,1)
Figure 15. Loi Normale.
Loi exponentielle Exp(x0, λ ) : en hydrologie, cette loi est utilisée pour modéliser les
valeurs de dépassement d’un seuil, ou le temps d’attente entre deux évènements de crue.
0
0
0
2
1
si( )
0 sinon
( )
( )
x x
e x xf x
E X x
Var X
λ
λ
λ
λ
−
−
 >= 


= +
=
Exp(0,1)
0
0.2
0.4
0.6
0.8
1
1.2
0 1 2 3 4 5
x
f(x)
Figure 16. Loi exponentielle.
La loi de Gumbel Gu(µ, λ) : c’est également une loi très utilisée en hydrologie, puisqu’il
s’agit d’une des trois distributions suivies par le maximum d’une suite de variables. Le débit
maximum annuel est souvent décrit par cette loi.
24
1
( ) exp exp
0, 0
( ) , avec 0.5772 (constante d'Euler-Mascheroni)
²
( ) ²
6
x x
f x
E X
Var X
µ µ
λ λ λ
µ λ
µ γλ γ
π
λ
 − − 
= − − −  
  
> >
= + =
=
La loi généralisée des valeurs extrêmes GEV(µ, λ, ξ ) généralise la loi de Gumbel :
( )
1 1
1
2
1
0
1 ( ) ( )
( ) 1 exp 1
( )
0, 0, 0, 1 0
( ) (1 ( 1))
( ) (2 1) ²( 1)
( ) est la fonction gamma.t x
x x
f x
x
E X
Var X
t x e dx
ξ ξξ µ ξ µ
λ λ λ
ξ µ
µ λ ξ
λ
λ
µ ξ
ξ
λ
ξ ξ
ξ
−
+∞
− −
 
− −    = − − −        
 
−
> > ≠ − >
= + − Γ +
 
= Γ + − Γ + 
 
Γ = ∫
Pour 0ξ = , on retrouve la loi de Gumbel. Si 0ξ < , on obtient la loi de Fréchet, et si
0ξ > , la loi de Weibull.
0 50 100 150 200 250 300
0
0.002
0.004
0.006
0.008
0.01
0.012
0.014
0.016
0.018
x
f(x)
Gu(100, 25)
GEV(100, 25, -0.5)
Figure 17. Loi généralisée des valeurs extrêmes.
25
Les trois lois suivantes sont très souvent utilisées en statistiques, notamment pour effectuer
des tests d’hypothèses.
La loi du « chi-deux », ²( )nχ : c’est la loi suivie par la somme des carrés de n variables
gaussiennes N(0,1).
1
2 2
2
( )
2 ( / 2)
( )
( ) 2
n x
n
x e
f x
n
E X n
Var X n
− −
=
Γ
=
=
La loi de Student t(n) : C’est la loi suivie par la variable
/
U
X n
, où
(0,1) et ²( )U N X nχ: : , avec U et X indépendantes. Cette loi est principalement utilisée via
la table de sa fonction de répartition (voir annexe 2).
( ( )) 0 si 1
( ( )) si 2
2
E t n n
n
Var t n n
n
= >
= >
−
La loi de Fisher F(n1,n2) : C’est la loi suivie par la variable 1
2
/
/
X n
Y n
, où X et Y suivent
indépendamment des 1²( )nχ et 2²( )nχ . Cette loi est également tabulée.
2
1 2
2
2
2 1 2
1 2
1 1 2 2
( ( , ))
2
2
( ( , )) 2
( 2)²( 4)
n
E F n n
n
n n n
Var F n n
n n n n
=
−
+ −
=
− −
III.3.4. Quelques mots sur le cas multivarié
Nous allons nous limiter à aborder quelques aspects concernant la loi jointe d’un couple de
deux variables. Supposons donc que nous étudions une variable aléatoire Z=(X,Y) à valeurs
dans ²¡ . La fonction de répartition jointe du couple (X,Y) est définie par
( , ) ({ } { })H x y P X x Y y= ≤ ∩ ≤ . Il est possible de définir les fonctions de répartition
marginales par ( ) ( ) ( , ) et ( ) ( ) ( , )F x P X x H x G y P Y y H y= ≤ = ∞ = ≤ = ∞ . Comme dans le
cas univarié, la densité de probabilité jointe est égale à la dérivée de la fonction de
répartition :
² ( , )
( , )
H x y
h x y
x y
∂
=
∂ ∂
. Enfin, les densités marginales s’obtiennent par
( ) ( , )f x h x y dy= ∫
¡
et ( ) ( , )g y h x y dx= ∫
¡
.
La covariance entre deux vecteurs aléatoires X et Y est définie par :
( )
²
( , ) ( ( ))( ( ))
( ( ))( ( )) ( , )
Cov X Y E X E X Y E Y
x E X y E Y h x y dxdy
= − −
= − −∫∫
¡
Exemple 6 : la loi normale de dimension 2.
26
La densité d’un vecteur aléatoire ( , )x y=z suivant une loi binormale de paramètres
1
1 2
2
, ) et =
v c
c v
µ µ
 
= ( Σ  
 
 
µ est la suivante :
11 1
( , ) ( ) exp ( ) ( )
22 (det
t
h x y h
π
−
1/2
 
= = − Σ 
Σ)  
z z - µ z - µ .
La matrice Σ est la matrice des variances-covariances. On peut alors démontrer que les lois
marginales sont également gaussiennes, de moyennes respectives µ1 et µ2 ,et de variances v1
et v2. c est la covariance des deux lois marginales. La figure suivante permet de visualiser la
loi jointe (vue de dessus) et les lois marginales de X (trait plein) et de Y (pointillés).
Figure 18. Loi normale de dimension 2.
Une notion capitale en statistiques et probabilités est la notion d’indépendance entre deux
variables aléatoires X et Y :
27
et sont indépendantes ( , ) ( ) ( )
( , ) ( ) ( ) (si ces densités existent)
X Y H x y F x G y
h x y f x g y
⇔ =
⇔ =
En d’autres termes, la distribution jointe doit être le produit des distributions marginales. Si
X et Y sont indépendantes, il suffit donc de connaître les distributions de X et de Y pour
obtenir la loi jointe du couple. De manière plus intuitive, ceci signifie que les variables X et Y
n’influent pas l’une sur l’autre, et donc que la connaissance de la valeur prise par Y ne change
en rien la loi de probabilité de X.
Quelques relations utiles
Les formules ci après peuvent être démontrées à titre d’exercice.
Soit a une constante
( )E a a=
( ) ( )E aX aE X=
( ) ( )E X a E X a+ = +
( ) ( ) ( )E X Y E X E Y+ = +
et indépendants ( ) ( ) ( )X Y E XY E X E Y⇒ =
( ) ( ²) ( ( ))²Var X E X E X= −
( ) ( )Var X a Var X+ =
( ) ² ( )Var aX a Var X=
( ) ( ) ( ) 2 ( , )Var X Y Var X Var Y Cov X Y+ = + +
( , ) ( ) ( ) ( )Cov X Y E XY E X E Y= −
et indépendants ( , ) 0 (réciproque fausse)X Y Cov X Y⇒ =
et indépendants ( ) ( ) ( ) (réciproque fausse)X Y Var X Y Var X Var Y⇒ + = +
28
IV. Statistique inférentielle
Les deux chapitres précédents nous ont permis de nous familiariser avec les notions les
plus importantes de statistiques descriptives et de probabilités, qui peuvent être abordées
indépendamment. Dans ce chapitre, nous allons nous efforcer de relier ces deux domaines, en
utilisant la théorie des probabilités pour quantifier plus efficacement les caractéristiques d’un
échantillon, en intégrant des notions comme le « risque », la « confiance », la « décision »,
etc… Dans la pratique, la statistique inférentielle est certainement l’outil le plus utilisé pour
assister des décisions dans un contexte où le hasard intervient.
IV.1. Retour sur la notion d’échantillon
IV.1.1. La fluctuation d’échantillonnage
Reprenons l’exemple concernant la taille des Français, que nous avions évaluée sur un
échantillon de 35 individus. Admettons que la moyenne x de cet échantillon vaille 1.81 m.
Peut-on alors affirmer que les Français mesurent en moyenne 1.81 m ? En d’autres termes, la
caractéristique mesurée sur l’échantillon peut-elle être considérée comme valable pour la
population entière ? La statistique inférentielle a justement pour but de quantifier, en termes
de risque ou de confiance, la transmission d’une caractéristique (ici, la moyenne), entre un
échantillon et sa population parente.
Pour tenter de répondre à cette question, nous décidons de répéter l’expérience, mais sur 35
autres individus. Nous obtenons alors une moyenne (1) 1.70x m= . Evidemment, cette valeur
est différente de celle mesurée sur le premier échantillon. Nous répétons encore l’expérience
un certain nombre de fois, et nous obtenons des valeurs moyennes (2) ( ),..., kx x . Nous pouvons
alors tracer l’histogramme de ces moyennes, et y replacer notre valeur initiale 1.81x m=
Figure 19. Illustration de la fluctuation d'échantillonnage.
29
Nous voyons apparaître une distribution liée aux moyennes empiriques calculées sur
différents échantillons. Cette nouvelle source de variabilité sera appelée la fluctuation
d’échantillonnage, elle est due au fait que notre échantillon n’est pas notre population, et
donc que sa représentativité n’est pas absolue. Notons que le même raisonnement vaut pour
la variance, ou la médiane, ou toute autre caractéristique de l’échantillon.
Pour remédier à ce problème, on peut envisager trois solutions :
Echantillonner la population entière : c’est parfois ce qui est fait (le recensement,
par exemple), mais dans la plupart des cas, ceci est beaucoup trop coûteux voire
impossible (populations infinies).
Faire comme dans l’exemple, c’est à dire répéter l’expérience un certain nombre de
fois afin d’avoir accès à cette fluctuation d’échantillonnage. Ceci est bien souvent
impossible pour diverses raisons (coût en temps ou en argent, mais pas seulement :
difficulté de répéter à l’identique une expérience en deux endroits ou deux instants
différents). Une alternative consiste à utiliser une technique de rééchantillonnage,
que nous aborderons ultérieurement.
Se donner un cadre théorique probabiliste permettant de déduire le comportement
de caractéristiques affectées par cette fluctuation d’échantillonnage : c’est cette
approche que nous allons détailler maintenant.
IV.1.2. L’échantillon du point de vue probabiliste
Soit 1( ,..., )nx x un échantillon. Nous allons considérer chaque valeur xi de l’échantillon
comme une réalisation d’une variable aléatoire parente Xi. Plus précisément, nous supposons
que tous les Xi sont mutuellement indépendants, et qu’ils ont la même loi de probabilité. Nous
parlerons d’échantillons iid pour indépendants et identiquement distribués. Ainsi,
l’échantillon 1( ,..., )nx x peut être vu comme la réalisation d’un n-uplet de variables aléatoires
indépendantes et de même loi 1( ,..., )nX X . Par extension, ce n-uplet est aussi appelé parfois
un échantillon. Malgré cette légère ambiguïté terminologique, il est capital (et les notations
sont là pour ça) de bien différencier l’échantillon 1( ,..., )nx x , qui représente n valeurs
numériques bien précises (et qui n’ont donc rien d’aléatoires) et le n-uplet 1( ,..., )nX X qui est
une représentation abstraite d’un processus aléatoire ayant généré les données. Pour bien
marquer cette différence, nous emploierons les termes « empirique » ou « observé » pour tout
ce qui se rapporte à 1( ,..., )nx x , et « théorique » (on rencontre parfois « vrai ») pour ce qui
concerne 1( ,..., )nX X .
Pour terminer avec ces définitions, nous appellerons Statistique toute fonction de
l’échantillon 1( ,..., )nT f X X= . Une statistique est donc une variable aléatoire, dont on
obtient une réalisation grâce à l’échantillon observé, 1( ,..., )obs nT f x x= .
Illustrons ces définitions grâce à l’exemple de la taille des Français. A partir de notre
échantillon 1 35( ,..., )x x , nous avons calculé la moyenne empirique
35
1
1
35
i
i
x x
=
= ∑ . Cette valeur
est l’observation sur l’échantillon de la statistique que nous noterons
35
1
1
35
i
i
X X
=
= ∑ .
Supposons par exemple que pour tout i, Xi suive une loi normale d’espérance théorique µ et
d’écart type théorique σ. Il est possible de montrer que la somme de variables gaussiennes
reste gaussienne. Ainsi, en utilisant les formules du chapitre précédent relatives à la
manipulation d’espérances et de variances, on parvient aux relations suivantes :
30
35 35
1 1
2 235 35
1 1
1 1
( ) ( )
35 35
1 1 ²
( ) ( ) ²
35 35 35
Soit pour l'écart type ( )
35
i
i i
i
i i
E X E X
Var X Var X
X
µ µ
σ
σ
σ
σ
= =
= =
= = =
   
= = =   
   
=
∑ ∑
∑ ∑
Nous avons donc, de manière théorique, caractérisé la fluctuation d’échantillonnage de la
statistique X , qui suit donc une loi normale ( , )
35
N
σ
µ . L’histogramme représenté plus haut
est une approximation de la densité de cette loi de probabilité. Notons que la validité de ce
calcul est dépendante des trois hypothèses que nous avons posées : les données sont issues
d’une même loi, qui est une loi normale, et sont indépendantes. Profitons-en pour insister sur
le fait qu’indépendance et équi-distribution sont des hypothèses qui sont posées a priori, et
non des propriétés démontrées. Il est donc capital, lors du recueil des données, de s’assurer
que le protocole garantira au mieux la validité de ces deux hypothèses. Pour finir, remarquons
que dans la pratique, les valeurs de µ et σ ne nous sont pas connues, il faut donc les estimer,
ce qui fera l’objet du paragraphe IV.2.
IV.1.3. Quelques théorèmes importants
Les théorèmes que nous allons présenter ci-après sont des théorèmes de convergence de
suites de variables aléatoires. Le temps nous manque pour aborder de manière totalement
rigoureuse ces notions de convergence, aussi les théorèmes seront exposés de manière plus ou
moins intuitive. Le but est avant tout de justifier la démarche probabiliste entreprise et de
donner des résultats dont l’importance pratique est primordiale.
Le théorème de Glivenko-Cantelli.
Soit 1( ,..., )nx x un échantillon iid , issu d’une loi de probabilité de fonction de répartition
F. Soit Fn la courbe empirique des fréquences cumulées (cf II.2.1) obtenu par l’échantillon de
taille n. Notons sup ( ) ( )n n
x
D F x F x= − . Alors 0n n
D →∞
→
Ce théorème affirme donc que, si n est suffisamment grand, alors la différence entre les
fonctions de répartition empirique et théorique est négligeable. Dit autrement, les fréquences
empiriques convergent vers les probabilités théoriques : ceci justifie donc une analogie
fréquence/probabilité que nous avions déjà relevée.
Ajoutons que la quantité Dn est à la base d’un test important en statistique, que nous
verrons ultérieurement.
La loi des grands nombres
Soit 1( ,..., )nx x un échantillon iid , issu d’une loi de probabilité d’espérance théorique m.
Notons
1
1 n
n i
i
X X
n =
= ∑ la statistique « moyenne empirique » obtenue à partir de l’échantillon
théorique 1( ,..., )nX X . Alors n n
X m→∞
→ .
Cette convergence mérite quelques explications. En effet, nous avons insisté sur le fait que
nX était une variable aléatoire, alors que m est une constante : comment l’une peut-elle
converger vers l’autre ? Ce mode de convergence signifie que justement, nX est de « moins
31
en moins aléatoire » à mesure que la taille de l’échantillon augmente, en ce sens que pour tout
intervalle autour de m, la probabilité pour que nX soit à l’intérieur de cet intervalle peut être
choisie aussi proche de 1 que l’on veut, en choisissant un rang n suffisamment grand. Notons
que ce théorème reste vrai quelle que soit la loi dont est issu l’échantillon (pourvu que
l’espérance existe).
Le théorème central limite.
Ce théorème est d’une importance pratique considérable en statistiques. Soit 1( ,..., )nX X
un n-uplet de variables aléatoires iid, d’espérance µ et d’écart-type σ. Alors :
1 ...
(0,1) (0,1)
/
n n
n n
X X n X
N N
n n
µ µ
σ σ→∞ →∞
+ + − −
→ ⇔ →
La signification du théorème est la suivante : quelle que soit la loi dont est issu un
échantillon (pourvu qu’espérance et variance existent), la statistique « moyenne empirique »
suivra une loi normale, pourvu que n soit suffisamment grand. En pratique, une trentaine
d’observation est souvent jugée suffisante pour appliquer l’approximation gaussienne.
Reprenons alors notre exemple sur la taille moyenne des Français : il s’avère que nos
conclusions restent exactes, même si l’échantillon n’est pas issu d’une loi normale !
La figure ci-dessous illustre ces deux derniers théorèmes. Pour trois lois de probabilité bien
distinctes, nous avons simulé des échantillons de diverses tailles, et calculé la moyenne
empirique. Les histogrammes suivants approximent la densité de la statistique nX . Nous
observons alors les deux phénomènes précédemment décrits : d’une part, quand n devient
grand, nX est de « moins en mois aléatoire », et ses valeurs se concentrent de plus en plus
autour de la valeur théorique de l’espérance. D’autre part, quelle que soit la forme de la
distribution parente (première colonne), la distribution d’échantillonnage de nX prend peu à
peu une forme Gaussienne, comme le prédit le théorème central limite.
-2 0 2
0
20
40
60
80
100
-2 0 2
0
50
100
150
-2 0 2
0
20
40
60
80
100
-2 0 2
0
20
40
60
80
100
-2 0 2
0
20
40
60
80
100
-2 0 2
0
20
40
60
80
100
0 0.5 1
0
10
20
30
40
50
0 0.5 1
0
20
40
60
80
0 0.5 1
0
20
40
60
80
100
0 0.5 1
0
20
40
60
80
100
0 0.5 1
0
20
40
60
80
100
0 0.5 1
0
20
40
60
80
100
0 0.5 1
0
200
400
600
800
1000
0 0.5 1
0
200
400
600
800
0 0.5 1
0
100
200
300
400
500
0 0.5 1
0
100
200
300
400
0 0.5 1
0
50
100
150
200
0 0.5 1
0
20
40
60
80
100
N(0,1)
U(0,1)
Be(0.8)
n=1 n=2 n=5 n=10 n=50 n=500
Figure 20. Illustration du théorème central limite.
32
Le théorème des valeurs extrêmes
C’est, en quelque sorte, l’équivalent du théorème central limite pour la statistique
1( ,..., )n nM Max X X= . La formulation est un peu délicate, nous le retiendrons sous la forme
suivante : si la distribution de Mn converge, alors c’est forcément vers une loi généralisée des
valeurs extrêmes ( , , )GEV µ λ ξ . La figure suivante permet d’illustrer cette convergence pour
les lois N(0,1), U(0,1) et de Cauchy, dont les maximums convergent vers une GEV où le
paramètre ξ est respectivement nul (=loi de Gumbel), positif (=loi de Weibull) et négatif
(=Loi de Fréchet). Ce théorème justifie l’utilisation de ces lois en hydrologie des valeurs
extrêmes, pour décrire le comportement probabiliste des crues. Notons qu’encore une fois, la
loi limite du maximum ne dépend pas de la loi parente dont est issu l’échantillon.
Figure 21. Illustration du théorème des valeurs extrêmes.
IV.1.4. Techniques de rééchantillonnage
Une autre approche afin d’accéder à la distribution d’échantillonnage d’une statistique
1( ,..., )nT f X X= consiste à utiliser des techniques comme le Bootstrap, qui ont gagné en
popularité ces dernières années du fait de leur simplicité et de la puissance accrue des moyens
informatiques. Voici l’algorithme du Bootstrap, à partir d’un échantillon observé 1( ,..., )nx x :
33
faire pour i=1,…, Nb
o tirer au sort avec remise n individus (certains individus apparaîtront
plusieurs fois, d’autres aucune)
o calculer ( )i
obsT sur cet échantillon
fin
Nous obtenons ainsi un nouvel échantillon ( )( )(1)
,..., bN
obs obsT T dont on montre qu’il est issu
d’une bonne approximation de la distribution d’échantillonnage. La simplicité de cette
méthode tient au fait qu’elle ne fait plus appel au cadre probabiliste (même si celui-ci est
nécessaire pour démontrer que la technique fonctionne….), et permet donc de prendre en
compte cette fluctuation dans un contexte de statistiques descriptives.
IV.2. L’estimation
La théorie de l’estimation est un domaine important et vaste des Statistiques. Nous n’en
aborderons que quelques aspects, en expliquant comment mesurer la qualité d’un estimateur,
et en présentant deux méthodes d’estimation très utilisées en pratique.
IV.2.1. Quelques définitions
Considérons un échantillon 1( ,..., )nx x iid, réalisation du n-uplet de variables aléatoires
1( ,..., )nX X . Il est fréquent d’avoir une idée a priori sur la loi dont devrait être issu cet
échantillon, par expérience ou en considérant un des théorèmes limites ci-dessus (ex. : la crue
maximale annuelle suit une loi de Gumbel). Nous allons donc supposer que l’échantillon est
issu d’une certaine loi, de densité f paramétrée par un certain nombre de paramètres que nous
noterons sous forme vectorielle θ . Nous noterons ( | )f x θ cette densité. Par exemple, pour
une loi normale, ( , )µ σ=θ . La question est donc à présent d’estimer la valeur des
paramètres à partir des données observées. Pour cela, nous allons faire appel à des statistiques
1( ,..., )nT g X X= particulières, appelées estimateurs. Nous réclamerons que ces estimateurs
satisfassent à un certain nombre de critères garantissant leur qualité. Parmi ces critères,
citons :
La convergence : si Tn est un estimateur d’un paramètre α, obtenu à partir d’un
échantillon de taille n, alors il est souhaitable que n n
T α→∞
→ (intuitivement, quand
l’échantillon tend vers la population, on retrouve la vraie valeur)
L’absence de biais : E(Tn)=α.
La précision : ( )( )²nE T α− , l’erreur quadratique moyenne, est minimale.
Notons qu’il n’est pas forcément possible de trouver un estimateur qui satisfasse à ces trois
critères simultanément.
Exemple 7 : Estimateurs d’une espérance et d’une variance.
Soit µ l’espérance de la loi dont est issu un échantillon. Alors il est facile de montrer que
nX est un estimateur de µ convergent et sans biais :
convergent : c’est la loi des grands nombres (cf IV.1.3)
Sans biais :
1
1
( ) ( )
n
n i
i
E X E X
n
µ
=
= =∑
34
Supposons à présent que la loi dont est issu l’échantillon est de variance V que nous
souhaitons estimer. Les estimateurs naturels sont (cf II.2.3) 1
1
1
( )²
n
i
i
T X X
n =
= −∑ et
2
1
1
( )²
1
n
i
i
T X X
n =
= −
−
∑ . Calculez l’espérance de chacun de ces estimateurs (conseil : utiliser
l’expression ( )2 2
1
1
1 n
i
i
T X X
n =
 
= − 
 
∑ ): lequel est sans biais ?
IV.2.2. Estimation par la méthode des moments
L’idée de cette méthode est la suivante : si les paramètres sont bien estimés, alors il devrait
y avoir adéquation entre les caractéristiques observées (ou empiriques) et les caractéristiques
théoriques. Nous allons rechercher cette adéquation sur les moments, en général le premier
moment non centré (c’est à dire la moyenne) et le second moment centré (c’est à dire la
variance). Plus précisément, supposons que nous ayons p paramètres 1 ,..., pθ θ à estimer, alors
leurs estimateurs 1
ˆ ˆ ˆ,..., pθ θ = θ seront solutions du système :
( )
( )
( )( )
ˆ 1
'
ˆ 2
'
ˆ ˆ
.......
p
p
E X m
Var X m
E X E X m
 =

 =



  − =   
θ
θ
θ θ
La notation ˆEθ
a pour but de bien montrer que ces moments sont des fonctions des
paramètres à estimer.
Exemple 8 : Estimateurs des paramètres d’une loi normale
Soit 1( ,..., )nx x iid, un échantillon issu d’une loi normale N(µ,σ). L’espérance vaut donc µ
et la variance σ². Les estimateurs des moments sont donc définis par :
1
2 2
ˆ
ˆ ˆ²
m x
m m
µ
σ σ
= =
= ⇒ =
En d’autres termes, les estimateurs des moments sont égaux à la moyenne et à l’écart-type
empiriques.
Exercice : Exprimer les estimateurs des moments pour une loi exponentielle Exp(0,λ) et
uniforme U(a,b).
IV.2.3. Estimation par maximum de vraisemblance
Cette méthode consiste, étant donné un échantillon 1( ,..., )nx x iid, de choisir comme
estimateur de 1 ,..., pθ θ les valeurs qui rendent l’échantillon le plus « probable » possible. Plus
précisément, comme l’échantillon est indépendant, la densité jointe du vecteur aléatoire
1( ,..., )nX X est égale au produit des lois marginales. Nous appellerons vraisemblance
l’expression de cette densité prise pour les valeurs 1( ,..., )nx x , soit :
1
1
( ,..., | ) ( | )
n
n i
i
L x x f x
=
= ∏θ θ
35
Il faut donc trouver les valeurs 1
ˆ ˆ,..., pθ θ qui maximisent cette vraisemblance.
Dans la pratique, on aura souvent intérêt à maximiser la log-vraisemblance,
( )1
1
( ,..., | ) log ( | )
n
n i
i
LogL x x f x
=
= ∑θ θ
Pour ce faire, il faut résoudre une équation aux dérivées partielles :
0, 1,...,
i
LogL
i p
θ
∂
= ∀ =
∂
Exemple 9 : Estimation du paramètre d’une loi exponentielle Exp(0,λ)
Soient 1( ,..., )nx x les observations issues de cette loi exponentielle, dont la densité s’écrit :
/1
( | ) x
f x e λ
λ
λ
−
= .
La Log-vraisemblance vaut donc :
( )
( )
1
1
/
1
1
1
( ,..., | ) log ( | )
1
log
1
log
log
i
n
n i
i
n
x
i
n
i
i
n
i
i
LogL x x f x
e
x
n
x
n
λ
λ λ
λ
λ λ
λ
λ
=
−
=
=
=
=
 
=  
 
 
= − 
 
= − −
∑
∑
∑
∑
D’où :
1
1
1
1
0
²
0
1
n
i
i
n
i
i
n
i
i
n
i
i
xLogL n
x
n
x
n
x
n
λ λ λ
λ
λ
λ
=
=
=
=
∂
= − + =
∂
⇔ − + =
⇔ =
⇔ =
∑
∑
∑
∑
L’estimateur du maximum de vraisemblance correspond ici à l’estimateur des moments.
Exercice : Exprimer l’estimateur du maximum de vraisemblance pour les lois N(µ,σ) et
U(a,b).
IV.2.4. Quel estimateur choisir ?
Il n’existe malheureusement pas de réponse à cette question… Dans certains cas, les deux
estimateurs présentés plus haut coïncident et sont « optimaux ». Dans d’autres cas, l’un aura
des propriétés que l’autre n’aura pas, et vice-versa. En général, l’estimateur du maximum de
vraisemblance est utilisé pour les grands échantillons, car la théorie permet d’en déterminer
les propriétés asymptotiques (loi, variance). En contrepartie, les calculs détaillés ci-dessus
sont souvent inextricables à la main dans des cas plus compliqués, il faut donc recourir à des
méthodes d’optimisation numérique, qui ne garantissent d’ailleurs pas la convergence vers un
minimum absolu.
36
IV.2.5. Intervalles de confiance
Les estimateurs étant en particulier des statistiques, ils sont soumis à la fluctuation
d’échantillonnage dont nous avons longuement parlé précédemment : si l’on prend un autre
échantillon, la valeur des estimations changera. Il est donc important de prendre en compte
cette fluctuation afin de rendre plus interprétables les estimations ponctuelles.
Supposons que 1( ,..., )nT g X X= est un estimateur dont on connaisse la loi de probabilité
F (qui dépend de θ ). Un intervalle de probabilité au risque α (ou au niveau de confiance 1-
α), noté ( )Iα θ , est un intervalle vérifiant la propriété :
( ) 1P T Iα α∈ = −
Dans la pratique, on choisira souvent un intervalle [t-
,t+
] tel que :
( ) / 2
( ) / 2 ( ) 1 / 2
P T t
et
P T t P T t
α
α α
−
+ −
< =
> = ⇔ ≤ = −
Les limites de l’intervalle de probabilité sont donc les quantiles d’ordre α/2 et 1-α/2 de la
distribution d’échantillonnage de notre estimateur, ils dépendent donc toujours de θ . Or, les
observations nous conduisent à une valeur observée de l’estimateur, notée ˆθ . Une valeur
« acceptable » de θ devrait donc conduire à une valeur observée ˆ ( )Iαθ θ∈ . C’est l’ensemble
de ces valeurs acceptables que nous appellerons intervalle de confiance au niveau 1-α.
Exemple 10 : Intervalle de confiance de l’estimateur d’une moyenne
D’après le théorème central limite,
/
nX
n
µ
σ
−
suit une N(0,1). Notons pu le quantile d’ordre
p de cette loi, nous avons donc par définition du quantile :
/ 2 1 / 2( ) 1
/
nX
P u u
n
α α
µ
α
σ
−
−
< ≤ = −
Un intervalle de probabilité au niveau 1-α pour nX est donc :
/ 2 1 / 2nu X u
n n
α α
σ σ
µ µ −+ < ≤ +
La valeur x a été observée, nous recherchons donc l’ensemble des µ vérifiant :
/ 2 1 / 2
1 / 2 / 2
u x u
n n
x u x u
n n
α α
α α
σ σ
µ µ
σ σ
µ
−
−
+ < ≤ +
⇔ − ≤ < −
Si la valeur de σ est connue, alors nous disposons d’un intervalle de confiance au niveau 1-
α. Dans le cas contraire, il faut recommencer en remplaçant σ par son estimateur naturel, mais
la loi de
( ) /
nX
Estim n
µ
σ
−
n’est alors plus Gaussienne. C’est là la principale difficulté de la
détermination des intervalles de confiance : il n’est pas toujours aisé d’accéder à la
distribution d’échantillonnage de l’estimateur. Heureusement, de nombreux résultats
asymptotiques existent et permettent d’effectuer ce type de calculs, qui sont vraiment
nécessaires pour avoir une vision un minimum objective de la confiance que l’on peut
accorder à des résultats statistiques.
37
IV.3. Les tests statistiques
IV.3.1. Le principe des tests statistiques
D’après G. Saporta, « un test est un mécanisme qui permet de trancher entre deux
hypothèses, dont une et une seule est vraie, au vu des résultats d’un échantillon ». Soient H0 et
H1 ces deux hypothèses. Il existe alors 4 possibilités, de probabilités différentes, résumées
dans le tableau suivant :
Vérité
Décision
H0 H1
H0 1-α β
H1 α 1-β
Tableau 6. Risques d'erreur.
H0 est appelée l’hypothèse nulle, et H1 l’alternative. Nous allons voir que ces hypothèses
ne jouent pas un rôle symétrique, contrairement à ce que ce tableau pourrait laisser croire. α et
β sont appelés les risques de première et de seconde espèce. 1-β est la puissance du test.
Ces définitions étant posées, comment effectue-t-on la prise de décision ? Nous allons tout
d’abord tenter de comprendre le canevas général via un exemple :
Exemple 11 : La température globale moyenne sur l’année de la planète Terre peut être
considérée comme une variable aléatoire gaussienne, de moyenne 14 et d’écart-type 0.25. Au
début des années 80, les valeurs suivantes ont été calculées :
Année 1980 1981 1982 1983 1984 1985
T (°C) 14.27 14.4 14.1 14.34 14.16 14.13
Tableau 7. Tableau de données.
Nous souhaitons tester l’hypothèse du réchauffement de la Terre. Nous allons donc choisir
comme hypothèses H0 : « la température moyenne est de 14°C » contre H1 : « la température
moyenne est supérieure à 14°C ». Pour cela, nous allons commencer par choisir un risque de
première espèce α, qui représente le risque d’affirmer à tort que la planète est plus chaude
qu’autrefois. Etant donnée la portée d’une telle affirmation, nous allons rester prudents et
choisir un risque faible, disons 1%. Etant donné notre échantillon de 6 années, il est possible
de calculer la moyenne empirique x , réalisation de la statistique X , que l’on appelle la
statistique de test. Si H0 est vraie, alors l’échantillon suit une loi normale N(14, 0.25).
Comme nous l’avons vu précédemment, la statistique X suit alors une loi normale
(14,0.25/ 6)N . L’hypothèse H0 devrait donc être rejetée (i.e. H1 devrait être acceptée) si la
réalisation de cette statistique conduit à une valeur trop grande pour être vraisemblable, c’est à
dire si x k> , où k est à déterminer. La région [ ; [k +∞ est appelée la zone de rejet de
l’hypothèse H0. Pour calculer k, nous allons nous appuyer sur la définition de α :
0 0
0
0
(rejeter | )
( | )
1 ( | )
P H H
P X k H
P X k H
α =
= >
= − ≤
Or, si H0 est vraie, alors nous connaissons la loi de X , qui est une (14,0.25/ 6)N . De
l’équation précédente, il vient que k est le 1-α quantile de cette distribution, qui vaut (valeur
38
tabulée ou fonction prédéfinie d’Excel, par exemple) 14.237. Nous allons donc rejeter H0 si
x k> . Avec les données ci-dessus, on trouve 14.233x = , ce qui nous conduit à ne pas rejeter
H0 : on dit que le test est non significatif, ou encore que la température n’a pas
significativement augmenté (au risque 1%).
Il subsiste cependant un risque d’erreur, qui est celui d’avoir conservé à tort H0 :
0 1
1
(conserver | )
( | )
P H H
P X k H
β =
= ≤
Or, il nous est impossible ici de calculer ce risque, car, sous l’hypothèse H1, nous ne
connaissons pas la loi dont sont issues les données. Nous voyons donc le rôle asymétrique
joué par les deux hypothèses : l’hypothèse H0 est dite simple (le paramètre vaut une valeur
précise), tandis que H1 est composite (le paramètre appartient à un sous-ensemble de ¡ ). Le
risque de seconde espèce n’est ici calculable que si H1 est également simple.
Exercice : refaire le test en intégrant les données des années 1986 à 2004 :
Année 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997
T (°C) 14.19 14.35 14.42 14.28 14.49 14.44 14.16 14.18 14.31 14.47 14.36 14.4
Année 1998 1999 2000 2001 2002 2003 2004
T (°C) 14.71 14.44 14.41 14.56 14.7 14.64 14.61
Tableau 8. Tableau de données.
La quasi-totalité des tests d’hypothèses suit le même schéma, qui peut se résumer comme
suit :
1. Choix des hypothèses H0 et H1
2. Choix du risque de première espèce α
3. Choix de la statistique de test
4. Détermination de la loi de cette statistique sous H0
5. Calcul de la zone de rejet
6. Calcul de la valeur expérimentale de la variable de test et décision
7. Si possible, calcul du risque de seconde espèce et de la puissance
Par rapport au test relativement simple donné en exemple, l’étape la plus difficile en
général est le calcul de la loi de la statistique de test sous H0. Bien souvent, des résultats
asymptotiques (i.e. valables pour un échantillon suffisamment grand) sont utilisés.
IV.3.2. Quelques tests classiques
Tests sur les paramètres d’une loi de Gauss
Condition d’application : l’échantillon iid est issu d’une loi normale N(µ,σ)
H0 : µ=m0 contre H1 : hypothèse alternative (µ>m0, ou µ=m1, par exemple)
σ connu
Statistique de test : 0 0( , ) sousX N m H
n
σ
:
39
H0 : µ=m0 contre H1 : hypothèse alternative (µ>m0, ou µ=m1, par exemple)
σ inconnu
Statistique de test : 0
01 ( 1) sous
X m
T n Student n H
S
−
= − −: ,
où ( )
2
1
1 n
i
i
S X X
n =
= −∑ est l’estimateur de l’écart type.
Note : ces deux tests restent applicables si les données ne sont pas Gaussiennes avec un
échantillon d’effectif au moins 30.
H0 : σ=σ0 contre H1 : hypothèse alternative
µ connu
Statistique de test : 1
02
0
( )²
²( ) sous
n
i
i
X
n H
µ
χ
σ
=
−∑
:
H0 : σ=σ0 contre H1 : hypothèse alternative
µ inconnu
Statistique de test : 02
0
²
²( 1) sous
nS
n Hχ
σ
−:
Tests d’ajustement à une distribution
Les deux tests présentés ci-après ont pour but de vérifier que les données sont issues d’une
distribution F0(x)
Test de Kolmogorov
Conditions d’applications : F0(x) entièrement spécifiée (i.e. pas de paramètres) et continue.
H0 : données issues de F0(x) contre H1 : données issues d’une autre distribution
Statistique de test :
0sup ( ) ( )n n
x
D F x F x= − , où Fn(x) est la fonction de répartition empirique
Sous H0, la loi de Dn est tabulée
40
Test du χ²
Conditions d’applications : F0(x) doit être discrète ou discrétisée. p1,…,pk les probabilités
théoriques de chaque classe, et N1,…,Nk les effectifs observés pour chaque classe.
H0 : données issues de F0(x) contre H1 : données issues d’une autre distribution
Statistique de test :
2
1
( )²k
i i
i i
N np
D
np=
−
= ∑
Loi sous H0 :
si F0(x) est entièrement spécifiée, ² ²( 1)D kχ −: asymptotiquement
si F0(x) dépend de l paramètres, alors il faut estimer ces paramètres par maximum de
vraisemblance à partir de la loi discrétisée, et ² ²( 1 )D k lχ − −: asymptotiquement
Note : on admettra l’approximation asymptotique si npi>5 pour toutes les classes (procéder
éventuellement à des regroupements)
Tests de comparaison d’échantillons
Test des variances de Fischer
Conditions d’application : deux échantillons indépendants de tailles n1 et n2 et de lois
normales 1 1 2 2( , ) et ( , )N Nµ σ µ σ .
H0 : σ1=σ2 contre H1 : σ1≠σ2
Statistique de test :
2 *2
1 1 1 1
2 *2
2 2 2 2
/( 1)
/( 1)
n S n S
F
n S n S
−
= =
−
, où *2
S est l’estimateur sans biais de la
variance. On mettra au numérateur l’échantillon conduisant à la variance estimée la plus
grande.
Loi sous H0 : 1 2( 1, 1)F Fisher n n− −:
Test des moyennes de Student
Conditions d’application : deux échantillons indépendants de tailles n1 et n2 et de lois
normales 1 2( , ) et ( , )N Nµ σ µ σ (écarts-types inconnus mais égaux).
H0 : µ1=µ2 contre H1 : hypothèse alternative
Statistique de test : 1 2 1 2
1 2 0
2 2
1 1 2 2
1 2
( ) 2
( 2) sous
1 1
( )
X X n n
T Student n n H
n S n S
n n
− + −
= + −
 
+ + 
 
:
Note : Si les deux échantillons sont suffisamment grands (quelques dizaines d’individus),
le test de Student peut être appliqué même si les données ne sont pas gaussiennes ou ont des
variances inégales. On dit que ce test est « robuste » (i.e. peu sensible au non-respect des
conditions d’application).
41
Test des rangs de Wilcoxon
Conditions d’application : deux échantillons
1
1( ,..., )n
x x et
2
1( ,..., )n
y y indépendants de
tailles n1<n2. On mélange les échantillons et on note rg(xi) le rang d’une observation xi dans
cet échantillon mélangé
H0 : Les échantillons sont issus d’une même population contre H1 : hypothèse alternative
Statistique de test : 1
( )
n
i
i
rg x
S
µ
σ
=
−
=
∑
, où 1 1 2( 1)
2
n n n
µ
+ +
= et 1 2 1 2( 1)
12
n n n n
σ
+ +
=
Loi sous H0 : (0,1)S N: dès que les deux échantillons sont d’effectifs supérieurs à 8
Test de corrélation
Conditions d’application : deux variables X et Y Gaussiennes dont on cherche à savoir si
elles sont corrélées. Soit
( , )
X Y
Cov X Y
ρ
σ σ
= le coefficient de corrélation.
H0 : ρ=0 contre H1 : Hypothèse alternative
Statistique de test : 0
2
( 2) sous
1 ²
n
R Student n H
ρ
ρ
−
= −
−
:
Note : Ce test permet également de tester la nullité du paramètre a d’une régression
Y=aX+b, puisque
( , )
ˆ
( )
Y
X
Cov X Y
a
Var X
σ
ρ
σ
= =
Test de stationnarité
Test de Pettitt
Conditions d’application : échantillon 1( ,..., )nx x dont on cherche à savoir s’il présente une
dérive (rupture ou tendance)
H0 : Echantillon stationnaire contre H1 : Hypothèse alternative
Statistique de test : max(| ( ) |)
k
S U k= , où
1 1
( ) ( )
k n
i j
i j k
U k signe x x
= = +
= −∑ ∑
Loi sous H0 :
2
0
0 3 2
6
( ) 2exp
s
P S s
n n
 −
≥ =  
+ 
42
V. Applications à l’étude des crues
Nous allons à présent appliquer les méthodes décrites précédemment à l’étude des crues en
hydrologie. Il existe quelques particularités liées aux types de données utilisées, ou aux
« habitudes » des hydrologues, mais le cadre théorique est celui de la statistique inférentielle.
V.1. Les données
Il n’existe pas de manière unique de décrire une crue : on peut s’intéresser à une hauteur
d’eau, un temps de submersion, une vitesse d’écoulement… La variable la plus utilisée par les
hydrologues est le débit, car c’est la variable la moins influencée par les conditions locales
aux sites de mesure, et c’est aussi celle qui est physiquement la plus maniable (lien avec la
pluie). Malheureusement, un débit ne peut se mesurer instantanément, comme une hauteur ou
une température. Pour pouvoir disposer de chroniques de débits les plus continues possibles,
on utilise une transformation hauteur/débit, matérialisée par une courbe de tarage. Pour
tracer cette courbe, on effectue quelques mesures conjointes de débit et de hauteur (cf cours
de E. Leblois pour la métrologie des débits), et on ajuste à ce nuage de point une courbe par
régression :
Courbe de tarage
Débit
Hauteur
Figure 22. Courbe de tarage.
Cette transformation permet de passer d’une chronique de hauteurs, mesurées quasiment en
continu, à une chronique de débits :
43
Figure 23. Chronique de débits.
Dans cette chaîne de traitements, plusieurs sources d’incertitudes apparaissent :
Incertitude métrologique liée à la mesure de la hauteur.
Incertitude métrologique et opératoire liée aux mesures de débits. Ce type d’erreur
peut être assez important pour les débits de crues et d’étiages.
Incertitudes liées à l’ajustement d’une courbe de tarage : plusieurs types de courbes
sont ajustables, et plusieurs méthodes d’ajustement peuvent être utilisées. Les lois
de l’hydraulique permettent de guider cette étape.
Incertitude liée à l’extrapolation : Par nature, les évènements extrêmes sont rares,
donc difficiles à mesurer. De plus, effectuer un jaugeage en crue est une opération
délicate, voire périlleuse (pour le matériel et les hommes). Ainsi, les débits très
faibles ou très forts peuvent ne jamais avoir été jaugés, ce qui conduit, lors de la
survenue d’un tel événement, à calculer le débit par une extrapolation éloignée du
domaine d’observation, d’où un important risque d’erreur.
Toutes ces incertitudes ne sont pas prises en compte en général dans l’analyse probabiliste
des crues, qui s’attache à quantifier la fluctuation d’échantillonnage. Il est cependant
important de garder à l’esprit qu’un débit est, à la base, une grandeur entachée d’incertitudes.
Il sera en particulier totalement inutile de travailler avec de trop nombreux chiffres
significatifs.
44
V.2. L’échantillonnage
A partir d’une chronique de débit, il s’agit d’extraire des variables caractéristiques des
crues. Nous nous intéresserons ici aux pics de débits, mais d’autres variables peuvent être
étudiées (volume de crue, durée, temps de montée ou de descente, etc…)
V.2.1. Techniques d’échantillonnage
Nous allons nous intéresser aux deux principales techniques utilisées par les hydrologues :
l’échantillonnage par valeurs maximales annuelles (MAXAN) et l’échantillonnage par valeurs
supérieures à un seuil (SUPSEUIL).
L’échantillonnage MAXAN consiste à sélectionner chaque année le débit observé le plus
fort. L’échantillonnage SUPSEUIL consiste quant à lui à choisir un seuil, puis à sélectionner
les pointes des évènements dépassant ce seuil. Dans la pratique, plutôt qu’un seuil, on se
donne en général un nombre d’évènements à sélectionner par an (en moyenne), et par
itérations successives, on calcule le seuil conduisant à cet objectif.
Année hydrologique
: Valeurs maximales annuelles
Figure 24. Echantillonnage de type MAXAN.
45
Figure 25. Echantillonnage de type SUPSEUIL.
Chacune de ces méthodes présente des avantages et des inconvénients, notamment dans
l’optique d’une analyse statistique où nous souhaiterions disposer d’un échantillon iid :
MAXAN : La mise en œuvre de cette méthode est très simple. En ne sélectionnant qu’un
unique événement par an, on s’assure de l’indépendance entre les valeurs, sauf
éventuellement si une crue importante se produit à cheval sur deux années successives,
conduisant, par exemple, à échantillonner un débit le 31 décembre 2000 et un autre le 1er
janvier 2001. Pour cette raison, on échantillonne souvent par année hydrologique, chaque
année étant séparée par une période d’étiage. L’inconvénient est d’ignorer un certain nombre
d’évènements lors des années où beaucoup de crues se sont produites, et inversement de
prendre en compte des évènements peu importants lors des années peu actives.
L’homogénéité de l’échantillon n’est donc pas optimale.
SUPSEUIL : cette technique est plus difficile à mettre en œuvre. En effet, il faut ajouter
des contraintes d’indépendance afin de ne pas échantillonner plusieurs fois le même
événement hydrologique, comme dans l’exemple ci-dessous :
Figure 26. Illustration de la nécessité des contraintes d'indépendance.
46
On impose en général une contrainte d’espacement temporel minimal entre deux pointes
sélectionnées, ainsi qu’une contrainte de redescente vers un débit de base. Bien choisies, ces
contraintes permettent de garantir l’indépendance de l’échantillon. Cet échantillon sera
également plus homogène que celui fournit par la méthode MAXAN. Autre avantage, il est
possible d’étoffer l’échantillon en choisissant, en moyenne, plus d’un événement par an.
D’autres subtilités peuvent être employées pour améliorer l’échantillonnage. Citons
notamment l’échantillonnage saisonnalisé, qui permet par exemple d’obtenir deux
échantillons pour les cours d’eau à régime mixte (pluvio-nival).
V.2.2. Propriétés probabilistes des échantillons
Nous noterons X*
la variable aléatoire génératrice des données fournies par la méthode
MAXAN, et Xs la variable aléatoire génératrice des données fournies par la méthode
SUPSEUIL. L’expérience (et le théorème des valeurs extrêmes) montrent que les lois
suivantes sont bien adaptées pour décrire ces variables :
X*
suit une loi généralisée des valeurs extrêmes (GEV) à trois paramètres. On
suppose parfois directement que le paramètre de forme est nul, c’est à dire qu’on
choisit plutôt de modéliser X*
par une loi de Gumbel à deux paramètres.
Loi de Gumbel Gu(µ,λ)
1
( ) exp exp
( ) exp exp
0, 0
( ) , avec 0.5772 (constante d'Euler-Mascheroni)
²
( ) ²
6
x x
f x
x
F x
E X
Var X
µ µ
λ λ λ
µ
λ
µ λ
µ γλ γ
π
λ
 − − 
= − − −  
  
 − 
= − −  
  
> >
= + =
=
Loi généralisée des valeurs extrêmes GEV(µ, λ, ξ ) :
( )
1 1
1
1
2
1 ( ) ( )
( ) 1 exp 1
( )
( ) exp 1
( )
0, 0, 0, 1 0
( ) (1 ( 1))
( ) (2 1) ²( 1)
x x
f x
x
F x
x
E X
Var X
ξ ξ
ξ
ξ µ ξ µ
λ λ λ
ξ µ
λ
ξ µ
µ λ ξ
λ
λ
µ ξ
ξ
λ
ξ ξ
ξ
−  
− −    = − − −        
 
 
−  = − −    
 
−
> > ≠ − >
= + − Γ +
 
= Γ + − Γ + 
 
47
Xs suit une loi de Pareto généralisée à trois paramètres. De même que pour les
échantillons MAXAN, on se contente souvent d’ajuster une loi exponentielle à
deux paramètres, ce qui correspond à supposer que le paramètre de forme est nul.
Loi exponentielle Exp(x0, λ )
0
0
0
0
0
2
1
si( )
0 sinon
1 si( )
0 sinon
( )
( )
x x
x x
e x xf x
e x xF x
E X x
Var X
λ
λ
λ
λ
λ
−
−
−
−

 >= 



 − >= 

= +
=
Loi de Pareto généralisée GP(x0, λ, ξ)
1
1
0
1
0
0
0
2
2
( )1
( ) 1
( )
( ) 1 1
0
( )
1 0
( )
1
( )
(1 ) (1 2 )
x x
f x
x x
F x
x x
E X x
Var X
ξ
ξ
ξ
λ λ
ξ
λ
λ
ξ
ξ
λ
λ
ξ
λ
ξ ξ
−
 −
= − 
 
 −
= − − 
 
> 0
≠
−
− >
= +
+
=
+ +
L’échantillonnage SUPSEUIL conduit à s’intéresser à une autre variable, décrivant le
processus d’occurrence des crues. Il est en effet possible de considérer une des variables
suivantes :
Nt, le nombre de crues dans un intervalle de temps [0,t]. On suppose généralement
que cette variable suit une loi de Poisson :
( )
( ) e
!
k
t
t
t
P N k
k
µ µ−
= =
D’autres lois sont parfois utilisées, comme la loi binomiale ou la loi binomiale
négative.
θ , le temps séparant deux occurrences de crue, modélisé par une loi exponentielle
simple :
1 si 0
( )
0 sinon
t
e t
P t
µ
θ
− − >
≤ = 

48
Exercice : Démontrer que si Nt suit une loi de poisson de paramètre µ, alors θ suit une loi
exponentielle simple de même paramètre µ.
Il est possible de démontrer que si le processus d’occurrence suit une loi de Poisson et le
processus de dépassement du seuil une loi exponentielle (échantillonnage SUPSEUIL), ces
deux variables étant supposées indépendantes, alors le maximum annuel suit une loi de
Gumbel (MAXAN). De même, il existe une relation reliant les lois de Poisson + Pareto
généralisée à la loi GEV.
Exercice : Démontrer que si Xs suit une loi exponentielle et Nt suit une loi de Poisson, avec
Xs et Nt indépendantes, alors X*
suit une loi de Gumbel.
V.3. Estimation des paramètres des distributions
Une distribution ayant été choisie pour les variables X*
, Xs ou Nt, l’estimation des
paramètres peut se faire par une des deux méthodes décrites au chapitre précédent : la
méthode des moments ou la méthode du maximum de vraisemblance. Pour information, les
hydrologues utilisent parfois une variante de la méthode des moments, appelée méthode des
L-moments, qui a pour but de rendre l’estimation plus robuste vis-à-vis des observations
extrêmes. Nous nous contentons ci-après de donner les formules des estimateurs classiques.
49
V.3.1. Formulaire des estimateurs
Distribution Variable Méthode des moments
Maximum de
vraisemblance
Exponentielle
simple
Exp(µ)
θ , Intervalle
inter-
occurrences
1
ˆµ
θ
= idem moments
Poisson P(µ)
Nt, nombre
d’évènements
dans [0,t]
ˆ
Nb de crues
Durée d'observation
tNµ =
=
idem moments
Gumbel
Gu(µ,λ)
X*
, debit
MAXAN
*
*
6ˆ
ˆˆ
X
S
X
λ
π
µ γλ

=

 = −
Méthode
numérique
GEV(µ, λ, ξ )
X*
, debit
MAXAN
*
*
3
13/ 2
2
1/ 2
2
*
ˆ ˆ ˆ ˆ(3 1) 3 ( 1) (2 1) 2 ( 1)ˆ
ˆ| | ˆ ˆ(2 1) ( 1)
ˆ ˆ ˆ ˆ| | (2 1) ( 1)
ˆ
ˆˆ 1 ( 1)
ˆ
X
X
S
X
ξ ξ ξ ξξ
β
ξ ξ ξ
λ ξ ξ ξ
λ
µ ξ
ξ
−
  Γ + − Γ + Γ + + Γ + − =
  Γ + − Γ + 
  = Γ + − Γ +  


 = − − Γ +  


La première équation est résolue numériquement.
*
1
X
β est
le coefficient d’asymétrie de l’échantillon.
Méthode
numérique.
Préférable car
l’existence des
moments n’est
pas assurée.
Exponentielle
Exp(x0, λ )
Xs, débit
SUPSEUIL
x0 supposé connu (valeur du seuil)
0
ˆ
sX xλ = −
idem moments
Pareto
Généralisée
GP(x0, λ, ξ)
Xs, débit
SUPSEUIL
x0 supposé connu (valeur du seuil)
0
0 2
2
0
2
1ˆ ( )² 1
2
( )1ˆ 1
2
S
S
S
S
X
S
X
X x
X x
S
X x
S
λ
ξ
 −
 = − +
 
 
 −
 = −
 
 
Méthode
numérique.
Préférable car
l’existence des
moments n’est
pas assurée.
V.3.2. Représentation graphique
Pour juger de la qualité de l’ajustement, les hydrologues représentent en général sur un
même graphique les fonctions de répartition empirique et estimée. Cependant, par rapport aux
représentations classiques que nous avons vues précédemment, il existe quelques originalités.
Nous allons illustrer ces différences à partir du jeu de données suivant, représentant les crues
supérieures à 72 m3
.s-1
entre 1960 et 2002 pour l’Ubaye à Barcelonnette :
50
QJX
classé
Année jour
72.6 1985 158
73.5 1973 125
74 1979 152
75.6 1994 310
75.8 1984 174
77.7 1986 141
79.9 1977 165
83 1972 158
84.1 1983 160
84.7 1994 267
91 1983 136
98.1 2000 165
100 2001 151
111 2000 289
112 1978 162
120 1963 320
Tableau 9. Tableau de données.
Nous allons ajuster une loi exponentielle à cet échantillon. Les formules ci-dessus nous
donnent 0
ˆ 88.3 72 16.3sX xλ = − = − = . On peut donc à présent tracer, sur un même
graphique, la fonction de répartition estimée et la fonction de distribution empirique (c’est à
dire la courbe des fréquences cumulées, dont nous ne représentons que les points observés) :
0
0.2
0.4
0.6
0.8
1
1.2
50 70 90 110 130 150
Débit
fréquencecumulée
Estimée
Empirique
Figure 27. Fonction de répartition.
En hydrologie, il est fréquent que les axes soient inversés, c’est à dire que l’on portera en
abscisse la fréquence cumulée, ou probabilité de non-dépassement, et en ordonnée le débit
correspondant :
51
50
60
70
80
90
100
110
120
130
140
150
0 0.2 0.4 0.6 0.8 1
fréquence cumulée
Débit
Estimée
Empirique
Figure 28. Fonction de répartition.
Le seconde originalité est liée au calcul des fréquences cumulées empiriques : jusqu’ici,
nous utilisions la formule i/N. Cependant, la fréquence cumulée est une fonction des
observations, c’est donc une statistique soumise à la fluctuation d’échantillonnage. Rien ne
prouve que l’estimateur i/N est optimal dans ce cadre. En fait, des études ont montré que cet
estimateur est biaisé pour les distributions que nous utilisons, on lui préfèrera donc la formule
suivante :
0.3
0.4
i
N
−
+
. Notons que ceci ne change en rien nos estimations, qui ne dépendent pas
des fréquences empiriques.
50
60
70
80
90
100
110
120
130
140
150
0 0.5 1
fréquence cumulée
Débit
Estimée
Empirique
Empirique débiaisé
Figure 29. Fonction de répartition.
Enfin, il est d’usage de linéariser la figure ci-dessus, en effectuant une transformation sur
l’axe des abscisses. Pour un échantillonnage SUPSEUIL, étant donné la définition de la loi
52
exponentielle,
0
01 si( )
0 sinon
x x
e x xF x λ
−
−
 − >= 

, on tracera les débits en fonction de la variable
log(1 )p− − . Pour un échantillonnage MAXAN, le changement de variable consistera à
reporter en abscisses la variable log( log( ))p− − .
50
60
70
80
90
100
110
120
130
140
150
0 1 2 3 4
-log(1-p)
Débit
Estimée
Empirique débiaisé
Figure 30. Fonction de répartition.
V.4. Quantiles, périodes de retour et intervalles de confiance
Les graphiques précédents permettent, étant donné une probabilité p, de calculer le p-
quantile de la distribution estimée des débits de crue. Ces quantiles sont des descripteurs du
comportement des débits extrêmes sur un site bien précis. Ils ont également une importance
réglementaire, en terme d’aménagement du territoire notamment, puisque les ouvrages à
risque (centrales nucléaires, réseaux routiers, zones résidentielles ou industrielles) doivent être
protégés d’un événement de probabilité donnée, dépendant de la vulnérabilité de
l’aménagement. Dans le domaine de l’hydrologie, et plus généralement dans celui de la
gestion des risques, la notion de probabilité de non dépassement est généralement remplacée
par la notion de période de retour. La période de retour T d’un événement est la durée
moyenne qui sépare deux crues supérieures ou égales à cet événement. Inversement, une crue
de période de retour T est une crue qui, en moyenne, est égalée ou dépassée toutes les T unités
de temps. En général, l’unité de temps est l’année, et les relations suivantes lient les
probabilités de non dépassement et les périodes de retour :
Echantillonnage MAXAN :
1
1 p
T
− =
Echantillonnage SUPSEUIL avec µ valeurs par an :
1
1 p
Tµ
− =
Il est bien important d’avoir conscience que malgré l’utilisation du terme « période », il n’y
a pas de périodicité déterministe dans l’occurrence des crues, et il est donc tout à fait possible
d’avoir plusieurs crues de période de retour 10 ans au cours de la même année. Il faut donc
bien garder à l’esprit que la période de retour n’est rien d’autre qu’une probabilité
transformée.
Une crue de période de retour 10 ans (p=0.9) est dite décennale, centennale si T=100 ans
(p=0.99), millennale si T=1000 ans (p=0.999).
53
Il est également possible de calculer analytiquement ces quantiles, en inversant les
fonctions de répartition. En effet, un quantile qp vérifie, par définition, F(qp)=p, soit
1
( )pq F p−
=
Les formules suivantes permettent de calculer les quantiles :
Loi de Gumbel : log( log( ))pq pµ λ= − −
GEV: ( )1 ( log( ))pq p ξλ
µ
ξ
= + − −
Loi Exponentielle: 0 log(1 )pq x pλ= − −
Loi de Pareto Généralisée: 0 (1 (1 ) )pq x p ξλ
ξ
= + − −
Dans la pratique, on calcule ces quantiles en remplaçant les paramètres par leur estimation.
Ceci implique que les quantiles, comme toute statistique, sont soumis aux fluctuations
d’échantillonnage. Il est donc important de quantifier cette incertitude, pour bien cerner les
limites de notre approche statistique. Il est en effet possible, analytiquement, de donner une
valeur pour un quantile de période de retour 10 000 ans, mais on sent bien intuitivement que
cette valeur ne signifierait pas grand chose avec 20 ans de données disponibles pour
l’analyse…
Le calcul des intervalles de confiance est assez fastidieux. Nous nous bornerons ici à
donner quelques formules utiles. La formule suivante donne la variance des quantiles pour p
paramètres estimés par la méthode des moments :
2
1 1
ˆ( ) ( ) 2 ( , )
p p
p p p
p i i j
i i j ii i j
q q q
Var q Var m Cov m m
m m m= = ≠
 ∂ ∂ ∂
≈ + 
 ∂ ∂ ∂ 
∑ ∑∑
Avec l’exemple de la loi exponentielle de l’exemple ci-dessus, on obtient (à faire en
exercice): [ ]
2
2
ˆ( ) log(1 ) sX
pVar q p
n
σ
≈ − .
Si on suppose que le quantile est asymptotiquement Gaussien et non biaisé, alors
l’intervalle de confiance au niveau α est de la forme 1 (1 ) / 2ˆ ˆ( )p pq u Var qα− −± , où u1-(1-α)/2 est
le quantile de la loi normale N(0,1). La figure ci-dessous présente l’intervalle de confiance à
90% :
50
70
90
110
130
150
170
190
210
230
250
0 2 4 6
-log(1-p)
Débit
Estimée
Empirique débiaisé
Figure 31. Fonction de répartition et intervalle de confiance à 90%.
54
Cette hypothèse de normalité asymptotique des quantiles est à considérer avec précaution,
surtout si l’effectif de l’échantillon n’est pas très important. Il existe des théorèmes, proche du
théorème central limite, garantissant théoriquement cette normalité, mais certaines lois que
nous utilisons peuvent invalider les hypothèses de ces théorèmes. En particulier, les lois GEV
et de Pareto Généralisée peuvent avoir des moments infinis.
Plusieurs formules plus ou moins empiriques ont donc été établies pour calculer des
intervalles de confiance plus réalistes. Pour une loi de Gumbel, on utilise en général
l’approximation suivante :
Borne inférieure : 1ˆ ˆpq hσ−
Borne supérieure : 2ˆ ˆpq h σ+
Avec : 1
A B
h
C
−
= et 1
A B
h
C
+
=
2
1 (1 ) / 2
1 1.13 1.1( )p pt t
A u
n
α− −
+ +
=
2
1 (1 ) / 2
1.1 0.57
( )
pt
B u
n
α− −
+
=
2
1 (1 ) / 2
1.1
1 ( )C u
n
α− −= −
log( log( )) 0.577
1.28
p
p
t
− − −
=
Notons que si n est grand, alors B devient négligeable devant A, et l’intervalle de confiance
devient symétrique, signe de convergence vers la normalité.
Voici un exemple d’intervalle de confiance à 90% à partir d’un échantillon MAXAN
d’effectif 21 :
Figure 32. Fonction de répartition et intervalle de confiance à 90%.
55
On voit clairement que cet intervalle n’est pas symétrique, et que l’estimation de débits de
périodes de retour 100 ou 1000 ans avec seulement 20 années de données est illusoire,
puisque les valeurs varient dans l’intervalle de confiance du simple au double.
Une alternative intéressante et simple à mettre en œuvre pour déterminer ces intervalles est
l’utilisation des méthodes de rééchantillonnage, le bootstrap notamment, qui permettent de ne
pas poser d’hypothèses a priori sur la distribution des quantiles.
56
VI. Annexes
Annexe 1 : La méthode CRUPEDIX
QIXA10 observé
QIXA10estimé
57
Annexe 2 : tables usuelles
Probabilité de trouver
une valeur inférieure à u
Fonction de répartition
de la loi normale réduite
P=F(u)P=F(u)
Lorsque u est négatif, il faut prendre le complément à l’unité
de la valeur lue dans la table : F(u)=1-F(-u)
Ex. : pour u = 1.21, F(u)= 0.8869, pour u = -1.21, F(u)= 0.1131
P 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.0
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.1
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.2
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.3
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.4
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.5
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.6
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.7
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.8
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 0.9
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.0
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.1
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.2
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.3
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.4
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.5
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.6
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.7
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.8
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 1.9
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.0
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.1
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 2.2
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.3
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.4
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.5
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.6
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.7
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 2.8
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 2.9
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 P
u 3 3.1 3.2 3.3 3.4 3.5 3.6 3.8 4 4.5
F(u) 0.998650 0.999032 0.999313 0.999517 0.999663 0.999767 0.999841 0.999928 0.999968 0.999997
58
Fractiles de la loi normale centrée réduite
Valeur de u telle
que Prob(X < u) = P
avec P donnée
P=F(u)P=F(u)
P 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.010
0.00 3.0902 2.8782 2.7478 2.6521 2.5758 2.5121 2.4573 2.4089 2.3656 2.3263 0.00
0.01 2.3263 2.2904 2.2571 2.2262 2.1973 2.1701 2.1444 2.1201 2.0969 2.0748 2.0537 0.01
0.02 2.0537 2.0335 2.0141 1.9954 1.9774 1.9600 1.9431 1.9268 1.9110 1.8957 1.8808 0.02
0.03 1.8808 1.8663 1.8522 1.8384 1.8250 1.8119 1.7991 1.7866 1.7744 1.7624 1.7507 0.03
0.04 1.7507 1.7392 1.7279 1.7169 1.7060 1.6954 1.6849 1.6747 1.6646 1.6546 1.6449 0.04
0.05 1.6449 1.6352 1.6258 1.6164 1.6072 1.5982 1.5893 1.5805 1.5718 1.5632 1.5548 0.05
0.06 1.5548 1.5464 1.5382 1.5301 1.5220 1.5141 1.5063 1.4985 1.4909 1.4833 1.4758 0.06
0.07 1.4758 1.4684 1.4611 1.4538 1.4466 1.4395 1.4325 1.4255 1.4187 1.4118 1.4051 0.07
0.08 1.4051 1.3984 1.3917 1.3852 1.3787 1.3722 1.3658 1.3595 1.3532 1.3469 1.3408 0.08
0.09 1.3408 1.3346 1.3285 1.3225 1.3165 1.3106 1.3047 1.2988 1.2930 1.2873 1.2816 0.09
0.10 1.2816 1.2759 1.2702 1.2646 1.2591 1.2536 1.2481 1.2426 1.2372 1.2319 1.2265 0.10
0.11 1.2265 1.2212 1.2160 1.2107 1.2055 1.2004 1.1952 1.1901 1.1850 1.1800 1.1750 0.11
0.12 1.1750 1.1700 1.1650 1.1601 1.1552 1.1503 1.1455 1.1407 1.1359 1.1311 1.1264 0.12
0.13 1.1264 1.1217 1.1170 1.1123 1.1077 1.1031 1.0985 1.0939 1.0893 1.0848 1.0803 0.13
0.14 1.0803 1.0758 1.0714 1.0669 1.0625 1.0581 1.0537 1.0494 1.0451 1.0407 1.0364 0.14
0.15 1.0364 1.0322 1.0279 1.0237 1.0194 1.0152 1.0110 1.0069 1.0027 0.9986 0.9945 0.15
0.16 0.9945 0.9904 0.9863 0.9822 0.9782 0.9741 0.9701 0.9661 0.9621 0.9581 0.9542 0.16
0.17 0.9542 0.9502 0.9463 0.9424 0.9385 0.9346 0.9307 0.9269 0.9230 0.9192 0.9154 0.17
0.18 0.9154 0.9116 0.9078 0.9040 0.9002 0.8965 0.8927 0.8890 0.8853 0.8816 0.8779 0.18
0.19 0.8779 0.8742 0.8706 0.8669 0.8632 0.8596 0.8560 0.8524 0.8488 0.8452 0.8416 0.19
0.20 0.8416 0.8381 0.8345 0.8310 0.8274 0.8239 0.8204 0.8169 0.8134 0.8099 0.8064 0.20
0.21 0.8064 0.8030 0.7995 0.7961 0.7926 0.7892 0.7858 0.7824 0.7790 0.7756 0.7722 0.21
0.22 0.7722 0.7688 0.7655 0.7621 0.7588 0.7554 0.7521 0.7488 0.7454 0.7421 0.7388 0.22
0.23 0.7388 0.7356 0.7323 0.7290 0.7257 0.7225 0.7192 0.7160 0.7128 0.7095 0.7063 0.23
0.24 0.7063 0.7031 0.6999 0.6967 0.6935 0.6903 0.6871 0.6840 0.6808 0.6776 0.6745 0.24
0.25 0.6745 0.6713 0.6682 0.6651 0.6620 0.6588 0.6557 0.6526 0.6495 0.6464 0.6433 0.25
0.26 0.6433 0.6403 0.6372 0.6341 0.6311 0.6280 0.6250 0.6219 0.6189 0.6158 0.6128 0.26
0.27 0.6128 0.6098 0.6068 0.6038 0.6008 0.5978 0.5948 0.5918 0.5888 0.5858 0.5828 0.27
0.28 0.5828 0.5799 0.5769 0.5740 0.5710 0.5681 0.5651 0.5622 0.5592 0.5563 0.5534 0.28
0.29 0.5534 0.5505 0.5476 0.5446 0.5417 0.5388 0.5359 0.5330 0.5302 0.5273 0.5244 0.29
0.30 0.5244 0.5215 0.5187 0.5158 0.5129 0.5101 0.5072 0.5044 0.5015 0.4987 0.4958 0.30
0.31 0.4958 0.4930 0.4902 0.4874 0.4845 0.4817 0.4789 0.4761 0.4733 0.4705 0.4677 0.31
0.32 0.4677 0.4649 0.4621 0.4593 0.4565 0.4538 0.4510 0.4482 0.4454 0.4427 0.4399 0.32
0.33 0.4399 0.4372 0.4344 0.4316 0.4289 0.4261 0.4234 0.4207 0.4179 0.4152 0.4125 0.33
0.34 0.4125 0.4097 0.4070 0.4043 0.4016 0.3989 0.3961 0.3934 0.3907 0.3880 0.3853 0.34
0.35 0.3853 0.3826 0.3799 0.3772 0.3745 0.3719 0.3692 0.3665 0.3638 0.3611 0.3585 0.35
0.36 0.3585 0.3558 0.3531 0.3505 0.3478 0.3451 0.3425 0.3398 0.3372 0.3345 0.3319 0.36
0.37 0.3319 0.3292 0.3266 0.3239 0.3213 0.3186 0.3160 0.3134 0.3107 0.3081 0.3055 0.37
0.38 0.3055 0.3029 0.3002 0.2976 0.2950 0.2924 0.2898 0.2871 0.2845 0.2819 0.2793 0.38
0.39 0.2793 0.2767 0.2741 0.2715 0.2689 0.2663 0.2637 0.2611 0.2585 0.2559 0.2533 0.39
0.40 0.2533 0.2508 0.2482 0.2456 0.2430 0.2404 0.2378 0.2353 0.2327 0.2301 0.2275 0.40
0.41 0.2275 0.2250 0.2224 0.2198 0.2173 0.2147 0.2121 0.2096 0.2070 0.2045 0.2019 0.41
0.42 0.2019 0.1993 0.1968 0.1942 0.1917 0.1891 0.1866 0.1840 0.1815 0.1789 0.1764 0.42
0.43 0.1764 0.1738 0.1713 0.1687 0.1662 0.1637 0.1611 0.1586 0.1560 0.1535 0.1510 0.43
0.44 0.1510 0.1484 0.1459 0.1434 0.1408 0.1383 0.1358 0.1332 0.1307 0.1282 0.1257 0.44
0.45 0.1257 0.1231 0.1206 0.1181 0.1156 0.1130 0.1105 0.1080 0.1055 0.1030 0.1004 0.45
0.46 0.1004 0.0979 0.0954 0.0929 0.0904 0.0878 0.0853 0.0828 0.0803 0.0778 0.0753 0.46
0.47 0.0753 0.0728 0.0702 0.0677 0.0652 0.0627 0.0602 0.0577 0.0552 0.0527 0.0502 0.47
0.48 0.0502 0.0476 0.0451 0.0426 0.0401 0.0376 0.0351 0.0326 0.0301 0.0276 0.0251 0.48
0.49 0.0251 0.0226 0.0201 0.0175 0.0150 0.0125 0.0100 0.0075 0.0050 0.0025 0.0000 0.49
0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.010 P
Cours masterlyon
Cours masterlyon
Cours masterlyon
Cours masterlyon
Cours masterlyon

Contenu connexe

Tendances

Hydraulique en Charge
Hydraulique en ChargeHydraulique en Charge
Hydraulique en ChargeRoland Yonaba
 
Dimensionnement Ouvrages Du Reseau
Dimensionnement Ouvrages Du ReseauDimensionnement Ouvrages Du Reseau
Dimensionnement Ouvrages Du Reseauguest4a5dea
 
60032791 dimensionnement-des-dalots-et-buses
60032791 dimensionnement-des-dalots-et-buses60032791 dimensionnement-des-dalots-et-buses
60032791 dimensionnement-des-dalots-et-busesreefreef
 
Dimensionnement Des Canaux
Dimensionnement Des CanauxDimensionnement Des Canaux
Dimensionnement Des CanauxOURAHOU Mohamed
 
Dimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De DerivationDimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De Derivationguest4a5dea
 
Etude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben Saleh
Etude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben SalehEtude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben Saleh
Etude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben Salehhydrolicien
 
cours de barrage 2ème edition M.L COMPAORE
cours de barrage 2ème edition M.L COMPAOREcours de barrage 2ème edition M.L COMPAORE
cours de barrage 2ème edition M.L COMPAOREPatrick Sawadogo
 
123545746 pfe-2012-corrige
123545746 pfe-2012-corrige123545746 pfe-2012-corrige
123545746 pfe-2012-corrigeIsraël Mabiala
 
Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...
Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...
Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...Roland Yonaba
 
Dimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De DerivationDimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De DerivationOURAHOU Mohamed
 
Hydrologie et hydraulique urbaine en réseau d'assainissement 2013
Hydrologie et hydraulique urbaine en réseau d'assainissement 2013Hydrologie et hydraulique urbaine en réseau d'assainissement 2013
Hydrologie et hydraulique urbaine en réseau d'assainissement 2013Souhila Benkaci
 
Limites classiques de toutes les fonctions 4
Limites classiques de toutes les fonctions 4Limites classiques de toutes les fonctions 4
Limites classiques de toutes les fonctions 4ulrich loemba
 
Rr 36818-fr pour stabilité ch 2
Rr 36818-fr pour stabilité ch 2Rr 36818-fr pour stabilité ch 2
Rr 36818-fr pour stabilité ch 2Rida Lakehal
 

Tendances (20)

Réseaux d'assainissement
Réseaux d'assainissementRéseaux d'assainissement
Réseaux d'assainissement
 
Hydraulique en Charge
Hydraulique en ChargeHydraulique en Charge
Hydraulique en Charge
 
Dimensionnement Ouvrages Du Reseau
Dimensionnement Ouvrages Du ReseauDimensionnement Ouvrages Du Reseau
Dimensionnement Ouvrages Du Reseau
 
60032791 dimensionnement-des-dalots-et-buses
60032791 dimensionnement-des-dalots-et-buses60032791 dimensionnement-des-dalots-et-buses
60032791 dimensionnement-des-dalots-et-buses
 
Dimensionnement Des Canaux
Dimensionnement Des CanauxDimensionnement Des Canaux
Dimensionnement Des Canaux
 
Dimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De DerivationDimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De Derivation
 
Etude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben Saleh
Etude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben SalehEtude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben Saleh
Etude de voirie et d'assainissement du lotissement Beni Amir à Fkih Ben Saleh
 
cours de barrage 2ème edition M.L COMPAORE
cours de barrage 2ème edition M.L COMPAOREcours de barrage 2ème edition M.L COMPAORE
cours de barrage 2ème edition M.L COMPAORE
 
Assainissement
AssainissementAssainissement
Assainissement
 
Ouvrages hydrauliques
Ouvrages hydrauliquesOuvrages hydrauliques
Ouvrages hydrauliques
 
Traitement des eaux usées
Traitement des eaux uséesTraitement des eaux usées
Traitement des eaux usées
 
Hydrologie Des Bassins
Hydrologie Des BassinsHydrologie Des Bassins
Hydrologie Des Bassins
 
123545746 pfe-2012-corrige
123545746 pfe-2012-corrige123545746 pfe-2012-corrige
123545746 pfe-2012-corrige
 
Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...
Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...
Introduction au Modèle EPA SWMM pour la modélisation des réseaux d'assainisse...
 
Dimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De DerivationDimensionnement Des Ouvarges De Derivation
Dimensionnement Des Ouvarges De Derivation
 
Hydrologie et hydraulique urbaine en réseau d'assainissement 2013
Hydrologie et hydraulique urbaine en réseau d'assainissement 2013Hydrologie et hydraulique urbaine en réseau d'assainissement 2013
Hydrologie et hydraulique urbaine en réseau d'assainissement 2013
 
barrages
barragesbarrages
barrages
 
Limites classiques de toutes les fonctions 4
Limites classiques de toutes les fonctions 4Limites classiques de toutes les fonctions 4
Limites classiques de toutes les fonctions 4
 
Rr 36818-fr pour stabilité ch 2
Rr 36818-fr pour stabilité ch 2Rr 36818-fr pour stabilité ch 2
Rr 36818-fr pour stabilité ch 2
 
Tp n3
Tp n3Tp n3
Tp n3
 

En vedette

296 pages management support cours gestion projet + exercices + outils + arti...
296 pages management support cours gestion projet + exercices + outils + arti...296 pages management support cours gestion projet + exercices + outils + arti...
296 pages management support cours gestion projet + exercices + outils + arti...Olivier Coulibaly
 
Probabilité +echantillonage
Probabilité +echantillonageProbabilité +echantillonage
Probabilité +echantillonageImad Cov
 
The standard normal curve & its application in biomedical sciences
The standard normal curve & its application in biomedical sciencesThe standard normal curve & its application in biomedical sciences
The standard normal curve & its application in biomedical sciencesAbhi Manu
 
Cours de gestion de projet Pr Falloul
Cours de gestion de projet Pr FalloulCours de gestion de projet Pr Falloul
Cours de gestion de projet Pr FalloulProfesseur Falloul
 
7 exercices corriges sur la loi normale
7 exercices corriges sur la loi normale7 exercices corriges sur la loi normale
7 exercices corriges sur la loi normalecours fsjes
 
Eléments d'hydrologie de surface
Eléments d'hydrologie  de surfaceEléments d'hydrologie  de surface
Eléments d'hydrologie de surfaceSouhila Benkaci
 

En vedette (10)

Tabla t Student
Tabla t StudentTabla t Student
Tabla t Student
 
296 pages management support cours gestion projet + exercices + outils + arti...
296 pages management support cours gestion projet + exercices + outils + arti...296 pages management support cours gestion projet + exercices + outils + arti...
296 pages management support cours gestion projet + exercices + outils + arti...
 
Probabilité +echantillonage
Probabilité +echantillonageProbabilité +echantillonage
Probabilité +echantillonage
 
The standard normal curve & its application in biomedical sciences
The standard normal curve & its application in biomedical sciencesThe standard normal curve & its application in biomedical sciences
The standard normal curve & its application in biomedical sciences
 
Cours de gestion de projet Pr Falloul
Cours de gestion de projet Pr FalloulCours de gestion de projet Pr Falloul
Cours de gestion de projet Pr Falloul
 
projet fin d'etude : ouvrage d'art
projet fin d'etude : ouvrage d'artprojet fin d'etude : ouvrage d'art
projet fin d'etude : ouvrage d'art
 
Gestion de projet
Gestion de projetGestion de projet
Gestion de projet
 
Correlation econometrie
Correlation econometrieCorrelation econometrie
Correlation econometrie
 
7 exercices corriges sur la loi normale
7 exercices corriges sur la loi normale7 exercices corriges sur la loi normale
7 exercices corriges sur la loi normale
 
Eléments d'hydrologie de surface
Eléments d'hydrologie  de surfaceEléments d'hydrologie  de surface
Eléments d'hydrologie de surface
 

Similaire à Cours masterlyon

7490_chap02.pdf
7490_chap02.pdf7490_chap02.pdf
7490_chap02.pdfSaidSousdi
 
9b567ad91347677ab6736e76a4115c80 statistique
9b567ad91347677ab6736e76a4115c80 statistique9b567ad91347677ab6736e76a4115c80 statistique
9b567ad91347677ab6736e76a4115c80 statistiqueSamad Oulasri
 
14284 chapitre-8-statistique
14284 chapitre-8-statistique14284 chapitre-8-statistique
14284 chapitre-8-statistiqueAlilo Mabhoour
 
Calibration de modèles d'agents de marchés financiers par une démarche d'infé...
Calibration de modèles d'agents de marchés financiers par une démarche d'infé...Calibration de modèles d'agents de marchés financiers par une démarche d'infé...
Calibration de modèles d'agents de marchés financiers par une démarche d'infé...MohamedAmineHACHICHA1
 
Métrologie source de profits
Métrologie source de profitsMétrologie source de profits
Métrologie source de profitsJean-Michel POU
 
Yves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processusYves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processusBliyaminou Mamane Issa
 
Statistique descriptives s1 de bien www.learneconomie.blogspot.com]
Statistique descriptives  s1 de bien www.learneconomie.blogspot.com]Statistique descriptives  s1 de bien www.learneconomie.blogspot.com]
Statistique descriptives s1 de bien www.learneconomie.blogspot.com]jamal yasser
 
Statistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptxStatistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptxTarekDHAHRI1
 
Statistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptxStatistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptxTarekDHAHRI1
 
TS-TC-Statistiques-manuel-stagiaire.pdf
TS-TC-Statistiques-manuel-stagiaire.pdfTS-TC-Statistiques-manuel-stagiaire.pdf
TS-TC-Statistiques-manuel-stagiaire.pdfFootballLovers9
 
La biométrie_étude de la variation des caractèr_231021_115212.pdf
La biométrie_étude de la variation des caractèr_231021_115212.pdfLa biométrie_étude de la variation des caractèr_231021_115212.pdf
La biométrie_étude de la variation des caractèr_231021_115212.pdfAbdennourAmrani
 
Diapo soutenance gtrigui
Diapo soutenance gtriguiDiapo soutenance gtrigui
Diapo soutenance gtriguiTRIGUI Ghassen
 
Cours statistiques
Cours statistiquesCours statistiques
Cours statistiquesvauzelle
 
Chapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxChapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxmelianikholoud
 
Cartes auto organisées pour l’analyse exploratoire de
Cartes auto organisées pour l’analyse exploratoire deCartes auto organisées pour l’analyse exploratoire de
Cartes auto organisées pour l’analyse exploratoire deJovani NDABTJE
 
Imagerie medicale 3d
Imagerie medicale 3dImagerie medicale 3d
Imagerie medicale 3dmacorder
 

Similaire à Cours masterlyon (20)

7490_chap02.pdf
7490_chap02.pdf7490_chap02.pdf
7490_chap02.pdf
 
9b567ad91347677ab6736e76a4115c80 statistique
9b567ad91347677ab6736e76a4115c80 statistique9b567ad91347677ab6736e76a4115c80 statistique
9b567ad91347677ab6736e76a4115c80 statistique
 
14284 chapitre-8-statistique
14284 chapitre-8-statistique14284 chapitre-8-statistique
14284 chapitre-8-statistique
 
Calibration de modèles d'agents de marchés financiers par une démarche d'infé...
Calibration de modèles d'agents de marchés financiers par une démarche d'infé...Calibration de modèles d'agents de marchés financiers par une démarche d'infé...
Calibration de modèles d'agents de marchés financiers par une démarche d'infé...
 
Métrologie source de profits
Métrologie source de profitsMétrologie source de profits
Métrologie source de profits
 
Yves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processusYves caumel (auth.) probabilites et processus
Yves caumel (auth.) probabilites et processus
 
Cox
CoxCox
Cox
 
Statistique descriptives s1 de bien www.learneconomie.blogspot.com]
Statistique descriptives  s1 de bien www.learneconomie.blogspot.com]Statistique descriptives  s1 de bien www.learneconomie.blogspot.com]
Statistique descriptives s1 de bien www.learneconomie.blogspot.com]
 
Statistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptxStatistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptx
 
Statistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptxStatistiques descriptives [PDF].pptx
Statistiques descriptives [PDF].pptx
 
TS-TC-Statistiques-manuel-stagiaire.pdf
TS-TC-Statistiques-manuel-stagiaire.pdfTS-TC-Statistiques-manuel-stagiaire.pdf
TS-TC-Statistiques-manuel-stagiaire.pdf
 
La biométrie_étude de la variation des caractèr_231021_115212.pdf
La biométrie_étude de la variation des caractèr_231021_115212.pdfLa biométrie_étude de la variation des caractèr_231021_115212.pdf
La biométrie_étude de la variation des caractèr_231021_115212.pdf
 
Diapo soutenance gtrigui
Diapo soutenance gtriguiDiapo soutenance gtrigui
Diapo soutenance gtrigui
 
Note tech 4
Note tech 4Note tech 4
Note tech 4
 
Cours statistiques
Cours statistiquesCours statistiques
Cours statistiques
 
Chapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxChapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptx
 
statistique dsc s1
   statistique dsc s1   statistique dsc s1
statistique dsc s1
 
Cartes auto organisées pour l’analyse exploratoire de
Cartes auto organisées pour l’analyse exploratoire deCartes auto organisées pour l’analyse exploratoire de
Cartes auto organisées pour l’analyse exploratoire de
 
Imagerie medicale 3d
Imagerie medicale 3dImagerie medicale 3d
Imagerie medicale 3d
 
Td statistique
Td statistiqueTd statistique
Td statistique
 

Cours masterlyon

  • 1. 1 Probabilités et statistiques appliquées à l’hydrologie Master « Mécanique appliquée au transport et à l’environnement » Benjamin RENARD renard@lyon.cemagref.fr Année 2004-2005
  • 2. 2
  • 3. 3 Sommaire I. INTRODUCTION 5 II. STATISTIQUES DESCRIPTIVES 7 II.1. Quelques définitions 7 II.2. Comment résumer un échantillon ? 7 II.2.1. Représentations graphiques d’un échantillon 7 II.2.2. Les indicateurs de localisation 9 II.2.3. Les indicateurs de dispersion 10 II.2.4. Autres indicateurs 10 II.3. Etude de deux variables 11 II.3.1. La régression linéaire 11 II.3.2. Représentation fréquentielle d’un couple de variables 14 III. LE MODELE PROBABILISTE 16 III.1. Quelques rappels de théorie des ensembles 16 III.2. Premières définitions : probabilité et variables aléatoires. 16 III.3. Loi de probabilité d’une variable aléatoire 18 III.3.1. Variable aléatoire discrète 18 III.3.2. Généralisation au cas continu 19 III.3.3. Quelques lois de probabilités classiques 20 III.3.4. Quelques mots sur le cas multivarié 25 IV. STATISTIQUE INFERENTIELLE 28 IV.1. Retour sur la notion d’échantillon 28 IV.1.1. La fluctuation d’échantillonnage 28 IV.1.2. L’échantillon du point de vue probabiliste 29 IV.1.3. Quelques théorèmes importants 30 IV.1.4. Techniques de rééchantillonage 32 IV.2. L’estimation 33 IV.2.1. Quelques définitions 33 IV.2.2. Estimation par la méthode des moments 34 IV.2.3. Estimation par maximum de vraisemblance 34
  • 4. 4 IV.2.4. Quel estimateur choisir ? 35 IV.2.5. Intervalles de confiance 36 IV.3. Les tests statistiques 37 IV.3.1. Le principe des tests statistiques 37 IV.3.2. Quelques tests classiques 38 V. APPLICATIONS A L’ETUDE DES CRUES 42 V.1. Les données 42 V.2. L’échantillonnage 44 V.2.1. Techniques d’échantillonnage 44 V.2.2. Propriétés probabilistes des échantillons 46 V.3. Estimation des paramètres des distributions 48 V.3.1. Formulaire des estimateurs 49 V.3.2. Représentation graphique 49 V.4. Quantiles, périodes de retour et intervalles de confiance 52 VI. ANNEXES 56
  • 5. 5 I. Introduction Ce fascicule présente les principaux résultats de probabilités et statistiques utilisés en hydrologie. Le cours fait partie de l’UE « cycle de l’eau et risque d’inondation» du Master professionnel « Mécanique appliquée au transport et à l’environnement ». Il est décomposé en quatre parties : Dans la première partie, nous donnerons quelques résultats et techniques permettant de résumer ou d’extraire de l’information à partir d’un échantillon de données. L’ensemble de ces méthodes se rapporte au domaine des statistiques descriptives. La théorie des probabilités fournit un ensemble d’outils pour quantifier le hasard. Nous allons en fait étudier une version « allégée » de la théorie probabiliste, qui nécessite pour être abordée en toute rigueur des notions mathématiques assez sophistiquées. Ces deux premières parties seront ensuite utilisées conjointement dans le cadre de la statistique inférentielle, qui permet de quantifier l’influence du hasard dans les processus générateurs de données. Enfin, nous étudierons l’application de ces méthodes pour l’analyse fréquentielle des crues, qui constitue un des outils de base de l’hydrologue. Aucun prérequis particulier n’est nécessaire pour comprendre ce cours, les notions mathématiques utilisées devraient vous être plus ou moins familières. Les ouvrages et sites suivants constituent d’excellentes sources d’information : Saporta, G., 1990. Probabilités, Analyse de données et Statistiques. Editions Technip. Wonnacott, T.H. & Wonnacott, R.J., 1991. Statistique. Editions Economica. Deux excellents sites : http://www.math-info.univ-paris5.fr/smel/ http://www.agro-montpellier.fr/cnam-lr/statnet/ Cours en ligne : http://www.hds.utc.fr/~ggovaert/sy02/documents/poly.pdf Statistiques descriptives : http://www.lsp.ups-tlse.fr/Besse/pub/sdm1.pdf Bonne lecture !
  • 6. 6
  • 7. 7 II. Statistiques descriptives Dans cette partie, nous allons nous intéresser à la description d’un ensemble de données, en résumant l’information qu’il contient grâce à quelques grandeurs caractéristiques. II.1. Quelques définitions Le plus simple est de considérer l’exemple suivant : on souhaite étudier la taille des Français. On dispose pour cela de valeurs observées sur 35 personnes, que nous noterons (x1,…,x35). Les Français constituent la population à laquelle on s’intéresse, via un échantillon d’effectif 35. Chaque personne de cet échantillon est un individu, sur lequel on a mesuré la variable quantitative continue « taille ». Chacun de ces termes peut être utilisé dans toutes les situations que nous rencontrerons, il ne faut donc pas s’attacher à leur signification « démographique ». Ainsi, si on étudie la taille des gouttes d’eau à la sortie d’un mécanisme d’irrigation (http://afeid.montpellier.cemagref.fr/Montreal/Molle.PDF), alors l’ensemble des gouttes constitue notre population, celles ayant transité par l’appareil de mesure (un spectro- pluviomètre optique) sont les individus de notre échantillon, sur lequel on a relevé la variable quantitative continue « diamètre de la goutte ». Remarque : la constitution d’un échantillon est la première étape de toute analyse statistique, c’est également une des plus importantes et parfois une des plus difficiles. Il faut en particulier s’assurer de la représentativité de l’échantillon, et rester attentif aux biais pouvant être « cachés » dans les données (la taille de la goutte est sûrement fonction de la distance à l’asperseur). Il est possible de mesurer différents types de variables sur les individus : Variables quantitatives continues, comme dans les exemples précédents. Il s’agit de variables dont les valeurs varient théoriquement de manière continue (entre deux valeurs, il en existe toujours une troisième possible). Dans la pratique, la continuité est souvent limitée par la précision des instruments de mesure. Variables quantitatives discrètes, dont les valeurs possibles sont discontinues (les données issues de comptage, par exemple). Variables qualitatives ordonnées, par exemple l’intensité d’une douleur : faible, moyenne, forte. Variables qualitatives non ordonnées, par exemple la couleur des cheveux de notre échantillon de 35 Français. Dans la suite de ce cours, nous nous intéresserons principalement aux variables quantitatives, continues ou non. Nous noterons (x1,…,xn) les valeurs de telles variables observées sur un échantillon de taille n. II.2. Comment résumer un échantillon ? II.2.1. Représentations graphiques d’un échantillon Il existe une infinité de façons de représenter graphiquement un jeu de données : « camemberts », diagrammes en bâtons, courbes, nuages de point…. Tout dépend de la structure des données, mais également de l’information que l’on souhaite faire passer. Nous allons nous intéresser ici à deux représentations fondamentales pour les données quantitatives : l’histogramme et la courbe des fréquences cumulées.
  • 8. 8 L’histogramme consiste à représenter la fréquence (ou parfois l’effectif) de chaque valeur présente dans l’échantillon. Notre variable étant supposée ordonnée, il est possible de cumuler ces fréquences par ordre croissant des valeurs rencontrées : on peut ainsi tracer la courbe des fréquences cumulées, qui représente, à chaque abscisse, la proportion de valeurs de l’échantillon inférieures ou égales à cette abscisse. Ces deux représentations sont primordiales, car elles peuvent être reliées aux notions probabilistes de densité et de fonction de répartition, dont nous parlerons prochainement. Exemple 1 : Nombre de crues supérieures à 24.7 m3 .s-1 pour L’Ubaye à Barcelonnette. Année 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 Nb 1 1 3 1 5 2 1 3 3 5 0 3 5 2 Tableau 1. Tableau de données. Les individus sont ici des années, la variable « nombre de crues » est quantitative discrète. Calcul des effectifs, des fréquences et des fréquences cumulées : Valeur Effectif Fréquence Fréq. cumulée 0 1 0.07 0.07 1 4 0.29 0.036 2 2 0.14 0.5 3 4 0.29 0.79 4 0 0.00 0.79 5 3 0.21 1 Tableau 2. Effectifs, fréquences et fréquences cumulées. Histogramme des fréquences 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0 1 2 3 4 5 Nombre de crues Fréquence Figure 1. Histogramme des fréquences Courbe des fréquences cumulées 0 0.2 0.4 0.6 0.8 1 -1 1 3 5 Nombre de crues Fréquencecumulée Figure 2. Courbe des fréquences cumulées. Pour des données quantitatives continues, il y a de fortes chances pour que chaque valeur n’apparaisse qu’une seule fois. Ceci ne pose pas de problème pour le tracé de la courbe des fréquences cumulées, par contre un histogramme dont toutes les ordonnées seraient égales à 1 ne serait pas très informatif. Pour y remédier, on effectue un regroupement des individus en classes, ce qui revient à « discrétiser » notre variable continue. Le choix des classes reste arbitraire ; on essaiera en général de créer entre 5 et 15 classes de même étendue. Exemple 2 : Lors des 14 dernières crues de La Zorn à Waltenheim, les débits journaliers maximaux ont été de 28.9, 45.8, 67.6, 60.8, 53.6, 33.5, 49.9, 58.1, 35.9, 33.3, 28.4, 28.3, 49.5 et 25.9 m3 .s-1 . L’histogramme des fréquences pour des classes d’étendue 10 m3 s-1 , en partant de 25 m3 s-1 , a la forme suivante :
  • 9. 9 Histogramme des fréquences 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 25-35 35-45 45-55 55-65 65-75 Débit journalier maximal (m 3 s -1 ) fréquence Figure 3. Histogramme des fréquences. Notez la différence de représentation par rapport au précédent histogramme : on a représenté des rectangles pleins pour bien signifier qu’il s’agit de la fréquence d’une classe, et non d’une valeur ponctuelle discrète. Pour être tout à fait précis, seul ce dernier graphique est un histogramme, le terme de « diagramme en bâtons » est plutôt utilisé pour le cas discret. II.2.2. Les indicateurs de localisation La moyenne, que nous noterons x . 1 1 n i i x x n = = ∑ La médiane : c’est la valeur qui sépare l’échantillon ordonné en deux sous-parties de même effectif. Par exemple, la médiane des valeurs 10, 15, 18, 19, 20 vaut 18. Si le nombre de valeurs est pair, on calculera la demi-somme entre les deux valeurs du milieu, soit une médiane de 16.5 pour l’échantillon des quatre premières valeurs ci-dessus. La médiane peut également être lue sur la courbe des fréquences cumulées : c’est la valeur correspondant à une fréquence cumulée de 0.5. L’exemple classique pour bien comprendre la différence entre ces deux indicateurs est le salaire des Français : la moyenne vaut environ 1750 €, la médiane 1400 €… (salaires nets en 2001 dans le secteur privé, source INSEE). Un troisième indicateur est parfois utilisé, surtout pour les données discrètes, il s’agit du mode, qui est la valeur (pas forcément unique) la plus fréquente dans l’échantillon. Pour des données quantitatives continues, il faut (comme pour l’histogramme) procéder à un regroupement des individus. L’inconvénient est que le mode devient dépendant du regroupement arbitraire effectué. Il est également fréquent de s’intéresser aux valeurs extrêmes d’un échantillon. On utilisera pour cela le quantile d’ordre p, qui est la valeur de l’échantillon dont la fréquence cumulée vaut p. Le quantile peut donc être lu sur la courbe des fréquences cumulées, en faisant éventuellement une interpolation linéaire entre deux points. La médiane est ainsi le quantile d’ordre 0.5. Exemple 3 : Pour les données de l’Exemple 1, la moyenne vaut 2.5, la médiane 2 et les modes (distribution bimodale) 2 et 4. Pour l’Exemple 2, le quantile d’ordre 0.9 peut se déduire de la figure ci-après. On trouve environ 60 m3 s-1 .
  • 10. 10 Courbe des fréquences cumulées 0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70 0.80 0.90 1.00 20 30 40 50 60 70 80 Débit (m3 s-1 ) fréquencecumulée Figure 4. Courbe des fréquences cumulées II.2.3. Les indicateurs de dispersion La variance permet de mesurer la façon dont les données se dispersent autour de la moyenne : ( ) 2 1 1 1 n i i Var x x n = = − − ∑ On trouve parfois (notamment dans les calculettes ou les tableurs type Excel) une autre définition, qui n’est pas recommandée pour les petits échantillons : ( ) 2 * 1 1 n i i Var x x n = = −∑ Ces deux définitions deviennent équivalentes lorsque n est grand. Nous verrons ultérieurement la raison pour laquelle ces deux définitions coexistent. On définit également l’écart-type, qui a l’avantage d’avoir la même dimension que les données : ( ) 2 1 1 1 n i i Var x x n σ = = = − − ∑ Le coefficient de variation est également utilisé pour comparer la variabilité de plusieurs séries de données dont les ordres de grandeurs ne sont pas comparables : x CV σ= . Il n’est évidemment pas défini pour les données dont la moyenne est nulle. II.2.4. Autres indicateurs Le moment d’ordre k est défini de la manière suivante : 1 1 n k k i i m x n = = ∑ Pour k=1, on reconnaît la moyenne. Les moments n’ont pas de signification aussi claire que les autres indicateurs, mais ils seront centraux lorsque nous nous intéresserons à la théorie de l’estimation. On définit de même le moment centré d’ordre k :
  • 11. 11 ' 1 1 ( ) n k k i i m x x n = = −∑ On peut déduire de ces moments centrés deux indicateurs relatifs à la forme de l’histogramme : ' 3 1 3 m β σ =Asymétrie ' 4 2 4 m β σ =Applatissement II.3. Etude de deux variables Plaçons-nous dans la situation suivante : sur un échantillon, nous avons mesuré deux variables quantitatives, que nous noterons X et Y. Nous obtenons donc deux séries de valeurs x=(x1,…,xn) et y=(y1,…,yn). Remarquez les notations, que nous conserverons tout au long du cours : les variables (que nous appellerons plus tard variables aléatoires) sont en majuscules, les observations de ces variables sur l’échantillon en minuscule (gras pour une notation vectorielle). Les deux séries peuvent bien sûr être décrites indépendamment l’une de l’autre, comme expliqué au paragraphe II.2, mais nous allons ici nous intéresser à la liaison qui peut exister entre ces variables. II.3.1. La régression linéaire Exemple 4 : Sur un échantillon de 10 petits cours d’eau, on a calculé la superficie du bassin versant (X) ainsi que la crue décennale (Y) : BV Superficie Q10 1 16.2 5.77 2 21.4 5.37 3 38.7 7.29 4 42.3 12.66 5 55.8 11.09 6 62.1 25.31 7 64 20.18 8 68 39.27 9 73 39.59 10 94 28.30 Tableau 3. Tableau de données. La manière la plus simple de représenter ces données est de projeter les couples (xi,yi) dans le plan : on obtient ainsi un nuage de points.
  • 12. 12 Nuage de points (xi, yi) 0 5 10 15 20 25 30 35 40 45 0 20 40 60 80 100 x: Superficie (km²) y:Q10 Figure 5. Nuage de points. A la vue de ce graphique, il apparaît que les deux variables ont tendance à évoluer conjointement : les « grands » bassins versants ont des crues décennales plus importantes. C’est cette co-évolution que nous allons tenter d’étudier. Commençons par définir la covariance entre x et y : 1 1 ( ) ( )( ) 1 n i i i Cov x x y y n = = − − − ∑x, y Cette quantité mesure la manière avec laquelle X et Y varient « ensemble ». Comme pour la variance, on trouve parfois une définition alternative avec 1/n. Le coefficient de corrélation linéaire est directement dérivé de la covariance : ( )Cov r σ σ = x y x, y Il s’agit d’un coefficient adimensionnel, compris entre –1 et 1 : une valeur absolue proche de 1 sera la signature de deux variables liées linéairement, une valeur proche de zéro signifiera l’absence de relation linéaire. Il est important de noter que ceci n’interdit pas que les variables soient liées par un autre type de relation (polynomiale, sinusoïdale, …). Pour notre exemple ci-dessus, nous avons les valeurs suivantes : 24 13.17 ( , ) 255.01 0.81 Cov r σ σ = = = = x y x y Ces chiffres confirment la liaison entre les variables. Nous pouvons essayer d’aller plus loin, en cherchant la droite la plus pertinente qui s’ajusterait au nuage de point, c’est en dire en évaluant une relation du type Y=aX+b. Evidemment cette relation ne peut pas être parfaite (tous les points ne sont pas alignés), nous introduisons donc des termes d’erreurs, ce qui nous donne la relation : 1,...,i i iy ax b e i n= + + ∀ = Une « bonne » droite permettrait de minimiser ces erreurs. Nous allons donc définir un critère, dit des moindres carrés, construit à partir de la somme des carrés des erreurs :
  • 13. 13 2 1 n i i S e = = ∑ Il s’agit donc à présent de trouver les valeurs de a et b minimisant S. Exercice : 1/ Exprimer S en fonction de a et b. 2/ Calculer les valeurs de a et b minimisant S, que l’on notera ˆˆ eta b . 3/ Vérifier qu’avec ces valeurs, la somme (et donc la moyenne) des erreurs est nulle. 4/ Démontrer que ˆ( ) ( ) ( )Var Var Var= +y y e , où ˆˆ ˆi iy ax b= + est la valeur du débit décennal estimée par notre modèle. 5/ On définit un critère pour mesurer la qualité de notre modèle, égal à ( ) 1 ( ) Var c Var = − e y . Interprétez cet indicateur, et démontrer que c=r². La droite de régression dite des moindres carrés est donc définie par les paramètres ˆa et ˆb suivants : ( , ) ˆ ( ) ˆ ˆ Y X Cov X Y a r Var X b y ax σ σ = = = − La qualité de cet ajustement est mesurée par r² (qui varie dans [0,1]), qui mesure la part de variance expliquée par notre modèle linéaire. Voici l’ajustement pour les données précédentes : y = 0.4426x - 4.2203 R 2 = 0.651 0 5 10 15 20 25 30 35 40 45 0 20 40 60 80 100 Superficie (km²) Q10 Figure 6. Ajustement de la droite de regression. La démarche présentée dans ce cadre de recherche de relation linéaire entre variables peut être généralisée à toute forme de dépendance du type Y=f(X) : Choix d’une fonction f Calcul des paramètres optimaux de cette fonction, au sens d’un certain critère (moindres carrés, par exemple) Evaluation de la qualité de l’ajustement, par un indicateur du type ( ) 1 ( ) Var Var − e y (qui n’est plus égal à r² si f n’est pas affine)
  • 14. 14 Evidemment, la plupart des calculs se compliquent par rapport au cas linéaire, le recours à des méthodes d’optimisation numérique est souvent indispensable. Une autre extension de la méthode consiste à intégrer plusieurs variables pour en « expliquer » une autre : dans le cas précédent, il pourrait ainsi être bénéfique d’intégrer la pluviométrie ou la nature et l’occupation du sol pour améliorer l’explication du débit décennal. En guise d’exemple, la méthode dite CRUPEDIX est présentée en annexe, il s’agit d’une régression non linéaire multiple visant à estimer le débit décennal sur des sites non jaugés. II.3.2. Représentation fréquentielle d’un couple de variables Nous allons à présent généraliser la notion d’histogramme au cas de deux variables, et en profiter pour proposer quelques définitions. Nous nous appuierons sur un exemple utilisant des données quantitatives discrètes ; pour des données continues, le même type de représentation est possible moyennant un regroupement des couples de valeurs en classes. Exemple 5 : On se propose d’étudier le nombre annuel de crues entre les années 1958 et 2002 pour deux stations S1 et S2. Le tableau de données est de la forme suivante : Année N1=Nombre de crues en S1 N2=Nombre de crues en S2 1958 2 1 1959 1 3 … … … 2002 0 4 Tableau 4. Tableau de données. Il est fréquent de représenter ce type de données bivariées par un tableau de contingence, qui permet de dénombrer l’effectif ou la fréquence de chaque couple de valeurs possible. Notre tableau de contingence (en fréquence) est ici le suivant : N1 N2 0 1 2 3 4 5 6 cumul 0 0.044 0.022 0.044 0.022 0.022 0.000 0.000 0.156 1 0.044 0.067 0.022 0.022 0.022 0.000 0.000 0.178 2 0.044 0.089 0.111 0.000 0.000 0.000 0.000 0.244 3 0.000 0.000 0.067 0.022 0.044 0.000 0.000 0.133 4 0.022 0.044 0.022 0.044 0.044 0.000 0.000 0.178 5 0.000 0.022 0.000 0.044 0.000 0.000 0.022 0.089 6 0.000 0.022 0.000 0.000 0.000 0.000 0.000 0.022 cumul 0.156 0.267 0.267 0.156 0.133 0.000 0.022 1.000 Tableau 5. Tableau de contingence. Ce tableau se lit de la manière suivante: la cellule grisée nous informe que pour 2.2% des années étudiées, on a observé 2 crues en S1 et 1 crue en S2. La dernière colonne représente les cumuls de fréquence par ligne, de même pour la dernière ligne. Enfin, la dernière case en bas à droite est le « cumul des cumuls », qui vaut heureusement 1. Le tableau équivalent en effectif peut se déduire aisément en multipliant chaque case par l’effectif de l’échantillon (ici, 45 années). Intéressons-nous à une ligne particulière, la première par exemple. Y figurent les fréquences associées aux différentes valeurs de N1, dans le cas particulier où N2=0. Nous
  • 15. 15 pouvons identifier cette première ligne à la distribution conditionnelle de N1, sachant que N2=0. Cette identification est abusive, il faudrait en fait diviser toutes les valeurs par le cumul de leur fréquence (0.156), qui représente la fréquence de la valeur 0 pour N2, en considérant toutes les associations possibles avec N1. En raisonnant de même ligne par ligne, on voit que la dernière colonne représente les fréquences des différentes valeurs prises par N2, compte tenu des différentes associations observées avec N1 : nous parlerons de la distribution marginale de la variable N2. De même, la dernière ligne est la distribution marginale de N1. Le tableau de contingence représente quant à lui la distribution jointe des variables N1 et N2. Il est possible de représenter cette distribution par un histogramme en trois dimensions : 0 1 2 3 4 5 6 0 1 2 3 4 5 6 0 0.02 0.04 0.06 0.08 0.1 0.12 Nombre de crues en S1 Nombre de crues en S2 Fréquence Figure 7. Histogramme multidimensionnel. Dans la figure ci-dessus, l’histogramme représenté en noir est proportionnel à la distribution de N2, conditionnellement à N1=0.
  • 16. 16 III. Le modèle probabiliste Nous avons exposé dans le chapitre précédent un certain nombre de méthodes permettant de décrire une série d’observations et d’en extraire de l’information. La théorie des probabilités fournit un cadre pour représenter de manière plus abstraite le comportement de variables « génératrices » de données. La puissance de cette théorie tient à sa généralité, mais en contrepartie, la définition même du terme « probabilité » fait appel à des notions mathématiques trop élaborées pour être présentées dans ce cours. Nous allons donc étudier une version « allégée » de la théorie probabiliste, qui sera cependant valable dans l’immense majorité des cas que vous rencontrerez. III.1. Quelques rappels de théorie des ensembles Sans entrer dans le détail, nous définirons un ensemble E comme une collection d’objets bien définis. Ci-après figurent quelques définitions et notations qui nous seront utiles par la suite : x E∈ signifie que l'élément x appartient à E. ∅ est l'ensemble vide. A E⊂ signifie que l’ensemble A est inclus dans E : x A x E∈ ⇒ ∈ . A B∪ est la réunion des ensembles A et B. oux A B x A x B∈ ∪ ⇔ ∈ ∈ . A B∩ est l’intersection des ensembles A et B. etx A B x A x B∈ ∩ ⇔ ∈ ∈ . Si A B∩ = ∅ on dit que les ensembles A et B sont disjoints. Si etA B A B E∩ = ∅ ∪ = , on dit que A et B forment une partition de l’ensemble E. De même si eti j i i A A i j A E∩ = ∅ ∀ ≠ =U . ou ouc A A Að est le complémentaire de A. c x A x A∈ ⇔ ∉ . ( )E℘ est l’ensemble des parties de E, c’est à dire l’ensemble de tous les sous- ensembles de E. ( )A E A E∈℘ ⇔ ⊂ . A B A B A ABAΥBAΙ Figure 8. Réunion, intersection et complémentaire. III.2. Premières définitions : probabilité et variables aléatoires. Une probabilité sur un ensemble Ω est une fonction : ( )P ℘ Ω a ¡ qui vérifie les trois propriétés suivantes :
  • 17. 17 ( ) 0,P A A≥ ∀ ⊂ Ω ( ) 1P Ω = Soit (Ai) une suite de sous-ensembles de Ω deux à deux disjoints, c’est à dire ,i jA A i j∩ = ∅ ∀ ≠ . Alors 11 ( ) ( )i i ii P A P A ∞ ∞ == = ∑U Ces trois axiomes conduisent aux propriétés suivantes : ( ) [0,1],P A A∈ ∀ ⊂ Ω ( ) 0P ∅ = ( ) ( )A B P A P B⊂ ⇒ ≤ ( ) 1 ( )c P A P A= − ( ) ( ) ( ) ( )P A B P A P B P A B∪ = + − ∩ Traduction intuitive : Supposons que nous ayons réalisé une expérience aléatoire, ou effectué des mesures sur un ensemble d’individus. Ω représente l’ensemble des issues possibles de l’expérience, il est appelé univers ou ensemble fondamental. Un sous-ensemble de A de Ω est appelé un événement. Une probabilité est ainsi une fonction permettant de mesurer la « vraisemblance » d’un événement. Remarque : la définition donnée ci-dessus est abusive, car il peut exister (cas pathologiques) des sous-ensembles de Ω pour lesquels la probabilité n’est pas définie. Il faut alors définir en ensemble d’évènements mesurables, ce qui requiert des outils mathématiques trop sophistiqués pour être évoqués dans ce cours. Une variable aléatoire réelle est une fonction :X Ω a ¡ . Elle permet de traduire un événement en nombre réel. Supposons par exemple que nous lancions deux dés, et que nous nous intéressions à la somme des deux faces observées. L’ensemble Ω est ici égal à l’ensemble des couples (a, b), où a et b sont des entiers entre 1 et 6. X sera la fonction somme : :(1,...,6) (1,...,6) ( , ) X a b a b × + a ¡ a Ainsi, l’événement « la somme des deux dés vaut 4 » sera noté X=4. Il s’agit d’une notation simplifiée, car en toute rigueur, nous nous intéressons à l’ensemble des couples (a, b) pour lesquels a+b=4, soit X-1 ({4})={(1, 3), (3, 1), (2, 2)}. De même X<6 représentera l’événement « La somme des deux dés est strictement inférieure à 6 ». Il est possible de mesurer la probabilité de tels évènements, que nous noterons P(X=4) ou P(X<6). On voit dans ce cas que X ne prend pas ses valeurs dans ¡ tout entier, mais seulement dans un sous- ensemble de ¥ : il s’agit d’une variable aléatoire discrète. En des termes plus intuitifs, la variable aléatoire X représente tout simplement la variable que nous souhaitons étudier. Etant donné que cette variable est fréquemment mesurée sur des individus, sa définition est en général très naturelle, comme par exemple « Nombre de crues observées en une année » pour l’Exemple 1. Il est par contre important de bien faire la différence entre des observations (x1,…,xn), qui sont des valeurs numériques mesurées, et la variable aléatoire X qui génère ces données, qui est un objet abstrait.
  • 18. 18 III.3. Loi de probabilité d’une variable aléatoire III.3.1. Variable aléatoire discrète Soit X une variable aléatoire discrète, à valeurs dans un ensemble dénombrable ordonné { , }ix i∈¥ . La loi de probabilité de X est la donnée des quantités ( ) ( ),i if x P X x i= = ∀ ∈¥ . Cette loi de probabilité peut être décrite par un diagramme en bâtons : x1 x2 x3 x4 x5 f(xi) Figure 9. Loi de probabilité discrète. Il existe évidemment une analogie entre cette représentation est celle présentée au précédent chapitre, où nous avions reporté les fréquences observées en ordonnées : nous aurons l’occasion de revenir à plusieurs reprises sur cette analogie fréquence / probabilité. Nous définissons également la fonction de répartition F de la variable aléatoire X de la manière suivante : ( ) ( )i iF x P X x= ≤ . x1 x2 x3 x4 x5 F(xi) 1 0 Figure 10. Fonction de répartition discrète. Il est aisé de démontré la relation suivante (à faire en exercice) : 0 ( ) ( ) i i k k F x f x = = ∑ . En corollaire, F est une fonction croissante, qui part de 0 et tend vers 1 en l’infini. De ces deux définitions découlent quelques grandeurs caractéristiques de la variable aléatoire X (notez encore une fois l’analogie avec le chapitre précédent) : L’espérance, 0 ( ) ( )i i i E X x f x ∞ = = ∑ La variance, 0 ( ) ( ( ))² ( )i i i Var X x E X f x ∞ = = −∑ , et l’écart type ( ) ( )X Var Xσ =
  • 19. 19 Les moments d’ordre k, 0 ( )k k i i i x f xµ ∞ = = ∑ . Si k=1, on reconnaît l’espérance. Les moments centrés d’ordre k, ' 0 ( ( )) ( )k k i i i x E X f xµ ∞ = = −∑ . Si k=2, on reconnaît la variance. Le quantile d’ordre p, noté xp, qui vérifie 1 ( ) ( ( ))p pF x p x F p− = ⇔ = Remarque : Les quantités faisant intervenir des sommes infinies peuvent ne pas exister. III.3.2. Généralisation au cas continu Nous allons commencer cette fois ci par définir la loi de probabilité d’une variable aléatoire continue X comme la donnée d’une fonction de répartition F, telle que ( ) ( ),F x P X x x= ≤ ∀ ∈¡ . La densité de probabilité de X sera alors la fonction f telle que : ( ) ( ) x F x f t dt −∞ = ∫ . En d’autres termes, f est la dérivée de la fonction de répartition F. f F x x F(a) 1 a Figure 11. Densité et fonction de répartion continues. Propriété : si f est continue, alors ( ) ( ) ( ) ( ) b a P a X b f t dt F b F a< ≤ = = −∫ . Dans le cas continu, on voit ainsi apparaître une analogie entre la probabilité d’un événement et l’aire sous la courbe de la densité. Cette analogie implique en particulier que 0 0( ) 0,P X x x= = ∀ ∈R . C’est la raison pour laquelle il n’est pas possible de définir la loi de probabilité directement à partir des probabilités des éléments de Ω, ce qui conduit à raisonner
  • 20. 20 sur des intervalles. On remarque encore une fois l’analogie avec les histogrammes dans le cas continu du chapitre précédent, où nous étions obligés de procéder à des regroupements. A partir de la densité de probabilité, il est possible de définir les mêmes grandeurs caractéristiques que dans le cas discret, en remplaçant les sommes par des intégrales : L’espérance, - ( ) ( )E X xf x dx +∞ ∞ = ∫ La variance, ( )2 - Var( ) ( ) ( )X x E X f x dx +∞ ∞ = −∫ , et l’écart type ( ) ( )X Var Xσ = Les moments d’ordre k, - ( )k k x f x dxµ +∞ ∞ = ∫ . Si k=1, on reconnaît l’espérance. Les moments centrés d’ordre k, - ' ( ( )) ( )k k x E X f x dxµ +∞ ∞ = −∫ . Si k=2, on reconnaît la variance. Le quantile d’ordre p, noté xp, qui vérifie 1 ( ) ( ( ))p pF x p x F p− = ⇔ = Remarque : Encore une fois, rien ne garantit l’existence des intégrales infinies. De plus, certaines lois ne sont pas définies sur R tout entier, ces intégrales doivent alors être réduites aux supports de ces lois. III.3.3. Quelques lois de probabilités classiques Nous donnons ci-dessous quelques lois de probabilités qui sont régulièrement utilisées, notamment en hydrologie. Ces lois dépendent d’un certain nombre de paramètres afin de pouvoir s’adapter à une plus grande variété de situations. A. Lois discrètes Loi de Bernoulli Be(p) : utilisée pour des variables aléatoires binaires, de type succès- échec ou présence-absence, qui prendront donc pour valeurs 0 ou 1. ( 1) , ( 0) 1 . ( ) ( ) (1 ) P X p P X p E X p Var X p p = = = = − = = − Loi binomiale B(n, p) : Si l’on répète n fois indépendamment une épreuve de type Bernoulli, alors la variable aléatoire X mesurant le nombre de succès suit une loi binomiale : ( ) (1 ) , ! avec !( )! ( ) ( ) (1 ) k k n k n k n P X k C p p n C k n k E X np Var X np p − = = − = − = = −
  • 21. 21 B(10, 0.2) 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0 1 2 3 4 5 6 7 8 9 10 k P(X=k) Figure 12. Loi binomiale. Loi de Poisson P(µ) : cette loi est fréquemment utilisée pour décrire des données issues de comptages d’évènements rares (processus d’occurrences de crues, par exemple), et respectant quelques propriétés supplémentaires (stationnarité, indépendance, absence de regroupements). (X ) e ! ( ) ( ) k P k k E X Var X µ µ µ µ − = = = = Poisson(2) 0 0.05 0.1 0.15 0.2 0.25 0.3 0 1 2 3 4 5 6 7 8 9 10 k P(X=k) Figure 13. Loi de Poisson.
  • 22. 22 B. Lois continues Loi uniforme U(a, b) : 1 si [ , ] ( ) 0 sinon ( ) 2 ( )² ( ) 12 x a b f x b a a b E X b a Var X  ∈ = −  + = − = U(0,1) 0 0.2 0.4 0.6 0.8 1 1.2 -1 -0.5 0 0.5 1 1.5 2 x f(x) Figure 14. Loi uniforme. Loi de Gauss ou loi Normale N(µ, σ) : Cette loi est centrale en statistiques, puisqu’un grand nombre de phénomènes ont un comportement approximativement Gaussien. De plus, un théorème que nous verrons ultérieurement affirme qu’une somme de variables aléatoires tend (presque) toujours en distribution vers une loi normale. Par exemple, un débit moyen annuel pourra être supposé gaussien. 2 2 1 1 ( ) exp [( ) / ] 22 ( ) ( ) f x x E X Var X µ σ σ π µ σ   = − −   = =
  • 23. 23 Loi Normale -0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 -3 -1 1 3 x f(x) N(0,1) N(0,0.5) N(1,1) Figure 15. Loi Normale. Loi exponentielle Exp(x0, λ ) : en hydrologie, cette loi est utilisée pour modéliser les valeurs de dépassement d’un seuil, ou le temps d’attente entre deux évènements de crue. 0 0 0 2 1 si( ) 0 sinon ( ) ( ) x x e x xf x E X x Var X λ λ λ λ − −  >=    = + = Exp(0,1) 0 0.2 0.4 0.6 0.8 1 1.2 0 1 2 3 4 5 x f(x) Figure 16. Loi exponentielle. La loi de Gumbel Gu(µ, λ) : c’est également une loi très utilisée en hydrologie, puisqu’il s’agit d’une des trois distributions suivies par le maximum d’une suite de variables. Le débit maximum annuel est souvent décrit par cette loi.
  • 24. 24 1 ( ) exp exp 0, 0 ( ) , avec 0.5772 (constante d'Euler-Mascheroni) ² ( ) ² 6 x x f x E X Var X µ µ λ λ λ µ λ µ γλ γ π λ  − −  = − − −      > > = + = = La loi généralisée des valeurs extrêmes GEV(µ, λ, ξ ) généralise la loi de Gumbel : ( ) 1 1 1 2 1 0 1 ( ) ( ) ( ) 1 exp 1 ( ) 0, 0, 0, 1 0 ( ) (1 ( 1)) ( ) (2 1) ²( 1) ( ) est la fonction gamma.t x x x f x x E X Var X t x e dx ξ ξξ µ ξ µ λ λ λ ξ µ µ λ ξ λ λ µ ξ ξ λ ξ ξ ξ − +∞ − −   − −    = − − −           − > > ≠ − > = + − Γ +   = Γ + − Γ +    Γ = ∫ Pour 0ξ = , on retrouve la loi de Gumbel. Si 0ξ < , on obtient la loi de Fréchet, et si 0ξ > , la loi de Weibull. 0 50 100 150 200 250 300 0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 0.018 x f(x) Gu(100, 25) GEV(100, 25, -0.5) Figure 17. Loi généralisée des valeurs extrêmes.
  • 25. 25 Les trois lois suivantes sont très souvent utilisées en statistiques, notamment pour effectuer des tests d’hypothèses. La loi du « chi-deux », ²( )nχ : c’est la loi suivie par la somme des carrés de n variables gaussiennes N(0,1). 1 2 2 2 ( ) 2 ( / 2) ( ) ( ) 2 n x n x e f x n E X n Var X n − − = Γ = = La loi de Student t(n) : C’est la loi suivie par la variable / U X n , où (0,1) et ²( )U N X nχ: : , avec U et X indépendantes. Cette loi est principalement utilisée via la table de sa fonction de répartition (voir annexe 2). ( ( )) 0 si 1 ( ( )) si 2 2 E t n n n Var t n n n = > = > − La loi de Fisher F(n1,n2) : C’est la loi suivie par la variable 1 2 / / X n Y n , où X et Y suivent indépendamment des 1²( )nχ et 2²( )nχ . Cette loi est également tabulée. 2 1 2 2 2 2 1 2 1 2 1 1 2 2 ( ( , )) 2 2 ( ( , )) 2 ( 2)²( 4) n E F n n n n n n Var F n n n n n n = − + − = − − III.3.4. Quelques mots sur le cas multivarié Nous allons nous limiter à aborder quelques aspects concernant la loi jointe d’un couple de deux variables. Supposons donc que nous étudions une variable aléatoire Z=(X,Y) à valeurs dans ²¡ . La fonction de répartition jointe du couple (X,Y) est définie par ( , ) ({ } { })H x y P X x Y y= ≤ ∩ ≤ . Il est possible de définir les fonctions de répartition marginales par ( ) ( ) ( , ) et ( ) ( ) ( , )F x P X x H x G y P Y y H y= ≤ = ∞ = ≤ = ∞ . Comme dans le cas univarié, la densité de probabilité jointe est égale à la dérivée de la fonction de répartition : ² ( , ) ( , ) H x y h x y x y ∂ = ∂ ∂ . Enfin, les densités marginales s’obtiennent par ( ) ( , )f x h x y dy= ∫ ¡ et ( ) ( , )g y h x y dx= ∫ ¡ . La covariance entre deux vecteurs aléatoires X et Y est définie par : ( ) ² ( , ) ( ( ))( ( )) ( ( ))( ( )) ( , ) Cov X Y E X E X Y E Y x E X y E Y h x y dxdy = − − = − −∫∫ ¡ Exemple 6 : la loi normale de dimension 2.
  • 26. 26 La densité d’un vecteur aléatoire ( , )x y=z suivant une loi binormale de paramètres 1 1 2 2 , ) et = v c c v µ µ   = ( Σ       µ est la suivante : 11 1 ( , ) ( ) exp ( ) ( ) 22 (det t h x y h π − 1/2   = = − Σ  Σ)   z z - µ z - µ . La matrice Σ est la matrice des variances-covariances. On peut alors démontrer que les lois marginales sont également gaussiennes, de moyennes respectives µ1 et µ2 ,et de variances v1 et v2. c est la covariance des deux lois marginales. La figure suivante permet de visualiser la loi jointe (vue de dessus) et les lois marginales de X (trait plein) et de Y (pointillés). Figure 18. Loi normale de dimension 2. Une notion capitale en statistiques et probabilités est la notion d’indépendance entre deux variables aléatoires X et Y :
  • 27. 27 et sont indépendantes ( , ) ( ) ( ) ( , ) ( ) ( ) (si ces densités existent) X Y H x y F x G y h x y f x g y ⇔ = ⇔ = En d’autres termes, la distribution jointe doit être le produit des distributions marginales. Si X et Y sont indépendantes, il suffit donc de connaître les distributions de X et de Y pour obtenir la loi jointe du couple. De manière plus intuitive, ceci signifie que les variables X et Y n’influent pas l’une sur l’autre, et donc que la connaissance de la valeur prise par Y ne change en rien la loi de probabilité de X. Quelques relations utiles Les formules ci après peuvent être démontrées à titre d’exercice. Soit a une constante ( )E a a= ( ) ( )E aX aE X= ( ) ( )E X a E X a+ = + ( ) ( ) ( )E X Y E X E Y+ = + et indépendants ( ) ( ) ( )X Y E XY E X E Y⇒ = ( ) ( ²) ( ( ))²Var X E X E X= − ( ) ( )Var X a Var X+ = ( ) ² ( )Var aX a Var X= ( ) ( ) ( ) 2 ( , )Var X Y Var X Var Y Cov X Y+ = + + ( , ) ( ) ( ) ( )Cov X Y E XY E X E Y= − et indépendants ( , ) 0 (réciproque fausse)X Y Cov X Y⇒ = et indépendants ( ) ( ) ( ) (réciproque fausse)X Y Var X Y Var X Var Y⇒ + = +
  • 28. 28 IV. Statistique inférentielle Les deux chapitres précédents nous ont permis de nous familiariser avec les notions les plus importantes de statistiques descriptives et de probabilités, qui peuvent être abordées indépendamment. Dans ce chapitre, nous allons nous efforcer de relier ces deux domaines, en utilisant la théorie des probabilités pour quantifier plus efficacement les caractéristiques d’un échantillon, en intégrant des notions comme le « risque », la « confiance », la « décision », etc… Dans la pratique, la statistique inférentielle est certainement l’outil le plus utilisé pour assister des décisions dans un contexte où le hasard intervient. IV.1. Retour sur la notion d’échantillon IV.1.1. La fluctuation d’échantillonnage Reprenons l’exemple concernant la taille des Français, que nous avions évaluée sur un échantillon de 35 individus. Admettons que la moyenne x de cet échantillon vaille 1.81 m. Peut-on alors affirmer que les Français mesurent en moyenne 1.81 m ? En d’autres termes, la caractéristique mesurée sur l’échantillon peut-elle être considérée comme valable pour la population entière ? La statistique inférentielle a justement pour but de quantifier, en termes de risque ou de confiance, la transmission d’une caractéristique (ici, la moyenne), entre un échantillon et sa population parente. Pour tenter de répondre à cette question, nous décidons de répéter l’expérience, mais sur 35 autres individus. Nous obtenons alors une moyenne (1) 1.70x m= . Evidemment, cette valeur est différente de celle mesurée sur le premier échantillon. Nous répétons encore l’expérience un certain nombre de fois, et nous obtenons des valeurs moyennes (2) ( ),..., kx x . Nous pouvons alors tracer l’histogramme de ces moyennes, et y replacer notre valeur initiale 1.81x m= Figure 19. Illustration de la fluctuation d'échantillonnage.
  • 29. 29 Nous voyons apparaître une distribution liée aux moyennes empiriques calculées sur différents échantillons. Cette nouvelle source de variabilité sera appelée la fluctuation d’échantillonnage, elle est due au fait que notre échantillon n’est pas notre population, et donc que sa représentativité n’est pas absolue. Notons que le même raisonnement vaut pour la variance, ou la médiane, ou toute autre caractéristique de l’échantillon. Pour remédier à ce problème, on peut envisager trois solutions : Echantillonner la population entière : c’est parfois ce qui est fait (le recensement, par exemple), mais dans la plupart des cas, ceci est beaucoup trop coûteux voire impossible (populations infinies). Faire comme dans l’exemple, c’est à dire répéter l’expérience un certain nombre de fois afin d’avoir accès à cette fluctuation d’échantillonnage. Ceci est bien souvent impossible pour diverses raisons (coût en temps ou en argent, mais pas seulement : difficulté de répéter à l’identique une expérience en deux endroits ou deux instants différents). Une alternative consiste à utiliser une technique de rééchantillonnage, que nous aborderons ultérieurement. Se donner un cadre théorique probabiliste permettant de déduire le comportement de caractéristiques affectées par cette fluctuation d’échantillonnage : c’est cette approche que nous allons détailler maintenant. IV.1.2. L’échantillon du point de vue probabiliste Soit 1( ,..., )nx x un échantillon. Nous allons considérer chaque valeur xi de l’échantillon comme une réalisation d’une variable aléatoire parente Xi. Plus précisément, nous supposons que tous les Xi sont mutuellement indépendants, et qu’ils ont la même loi de probabilité. Nous parlerons d’échantillons iid pour indépendants et identiquement distribués. Ainsi, l’échantillon 1( ,..., )nx x peut être vu comme la réalisation d’un n-uplet de variables aléatoires indépendantes et de même loi 1( ,..., )nX X . Par extension, ce n-uplet est aussi appelé parfois un échantillon. Malgré cette légère ambiguïté terminologique, il est capital (et les notations sont là pour ça) de bien différencier l’échantillon 1( ,..., )nx x , qui représente n valeurs numériques bien précises (et qui n’ont donc rien d’aléatoires) et le n-uplet 1( ,..., )nX X qui est une représentation abstraite d’un processus aléatoire ayant généré les données. Pour bien marquer cette différence, nous emploierons les termes « empirique » ou « observé » pour tout ce qui se rapporte à 1( ,..., )nx x , et « théorique » (on rencontre parfois « vrai ») pour ce qui concerne 1( ,..., )nX X . Pour terminer avec ces définitions, nous appellerons Statistique toute fonction de l’échantillon 1( ,..., )nT f X X= . Une statistique est donc une variable aléatoire, dont on obtient une réalisation grâce à l’échantillon observé, 1( ,..., )obs nT f x x= . Illustrons ces définitions grâce à l’exemple de la taille des Français. A partir de notre échantillon 1 35( ,..., )x x , nous avons calculé la moyenne empirique 35 1 1 35 i i x x = = ∑ . Cette valeur est l’observation sur l’échantillon de la statistique que nous noterons 35 1 1 35 i i X X = = ∑ . Supposons par exemple que pour tout i, Xi suive une loi normale d’espérance théorique µ et d’écart type théorique σ. Il est possible de montrer que la somme de variables gaussiennes reste gaussienne. Ainsi, en utilisant les formules du chapitre précédent relatives à la manipulation d’espérances et de variances, on parvient aux relations suivantes :
  • 30. 30 35 35 1 1 2 235 35 1 1 1 1 ( ) ( ) 35 35 1 1 ² ( ) ( ) ² 35 35 35 Soit pour l'écart type ( ) 35 i i i i i i E X E X Var X Var X X µ µ σ σ σ σ = = = = = = =     = = =        = ∑ ∑ ∑ ∑ Nous avons donc, de manière théorique, caractérisé la fluctuation d’échantillonnage de la statistique X , qui suit donc une loi normale ( , ) 35 N σ µ . L’histogramme représenté plus haut est une approximation de la densité de cette loi de probabilité. Notons que la validité de ce calcul est dépendante des trois hypothèses que nous avons posées : les données sont issues d’une même loi, qui est une loi normale, et sont indépendantes. Profitons-en pour insister sur le fait qu’indépendance et équi-distribution sont des hypothèses qui sont posées a priori, et non des propriétés démontrées. Il est donc capital, lors du recueil des données, de s’assurer que le protocole garantira au mieux la validité de ces deux hypothèses. Pour finir, remarquons que dans la pratique, les valeurs de µ et σ ne nous sont pas connues, il faut donc les estimer, ce qui fera l’objet du paragraphe IV.2. IV.1.3. Quelques théorèmes importants Les théorèmes que nous allons présenter ci-après sont des théorèmes de convergence de suites de variables aléatoires. Le temps nous manque pour aborder de manière totalement rigoureuse ces notions de convergence, aussi les théorèmes seront exposés de manière plus ou moins intuitive. Le but est avant tout de justifier la démarche probabiliste entreprise et de donner des résultats dont l’importance pratique est primordiale. Le théorème de Glivenko-Cantelli. Soit 1( ,..., )nx x un échantillon iid , issu d’une loi de probabilité de fonction de répartition F. Soit Fn la courbe empirique des fréquences cumulées (cf II.2.1) obtenu par l’échantillon de taille n. Notons sup ( ) ( )n n x D F x F x= − . Alors 0n n D →∞ → Ce théorème affirme donc que, si n est suffisamment grand, alors la différence entre les fonctions de répartition empirique et théorique est négligeable. Dit autrement, les fréquences empiriques convergent vers les probabilités théoriques : ceci justifie donc une analogie fréquence/probabilité que nous avions déjà relevée. Ajoutons que la quantité Dn est à la base d’un test important en statistique, que nous verrons ultérieurement. La loi des grands nombres Soit 1( ,..., )nx x un échantillon iid , issu d’une loi de probabilité d’espérance théorique m. Notons 1 1 n n i i X X n = = ∑ la statistique « moyenne empirique » obtenue à partir de l’échantillon théorique 1( ,..., )nX X . Alors n n X m→∞ → . Cette convergence mérite quelques explications. En effet, nous avons insisté sur le fait que nX était une variable aléatoire, alors que m est une constante : comment l’une peut-elle converger vers l’autre ? Ce mode de convergence signifie que justement, nX est de « moins
  • 31. 31 en moins aléatoire » à mesure que la taille de l’échantillon augmente, en ce sens que pour tout intervalle autour de m, la probabilité pour que nX soit à l’intérieur de cet intervalle peut être choisie aussi proche de 1 que l’on veut, en choisissant un rang n suffisamment grand. Notons que ce théorème reste vrai quelle que soit la loi dont est issu l’échantillon (pourvu que l’espérance existe). Le théorème central limite. Ce théorème est d’une importance pratique considérable en statistiques. Soit 1( ,..., )nX X un n-uplet de variables aléatoires iid, d’espérance µ et d’écart-type σ. Alors : 1 ... (0,1) (0,1) / n n n n X X n X N N n n µ µ σ σ→∞ →∞ + + − − → ⇔ → La signification du théorème est la suivante : quelle que soit la loi dont est issu un échantillon (pourvu qu’espérance et variance existent), la statistique « moyenne empirique » suivra une loi normale, pourvu que n soit suffisamment grand. En pratique, une trentaine d’observation est souvent jugée suffisante pour appliquer l’approximation gaussienne. Reprenons alors notre exemple sur la taille moyenne des Français : il s’avère que nos conclusions restent exactes, même si l’échantillon n’est pas issu d’une loi normale ! La figure ci-dessous illustre ces deux derniers théorèmes. Pour trois lois de probabilité bien distinctes, nous avons simulé des échantillons de diverses tailles, et calculé la moyenne empirique. Les histogrammes suivants approximent la densité de la statistique nX . Nous observons alors les deux phénomènes précédemment décrits : d’une part, quand n devient grand, nX est de « moins en mois aléatoire », et ses valeurs se concentrent de plus en plus autour de la valeur théorique de l’espérance. D’autre part, quelle que soit la forme de la distribution parente (première colonne), la distribution d’échantillonnage de nX prend peu à peu une forme Gaussienne, comme le prédit le théorème central limite. -2 0 2 0 20 40 60 80 100 -2 0 2 0 50 100 150 -2 0 2 0 20 40 60 80 100 -2 0 2 0 20 40 60 80 100 -2 0 2 0 20 40 60 80 100 -2 0 2 0 20 40 60 80 100 0 0.5 1 0 10 20 30 40 50 0 0.5 1 0 20 40 60 80 0 0.5 1 0 20 40 60 80 100 0 0.5 1 0 20 40 60 80 100 0 0.5 1 0 20 40 60 80 100 0 0.5 1 0 20 40 60 80 100 0 0.5 1 0 200 400 600 800 1000 0 0.5 1 0 200 400 600 800 0 0.5 1 0 100 200 300 400 500 0 0.5 1 0 100 200 300 400 0 0.5 1 0 50 100 150 200 0 0.5 1 0 20 40 60 80 100 N(0,1) U(0,1) Be(0.8) n=1 n=2 n=5 n=10 n=50 n=500 Figure 20. Illustration du théorème central limite.
  • 32. 32 Le théorème des valeurs extrêmes C’est, en quelque sorte, l’équivalent du théorème central limite pour la statistique 1( ,..., )n nM Max X X= . La formulation est un peu délicate, nous le retiendrons sous la forme suivante : si la distribution de Mn converge, alors c’est forcément vers une loi généralisée des valeurs extrêmes ( , , )GEV µ λ ξ . La figure suivante permet d’illustrer cette convergence pour les lois N(0,1), U(0,1) et de Cauchy, dont les maximums convergent vers une GEV où le paramètre ξ est respectivement nul (=loi de Gumbel), positif (=loi de Weibull) et négatif (=Loi de Fréchet). Ce théorème justifie l’utilisation de ces lois en hydrologie des valeurs extrêmes, pour décrire le comportement probabiliste des crues. Notons qu’encore une fois, la loi limite du maximum ne dépend pas de la loi parente dont est issu l’échantillon. Figure 21. Illustration du théorème des valeurs extrêmes. IV.1.4. Techniques de rééchantillonnage Une autre approche afin d’accéder à la distribution d’échantillonnage d’une statistique 1( ,..., )nT f X X= consiste à utiliser des techniques comme le Bootstrap, qui ont gagné en popularité ces dernières années du fait de leur simplicité et de la puissance accrue des moyens informatiques. Voici l’algorithme du Bootstrap, à partir d’un échantillon observé 1( ,..., )nx x :
  • 33. 33 faire pour i=1,…, Nb o tirer au sort avec remise n individus (certains individus apparaîtront plusieurs fois, d’autres aucune) o calculer ( )i obsT sur cet échantillon fin Nous obtenons ainsi un nouvel échantillon ( )( )(1) ,..., bN obs obsT T dont on montre qu’il est issu d’une bonne approximation de la distribution d’échantillonnage. La simplicité de cette méthode tient au fait qu’elle ne fait plus appel au cadre probabiliste (même si celui-ci est nécessaire pour démontrer que la technique fonctionne….), et permet donc de prendre en compte cette fluctuation dans un contexte de statistiques descriptives. IV.2. L’estimation La théorie de l’estimation est un domaine important et vaste des Statistiques. Nous n’en aborderons que quelques aspects, en expliquant comment mesurer la qualité d’un estimateur, et en présentant deux méthodes d’estimation très utilisées en pratique. IV.2.1. Quelques définitions Considérons un échantillon 1( ,..., )nx x iid, réalisation du n-uplet de variables aléatoires 1( ,..., )nX X . Il est fréquent d’avoir une idée a priori sur la loi dont devrait être issu cet échantillon, par expérience ou en considérant un des théorèmes limites ci-dessus (ex. : la crue maximale annuelle suit une loi de Gumbel). Nous allons donc supposer que l’échantillon est issu d’une certaine loi, de densité f paramétrée par un certain nombre de paramètres que nous noterons sous forme vectorielle θ . Nous noterons ( | )f x θ cette densité. Par exemple, pour une loi normale, ( , )µ σ=θ . La question est donc à présent d’estimer la valeur des paramètres à partir des données observées. Pour cela, nous allons faire appel à des statistiques 1( ,..., )nT g X X= particulières, appelées estimateurs. Nous réclamerons que ces estimateurs satisfassent à un certain nombre de critères garantissant leur qualité. Parmi ces critères, citons : La convergence : si Tn est un estimateur d’un paramètre α, obtenu à partir d’un échantillon de taille n, alors il est souhaitable que n n T α→∞ → (intuitivement, quand l’échantillon tend vers la population, on retrouve la vraie valeur) L’absence de biais : E(Tn)=α. La précision : ( )( )²nE T α− , l’erreur quadratique moyenne, est minimale. Notons qu’il n’est pas forcément possible de trouver un estimateur qui satisfasse à ces trois critères simultanément. Exemple 7 : Estimateurs d’une espérance et d’une variance. Soit µ l’espérance de la loi dont est issu un échantillon. Alors il est facile de montrer que nX est un estimateur de µ convergent et sans biais : convergent : c’est la loi des grands nombres (cf IV.1.3) Sans biais : 1 1 ( ) ( ) n n i i E X E X n µ = = =∑
  • 34. 34 Supposons à présent que la loi dont est issu l’échantillon est de variance V que nous souhaitons estimer. Les estimateurs naturels sont (cf II.2.3) 1 1 1 ( )² n i i T X X n = = −∑ et 2 1 1 ( )² 1 n i i T X X n = = − − ∑ . Calculez l’espérance de chacun de ces estimateurs (conseil : utiliser l’expression ( )2 2 1 1 1 n i i T X X n =   = −    ∑ ): lequel est sans biais ? IV.2.2. Estimation par la méthode des moments L’idée de cette méthode est la suivante : si les paramètres sont bien estimés, alors il devrait y avoir adéquation entre les caractéristiques observées (ou empiriques) et les caractéristiques théoriques. Nous allons rechercher cette adéquation sur les moments, en général le premier moment non centré (c’est à dire la moyenne) et le second moment centré (c’est à dire la variance). Plus précisément, supposons que nous ayons p paramètres 1 ,..., pθ θ à estimer, alors leurs estimateurs 1 ˆ ˆ ˆ,..., pθ θ = θ seront solutions du système : ( ) ( ) ( )( ) ˆ 1 ' ˆ 2 ' ˆ ˆ ....... p p E X m Var X m E X E X m  =   =      − =    θ θ θ θ La notation ˆEθ a pour but de bien montrer que ces moments sont des fonctions des paramètres à estimer. Exemple 8 : Estimateurs des paramètres d’une loi normale Soit 1( ,..., )nx x iid, un échantillon issu d’une loi normale N(µ,σ). L’espérance vaut donc µ et la variance σ². Les estimateurs des moments sont donc définis par : 1 2 2 ˆ ˆ ˆ² m x m m µ σ σ = = = ⇒ = En d’autres termes, les estimateurs des moments sont égaux à la moyenne et à l’écart-type empiriques. Exercice : Exprimer les estimateurs des moments pour une loi exponentielle Exp(0,λ) et uniforme U(a,b). IV.2.3. Estimation par maximum de vraisemblance Cette méthode consiste, étant donné un échantillon 1( ,..., )nx x iid, de choisir comme estimateur de 1 ,..., pθ θ les valeurs qui rendent l’échantillon le plus « probable » possible. Plus précisément, comme l’échantillon est indépendant, la densité jointe du vecteur aléatoire 1( ,..., )nX X est égale au produit des lois marginales. Nous appellerons vraisemblance l’expression de cette densité prise pour les valeurs 1( ,..., )nx x , soit : 1 1 ( ,..., | ) ( | ) n n i i L x x f x = = ∏θ θ
  • 35. 35 Il faut donc trouver les valeurs 1 ˆ ˆ,..., pθ θ qui maximisent cette vraisemblance. Dans la pratique, on aura souvent intérêt à maximiser la log-vraisemblance, ( )1 1 ( ,..., | ) log ( | ) n n i i LogL x x f x = = ∑θ θ Pour ce faire, il faut résoudre une équation aux dérivées partielles : 0, 1,..., i LogL i p θ ∂ = ∀ = ∂ Exemple 9 : Estimation du paramètre d’une loi exponentielle Exp(0,λ) Soient 1( ,..., )nx x les observations issues de cette loi exponentielle, dont la densité s’écrit : /1 ( | ) x f x e λ λ λ − = . La Log-vraisemblance vaut donc : ( ) ( ) 1 1 / 1 1 1 ( ,..., | ) log ( | ) 1 log 1 log log i n n i i n x i n i i n i i LogL x x f x e x n x n λ λ λ λ λ λ λ λ = − = = = =   =       = −    = − − ∑ ∑ ∑ ∑ D’où : 1 1 1 1 0 ² 0 1 n i i n i i n i i n i i xLogL n x n x n x n λ λ λ λ λ λ = = = = ∂ = − + = ∂ ⇔ − + = ⇔ = ⇔ = ∑ ∑ ∑ ∑ L’estimateur du maximum de vraisemblance correspond ici à l’estimateur des moments. Exercice : Exprimer l’estimateur du maximum de vraisemblance pour les lois N(µ,σ) et U(a,b). IV.2.4. Quel estimateur choisir ? Il n’existe malheureusement pas de réponse à cette question… Dans certains cas, les deux estimateurs présentés plus haut coïncident et sont « optimaux ». Dans d’autres cas, l’un aura des propriétés que l’autre n’aura pas, et vice-versa. En général, l’estimateur du maximum de vraisemblance est utilisé pour les grands échantillons, car la théorie permet d’en déterminer les propriétés asymptotiques (loi, variance). En contrepartie, les calculs détaillés ci-dessus sont souvent inextricables à la main dans des cas plus compliqués, il faut donc recourir à des méthodes d’optimisation numérique, qui ne garantissent d’ailleurs pas la convergence vers un minimum absolu.
  • 36. 36 IV.2.5. Intervalles de confiance Les estimateurs étant en particulier des statistiques, ils sont soumis à la fluctuation d’échantillonnage dont nous avons longuement parlé précédemment : si l’on prend un autre échantillon, la valeur des estimations changera. Il est donc important de prendre en compte cette fluctuation afin de rendre plus interprétables les estimations ponctuelles. Supposons que 1( ,..., )nT g X X= est un estimateur dont on connaisse la loi de probabilité F (qui dépend de θ ). Un intervalle de probabilité au risque α (ou au niveau de confiance 1- α), noté ( )Iα θ , est un intervalle vérifiant la propriété : ( ) 1P T Iα α∈ = − Dans la pratique, on choisira souvent un intervalle [t- ,t+ ] tel que : ( ) / 2 ( ) / 2 ( ) 1 / 2 P T t et P T t P T t α α α − + − < = > = ⇔ ≤ = − Les limites de l’intervalle de probabilité sont donc les quantiles d’ordre α/2 et 1-α/2 de la distribution d’échantillonnage de notre estimateur, ils dépendent donc toujours de θ . Or, les observations nous conduisent à une valeur observée de l’estimateur, notée ˆθ . Une valeur « acceptable » de θ devrait donc conduire à une valeur observée ˆ ( )Iαθ θ∈ . C’est l’ensemble de ces valeurs acceptables que nous appellerons intervalle de confiance au niveau 1-α. Exemple 10 : Intervalle de confiance de l’estimateur d’une moyenne D’après le théorème central limite, / nX n µ σ − suit une N(0,1). Notons pu le quantile d’ordre p de cette loi, nous avons donc par définition du quantile : / 2 1 / 2( ) 1 / nX P u u n α α µ α σ − − < ≤ = − Un intervalle de probabilité au niveau 1-α pour nX est donc : / 2 1 / 2nu X u n n α α σ σ µ µ −+ < ≤ + La valeur x a été observée, nous recherchons donc l’ensemble des µ vérifiant : / 2 1 / 2 1 / 2 / 2 u x u n n x u x u n n α α α α σ σ µ µ σ σ µ − − + < ≤ + ⇔ − ≤ < − Si la valeur de σ est connue, alors nous disposons d’un intervalle de confiance au niveau 1- α. Dans le cas contraire, il faut recommencer en remplaçant σ par son estimateur naturel, mais la loi de ( ) / nX Estim n µ σ − n’est alors plus Gaussienne. C’est là la principale difficulté de la détermination des intervalles de confiance : il n’est pas toujours aisé d’accéder à la distribution d’échantillonnage de l’estimateur. Heureusement, de nombreux résultats asymptotiques existent et permettent d’effectuer ce type de calculs, qui sont vraiment nécessaires pour avoir une vision un minimum objective de la confiance que l’on peut accorder à des résultats statistiques.
  • 37. 37 IV.3. Les tests statistiques IV.3.1. Le principe des tests statistiques D’après G. Saporta, « un test est un mécanisme qui permet de trancher entre deux hypothèses, dont une et une seule est vraie, au vu des résultats d’un échantillon ». Soient H0 et H1 ces deux hypothèses. Il existe alors 4 possibilités, de probabilités différentes, résumées dans le tableau suivant : Vérité Décision H0 H1 H0 1-α β H1 α 1-β Tableau 6. Risques d'erreur. H0 est appelée l’hypothèse nulle, et H1 l’alternative. Nous allons voir que ces hypothèses ne jouent pas un rôle symétrique, contrairement à ce que ce tableau pourrait laisser croire. α et β sont appelés les risques de première et de seconde espèce. 1-β est la puissance du test. Ces définitions étant posées, comment effectue-t-on la prise de décision ? Nous allons tout d’abord tenter de comprendre le canevas général via un exemple : Exemple 11 : La température globale moyenne sur l’année de la planète Terre peut être considérée comme une variable aléatoire gaussienne, de moyenne 14 et d’écart-type 0.25. Au début des années 80, les valeurs suivantes ont été calculées : Année 1980 1981 1982 1983 1984 1985 T (°C) 14.27 14.4 14.1 14.34 14.16 14.13 Tableau 7. Tableau de données. Nous souhaitons tester l’hypothèse du réchauffement de la Terre. Nous allons donc choisir comme hypothèses H0 : « la température moyenne est de 14°C » contre H1 : « la température moyenne est supérieure à 14°C ». Pour cela, nous allons commencer par choisir un risque de première espèce α, qui représente le risque d’affirmer à tort que la planète est plus chaude qu’autrefois. Etant donnée la portée d’une telle affirmation, nous allons rester prudents et choisir un risque faible, disons 1%. Etant donné notre échantillon de 6 années, il est possible de calculer la moyenne empirique x , réalisation de la statistique X , que l’on appelle la statistique de test. Si H0 est vraie, alors l’échantillon suit une loi normale N(14, 0.25). Comme nous l’avons vu précédemment, la statistique X suit alors une loi normale (14,0.25/ 6)N . L’hypothèse H0 devrait donc être rejetée (i.e. H1 devrait être acceptée) si la réalisation de cette statistique conduit à une valeur trop grande pour être vraisemblable, c’est à dire si x k> , où k est à déterminer. La région [ ; [k +∞ est appelée la zone de rejet de l’hypothèse H0. Pour calculer k, nous allons nous appuyer sur la définition de α : 0 0 0 0 (rejeter | ) ( | ) 1 ( | ) P H H P X k H P X k H α = = > = − ≤ Or, si H0 est vraie, alors nous connaissons la loi de X , qui est une (14,0.25/ 6)N . De l’équation précédente, il vient que k est le 1-α quantile de cette distribution, qui vaut (valeur
  • 38. 38 tabulée ou fonction prédéfinie d’Excel, par exemple) 14.237. Nous allons donc rejeter H0 si x k> . Avec les données ci-dessus, on trouve 14.233x = , ce qui nous conduit à ne pas rejeter H0 : on dit que le test est non significatif, ou encore que la température n’a pas significativement augmenté (au risque 1%). Il subsiste cependant un risque d’erreur, qui est celui d’avoir conservé à tort H0 : 0 1 1 (conserver | ) ( | ) P H H P X k H β = = ≤ Or, il nous est impossible ici de calculer ce risque, car, sous l’hypothèse H1, nous ne connaissons pas la loi dont sont issues les données. Nous voyons donc le rôle asymétrique joué par les deux hypothèses : l’hypothèse H0 est dite simple (le paramètre vaut une valeur précise), tandis que H1 est composite (le paramètre appartient à un sous-ensemble de ¡ ). Le risque de seconde espèce n’est ici calculable que si H1 est également simple. Exercice : refaire le test en intégrant les données des années 1986 à 2004 : Année 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 T (°C) 14.19 14.35 14.42 14.28 14.49 14.44 14.16 14.18 14.31 14.47 14.36 14.4 Année 1998 1999 2000 2001 2002 2003 2004 T (°C) 14.71 14.44 14.41 14.56 14.7 14.64 14.61 Tableau 8. Tableau de données. La quasi-totalité des tests d’hypothèses suit le même schéma, qui peut se résumer comme suit : 1. Choix des hypothèses H0 et H1 2. Choix du risque de première espèce α 3. Choix de la statistique de test 4. Détermination de la loi de cette statistique sous H0 5. Calcul de la zone de rejet 6. Calcul de la valeur expérimentale de la variable de test et décision 7. Si possible, calcul du risque de seconde espèce et de la puissance Par rapport au test relativement simple donné en exemple, l’étape la plus difficile en général est le calcul de la loi de la statistique de test sous H0. Bien souvent, des résultats asymptotiques (i.e. valables pour un échantillon suffisamment grand) sont utilisés. IV.3.2. Quelques tests classiques Tests sur les paramètres d’une loi de Gauss Condition d’application : l’échantillon iid est issu d’une loi normale N(µ,σ) H0 : µ=m0 contre H1 : hypothèse alternative (µ>m0, ou µ=m1, par exemple) σ connu Statistique de test : 0 0( , ) sousX N m H n σ :
  • 39. 39 H0 : µ=m0 contre H1 : hypothèse alternative (µ>m0, ou µ=m1, par exemple) σ inconnu Statistique de test : 0 01 ( 1) sous X m T n Student n H S − = − −: , où ( ) 2 1 1 n i i S X X n = = −∑ est l’estimateur de l’écart type. Note : ces deux tests restent applicables si les données ne sont pas Gaussiennes avec un échantillon d’effectif au moins 30. H0 : σ=σ0 contre H1 : hypothèse alternative µ connu Statistique de test : 1 02 0 ( )² ²( ) sous n i i X n H µ χ σ = −∑ : H0 : σ=σ0 contre H1 : hypothèse alternative µ inconnu Statistique de test : 02 0 ² ²( 1) sous nS n Hχ σ −: Tests d’ajustement à une distribution Les deux tests présentés ci-après ont pour but de vérifier que les données sont issues d’une distribution F0(x) Test de Kolmogorov Conditions d’applications : F0(x) entièrement spécifiée (i.e. pas de paramètres) et continue. H0 : données issues de F0(x) contre H1 : données issues d’une autre distribution Statistique de test : 0sup ( ) ( )n n x D F x F x= − , où Fn(x) est la fonction de répartition empirique Sous H0, la loi de Dn est tabulée
  • 40. 40 Test du χ² Conditions d’applications : F0(x) doit être discrète ou discrétisée. p1,…,pk les probabilités théoriques de chaque classe, et N1,…,Nk les effectifs observés pour chaque classe. H0 : données issues de F0(x) contre H1 : données issues d’une autre distribution Statistique de test : 2 1 ( )²k i i i i N np D np= − = ∑ Loi sous H0 : si F0(x) est entièrement spécifiée, ² ²( 1)D kχ −: asymptotiquement si F0(x) dépend de l paramètres, alors il faut estimer ces paramètres par maximum de vraisemblance à partir de la loi discrétisée, et ² ²( 1 )D k lχ − −: asymptotiquement Note : on admettra l’approximation asymptotique si npi>5 pour toutes les classes (procéder éventuellement à des regroupements) Tests de comparaison d’échantillons Test des variances de Fischer Conditions d’application : deux échantillons indépendants de tailles n1 et n2 et de lois normales 1 1 2 2( , ) et ( , )N Nµ σ µ σ . H0 : σ1=σ2 contre H1 : σ1≠σ2 Statistique de test : 2 *2 1 1 1 1 2 *2 2 2 2 2 /( 1) /( 1) n S n S F n S n S − = = − , où *2 S est l’estimateur sans biais de la variance. On mettra au numérateur l’échantillon conduisant à la variance estimée la plus grande. Loi sous H0 : 1 2( 1, 1)F Fisher n n− −: Test des moyennes de Student Conditions d’application : deux échantillons indépendants de tailles n1 et n2 et de lois normales 1 2( , ) et ( , )N Nµ σ µ σ (écarts-types inconnus mais égaux). H0 : µ1=µ2 contre H1 : hypothèse alternative Statistique de test : 1 2 1 2 1 2 0 2 2 1 1 2 2 1 2 ( ) 2 ( 2) sous 1 1 ( ) X X n n T Student n n H n S n S n n − + − = + −   + +    : Note : Si les deux échantillons sont suffisamment grands (quelques dizaines d’individus), le test de Student peut être appliqué même si les données ne sont pas gaussiennes ou ont des variances inégales. On dit que ce test est « robuste » (i.e. peu sensible au non-respect des conditions d’application).
  • 41. 41 Test des rangs de Wilcoxon Conditions d’application : deux échantillons 1 1( ,..., )n x x et 2 1( ,..., )n y y indépendants de tailles n1<n2. On mélange les échantillons et on note rg(xi) le rang d’une observation xi dans cet échantillon mélangé H0 : Les échantillons sont issus d’une même population contre H1 : hypothèse alternative Statistique de test : 1 ( ) n i i rg x S µ σ = − = ∑ , où 1 1 2( 1) 2 n n n µ + + = et 1 2 1 2( 1) 12 n n n n σ + + = Loi sous H0 : (0,1)S N: dès que les deux échantillons sont d’effectifs supérieurs à 8 Test de corrélation Conditions d’application : deux variables X et Y Gaussiennes dont on cherche à savoir si elles sont corrélées. Soit ( , ) X Y Cov X Y ρ σ σ = le coefficient de corrélation. H0 : ρ=0 contre H1 : Hypothèse alternative Statistique de test : 0 2 ( 2) sous 1 ² n R Student n H ρ ρ − = − − : Note : Ce test permet également de tester la nullité du paramètre a d’une régression Y=aX+b, puisque ( , ) ˆ ( ) Y X Cov X Y a Var X σ ρ σ = = Test de stationnarité Test de Pettitt Conditions d’application : échantillon 1( ,..., )nx x dont on cherche à savoir s’il présente une dérive (rupture ou tendance) H0 : Echantillon stationnaire contre H1 : Hypothèse alternative Statistique de test : max(| ( ) |) k S U k= , où 1 1 ( ) ( ) k n i j i j k U k signe x x = = + = −∑ ∑ Loi sous H0 : 2 0 0 3 2 6 ( ) 2exp s P S s n n  − ≥ =   + 
  • 42. 42 V. Applications à l’étude des crues Nous allons à présent appliquer les méthodes décrites précédemment à l’étude des crues en hydrologie. Il existe quelques particularités liées aux types de données utilisées, ou aux « habitudes » des hydrologues, mais le cadre théorique est celui de la statistique inférentielle. V.1. Les données Il n’existe pas de manière unique de décrire une crue : on peut s’intéresser à une hauteur d’eau, un temps de submersion, une vitesse d’écoulement… La variable la plus utilisée par les hydrologues est le débit, car c’est la variable la moins influencée par les conditions locales aux sites de mesure, et c’est aussi celle qui est physiquement la plus maniable (lien avec la pluie). Malheureusement, un débit ne peut se mesurer instantanément, comme une hauteur ou une température. Pour pouvoir disposer de chroniques de débits les plus continues possibles, on utilise une transformation hauteur/débit, matérialisée par une courbe de tarage. Pour tracer cette courbe, on effectue quelques mesures conjointes de débit et de hauteur (cf cours de E. Leblois pour la métrologie des débits), et on ajuste à ce nuage de point une courbe par régression : Courbe de tarage Débit Hauteur Figure 22. Courbe de tarage. Cette transformation permet de passer d’une chronique de hauteurs, mesurées quasiment en continu, à une chronique de débits :
  • 43. 43 Figure 23. Chronique de débits. Dans cette chaîne de traitements, plusieurs sources d’incertitudes apparaissent : Incertitude métrologique liée à la mesure de la hauteur. Incertitude métrologique et opératoire liée aux mesures de débits. Ce type d’erreur peut être assez important pour les débits de crues et d’étiages. Incertitudes liées à l’ajustement d’une courbe de tarage : plusieurs types de courbes sont ajustables, et plusieurs méthodes d’ajustement peuvent être utilisées. Les lois de l’hydraulique permettent de guider cette étape. Incertitude liée à l’extrapolation : Par nature, les évènements extrêmes sont rares, donc difficiles à mesurer. De plus, effectuer un jaugeage en crue est une opération délicate, voire périlleuse (pour le matériel et les hommes). Ainsi, les débits très faibles ou très forts peuvent ne jamais avoir été jaugés, ce qui conduit, lors de la survenue d’un tel événement, à calculer le débit par une extrapolation éloignée du domaine d’observation, d’où un important risque d’erreur. Toutes ces incertitudes ne sont pas prises en compte en général dans l’analyse probabiliste des crues, qui s’attache à quantifier la fluctuation d’échantillonnage. Il est cependant important de garder à l’esprit qu’un débit est, à la base, une grandeur entachée d’incertitudes. Il sera en particulier totalement inutile de travailler avec de trop nombreux chiffres significatifs.
  • 44. 44 V.2. L’échantillonnage A partir d’une chronique de débit, il s’agit d’extraire des variables caractéristiques des crues. Nous nous intéresserons ici aux pics de débits, mais d’autres variables peuvent être étudiées (volume de crue, durée, temps de montée ou de descente, etc…) V.2.1. Techniques d’échantillonnage Nous allons nous intéresser aux deux principales techniques utilisées par les hydrologues : l’échantillonnage par valeurs maximales annuelles (MAXAN) et l’échantillonnage par valeurs supérieures à un seuil (SUPSEUIL). L’échantillonnage MAXAN consiste à sélectionner chaque année le débit observé le plus fort. L’échantillonnage SUPSEUIL consiste quant à lui à choisir un seuil, puis à sélectionner les pointes des évènements dépassant ce seuil. Dans la pratique, plutôt qu’un seuil, on se donne en général un nombre d’évènements à sélectionner par an (en moyenne), et par itérations successives, on calcule le seuil conduisant à cet objectif. Année hydrologique : Valeurs maximales annuelles Figure 24. Echantillonnage de type MAXAN.
  • 45. 45 Figure 25. Echantillonnage de type SUPSEUIL. Chacune de ces méthodes présente des avantages et des inconvénients, notamment dans l’optique d’une analyse statistique où nous souhaiterions disposer d’un échantillon iid : MAXAN : La mise en œuvre de cette méthode est très simple. En ne sélectionnant qu’un unique événement par an, on s’assure de l’indépendance entre les valeurs, sauf éventuellement si une crue importante se produit à cheval sur deux années successives, conduisant, par exemple, à échantillonner un débit le 31 décembre 2000 et un autre le 1er janvier 2001. Pour cette raison, on échantillonne souvent par année hydrologique, chaque année étant séparée par une période d’étiage. L’inconvénient est d’ignorer un certain nombre d’évènements lors des années où beaucoup de crues se sont produites, et inversement de prendre en compte des évènements peu importants lors des années peu actives. L’homogénéité de l’échantillon n’est donc pas optimale. SUPSEUIL : cette technique est plus difficile à mettre en œuvre. En effet, il faut ajouter des contraintes d’indépendance afin de ne pas échantillonner plusieurs fois le même événement hydrologique, comme dans l’exemple ci-dessous : Figure 26. Illustration de la nécessité des contraintes d'indépendance.
  • 46. 46 On impose en général une contrainte d’espacement temporel minimal entre deux pointes sélectionnées, ainsi qu’une contrainte de redescente vers un débit de base. Bien choisies, ces contraintes permettent de garantir l’indépendance de l’échantillon. Cet échantillon sera également plus homogène que celui fournit par la méthode MAXAN. Autre avantage, il est possible d’étoffer l’échantillon en choisissant, en moyenne, plus d’un événement par an. D’autres subtilités peuvent être employées pour améliorer l’échantillonnage. Citons notamment l’échantillonnage saisonnalisé, qui permet par exemple d’obtenir deux échantillons pour les cours d’eau à régime mixte (pluvio-nival). V.2.2. Propriétés probabilistes des échantillons Nous noterons X* la variable aléatoire génératrice des données fournies par la méthode MAXAN, et Xs la variable aléatoire génératrice des données fournies par la méthode SUPSEUIL. L’expérience (et le théorème des valeurs extrêmes) montrent que les lois suivantes sont bien adaptées pour décrire ces variables : X* suit une loi généralisée des valeurs extrêmes (GEV) à trois paramètres. On suppose parfois directement que le paramètre de forme est nul, c’est à dire qu’on choisit plutôt de modéliser X* par une loi de Gumbel à deux paramètres. Loi de Gumbel Gu(µ,λ) 1 ( ) exp exp ( ) exp exp 0, 0 ( ) , avec 0.5772 (constante d'Euler-Mascheroni) ² ( ) ² 6 x x f x x F x E X Var X µ µ λ λ λ µ λ µ λ µ γλ γ π λ  − −  = − − −       −  = − −      > > = + = = Loi généralisée des valeurs extrêmes GEV(µ, λ, ξ ) : ( ) 1 1 1 1 2 1 ( ) ( ) ( ) 1 exp 1 ( ) ( ) exp 1 ( ) 0, 0, 0, 1 0 ( ) (1 ( 1)) ( ) (2 1) ²( 1) x x f x x F x x E X Var X ξ ξ ξ ξ µ ξ µ λ λ λ ξ µ λ ξ µ µ λ ξ λ λ µ ξ ξ λ ξ ξ ξ −   − −    = − − −             −  = − −       − > > ≠ − > = + − Γ +   = Γ + − Γ +   
  • 47. 47 Xs suit une loi de Pareto généralisée à trois paramètres. De même que pour les échantillons MAXAN, on se contente souvent d’ajuster une loi exponentielle à deux paramètres, ce qui correspond à supposer que le paramètre de forme est nul. Loi exponentielle Exp(x0, λ ) 0 0 0 0 0 2 1 si( ) 0 sinon 1 si( ) 0 sinon ( ) ( ) x x x x e x xf x e x xF x E X x Var X λ λ λ λ λ − − − −   >=      − >=   = + = Loi de Pareto généralisée GP(x0, λ, ξ) 1 1 0 1 0 0 0 2 2 ( )1 ( ) 1 ( ) ( ) 1 1 0 ( ) 1 0 ( ) 1 ( ) (1 ) (1 2 ) x x f x x x F x x x E X x Var X ξ ξ ξ λ λ ξ λ λ ξ ξ λ λ ξ λ ξ ξ −  − = −     − = − −    > 0 ≠ − − > = + + = + + L’échantillonnage SUPSEUIL conduit à s’intéresser à une autre variable, décrivant le processus d’occurrence des crues. Il est en effet possible de considérer une des variables suivantes : Nt, le nombre de crues dans un intervalle de temps [0,t]. On suppose généralement que cette variable suit une loi de Poisson : ( ) ( ) e ! k t t t P N k k µ µ− = = D’autres lois sont parfois utilisées, comme la loi binomiale ou la loi binomiale négative. θ , le temps séparant deux occurrences de crue, modélisé par une loi exponentielle simple : 1 si 0 ( ) 0 sinon t e t P t µ θ − − > ≤ =  
  • 48. 48 Exercice : Démontrer que si Nt suit une loi de poisson de paramètre µ, alors θ suit une loi exponentielle simple de même paramètre µ. Il est possible de démontrer que si le processus d’occurrence suit une loi de Poisson et le processus de dépassement du seuil une loi exponentielle (échantillonnage SUPSEUIL), ces deux variables étant supposées indépendantes, alors le maximum annuel suit une loi de Gumbel (MAXAN). De même, il existe une relation reliant les lois de Poisson + Pareto généralisée à la loi GEV. Exercice : Démontrer que si Xs suit une loi exponentielle et Nt suit une loi de Poisson, avec Xs et Nt indépendantes, alors X* suit une loi de Gumbel. V.3. Estimation des paramètres des distributions Une distribution ayant été choisie pour les variables X* , Xs ou Nt, l’estimation des paramètres peut se faire par une des deux méthodes décrites au chapitre précédent : la méthode des moments ou la méthode du maximum de vraisemblance. Pour information, les hydrologues utilisent parfois une variante de la méthode des moments, appelée méthode des L-moments, qui a pour but de rendre l’estimation plus robuste vis-à-vis des observations extrêmes. Nous nous contentons ci-après de donner les formules des estimateurs classiques.
  • 49. 49 V.3.1. Formulaire des estimateurs Distribution Variable Méthode des moments Maximum de vraisemblance Exponentielle simple Exp(µ) θ , Intervalle inter- occurrences 1 ˆµ θ = idem moments Poisson P(µ) Nt, nombre d’évènements dans [0,t] ˆ Nb de crues Durée d'observation tNµ = = idem moments Gumbel Gu(µ,λ) X* , debit MAXAN * * 6ˆ ˆˆ X S X λ π µ γλ  =   = − Méthode numérique GEV(µ, λ, ξ ) X* , debit MAXAN * * 3 13/ 2 2 1/ 2 2 * ˆ ˆ ˆ ˆ(3 1) 3 ( 1) (2 1) 2 ( 1)ˆ ˆ| | ˆ ˆ(2 1) ( 1) ˆ ˆ ˆ ˆ| | (2 1) ( 1) ˆ ˆˆ 1 ( 1) ˆ X X S X ξ ξ ξ ξξ β ξ ξ ξ λ ξ ξ ξ λ µ ξ ξ −   Γ + − Γ + Γ + + Γ + − =   Γ + − Γ +    = Γ + − Γ +      = − − Γ +     La première équation est résolue numériquement. * 1 X β est le coefficient d’asymétrie de l’échantillon. Méthode numérique. Préférable car l’existence des moments n’est pas assurée. Exponentielle Exp(x0, λ ) Xs, débit SUPSEUIL x0 supposé connu (valeur du seuil) 0 ˆ sX xλ = − idem moments Pareto Généralisée GP(x0, λ, ξ) Xs, débit SUPSEUIL x0 supposé connu (valeur du seuil) 0 0 2 2 0 2 1ˆ ( )² 1 2 ( )1ˆ 1 2 S S S S X S X X x X x S X x S λ ξ  −  = − +      −  = −     Méthode numérique. Préférable car l’existence des moments n’est pas assurée. V.3.2. Représentation graphique Pour juger de la qualité de l’ajustement, les hydrologues représentent en général sur un même graphique les fonctions de répartition empirique et estimée. Cependant, par rapport aux représentations classiques que nous avons vues précédemment, il existe quelques originalités. Nous allons illustrer ces différences à partir du jeu de données suivant, représentant les crues supérieures à 72 m3 .s-1 entre 1960 et 2002 pour l’Ubaye à Barcelonnette :
  • 50. 50 QJX classé Année jour 72.6 1985 158 73.5 1973 125 74 1979 152 75.6 1994 310 75.8 1984 174 77.7 1986 141 79.9 1977 165 83 1972 158 84.1 1983 160 84.7 1994 267 91 1983 136 98.1 2000 165 100 2001 151 111 2000 289 112 1978 162 120 1963 320 Tableau 9. Tableau de données. Nous allons ajuster une loi exponentielle à cet échantillon. Les formules ci-dessus nous donnent 0 ˆ 88.3 72 16.3sX xλ = − = − = . On peut donc à présent tracer, sur un même graphique, la fonction de répartition estimée et la fonction de distribution empirique (c’est à dire la courbe des fréquences cumulées, dont nous ne représentons que les points observés) : 0 0.2 0.4 0.6 0.8 1 1.2 50 70 90 110 130 150 Débit fréquencecumulée Estimée Empirique Figure 27. Fonction de répartition. En hydrologie, il est fréquent que les axes soient inversés, c’est à dire que l’on portera en abscisse la fréquence cumulée, ou probabilité de non-dépassement, et en ordonnée le débit correspondant :
  • 51. 51 50 60 70 80 90 100 110 120 130 140 150 0 0.2 0.4 0.6 0.8 1 fréquence cumulée Débit Estimée Empirique Figure 28. Fonction de répartition. Le seconde originalité est liée au calcul des fréquences cumulées empiriques : jusqu’ici, nous utilisions la formule i/N. Cependant, la fréquence cumulée est une fonction des observations, c’est donc une statistique soumise à la fluctuation d’échantillonnage. Rien ne prouve que l’estimateur i/N est optimal dans ce cadre. En fait, des études ont montré que cet estimateur est biaisé pour les distributions que nous utilisons, on lui préfèrera donc la formule suivante : 0.3 0.4 i N − + . Notons que ceci ne change en rien nos estimations, qui ne dépendent pas des fréquences empiriques. 50 60 70 80 90 100 110 120 130 140 150 0 0.5 1 fréquence cumulée Débit Estimée Empirique Empirique débiaisé Figure 29. Fonction de répartition. Enfin, il est d’usage de linéariser la figure ci-dessus, en effectuant une transformation sur l’axe des abscisses. Pour un échantillonnage SUPSEUIL, étant donné la définition de la loi
  • 52. 52 exponentielle, 0 01 si( ) 0 sinon x x e x xF x λ − −  − >=   , on tracera les débits en fonction de la variable log(1 )p− − . Pour un échantillonnage MAXAN, le changement de variable consistera à reporter en abscisses la variable log( log( ))p− − . 50 60 70 80 90 100 110 120 130 140 150 0 1 2 3 4 -log(1-p) Débit Estimée Empirique débiaisé Figure 30. Fonction de répartition. V.4. Quantiles, périodes de retour et intervalles de confiance Les graphiques précédents permettent, étant donné une probabilité p, de calculer le p- quantile de la distribution estimée des débits de crue. Ces quantiles sont des descripteurs du comportement des débits extrêmes sur un site bien précis. Ils ont également une importance réglementaire, en terme d’aménagement du territoire notamment, puisque les ouvrages à risque (centrales nucléaires, réseaux routiers, zones résidentielles ou industrielles) doivent être protégés d’un événement de probabilité donnée, dépendant de la vulnérabilité de l’aménagement. Dans le domaine de l’hydrologie, et plus généralement dans celui de la gestion des risques, la notion de probabilité de non dépassement est généralement remplacée par la notion de période de retour. La période de retour T d’un événement est la durée moyenne qui sépare deux crues supérieures ou égales à cet événement. Inversement, une crue de période de retour T est une crue qui, en moyenne, est égalée ou dépassée toutes les T unités de temps. En général, l’unité de temps est l’année, et les relations suivantes lient les probabilités de non dépassement et les périodes de retour : Echantillonnage MAXAN : 1 1 p T − = Echantillonnage SUPSEUIL avec µ valeurs par an : 1 1 p Tµ − = Il est bien important d’avoir conscience que malgré l’utilisation du terme « période », il n’y a pas de périodicité déterministe dans l’occurrence des crues, et il est donc tout à fait possible d’avoir plusieurs crues de période de retour 10 ans au cours de la même année. Il faut donc bien garder à l’esprit que la période de retour n’est rien d’autre qu’une probabilité transformée. Une crue de période de retour 10 ans (p=0.9) est dite décennale, centennale si T=100 ans (p=0.99), millennale si T=1000 ans (p=0.999).
  • 53. 53 Il est également possible de calculer analytiquement ces quantiles, en inversant les fonctions de répartition. En effet, un quantile qp vérifie, par définition, F(qp)=p, soit 1 ( )pq F p− = Les formules suivantes permettent de calculer les quantiles : Loi de Gumbel : log( log( ))pq pµ λ= − − GEV: ( )1 ( log( ))pq p ξλ µ ξ = + − − Loi Exponentielle: 0 log(1 )pq x pλ= − − Loi de Pareto Généralisée: 0 (1 (1 ) )pq x p ξλ ξ = + − − Dans la pratique, on calcule ces quantiles en remplaçant les paramètres par leur estimation. Ceci implique que les quantiles, comme toute statistique, sont soumis aux fluctuations d’échantillonnage. Il est donc important de quantifier cette incertitude, pour bien cerner les limites de notre approche statistique. Il est en effet possible, analytiquement, de donner une valeur pour un quantile de période de retour 10 000 ans, mais on sent bien intuitivement que cette valeur ne signifierait pas grand chose avec 20 ans de données disponibles pour l’analyse… Le calcul des intervalles de confiance est assez fastidieux. Nous nous bornerons ici à donner quelques formules utiles. La formule suivante donne la variance des quantiles pour p paramètres estimés par la méthode des moments : 2 1 1 ˆ( ) ( ) 2 ( , ) p p p p p p i i j i i j ii i j q q q Var q Var m Cov m m m m m= = ≠  ∂ ∂ ∂ ≈ +   ∂ ∂ ∂  ∑ ∑∑ Avec l’exemple de la loi exponentielle de l’exemple ci-dessus, on obtient (à faire en exercice): [ ] 2 2 ˆ( ) log(1 ) sX pVar q p n σ ≈ − . Si on suppose que le quantile est asymptotiquement Gaussien et non biaisé, alors l’intervalle de confiance au niveau α est de la forme 1 (1 ) / 2ˆ ˆ( )p pq u Var qα− −± , où u1-(1-α)/2 est le quantile de la loi normale N(0,1). La figure ci-dessous présente l’intervalle de confiance à 90% : 50 70 90 110 130 150 170 190 210 230 250 0 2 4 6 -log(1-p) Débit Estimée Empirique débiaisé Figure 31. Fonction de répartition et intervalle de confiance à 90%.
  • 54. 54 Cette hypothèse de normalité asymptotique des quantiles est à considérer avec précaution, surtout si l’effectif de l’échantillon n’est pas très important. Il existe des théorèmes, proche du théorème central limite, garantissant théoriquement cette normalité, mais certaines lois que nous utilisons peuvent invalider les hypothèses de ces théorèmes. En particulier, les lois GEV et de Pareto Généralisée peuvent avoir des moments infinis. Plusieurs formules plus ou moins empiriques ont donc été établies pour calculer des intervalles de confiance plus réalistes. Pour une loi de Gumbel, on utilise en général l’approximation suivante : Borne inférieure : 1ˆ ˆpq hσ− Borne supérieure : 2ˆ ˆpq h σ+ Avec : 1 A B h C − = et 1 A B h C + = 2 1 (1 ) / 2 1 1.13 1.1( )p pt t A u n α− − + + = 2 1 (1 ) / 2 1.1 0.57 ( ) pt B u n α− − + = 2 1 (1 ) / 2 1.1 1 ( )C u n α− −= − log( log( )) 0.577 1.28 p p t − − − = Notons que si n est grand, alors B devient négligeable devant A, et l’intervalle de confiance devient symétrique, signe de convergence vers la normalité. Voici un exemple d’intervalle de confiance à 90% à partir d’un échantillon MAXAN d’effectif 21 : Figure 32. Fonction de répartition et intervalle de confiance à 90%.
  • 55. 55 On voit clairement que cet intervalle n’est pas symétrique, et que l’estimation de débits de périodes de retour 100 ou 1000 ans avec seulement 20 années de données est illusoire, puisque les valeurs varient dans l’intervalle de confiance du simple au double. Une alternative intéressante et simple à mettre en œuvre pour déterminer ces intervalles est l’utilisation des méthodes de rééchantillonnage, le bootstrap notamment, qui permettent de ne pas poser d’hypothèses a priori sur la distribution des quantiles.
  • 56. 56 VI. Annexes Annexe 1 : La méthode CRUPEDIX QIXA10 observé QIXA10estimé
  • 57. 57 Annexe 2 : tables usuelles Probabilité de trouver une valeur inférieure à u Fonction de répartition de la loi normale réduite P=F(u)P=F(u) Lorsque u est négatif, il faut prendre le complément à l’unité de la valeur lue dans la table : F(u)=1-F(-u) Ex. : pour u = 1.21, F(u)= 0.8869, pour u = -1.21, F(u)= 0.1131 P 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.0 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.1 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.2 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.3 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.4 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.5 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.6 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.7 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.8 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 0.9 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.0 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.1 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.2 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.3 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.4 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.5 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.6 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.7 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.8 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 1.9 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.0 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.1 2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 2.2 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.3 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.4 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.5 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.6 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.7 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 2.8 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 2.9 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 P u 3 3.1 3.2 3.3 3.4 3.5 3.6 3.8 4 4.5 F(u) 0.998650 0.999032 0.999313 0.999517 0.999663 0.999767 0.999841 0.999928 0.999968 0.999997
  • 58. 58 Fractiles de la loi normale centrée réduite Valeur de u telle que Prob(X < u) = P avec P donnée P=F(u)P=F(u) P 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.010 0.00 3.0902 2.8782 2.7478 2.6521 2.5758 2.5121 2.4573 2.4089 2.3656 2.3263 0.00 0.01 2.3263 2.2904 2.2571 2.2262 2.1973 2.1701 2.1444 2.1201 2.0969 2.0748 2.0537 0.01 0.02 2.0537 2.0335 2.0141 1.9954 1.9774 1.9600 1.9431 1.9268 1.9110 1.8957 1.8808 0.02 0.03 1.8808 1.8663 1.8522 1.8384 1.8250 1.8119 1.7991 1.7866 1.7744 1.7624 1.7507 0.03 0.04 1.7507 1.7392 1.7279 1.7169 1.7060 1.6954 1.6849 1.6747 1.6646 1.6546 1.6449 0.04 0.05 1.6449 1.6352 1.6258 1.6164 1.6072 1.5982 1.5893 1.5805 1.5718 1.5632 1.5548 0.05 0.06 1.5548 1.5464 1.5382 1.5301 1.5220 1.5141 1.5063 1.4985 1.4909 1.4833 1.4758 0.06 0.07 1.4758 1.4684 1.4611 1.4538 1.4466 1.4395 1.4325 1.4255 1.4187 1.4118 1.4051 0.07 0.08 1.4051 1.3984 1.3917 1.3852 1.3787 1.3722 1.3658 1.3595 1.3532 1.3469 1.3408 0.08 0.09 1.3408 1.3346 1.3285 1.3225 1.3165 1.3106 1.3047 1.2988 1.2930 1.2873 1.2816 0.09 0.10 1.2816 1.2759 1.2702 1.2646 1.2591 1.2536 1.2481 1.2426 1.2372 1.2319 1.2265 0.10 0.11 1.2265 1.2212 1.2160 1.2107 1.2055 1.2004 1.1952 1.1901 1.1850 1.1800 1.1750 0.11 0.12 1.1750 1.1700 1.1650 1.1601 1.1552 1.1503 1.1455 1.1407 1.1359 1.1311 1.1264 0.12 0.13 1.1264 1.1217 1.1170 1.1123 1.1077 1.1031 1.0985 1.0939 1.0893 1.0848 1.0803 0.13 0.14 1.0803 1.0758 1.0714 1.0669 1.0625 1.0581 1.0537 1.0494 1.0451 1.0407 1.0364 0.14 0.15 1.0364 1.0322 1.0279 1.0237 1.0194 1.0152 1.0110 1.0069 1.0027 0.9986 0.9945 0.15 0.16 0.9945 0.9904 0.9863 0.9822 0.9782 0.9741 0.9701 0.9661 0.9621 0.9581 0.9542 0.16 0.17 0.9542 0.9502 0.9463 0.9424 0.9385 0.9346 0.9307 0.9269 0.9230 0.9192 0.9154 0.17 0.18 0.9154 0.9116 0.9078 0.9040 0.9002 0.8965 0.8927 0.8890 0.8853 0.8816 0.8779 0.18 0.19 0.8779 0.8742 0.8706 0.8669 0.8632 0.8596 0.8560 0.8524 0.8488 0.8452 0.8416 0.19 0.20 0.8416 0.8381 0.8345 0.8310 0.8274 0.8239 0.8204 0.8169 0.8134 0.8099 0.8064 0.20 0.21 0.8064 0.8030 0.7995 0.7961 0.7926 0.7892 0.7858 0.7824 0.7790 0.7756 0.7722 0.21 0.22 0.7722 0.7688 0.7655 0.7621 0.7588 0.7554 0.7521 0.7488 0.7454 0.7421 0.7388 0.22 0.23 0.7388 0.7356 0.7323 0.7290 0.7257 0.7225 0.7192 0.7160 0.7128 0.7095 0.7063 0.23 0.24 0.7063 0.7031 0.6999 0.6967 0.6935 0.6903 0.6871 0.6840 0.6808 0.6776 0.6745 0.24 0.25 0.6745 0.6713 0.6682 0.6651 0.6620 0.6588 0.6557 0.6526 0.6495 0.6464 0.6433 0.25 0.26 0.6433 0.6403 0.6372 0.6341 0.6311 0.6280 0.6250 0.6219 0.6189 0.6158 0.6128 0.26 0.27 0.6128 0.6098 0.6068 0.6038 0.6008 0.5978 0.5948 0.5918 0.5888 0.5858 0.5828 0.27 0.28 0.5828 0.5799 0.5769 0.5740 0.5710 0.5681 0.5651 0.5622 0.5592 0.5563 0.5534 0.28 0.29 0.5534 0.5505 0.5476 0.5446 0.5417 0.5388 0.5359 0.5330 0.5302 0.5273 0.5244 0.29 0.30 0.5244 0.5215 0.5187 0.5158 0.5129 0.5101 0.5072 0.5044 0.5015 0.4987 0.4958 0.30 0.31 0.4958 0.4930 0.4902 0.4874 0.4845 0.4817 0.4789 0.4761 0.4733 0.4705 0.4677 0.31 0.32 0.4677 0.4649 0.4621 0.4593 0.4565 0.4538 0.4510 0.4482 0.4454 0.4427 0.4399 0.32 0.33 0.4399 0.4372 0.4344 0.4316 0.4289 0.4261 0.4234 0.4207 0.4179 0.4152 0.4125 0.33 0.34 0.4125 0.4097 0.4070 0.4043 0.4016 0.3989 0.3961 0.3934 0.3907 0.3880 0.3853 0.34 0.35 0.3853 0.3826 0.3799 0.3772 0.3745 0.3719 0.3692 0.3665 0.3638 0.3611 0.3585 0.35 0.36 0.3585 0.3558 0.3531 0.3505 0.3478 0.3451 0.3425 0.3398 0.3372 0.3345 0.3319 0.36 0.37 0.3319 0.3292 0.3266 0.3239 0.3213 0.3186 0.3160 0.3134 0.3107 0.3081 0.3055 0.37 0.38 0.3055 0.3029 0.3002 0.2976 0.2950 0.2924 0.2898 0.2871 0.2845 0.2819 0.2793 0.38 0.39 0.2793 0.2767 0.2741 0.2715 0.2689 0.2663 0.2637 0.2611 0.2585 0.2559 0.2533 0.39 0.40 0.2533 0.2508 0.2482 0.2456 0.2430 0.2404 0.2378 0.2353 0.2327 0.2301 0.2275 0.40 0.41 0.2275 0.2250 0.2224 0.2198 0.2173 0.2147 0.2121 0.2096 0.2070 0.2045 0.2019 0.41 0.42 0.2019 0.1993 0.1968 0.1942 0.1917 0.1891 0.1866 0.1840 0.1815 0.1789 0.1764 0.42 0.43 0.1764 0.1738 0.1713 0.1687 0.1662 0.1637 0.1611 0.1586 0.1560 0.1535 0.1510 0.43 0.44 0.1510 0.1484 0.1459 0.1434 0.1408 0.1383 0.1358 0.1332 0.1307 0.1282 0.1257 0.44 0.45 0.1257 0.1231 0.1206 0.1181 0.1156 0.1130 0.1105 0.1080 0.1055 0.1030 0.1004 0.45 0.46 0.1004 0.0979 0.0954 0.0929 0.0904 0.0878 0.0853 0.0828 0.0803 0.0778 0.0753 0.46 0.47 0.0753 0.0728 0.0702 0.0677 0.0652 0.0627 0.0602 0.0577 0.0552 0.0527 0.0502 0.47 0.48 0.0502 0.0476 0.0451 0.0426 0.0401 0.0376 0.0351 0.0326 0.0301 0.0276 0.0251 0.48 0.49 0.0251 0.0226 0.0201 0.0175 0.0150 0.0125 0.0100 0.0075 0.0050 0.0025 0.0000 0.49 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.010 P