1. LES TECHNOLOGIES DE LABORATOIRE - N°1 - 2006 — 15
I. Introduction
L’objet de cet article est de donner un aperçu sur les
méthodes statistiques applicables à l’analyse dans le
but d’optimiser soit les erreurs de mesure (aléatoires
ou systématiques) pour apprécier au mieux la
précision et l’exactitude des résultats trouvés lors
d’uneanalyse,soitpoursatisfairel’étudedescritères
de validation dans le cas de la mise au point d’une
nouvelle méthode d’analyse (quand les normes
l’exigent: cas de l’industrie pharmaceutique). On
donnera dans cet article un brève aperçu des tests
statistiques les plus couramment utilisés en analyse
avec des exemples d’applications.
II. Les méthodes statistiques (cas des
petits échantillons)
Pour estimer les erreurs (systématiques ou
aléatoires) affectant des analyses effectuées par des
expérimentateursoupourdéfinirlescritèrespermettant
de valider une méthode d’analyses, il est nécessaire
d’effectuer plusieurs analyses afin d’apprécier
notamment les effets aléatoires ou imprévisibles.
Chaque effet aléatoire est estimé par un paramètre
de dispersion qui est la variance ou son écart-type
associé (racine carrée de la variance).
Ce paramètre est établi à partir de plusieurs mesures
individuelles (yi
) supposées être indépendantes, de
caractère aléatoire et de distribution normale (la
vérification de la normalité et de l’indépendance
peut être effectuée par le test de χ2
qui ne sera pas
décrit dans cet article).
II.1. Distribution normale centrée réduite
Unevariablealéatoire(Y)estdedistributionnormale
lorsque les différentes valeurs individuelles (yi
),
que peut prendre cette variable, apparaissent selon
OUtils statistiques
pour l’Analyse
RESUME : Il est important, pour un expérimentateur, de savoir si le résultat d’une mesure
peut être accepté avec confiance ou s’il faut au contraire le rejeter parce qu’il est faux. Il
est important aussi pour un expérimentateur de savoir si une méthode d’analyse convient à
l’emploi prévu. Enfin, il est important pour un chercheur analyste de savoir si on peut faire
confiance à une nouvelle méthode mise au point et quels sont les critères ou les conditions
à respecter pour s’assurer de sa validité c’est ce qu’on appelle les critères de validations.
L’outil statistique nous permet d’avoir une meilleure approche de tous ce qui précède.
Mots Clés : Tests statistiques, student, Fischer Snedecor, précision, exactitude.
Digua Khalid 1
et Abdelaziz Bouklouze2
E-mail : K.digua@univh2m.ac.ma
1 Laboratoire de Génie des Procédés et de Dépollution, Faculté des Sciences et Techniques Mohammedia
2 Laboratoire de Pharmacologie et Toxicologie, Faculté de Médecine et de Pharmacie de Rabat
2. 16 — LES TECHNOLOGIES DE LABORATOIRE - N°1 - 2006
une probabilité (p) définissant une courbe en forme
de cloche dite « Courbe de Gauss » d’équation
réduite :
( )
)
2
(
2
2
1
u
eup
−
⋅=
π
après un changement de
variable : σ
yy
u
−
=
Loi Normale Centrée Réduite
II.2. Variance et écart-type
Soit V (X) = variance de la variable aléatoire X
SX
= écart-type estimé de la variable aléatoire X
( ) ( ) 11
1
1
1
1
2
12
1
2
2
−
=
−⋅
−
=−⋅
−
== ∑
∑
∑ =
=
= n
SCEx
n
X
X
n
XX
n
SXV
n
i
n
i
i
i
n
i
iX
Avec X : moyenne des Xi
soit n
X
X
n
i
i∑=
= 1
;
CV = 100*Sx
/ X
n : taille du prélèvement ou nombre de Xi
prélevés
SCEx : Sommes des Carrés des Ecarts à la
moyenne
CV: Coefficient de variation
II.3. Les Tests d’hypothèses
Les tests d’hypothèses ont pour but de vérifier
si les données expérimentales sont conformes à
certaines hypothèses théoriques.
1°) l’hypothèse nulle que l’on symbolise par H0
considèrequelesdeuxélémentsousériesd’éléments
sont égaux.
2°) la deuxième étape consiste à la mesure de l’écart
entre les différentes caractéristiques.
3°) la troisième étape consiste à calculer la
probabilité P d’avoir un tel écart si H0
est vraie.
4°) la quatrièmeétapeconsiste à tirerles conclusions
qui s’imposent :
si P est grand, on admet que H0
est plausible, par
contre si P est petit, l’écart est incompatible avec
H0
. La valeur limite de P que l’on se fixe pour
déterminer si P est grand ou petit est le niveau de
confiance ou le seuil de signification (généralement
on choisit P = 0,95 comme niveau de confiance
(α = 0,05 comme seuil de signification).
Quatre situations sont possibles :
- acceptation de H0
vraie
- rejet de H0
vraie : erreur de première espèce (α)
- acceptation de H0
fausse : erreur de deuxième
espèce (β)
- rejet de H0
fausse
II.4. Test de Student
La loi de Student est notamment utilisée pour :
-la détermination de l’intervalle de confiance
d’une moyenne
( ) ( )
n
S
tXm
n
S
tX pp ⋅+≤≤⋅− υυ ,,
bilatéral (avec
p = 1 - 2
α
; α : risque de 1ère
espèce)
- la comparaison d’une variable (ex.
moyenne) à une valeur de référence donnée
(A)
( )υ,pt
S
AX
≤
−
(avec p = 1 – α ; avec α = risque
de 1ère
espèce)
- la comparaison de deux variables
( )2,12
2
2
1
21
υυpt
SS
XX
≤
+
−
(avec p = 1 – α ; avec α = risque de 1ère
espèce)
υ : nombre de degré de liberté de S ; υ1
et υ2
:
nombre de degré de liberté de 2
1S et 2
2S .
a) Test bilatéral
3. LES TECHNOLOGIES DE LABORATOIRE - N°1 - 2006 — 17
Détermination de t : t(α, υ) est lu sur la table
de Student en fonction du risque α et du degré de
liberté υ. α est le risque de première espèce, c’est-
à-dire le risque de déclarer l’hypothèse nulle fausse
alors que dans la réalité elle est vraie. α est souvent
pris égal à 0,05, 1–α = p niveau de confiance.
II.5. Test de Fisher
En général, la loi de Fisher est utilisée :
- pour des tests intervenant dans l’analyse
de la variance ;
- pour la détermination de l’intervalle de
confiance d’un rapport de deux variances ;
- pour la comparaison de deux variances à
une donnée …
Dans notre cas, le test de Fisher consiste à valider
un résultat statistique à un risque α choisi en
comparant deux variances indépendantes
2
1S et
2
2S
selon l’inégalité suivante :
( )2,1,2
2
2
1
υυαF
S
S
>
α : risque de première espèce souvent pris égal à 5 %
υ1
: degré de liberté de
2
1S ; υ2
: degré de liberté
de
2
2S
La valeur de F(α υ1,
υ2
) est lue sur la table de Fisher
Snedecor
Le test de Fisher est significatif lorsque l’inégalité
ci-dessus est vérifiée.
II.6. Test de l’homogénéité des variances
Le test de Cochran permet de vérifier (à un risque
α choisi) l’homogénéité des variances des valeurs
individuelles, c’est-à-dire de vérifier que ces
variances sont peu différentes entre elles.
Le test de Cochran consiste à comparer le critère de
Cochran de ces variances avec celui lu sur la table
correspondante à un risque α.
Soit un ensemble de p variance Si
2
, toutes calculées
à partir du même nombre n de résultats de réplique,
le critère de Cochran est :
∑=
= p
i
iS
S
C
1
2
2
max
2
iS
: Variance calculée à partir de n résultats d’un
même groupe i
2
maxS
: Ecart-type maximal de l’ensemble des p Si
2
Le critère de Cochran ne teste que la plus forte
valeur d’un ensemble de variances (ou ses écart-
types associés) et est donc un test unilatéral de
valeur aberrante.
Le test de Cochran correspond à vérifier l’inégalité
suivante :
C < C(αn,p)
C(αn,p) est lu sur la table de Cochran en fonction
du risque α = 5 % du nombre de répétitions (n) et
du nombre de groupe p.
Remarque :
En pratique, le nombre n de répétitions peut
légèrement varier d’un groupe à un autre en
raison des données manquantes, redondantes ou
aberrantes.
Dans le cas d’une validation, on admet cependant
que dans une expérience correctement organisée,
de telles variations sont limitées et peuvent être
ignorées.
Le critère de Cochran est alors appliqué en
prenant pour n la moyenne arrondie des nombres
d’observations nj
des P groupes (ou séries de
valeurs).
III. Quelques exemples d’applications des
tests statistiques courants
III.1. Evaluation de la précision (fidélité)
et de l’intervalle de confiance
La précision est une grandeur caractéristique de la
dispersion des résultas autour de la moyenne. Elle
est souvent caractérisée par l’écart type, la variance
ou le coefficient de variation (CV) d’une série de
mesure.
La précision d’un dosage peut être définie au
sein d’une même série d’analyse d’un échantillon
homogène dans des conditions prescrites ou d’une
série à l’autre. La précision peut être définie par trois
niveaux. La répétabilité, la précision intermédiaire,
et la reproductibilité (voir définitions plus loin).
La répétabilité exprime la précision sous les même
conditions opératoires dans un intervalle de temps
4. 18 — LES TECHNOLOGIES DE LABORATOIRE - N°1 - 2006
assez court (parfois appelée précision intra-essai).
La précision intermédiaire exprime la précision
dans des conditions intra laboratoire différentes (ex.
techniciens différents, équipements différents, jours
différents). La reproductibilité exprime la précision
entre laboratoires.
On sait que la moyenne d’une série de mesures,
composés chacune de n résultats (ce que l’on peut
identifier à une série de valeurs extraites d’une
population quelconque de moyenne m et d’écart
type sigma) suit une loi d’autant plus voisine de la
loi normale que le nombre de mesures est grand.
On calcule les estimateurs de la moyenne X et
de l’écart type S et on détermine un intervalle de
confiance à 95 %. La table de student fournit un
coefficient t pour N= n - 1 et P = 0,95 (ou α = 0,05) :
la valeur moyenne à 95 % de chance de se trouver
dans les limites :
( ) ( )
n
S
tXm
n
S
tX pp ⋅+≤≤⋅− υυ ,,
La différence existant entre l’écart type (S ) et l’écart
moyen (Sm
= S/√n ) réside dans le fait que l’un
affecte un résultat isolé et l’autre une moyenne.
Exemple: considérons, par exemple, une solution
de Ca²+
que l’on analyse par spectrométrie
d’absorption atomique. En répétant la mesure 10
fois de suite, on obtient les valeurs suivantes pour
l’absorbance Ai
: 0,152 ; 0,152 ; 0,157 ; 0,157 ;
0,156 ; 0,156 ; 0,156 ; 0,154 ; 0,154 ; 0,154.
La moyenne Ā = 0,155, la variance S2
= 3,5 10-6
est
l’écart type
3
1,89.10S −
= ≅ 0,002.
Le coefficient de variation CV = 100*1,89*10-3
/0,155 = 1,22%. Les limites de confiance peuvent
être fixées par la formule :
StAAiStA )(p,)(p, υυ +〈〈−
pour toute nouvelle mesure
n
StA
n
StA )(p,)(p, υυ +〈〈− m
pour la moyenne
t étant le facteur de confiance (où tcr
= t critique)
pour lequel les valeurs à utiliser sont données dans
la table de student (en fonction du nombre de degrés
de liberté N = (Σni
) - 1 et de la probabilité P (ou
pour un risque α )).
Ainsi, pour 10 essais, il y a 95 % de chance que
toute nouvelle mesure tombe dans l’intervalle ( A
± 2,26 S) soit (0,155 ± 0,004) et 95 % de chance
(si n est grand) pour que la moyenne tombe dans
l’intervalle ( A ± 2,26 S/√10) soit (0,155 ± 0,001).
Remarque : si la population d’origine n’est pas
normale, on peut en extraire de petits échantillons
et prendre les moyennes respectives. La distribution
de ces moyennes tend très vite vers une distribution
normale. On peut donc appliquer à ces moyennes les
tests statistiques basés sur la distribution normale.
III.2.Evaluationd’uneméthodededosage
(tests t et F)
Dans le cadre de la validation d’une méthode interne
de dosage de l’acidité totale d’une boisson, les
résultats suivants ont été obtenus avec une boisson
de référence interne :
Expérimentateur A
Méthode interne 5,65 5,60 5,58 5,61 5,55 5,63 5,61 5,50
Méthode de référence 5,50 5,55 5,56 5,50 5,58 5,65
Expérimentateur B
Méthode interne 5,70 5,65 5,75 5,80 5,60 5,65 5,71 5,80
On utilisant un produit de référence certifié qui a une
acidité totale de 5,55 ± 0,02, les résultats suivants
ont été obtenus en utilisant la méthode interne :
Expérimentateur A 5,50 5,55 5,56 5,51 5,45 5,60 5,64
On se propose dans un premier temps, de traiter
statistiquement ces résultats (estimation des
variances, comparaison de moyennes).
III.2.1. Calcul des moyennes et des variances
Expérimentateur A : boisson de référence interne
Méthode Moyenne DDL Variance Ecart
type
Interne 5,591250 7 0,002269 0,047640
Référence 5,556667 5 0,003147 0,056095
Expérimentateur B : boisson de référence interne
Méthode Moyenne DDL Variance Ecart type
Interne 5,707500 7 0,005307 0,072850
Produit de référence Certifié
Expérimentateur Moyenne DDL Variance Ecart type
A 5,544286 6 0,004095 0,063994
III.2.2. Comparaison des variances : Précision
ou fidélité (test F)
5. LES TECHNOLOGIES DE LABORATOIRE - N°1 - 2006 — 19
III.2.2.1. Précision de la méthode interne/
référence (expérimentateur A)
La valeur trouvée :
721,02
2
int
==
référence
erne
S
S
F
;
la valeur de la table : F (95,7,5)
= 4,88
F< F table : la différence entre la précision
de la méthode interne et celle de la mé-
thode de référence n’est pas significative
(P=0,95 ; α=0,05) pour l’expérimentateur A
III.2.2.2. Comparaison des deux variances
internes
La valeur trouvée
4275,02
int
2
int
==
erneb
ernea
S
S
F
;
la valeur de la table : F(95,7,7)
= 3,79
F < F table : les deux variances internes ne
sont pas significativement différentes. La
fidélité de l’expérimentateur A est similaire
à celle de l’expérimentateur B.
On peut estimer l’écart type interne
0615,0
14
77 2
int
2
int
int =
×+×
= ernebernea
erne
SS
S
III.2.3. Comparaison des Moyennes (test t)
Critère t :
2
)(
2
)( bmam
ba
SS
xx
t
+
−
= ;
a : Expérimentateur A ;
b : Expérimentateur B
Comparaisondesmoyennestrouvéesparlaméthode
interne par les expérimentateurs A et B.
778,3
8/005307,08/002269,0
591250,5707500,5
=
+
−
=t ;
t table : t(95,14)
= 2,14
t trouvé > t table : la différence entre les
deux moyennes trouvées, par les deux ex-
périmentateurs A,B, par la méthode interne
est significative
III.2.4. Evaluation de la justesse (exactitude)
Critère t :
)(am
vraiea
S
xx
t
−
= ;
Calcul de t : 23,0
7/004095,0
55,5544286,5
=
−
=t ;
Valeur de la table t : t(95,6)
= 2,447
t trouvé < t table, la différence entre la val-
eur trouvée par l’expérimentateur A et la
valeur de référence n’est pas significative
III.2.5. Conclusion
On peut conclure qu’on se fiant uniquement à
l’expérimentateur A, la méthode interne de dosage
est bonne et le résultat trouvé est exacte.
IV. Conclusion générale
Dans cet article de synthèse, nous avons ni le temps
ni la prétention de donner tous les outils statistiques
nécessaire au traitement statistique des données
analytiques, mais nous espérons et nous souhaitons
quelelecteuraprisconsciencedel’intérêtdel’outils
statistique dans le domaine analytique (qualité des
analyse, contrôle qualité et validation analytique…
etc.).
Références
1) Les plans d’expériences : De l’expérimentation à
l’assurance qualité
Gilles Sado et Marie Christine Sado
AFNOR, Edition 2000
2) Guide de validation analytique : Rapport d’une
commission de SFSTP
I. Méthodologie.
J.Caporal-Gautier, J.M. Nivet, P. Algranti, M. Guilloteau,
M. Histe, M. Lallier, J.J. N’Guyen-Huu et R. Russotto.
STP Pharma Pratiques 2 (4) 205-226 1992.
3) Analytical Method Development and Validation
M.E. Swartz et Ira S. Krull
Marcel Dekker, 1997.