SlideShare une entreprise Scribd logo
1  sur  19
Probabilités et
variables aléatoires
Adapté de Yannis Korilis, Christian St-Jean, Dave
DeBarr, Bob Carpenter, Jennifer Chu-Carroll et
plusieurs autres
 Suite d’évènements dont les variables varient dans des
intervalles de valeurs connus, sans que les valeurs précises le
soient avec une certitude absolue
 La fréquence d’occurrence de chaque valeur est utilisée
comme mesure relative de sa certitude, ou probabilité
d’occurrence
Expérience aléatoire et probabilité
x
de
valeurs
des
ns
observatio
d
nombre
x
observe
on
l
que
fois
de
nombre
x
P
'
'
)
(





 Expérience aléatoire : Suite d’évènements pris dans un espace
 sur lequel est définie une probabilité P.
 Un événement est une partie de  notée A.
 Chaque événement possède une probabilité P(A) telle que, dans
l’espace probabilisé (, A, P), on a :
P()=1 (il est certain qu’un évènement se produise, sans savoir lequel)
P(A) + P(Ac)=1 (Si un évènement ne se produit pas, un des autres se produira)
 La loi de probabilité triviale est :
Cas discret Cas continu
)
(
)
(
)
(


Card
A
Card
A
P 

A
dx
x
p
A
P )
(
)
(
Approche évènementielle
 Variable numérique dont les valeurs dépendent des résultats
d’une expérience aléatoire
 Représente une projection de (, A, P) dans un espace numérique
 Permet le calcul des probabilités par des méthodes de l’analyse
mathématique au lieu de raisonner sur des ensembles
 Variable aléatoire discrète : ses valeurs sont dénombrables
 Espérance : la valeur moyenne
 Variance : l’écart quadratique moyen par rapport à la valeur
moyenne
 
 E
x
X
P
x
X
E )
(
)
(
 
 
2
)
(
)
( X
E
X
E
X
V 

Approche par variable aléatoire
 Ses valeurs sont des nombres réels
 Utilise une fonction de densité de probabilité :
 positive, intégrable , ,
 Fonction de probabilité cumulative :
 Espérance :
 Variance :




1
)
( dx
x
f




b
a
dx
x
f
b
X
a
P )
(
)
(





x
dt
t
f
x
X
P
x
F )
(
)
(
)
(




 dx
x
f
x
X )
(
)
(

Variable aléatoire continue
 





 dx
x
f
x
x
X )
(
)
(
)
(
2
2


)
(
)
(
)
/
(
B
P
B
A
P
B
A
P


 Probabilité conditionnelle :
 Évènements indépendants :
 Variables aléatoires
indépendantes :
 Théorème de Bayes :
)
(
)
(
)
( B
P
A
P
B
A
P 

)
y
(
p
)
x
(
p
)
y
,
x
(
p Y
X
Y
,
X 
)
(
)
(
)
/
(
)
/
(
B
P
A
P
A
B
P
B
A
P 


k
k
k
i
i
i
A
P
A
B
P
A
P
A
B
P
B
A
P
)
(
)
/
(
)
(
)
/
(
)
/
(
Variables aléatoires indépendantes et
conditionnelles
Lois de probabilité discrètes
(Comme quoi, les hasards ne sont pas tous pareils !)
 Loi uniforme
 X={1,2,…,n} :
n
k
X
P
1
)
( 

12
1
)
(
2
1
)
(
2



n
X
V
n
X
E
 Loi de bernoulli
 X={0,1} : p
)
1
X
(
P 

)
1
(
)
(
)
( p
p
X
V
p
X
E 


 Loi géométrique
L’évènement de probabilité papparaît aukième essais
=> k épreuves de bernoulli, avec X=1 à la kième et 0 avant :
 Loi sans mémoire : La probabilité de l’événement au kième
essai ne dépend pas de l’historique des évènements
 Propriété ignorée par les joueurs !
p
p
X
X
X
P
k
X
P k
k
1
2
1 )
1
(
)
1
;...;
0
;
0
(
)
( 







2
1
)
(
1
)
(
P
p
X
V
p
X
E



 Loi binomiale
L’évènement de probabilité papparaîtk fois en n essais
=> n épreuves de bernoulli, avec les combinaisons de k dans n
 X={0,1,2, …, n) : k
n
k
k
n )
p
1
(
p
C
)
k
X
(
P 



)
1
(
)
(
)
( p
p
n
X
V
p
n
X
E 





 Loi de Poisson
Le nombre moyen d’occurrence d’un événement X dans un temps T est k
 X={0,1,…} :
  = nombre moyen d’événement par unité de temps.
!
k
e
)
k
X
(
P
k






 
 )
(
)
( X
V
X
E
 Relation avec la loi binomiale :
 Si p<0.1 et n>50 : B(n,p)P(np)
Lois de probabilité continues
 Loi uniforme
  a
x
x
F
a
x
f
a
x 

 )
(
1
)
(
;
0
12
a
)
x
(
V
2
a
)
x
(
E
2


 Loi exponentielle
Utilisée en fiabilité pour représenter une espérance de vie
x
x e
x
F
e
x
f
x 

 
 


 1
)
(
)
(
0
2
1
)
x
(
V
1
)
x
(
E




 E(x)= 1/ est souvent appelé MTBF (« mean time between failures ») et  est
le taux de défaillance
 P(X > x)=probabilité d’attendre plus de x avant l’apparition d’un phénomène
lorsque 1/ est le temps moyen d’attente.
 Loi sans mémoire : le passé ne permet pas de prédire l’avenir.
 Loi Gamma
Généralisation de la loi exponentielle utilisée dans les files d’attentes. P(X > x) =
probabilité d’attendre plus de x minutes avant la kième apparition du phénomène
étudié, avec 1/ comme temps moyen d’attente entre deux apparitions du
phénomène.











0
1
1
)
(
)
(
)
(
0 dy
e
y
k
e
k
x
x
f
x y
k
x
k
k


2
k
)
x
(
V
k
)
x
(
E




 Loi de Gauss (« normale »)
Loi fondamentale en statistique. Très souvent utilisée en modélisation.
 
2
2
2
1
2
1
)
(



m
x
e
x
f
x




2
)
x
(
V
m
)
x
(
E 


)
1
;
0
(
)
;
( N
m
X
m
N
X
si 





 B(n;p)N(np;np(1-p)) (np et n(1-p) supérieurs à 5)
 P()N(; ) (avec >18)
 Loi limite de caractéristiques issues d’un échantillon de
grande taille.
 On a les convergences suivantes (souvent abusées dans les
sondages !):
 Loi du Chi 2 (Khi-deux de Pearson)
)
1
;
0
(
,...,
, 2
1 N
Z
Z
Z
Si k 
2
)
(
1
2
k
k
i
i
Z 



Dite « chi2 à k degrés de liberté »
 Loi de Student
)
(
)
1
;
0
(
2
k
t
k
Z
N
Z
Si
k



Dite « Student à k degrés de liberté »
 Loi de Fisher-Snédécor
)
;
(
2
2
l
k
F
l
k
l
k



Dite « Fisher à k, l degrés de liberté »
Exemple 1
• Un système de prise de décision binaire comprend trois modules
indépendants et pend une décision positive s’il y unanimité chez les
trois modules. Sachant que la probabilité d’une décision négative
par un module est 0.02, 0.05 et 0.10, respectivement, quelle est la
probabilité que le système prenne une décision positive?
P(A) =P(décision négative par module A) = 0.02
P(B) = P(décision négative par module B) = 0.05
P(C) = P(décision négative par module C) = 0.10
    8379
.
0
90
.
0
95
.
0
98
.
0
)
(
1
)
(
1
)
(
1
)
(
)
(
)
(
)
(
)
(
)
(













C
P
B
P
A
P
C
P
B
P
A
P
C
B
A
P
C
et
B
et
A
P
positive
décisio
P
Exemple 2
Une machine utilise quatre dispositifs D1, D2, D3, D4 dont la défaillance
peut intervenir de manière indépendante. La machine tombe en panne si
D1 est défaillant ou que deux de D2, D3, D4 les sont.
Si Ai dénote le fait que Di fonctionne sans défaillance pendant un
intervalle T, quelle est la probabilité de fonctionnement correct de la
machine durant l’intervalle si P(A1)=0.80, P(A2)=0.85, P(A3)=0.90 P(A4)=0.90 ?
)
A
A
A
A
(
)
A
A
A
A
(
)
A
A
A
A
(
)
A
A
A
A
(
A
4
3
2
1
4
3
2
1
4
3
2
1
4
3
2
1
















7704
.
0
...
90
.
0
90
.
0
15
.
0
80
.
0
90
.
0
90
.
0
85
.
0
80
.
0
)
( 









A
P
Exemple 3
Un système S se présente de manière aléatoire sous deux états, 0 et 1,
avec P(S=0)= 0.4 et P(S=1)=0.6. Une station T1 fournit des informations
potentiellement erronées sur l’état de S. La probabilité que T1 soit juste
pour l’état 0 est 0.98 ; la probabilité qu’elle le soit pour l’état 1 est 0.95.
A un instant donné, T1 reporte S dans l’état 0. Quelle est la probabilité
que S soit vraiment dans l’état 0 ?
Posons E1 : {S est dans l’état 0}, O1 : {S est observé dans l’état 0 par T1 }
P(E1 )=0.4 P(O1 | E1 )=0.98 P(O1 | cE1 )=0.05
929
.
0
)
(
)
/
(
)
(
)
/
(
)
(
)
/
(
)
/
(
1
1
1
1
1
1
1
1
1
1
1 


E
P
E
O
P
E
P
E
O
P
E
P
E
O
P
O
E
P
T1=0 T1=1
S=0 0.392 0.008 0.4
S=1 0.03 0.57 0.6
0.422 0.578 1
93
.
0
42
.
0
39
.
0
)
/
( 1
1 

O
E
P
Exemple 4
Un système S se présente de manière aléatoire sous deux états, 0 et 1,
avec P(S=0)= 0.4 et P(S=1)=0.6. Deux stations T1 et T2 fournissent des
informations sur l’état de S. La probabilité d’erreur de T1 est 0.02 et celle
de T2 est 0.06
A un instant donné, T1 donne S dans l’état 0 et T2 donne S dans l’état 1.
Quelle est la probabilité que S soit dans l’état 0 ?
Posons E0 {S est dans l’état 0} et E1 {S est dans l’état 1}
O:{S est observé dans l’état 0 par T1 et dans l’état 1 par T2 }
P(E0 )=0.4 P(E1 )=0.6
P(O | E0 )=0.98*0.06 (= prob. que T1 soit vraie et T2 soit fausse sachant que S
est dans l’état 0)
P(O | E1 )=0.02*0.94
68
.
0
60
.
0
0188
.
0
4
.
0
0588
.
0
40
.
0
0588
.
0
)
(
)
/
(
)
(
)
/
(
)
(
)
/
(
)
/
(
1
1
0
0
0
0
0 







E
P
E
O
P
E
P
E
O
P
E
P
E
O
P
O
E
P
 Une machine tombe en panne selon la loi exponentielle avec un facteur
=0.5/heure. Quelle est la probabilité que la machine tombe en panne entre
la première et deuxième heure après le démarrage.
Exemple 5
 La durée de vie d'un composant d'un système est supposée suivre une loi
exponentielle de paramètre . Un grand nombre de ces composants sont
testés et on a observé que 5% ne durent pas plus de 100 heures.
Estimer la probabilité qu'un composant pris au hasard dure plus de 200
heures, ou T est la durée de la vie en heures
La probabilité de survie est
Pour T > 200,
100
100 95
.
0
)
1
(
1
)
100
( 


 




 
 e
e
T
P
    24
.
0
1
1
)
1
(
)
2
(
)
2
1
(
1
/
5
.
0
2
/
5
.
0














 hr
hr
hr
hr
e
e
hr
T
P
hr
T
P
hr
T
hr
P
Le taux global de défaillance d’un processus est la somme des taux de chaque
composant et ceux-ci suivent une loi de mortalité exponentielle. Les taux
élémentaires sont donnés par des documents fournis par le designer.
Pour un taux de défaillance  = 12 10-6 h-1 et pour un fonctionnement
continu pendant 208 jours par an, donnez la probabilité théorique que le
processus fonctionne encore au bout de ces 208 jours.
Exemple 6
t = 24 x 208 » 5000 heures
la probabilité théorique que le processus est fonctionnel encore est alors de
R(5000) = e-0.000012.x5000 = 0,9418. Ceci signifie que la probabilité d'avoir une
défaillance pendant la durée de fonctionnement de 5000 heures est de
f = 1 - 0,9418 = 0,0582 soit 5,8 %.

Contenu connexe

Similaire à 1_Probabilites et variables aleatoires.ppt

Econométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptxEconométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptxwidedbenmoussa2021
 
Loi_de_Poisson.pdf
Loi_de_Poisson.pdfLoi_de_Poisson.pdf
Loi_de_Poisson.pdfOmarMordi
 
Exam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd yearExam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd yearChristian Robert
 
Cours_3_0910_2.pdf
Cours_3_0910_2.pdfCours_3_0910_2.pdf
Cours_3_0910_2.pdfSongSonfack
 
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTICours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTIsarah Benmerzouk
 
Cours de probabilités chap2.pptx
Cours de probabilités chap2.pptxCours de probabilités chap2.pptx
Cours de probabilités chap2.pptxHanaeElabbas
 
Exos corriges lois_continues
Exos corriges lois_continuesExos corriges lois_continues
Exos corriges lois_continuesManar Sefiane
 
124776153 td-automatique-1 a-jmd-2011
124776153 td-automatique-1 a-jmd-2011124776153 td-automatique-1 a-jmd-2011
124776153 td-automatique-1 a-jmd-2011sunprass
 
Cours8 Introduction à la représentation d'état
Cours8 Introduction à la représentation d'étatCours8 Introduction à la représentation d'état
Cours8 Introduction à la représentation d'étatsarah Benmerzouk
 
L'entropie existe et est utile !
L'entropie existe et est utile !L'entropie existe et est utile !
L'entropie existe et est utile !Maurice Maeck
 
c h02EspaceProbTr.pdf
c h02EspaceProbTr.pdfc h02EspaceProbTr.pdf
c h02EspaceProbTr.pdfMbarkiIsraa
 
diaporama2020_cours-etude_frequentielle.pptx
diaporama2020_cours-etude_frequentielle.pptxdiaporama2020_cours-etude_frequentielle.pptx
diaporama2020_cours-etude_frequentielle.pptxYassineBenkraouda
 

Similaire à 1_Probabilites et variables aleatoires.ppt (20)

Econométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptxEconométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptx
 
Loi_de_Poisson.pdf
Loi_de_Poisson.pdfLoi_de_Poisson.pdf
Loi_de_Poisson.pdf
 
Exam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd yearExam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd year
 
Cours_3_0910_2.pdf
Cours_3_0910_2.pdfCours_3_0910_2.pdf
Cours_3_0910_2.pdf
 
Cours_3_0910.pdf
Cours_3_0910.pdfCours_3_0910.pdf
Cours_3_0910.pdf
 
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTICours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTI
 
Cours de probabilités chap2.pptx
Cours de probabilités chap2.pptxCours de probabilités chap2.pptx
Cours de probabilités chap2.pptx
 
Exos corriges lois_continues
Exos corriges lois_continuesExos corriges lois_continues
Exos corriges lois_continues
 
124776153 td-automatique-1 a-jmd-2011
124776153 td-automatique-1 a-jmd-2011124776153 td-automatique-1 a-jmd-2011
124776153 td-automatique-1 a-jmd-2011
 
Cours8 Introduction à la représentation d'état
Cours8 Introduction à la représentation d'étatCours8 Introduction à la représentation d'état
Cours8 Introduction à la représentation d'état
 
transparents-Algo-correction.pdf
transparents-Algo-correction.pdftransparents-Algo-correction.pdf
transparents-Algo-correction.pdf
 
Slides ensae-2016-3
Slides ensae-2016-3Slides ensae-2016-3
Slides ensae-2016-3
 
Slides ensae 4
Slides ensae 4Slides ensae 4
Slides ensae 4
 
Slides ensae-2016-1
Slides ensae-2016-1Slides ensae-2016-1
Slides ensae-2016-1
 
Slides ensae-2016-5
Slides ensae-2016-5Slides ensae-2016-5
Slides ensae-2016-5
 
L'entropie existe et est utile !
L'entropie existe et est utile !L'entropie existe et est utile !
L'entropie existe et est utile !
 
c h02EspaceProbTr.pdf
c h02EspaceProbTr.pdfc h02EspaceProbTr.pdf
c h02EspaceProbTr.pdf
 
03-exemples.pdf
03-exemples.pdf03-exemples.pdf
03-exemples.pdf
 
Slides ensae 3
Slides ensae 3Slides ensae 3
Slides ensae 3
 
diaporama2020_cours-etude_frequentielle.pptx
diaporama2020_cours-etude_frequentielle.pptxdiaporama2020_cours-etude_frequentielle.pptx
diaporama2020_cours-etude_frequentielle.pptx
 

1_Probabilites et variables aleatoires.ppt

  • 1. Probabilités et variables aléatoires Adapté de Yannis Korilis, Christian St-Jean, Dave DeBarr, Bob Carpenter, Jennifer Chu-Carroll et plusieurs autres
  • 2.  Suite d’évènements dont les variables varient dans des intervalles de valeurs connus, sans que les valeurs précises le soient avec une certitude absolue  La fréquence d’occurrence de chaque valeur est utilisée comme mesure relative de sa certitude, ou probabilité d’occurrence Expérience aléatoire et probabilité x de valeurs des ns observatio d nombre x observe on l que fois de nombre x P ' ' ) (     
  • 3.  Expérience aléatoire : Suite d’évènements pris dans un espace  sur lequel est définie une probabilité P.  Un événement est une partie de  notée A.  Chaque événement possède une probabilité P(A) telle que, dans l’espace probabilisé (, A, P), on a : P()=1 (il est certain qu’un évènement se produise, sans savoir lequel) P(A) + P(Ac)=1 (Si un évènement ne se produit pas, un des autres se produira)  La loi de probabilité triviale est : Cas discret Cas continu ) ( ) ( ) (   Card A Card A P   A dx x p A P ) ( ) ( Approche évènementielle
  • 4.  Variable numérique dont les valeurs dépendent des résultats d’une expérience aléatoire  Représente une projection de (, A, P) dans un espace numérique  Permet le calcul des probabilités par des méthodes de l’analyse mathématique au lieu de raisonner sur des ensembles  Variable aléatoire discrète : ses valeurs sont dénombrables  Espérance : la valeur moyenne  Variance : l’écart quadratique moyen par rapport à la valeur moyenne    E x X P x X E ) ( ) (     2 ) ( ) ( X E X E X V   Approche par variable aléatoire
  • 5.  Ses valeurs sont des nombres réels  Utilise une fonction de densité de probabilité :  positive, intégrable , ,  Fonction de probabilité cumulative :  Espérance :  Variance :     1 ) ( dx x f     b a dx x f b X a P ) ( ) (      x dt t f x X P x F ) ( ) ( ) (      dx x f x X ) ( ) (  Variable aléatoire continue         dx x f x x X ) ( ) ( ) ( 2 2  
  • 6. ) ( ) ( ) / ( B P B A P B A P    Probabilité conditionnelle :  Évènements indépendants :  Variables aléatoires indépendantes :  Théorème de Bayes : ) ( ) ( ) ( B P A P B A P   ) y ( p ) x ( p ) y , x ( p Y X Y , X  ) ( ) ( ) / ( ) / ( B P A P A B P B A P    k k k i i i A P A B P A P A B P B A P ) ( ) / ( ) ( ) / ( ) / ( Variables aléatoires indépendantes et conditionnelles
  • 7. Lois de probabilité discrètes (Comme quoi, les hasards ne sont pas tous pareils !)  Loi uniforme  X={1,2,…,n} : n k X P 1 ) (   12 1 ) ( 2 1 ) ( 2    n X V n X E  Loi de bernoulli  X={0,1} : p ) 1 X ( P   ) 1 ( ) ( ) ( p p X V p X E   
  • 8.  Loi géométrique L’évènement de probabilité papparaît aukième essais => k épreuves de bernoulli, avec X=1 à la kième et 0 avant :  Loi sans mémoire : La probabilité de l’événement au kième essai ne dépend pas de l’historique des évènements  Propriété ignorée par les joueurs ! p p X X X P k X P k k 1 2 1 ) 1 ( ) 1 ;...; 0 ; 0 ( ) (         2 1 ) ( 1 ) ( P p X V p X E     Loi binomiale L’évènement de probabilité papparaîtk fois en n essais => n épreuves de bernoulli, avec les combinaisons de k dans n  X={0,1,2, …, n) : k n k k n ) p 1 ( p C ) k X ( P     ) 1 ( ) ( ) ( p p n X V p n X E      
  • 9.  Loi de Poisson Le nombre moyen d’occurrence d’un événement X dans un temps T est k  X={0,1,…} :   = nombre moyen d’événement par unité de temps. ! k e ) k X ( P k          ) ( ) ( X V X E  Relation avec la loi binomiale :  Si p<0.1 et n>50 : B(n,p)P(np)
  • 10. Lois de probabilité continues  Loi uniforme   a x x F a x f a x    ) ( 1 ) ( ; 0 12 a ) x ( V 2 a ) x ( E 2    Loi exponentielle Utilisée en fiabilité pour représenter une espérance de vie x x e x F e x f x          1 ) ( ) ( 0 2 1 ) x ( V 1 ) x ( E      E(x)= 1/ est souvent appelé MTBF (« mean time between failures ») et  est le taux de défaillance  P(X > x)=probabilité d’attendre plus de x avant l’apparition d’un phénomène lorsque 1/ est le temps moyen d’attente.  Loi sans mémoire : le passé ne permet pas de prédire l’avenir.
  • 11.  Loi Gamma Généralisation de la loi exponentielle utilisée dans les files d’attentes. P(X > x) = probabilité d’attendre plus de x minutes avant la kième apparition du phénomène étudié, avec 1/ comme temps moyen d’attente entre deux apparitions du phénomène.            0 1 1 ) ( ) ( ) ( 0 dy e y k e k x x f x y k x k k   2 k ) x ( V k ) x ( E    
  • 12.  Loi de Gauss (« normale ») Loi fondamentale en statistique. Très souvent utilisée en modélisation.   2 2 2 1 2 1 ) (    m x e x f x     2 ) x ( V m ) x ( E    ) 1 ; 0 ( ) ; ( N m X m N X si        B(n;p)N(np;np(1-p)) (np et n(1-p) supérieurs à 5)  P()N(; ) (avec >18)  Loi limite de caractéristiques issues d’un échantillon de grande taille.  On a les convergences suivantes (souvent abusées dans les sondages !):
  • 13.  Loi du Chi 2 (Khi-deux de Pearson) ) 1 ; 0 ( ,..., , 2 1 N Z Z Z Si k  2 ) ( 1 2 k k i i Z     Dite « chi2 à k degrés de liberté »  Loi de Student ) ( ) 1 ; 0 ( 2 k t k Z N Z Si k    Dite « Student à k degrés de liberté »  Loi de Fisher-Snédécor ) ; ( 2 2 l k F l k l k    Dite « Fisher à k, l degrés de liberté »
  • 14. Exemple 1 • Un système de prise de décision binaire comprend trois modules indépendants et pend une décision positive s’il y unanimité chez les trois modules. Sachant que la probabilité d’une décision négative par un module est 0.02, 0.05 et 0.10, respectivement, quelle est la probabilité que le système prenne une décision positive? P(A) =P(décision négative par module A) = 0.02 P(B) = P(décision négative par module B) = 0.05 P(C) = P(décision négative par module C) = 0.10     8379 . 0 90 . 0 95 . 0 98 . 0 ) ( 1 ) ( 1 ) ( 1 ) ( ) ( ) ( ) ( ) ( ) (              C P B P A P C P B P A P C B A P C et B et A P positive décisio P
  • 15. Exemple 2 Une machine utilise quatre dispositifs D1, D2, D3, D4 dont la défaillance peut intervenir de manière indépendante. La machine tombe en panne si D1 est défaillant ou que deux de D2, D3, D4 les sont. Si Ai dénote le fait que Di fonctionne sans défaillance pendant un intervalle T, quelle est la probabilité de fonctionnement correct de la machine durant l’intervalle si P(A1)=0.80, P(A2)=0.85, P(A3)=0.90 P(A4)=0.90 ? ) A A A A ( ) A A A A ( ) A A A A ( ) A A A A ( A 4 3 2 1 4 3 2 1 4 3 2 1 4 3 2 1                 7704 . 0 ... 90 . 0 90 . 0 15 . 0 80 . 0 90 . 0 90 . 0 85 . 0 80 . 0 ) (           A P
  • 16. Exemple 3 Un système S se présente de manière aléatoire sous deux états, 0 et 1, avec P(S=0)= 0.4 et P(S=1)=0.6. Une station T1 fournit des informations potentiellement erronées sur l’état de S. La probabilité que T1 soit juste pour l’état 0 est 0.98 ; la probabilité qu’elle le soit pour l’état 1 est 0.95. A un instant donné, T1 reporte S dans l’état 0. Quelle est la probabilité que S soit vraiment dans l’état 0 ? Posons E1 : {S est dans l’état 0}, O1 : {S est observé dans l’état 0 par T1 } P(E1 )=0.4 P(O1 | E1 )=0.98 P(O1 | cE1 )=0.05 929 . 0 ) ( ) / ( ) ( ) / ( ) ( ) / ( ) / ( 1 1 1 1 1 1 1 1 1 1 1    E P E O P E P E O P E P E O P O E P T1=0 T1=1 S=0 0.392 0.008 0.4 S=1 0.03 0.57 0.6 0.422 0.578 1 93 . 0 42 . 0 39 . 0 ) / ( 1 1   O E P
  • 17. Exemple 4 Un système S se présente de manière aléatoire sous deux états, 0 et 1, avec P(S=0)= 0.4 et P(S=1)=0.6. Deux stations T1 et T2 fournissent des informations sur l’état de S. La probabilité d’erreur de T1 est 0.02 et celle de T2 est 0.06 A un instant donné, T1 donne S dans l’état 0 et T2 donne S dans l’état 1. Quelle est la probabilité que S soit dans l’état 0 ? Posons E0 {S est dans l’état 0} et E1 {S est dans l’état 1} O:{S est observé dans l’état 0 par T1 et dans l’état 1 par T2 } P(E0 )=0.4 P(E1 )=0.6 P(O | E0 )=0.98*0.06 (= prob. que T1 soit vraie et T2 soit fausse sachant que S est dans l’état 0) P(O | E1 )=0.02*0.94 68 . 0 60 . 0 0188 . 0 4 . 0 0588 . 0 40 . 0 0588 . 0 ) ( ) / ( ) ( ) / ( ) ( ) / ( ) / ( 1 1 0 0 0 0 0         E P E O P E P E O P E P E O P O E P
  • 18.  Une machine tombe en panne selon la loi exponentielle avec un facteur =0.5/heure. Quelle est la probabilité que la machine tombe en panne entre la première et deuxième heure après le démarrage. Exemple 5  La durée de vie d'un composant d'un système est supposée suivre une loi exponentielle de paramètre . Un grand nombre de ces composants sont testés et on a observé que 5% ne durent pas plus de 100 heures. Estimer la probabilité qu'un composant pris au hasard dure plus de 200 heures, ou T est la durée de la vie en heures La probabilité de survie est Pour T > 200, 100 100 95 . 0 ) 1 ( 1 ) 100 (             e e T P     24 . 0 1 1 ) 1 ( ) 2 ( ) 2 1 ( 1 / 5 . 0 2 / 5 . 0                hr hr hr hr e e hr T P hr T P hr T hr P
  • 19. Le taux global de défaillance d’un processus est la somme des taux de chaque composant et ceux-ci suivent une loi de mortalité exponentielle. Les taux élémentaires sont donnés par des documents fournis par le designer. Pour un taux de défaillance  = 12 10-6 h-1 et pour un fonctionnement continu pendant 208 jours par an, donnez la probabilité théorique que le processus fonctionne encore au bout de ces 208 jours. Exemple 6 t = 24 x 208 » 5000 heures la probabilité théorique que le processus est fonctionnel encore est alors de R(5000) = e-0.000012.x5000 = 0,9418. Ceci signifie que la probabilité d'avoir une défaillance pendant la durée de fonctionnement de 5000 heures est de f = 1 - 0,9418 = 0,0582 soit 5,8 %.