SlideShare une entreprise Scribd logo
1  sur  7
Télécharger pour lire hors ligne
Signaux Aléatoires
Exemples de signaux aléatoires
R. Flamary
23 septembre 2014
Plan du cours
Introduction
Signaux aléatoires
Exemples de signaux aléatoires
Processus de Poisson
Loi de Poisson
Propriétés du processus de Poisson
Exemple de réalisations
Basculateur poissonnien
Définition
Propriétés du basculateur poissonnien
Exemple de réalisations
Marche aléatoire
Définition
Propriétés de la marche aléatoire
Exemple de réalisations
Signaux Gaussiens
Définition
Propriétés et cas particuliers
Exemple de réalisations
Propriétés spectrales des signaux stationnaires
2 / 28
Séries usuelles
I Série Géométrique
1
1 − x
=
∞
X
n=0
xn
pour |x| < 1
I Exponentielle
ex
=
∞
X
n=0
xn
n!
= 1 + x +
x2
2!
+
x3
3!
+ · · · ∀x
I Trigonométriques
sin x =
eix − e−ix
2
=
∞
X
n=0
(−1)n
(2n + 1)!
x2n+1
= x −
x3
3!
+
x5
5!
− · · · ∀x
cos x =
eix + e−ix
2
=
∞
X
n=0
(−1)n
(2n)!
x2n
= 1 −
x2
2!
+
x4
4!
− · · · ∀x
I Hyperboliques
sinh x =
ex − e−x
2
=
∞
X
n=0
x2n+1
(2n + 1)!
= x +
x3
3!
+
x5
5!
+ · · · for all x
cosh x =
ex + e−x
2
=
∞
X
n=0
x2n
(2n)!
= 1 +
x2
2!
+
x4
4!
+ · · · for all x
3 / 28
Loi de Poisson
Rappel loi de Poisson
I Loi de probabilité discrète.
I Modélise un nombre d’occurrences d’un évènement dans un
intervalle de temps.
I Paramètre λ correspond au nombre moyen d’occurrences
dans un intervalle de temps donné.
I Si λ0 est une moyenne d’évènements par unité de temps
alors, pour un intervalle de temps ∆t, λ = λ0∆t.
Exemples d’utilisation de la loi de poisson
I Electronique : modélise les apparitions de pannes dans les circuits électroniques
I Simulation de file d’attente : modéliser les apparitions de clients aux caisse ainsi
que le temps mis pour traiter les clients.
I Astronomie : modélise le nombre de photons sur les capteurs CCD lorsque la
lumière est très faible.
4 / 28
Loi de poisson
Propriétés
I Fonction de masse
p(k) = P(X = k) = e−λ λk
k!
I Espérance :
mX = E(X) =
1
n
∞
X
k=0
ke−λ λk
k!
=
I Variance :
V ar(X) = E(X2
) − E(X)2
=
5 / 28
Processus de Poisson
Accumulation entre deux instants
I Soit N(t, t0
) le nombre de points ti apparaissant sur l’intervalle ∆t = t0
− t.
I N(·) est un v.a. de poisson de paramètre λ∆t de probabilité
P(n(t, t0
) = k) =
e−λ∆t
(λ∆t)k
k!
(1)
I Si les intervalles [t, t0
] et [u, u0
] sont disjoints alors les v.a. N(t, t0
) et N(u, u0
)
sont indépendantes.
Processus de Poisson
Un processus de poisson est un signal aléatoire définit par :
Xp(t) = N(0, t) ∀t ∈ R+
(2)
I Processus de comptage d’évènements.
I Les évènements sont définis par leur instant d’apparition ti
6 / 28
Propriétés du processus de Poisson
Moyenne mXp (t)
mXp (t) = E(Xp(t)) = E(N(0, t)) = (3)
I
Variance V ar(Xp(t))
V ar(Xp(t)) = E((Xp(t) − mXp (t))2
) = (4)
Autocorrélation RXp (t1, t2) pour t1 ≤ t2
RXp (t1, t2) = λt1 + λ2
t1t2
7 / 28
Démonstration de l’autocorrélation RXp
(t1, t2)
RXp (t1, t2) = λt1 + λ2
t1t2 (5)
Démonstration.
I Si t1 = t2 alors Eq. (18) est bonne
E(Xp(t)2
) = V ar(Xp(t)) + E(Xp(t))2
= λt + λ2
t2
I Si t1 < t2, les v.a. Xp(t1) et Xp(t2) − Xp(t1) sont indépendantes car elles
suivent des lois de poissons sur des intervalles disjoints.
I Xp(t1) ∼ N(0, t1)
I Xp(t2) − Xp(t1) ∼ N(0, t2 − t1)
I On peut en déduire que
E(Xp(t1)(Xp(t2) − Xp(t1)))) = E(Xp(t1))E(Xp(t2) − Xp(t1)) = λt1λ(t2 − t1)
or comme
Xp(t1)Xp(t2) = Xp(t1)(Xp(t2) − Xp(t1))) + Xp(t1)2
on retrouve RXp (t1, t2) = λt1 + λ2
t2
1 + λt1λ(t2 − t1)
8 / 28
Exemple de réalisations
0 1 2 3 4 5 6 7 8 9 10
0
5
10
15
Moments d’un processus de Poisson
mX
(t)
mX
(t) ± σX
(t)
0 1 2 3 4 5 6 7 8 9 10
0
5
10
15
Moments d’un processus de Poisson
mX
(t)
mX
(t) ± σX
(t)
Processus de Poisson
I λ = 1
I mXp (t) =
I V ar(Xp(t)) =
9 / 28
Basculateur poissonien
Définition
I Signal aléatoire obtenu à partir d’un processus de poisson Xp(t) :
Xbp(t) =
(
1 si Xp(t) est pair
−1 si Xp(t) est impair
(6)
I Signal oscillant entre la valeur 1 et −1.
I Également appelé signal du télégraphiste.
I Signal semi-aléatoire car la valeur en t = 0 est connue et fixée à 1.
10 / 28
Probabilités d’occurence de 1 et −1
Probabilité d’avoir la valeur 1 à l’instant t
P(Xbp(t) = 1) =
∞
X
k=0
P(xp(t) = 2k)
=
= e−λt
cosh(λt) (7)
avec cosh(x) = ex
+e−x
2
Probabilité d’avoir la valeur −1 à l’instant t
P(Xbp(t) = −1) = e−λt
sinh(λt) (8)
avec sinh(x) = ex
−e−x
2
11 / 28
Propriétés du basculateur poissonnien
Moyenne mXbp (t)
mXbp (t) = E(Xbp(t)) = (9)
Variance V ar(Xbp(t))
V ar(Xbp(t)) = E(Xbp(t)2
) − E(Xbp(t))2
= (10)
Autocorrélation RXbp (t1, t2) pour t1 ≤ t2
RXbp (t1, t2) = e−2λ|t2−t1|
Signal stationnaire ?
12 / 28
Basculateur poissonnien aléatoire
Pour rendre la basculateur poissinien totalement aléatoire on définit :
X̃bp(t) = AXbp(t) (11)
I A uniforme discrète sur {1, 1} avec une probabilité 1/2 : A ∼ U({−1, 1}).
I A et Xbp(t) sont indépendantes.
I L’espérance devient
E(X̃bp(t)) = E(A)E(Xbp(t)) =
I Et la variance
V ar(X̃bp(t)) = E(X̃bp(t)2
) − E(X̃bp(t))2
= (12)
I L’auto-corrélation est inchangée.
I Le basculateur poissonnien aléatoire est donc
13 / 28
Exemple de réalisations
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
Moments du basculateur poissonnien
mX
(t)
m
X
(t) ± σ
X
(t)
0 1 2 3 4 5 6 7 8 9 10
−1
−0.5
0
0.5
1
Basculateur poissonnien realisation 1
0 1 2 3 4 5 6 7 8 9 10
−1
−0.5
0
0.5
1
Basculateur poissonnien realisation 2
0 1 2 3 4 5 6 7 8 9 10
−1
−0.5
0
0.5
1
Basculateur poissonnien realisation 3
Basculateur poissonnien
I λ = 1
I mXbp (t) =
I V ar(Xbp(t)) =
14 / 28
Historique de la marche aléatoire
I Introduit par Karl Pearson en 1905 pour modéliser la migration des moustiques
dans une forêt (Nature 72, 294 ; 318 ; 342 (1905)).
I Problème résolu par Lord Rayleigh qui lui donne l’approximation gaussienne.
I Remarque de Karl Pearson :
”The most probable place to find a drunken man who is at all capable of keeping
on his feet is somewhere near his starting point !”.
15 / 28
Marche aléatoire
Définition
Signal aléatoire discret définit récursivement par
Xma(n) = Xma(n − 1) + sUn = s
n
X
i=1
Ui
I Un ∼ U({−1, 1}) où les variable aléatoires Un sont indépendantes.
I Xma(0) = 0
I s ∈ R est le pas
I La valeur du signal aléatoire change à chaque instant n.
I Version continue de période T :
X̃ma(t) = {Xma(n)|nT ≤ t < (np + 1)T}
16 / 28
Propriétés de la marche aléatoire (1)
Probabilités à l’instant n
I À l’instant n, Xma peut prendre les valeurs
Xma(n) ∈ {−ns, −(n + 1)s, . . . , (n − 1)s, ns}
I Si les réalisation de Un on données k fois +1 et n − k fois −1 alors
Xma(n) = ks − (n − k)s = ms, m = 2k − n
I On reconnaı̂t la loi binomiale de probabilité p = 1
2
P(Xma(n) = ms) =

n
k

1
2n
= Ck
n
1
2n
k =
m + n
2
(13)
17 / 28
Propriétés de la marche aléatoire (1)
Moyenne mXma (n)
mXma (n) = E(
n
X
i=1
Ui) =
n
X
i=1
E(Ui) = (14)
Variance V ar(Xma(n))
V ar(Xma(n)) = E(Xma(n)2
) = E((
n
X
i=1
Ui)2
) = (15)
Autocorrélation RXma (n1, n2) pour n1  n2
RXma (n1, n2) = E(Xma(n1)Xma(n2)) =
Signal stationnaire ?
18 / 28
Approximation pour n grand
Approximation de la loi binomiale
Quand n est grand, et que k est dans le voisinage
√
npq de np, alors :

n
k

pk
qn−k
≈
1
√
2πnpq
e−(k−np)2
/2npq
(16)
0 1 2 3 4 5 6
k
P[X=k]
0
0.05
0.15
0.25
0.3
0.2
0.1
Normal p.d.f.
Binomial p.m.f.
Application à la marche aléatoire
Dans notre cas p = q = .5 et m=2k − n alors
P(Xma(n) = ms) ≈
1
p
πn/2
e−m2
/2n
(17)
19 / 28
Exemple de réalisations
0 2 4 6 8 10 12 14 16 18 20
−8
−6
−4
−2
0
2
4
6
8
Moments de la marche aléatoire
mX
(t)
mX
(t) ± σX
(t)
0 2 4 6 8 10 12 14 16 18 20
−8
−6
−4
−2
0
2
4
6
8
Marche Aleatoire 10 realisations
Marche aléatoire
I s = 1
I mXp (t) =
I V ar(Xp(t)) =
20 / 28
Signal aléatoire gaussien
Définition
Un signal aléatoire gaussien XG(t, w) est un signal aléatoire qui est complètement
défini par une loi gaussienne.
I Soit le vecteur aléatoire suivant :
XG(w)T
= [XG(t1, w), XG(t2, w), . . . , XG(tk, w)]
(18)
I Alors la densité de probabilité d’un signal gaussien est
pXG (X) =
1
p
(2π)k|Σ|
e−(1
2
(X−mX)T
Σ−1
(X−mX)) (19)
avec le vecteur des moyenne mX et la matrice de covariance Σ définis par
mX = [mX (t1), mX (t2), . . . , mX (tk)]
(20)
(Σ)i,j = E(Xc(ti, w)Xc(tj, w)∗
) = CX (ti, tj) (21)
21 / 28
Signal aléatoire gaussien (2)
Signal gaussien stationnaire
I Moyenne
mXG = mX [1, 1, . . . , 1]
mXG (t) = mXG
I Covariance
(Σ)i,j = CX (tj − ti) = CX (τ)
Discussion
I La loi Gaussienne est complètement caractérisée par ses deux premiers moments
I Dans le cas stationnaire alors mX et RXG (τ)/CXG (τ) sont suffisants pour
connaı̂tre complètement la signal aléatoire..
22 / 28
Bruit gaussien
Définition
Le bruit gaussien est un signal aléatoire, dont la densité de probabilité suit une loi
gaussienne :
XB(t, w) ∼ N(0, σ(t)2
) ∀i (22)
Bruit gaussien Indépendant et identiquement distribué (I.I.D.)
I Indépendant implique que XB(t1, w) et XB(t2, w) indép. pour t1 6= t2.
I Identiquement distribué implique un signal stationnaire (σ(t) = σ)
mXB (t) = 0 (23)
V arXB (t) = σ2
(24)
RXB (τ) = CXB (τ) = σ2
δ(τ) (25)
I Signal complètement connu car moyenne et matrice de covariance connus.
I Bruit blanc : contient toutes les fréquences du spectre.
23 / 28
Exemple de réalisations
0 1 2 3 4 5 6 7 8 9 10
−4
−3
−2
−1
0
1
2
3
4
Moments du bruit gaussien
mX
(t)
mX
(t) ± σX
(t)
0 1 2 3 4 5 6 7 8 9 10
−4
−3
−2
−1
0
1
2
3
4
Bruit gaussien 10 realisations
Bruit Gaussien
I σ = 1
I mXp (t) = 0
I V ar(Xp(t)) = σ2
24 / 28
Processus de Wiener
Historique
I En l’honneur de Norbert Wiener, fondateur de la cybernétique.
I Aussi appelé mouvement brownien (Robert Brown).
I Utilisé en physique statistique, économie, finances.
Définition
Le processus de Wiener est construit comme
Xw(t, w) = lim
T →0
X̃ma(t, w) s.c. s =
√
T
C’est un processus Gaussien caractérisé par 3 propriétés :
I X(0, w) = 0
I Le signal aléatoire certainement continu (avec une proba 1).
I Les incréments X(t2, w) − X(t1, w) sont indépendants et suivent un loi
gaussienne de type N(0, t2 − t1).
25 / 28
Processus de Wiener (2)
Densité de probabilité
pXw(t,w)(x) =
1
√
2πt
e− x2
2t (26)
Moyenne mXw (t)
mXw (t) = 0
Variance V arXw (t)
V arXw (t) = t
Autocorrélation RXw (t1, t2) pour t1  t2
RX (t1, t2) = E(X(t1, w)X(t2, w)] (27)
= E(X(t1, w)(X(t2, w) − X(t1, w) + X(t1, w))) (28)
= E(X(t1, w)(X(t2, w) − X(t1, w))) + E(X(t1, w)2
) = t1 (29)
Signal stationnaire ?
26 / 28
Exemple de réalisations
0 1 2 3 4 5 6 7 8 9 10
−4
−3
−2
−1
0
1
2
3
4
Moments du processus de Wiener
mX
(t)
mX
(t) ± σX
(t)
0 1 2 3 4 5 6 7 8 9 10
−4
−3
−2
−1
0
1
2
3
4
Processus de Wiener 10 realisations
Processus de Wiener
I mXp (t) = 0
I V ar(Xp(t)) = t
27 / 28
Bibliographie
Cours fortement inspiré des références suivantes :
I Traitement Statistique du Signal, R. Herault, INSA Rouen.
https://moodle.insa-rouen.fr/course/view.php?id=199
I Signaux Aléatoires, J.-F. Bercher, ESIEE
http://www.esiee.fr/~bercherj/New/polys/poly_alea.pdf
I Théorie du signal, C. Jutten,
http://www.gipsa-lab.grenoble-inp.fr/~christian.jutten/mescours/
Theorie_du_signal.pdf
I Probability, random variables and stochastic processes., A Papoulis
28 / 28

Contenu connexe

Tendances

Cours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTICours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTIsarah Benmerzouk
 
Cours tns 2015
Cours tns 2015Cours tns 2015
Cours tns 2015HamzaOudda
 
chap2 outil_mathematiques
chap2 outil_mathematiqueschap2 outil_mathematiques
chap2 outil_mathematiquesBAKKOURY Jamila
 
Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012Florent Renucci
 
Séparation de source aveugle sous-déterminée dans des environnements d'écho ...
Séparation de source aveugle sous-déterminée dans des environnements d'écho ...Séparation de source aveugle sous-déterminée dans des environnements d'écho ...
Séparation de source aveugle sous-déterminée dans des environnements d'écho ...Ayyoub Fakhari
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourierMehdi Maroun
 
CM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique NumériqueCM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique NumériquePierre Maréchal
 
Masrour cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrour
Masrour  cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrourMasrour  cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrour
Masrour cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrourtawfik-masrour
 
CM3 - Transformée de Fourier
CM3 - Transformée de FourierCM3 - Transformée de Fourier
CM3 - Transformée de FourierPierre Maréchal
 
T. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddl
T. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddlT. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddl
T. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddltawfik-masrour
 
chap3 numerisation_des_signaux
chap3 numerisation_des_signauxchap3 numerisation_des_signaux
chap3 numerisation_des_signauxBAKKOURY Jamila
 
Signaux et systèmes
Signaux et systèmesSignaux et systèmes
Signaux et systèmesmanahil2012
 
Dynamique des structures cours
Dynamique des structures coursDynamique des structures cours
Dynamique des structures coursMohamed Abid
 

Tendances (20)

Cours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTICours3 Réponse fréquentielle des systèmes dynamiques continus LTI
Cours3 Réponse fréquentielle des systèmes dynamiques continus LTI
 
Echantillonage
EchantillonageEchantillonage
Echantillonage
 
Vibration Mécanique
Vibration MécaniqueVibration Mécanique
Vibration Mécanique
 
Cours tns 2015
Cours tns 2015Cours tns 2015
Cours tns 2015
 
chap2 outil_mathematiques
chap2 outil_mathematiqueschap2 outil_mathematiques
chap2 outil_mathematiques
 
Séries de Fourier
Séries de FourierSéries de Fourier
Séries de Fourier
 
Traitement du signal
Traitement du signalTraitement du signal
Traitement du signal
 
Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012Polynomial Regression on Riemannian Manifolds, report, 2012
Polynomial Regression on Riemannian Manifolds, report, 2012
 
Séparation de source aveugle sous-déterminée dans des environnements d'écho ...
Séparation de source aveugle sous-déterminée dans des environnements d'écho ...Séparation de source aveugle sous-déterminée dans des environnements d'écho ...
Séparation de source aveugle sous-déterminée dans des environnements d'écho ...
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourier
 
physique
physiquephysique
physique
 
CM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique NumériqueCM2 - Conversion Anlogique Numérique
CM2 - Conversion Anlogique Numérique
 
Masrour cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrour
Masrour  cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrourMasrour  cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrour
Masrour cours dynamique des systèmes - vibrations -chapitre4-vibrations-masrour
 
CM3 - Transformée de Fourier
CM3 - Transformée de FourierCM3 - Transformée de Fourier
CM3 - Transformée de Fourier
 
T. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddl
T. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddlT. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddl
T. Masrour - cours dynamique des systèmes - vibrations -chapitre1-1ddl
 
chap3 numerisation_des_signaux
chap3 numerisation_des_signauxchap3 numerisation_des_signaux
chap3 numerisation_des_signaux
 
Signaux et systèmes
Signaux et systèmesSignaux et systèmes
Signaux et systèmes
 
série rc néméro 1
série rc néméro 1 série rc néméro 1
série rc néméro 1
 
Dynamique des structures cours
Dynamique des structures coursDynamique des structures cours
Dynamique des structures cours
 
Thesis presentation
Thesis presentationThesis presentation
Thesis presentation
 

Similaire à 03-exemples.pdf

mécanique des fluides numérique 2 38.pdf
mécanique des fluides numérique 2 38.pdfmécanique des fluides numérique 2 38.pdf
mécanique des fluides numérique 2 38.pdfMoustaphaKONE5
 
traitement de signal cours
traitement de signal cours traitement de signal cours
traitement de signal cours sarah Benmerzouk
 
Exam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd yearExam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd yearChristian Robert
 
Cours vibration 2016 prat
Cours vibration 2016 pratCours vibration 2016 prat
Cours vibration 2016 pratOumaimaBenSaid
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourierismailkziadi
 
B1 2017 deuxieme session proposition + correction
B1 2017 deuxieme  session proposition + correctionB1 2017 deuxieme  session proposition + correction
B1 2017 deuxieme session proposition + correctionAbdul Rahman Itani
 
T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)
T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)
T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)tawfik-masrour
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densiteManar Sefiane
 
Nib cours5 canalradio
Nib cours5  canalradioNib cours5  canalradio
Nib cours5 canalradioENIG
 
Rappel de cours traitement de signal
Rappel de cours traitement de signalRappel de cours traitement de signal
Rappel de cours traitement de signalmanahil2012
 
Cours econometrie-uqam-st-2-v2
Cours econometrie-uqam-st-2-v2Cours econometrie-uqam-st-2-v2
Cours econometrie-uqam-st-2-v2Arthur Charpentier
 
Estimation d’harmoniques dans un bruit multiplicatif à valeurs complexes
Estimation d’harmoniques dans un bruit multiplicatif à valeurs complexesEstimation d’harmoniques dans un bruit multiplicatif à valeurs complexes
Estimation d’harmoniques dans un bruit multiplicatif à valeurs complexesCynthia Pozun
 

Similaire à 03-exemples.pdf (20)

mécanique des fluides numérique 2 38.pdf
mécanique des fluides numérique 2 38.pdfmécanique des fluides numérique 2 38.pdf
mécanique des fluides numérique 2 38.pdf
 
traitement de signal cours
traitement de signal cours traitement de signal cours
traitement de signal cours
 
Arma
ArmaArma
Arma
 
Exam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd yearExam of June 2016, Mathematical Statistics 3rd year
Exam of June 2016, Mathematical Statistics 3rd year
 
B-Tds-Signaux_TC.pdf
B-Tds-Signaux_TC.pdfB-Tds-Signaux_TC.pdf
B-Tds-Signaux_TC.pdf
 
corr_exos.pdf
corr_exos.pdfcorr_exos.pdf
corr_exos.pdf
 
Cours vibration 2016 prat
Cours vibration 2016 pratCours vibration 2016 prat
Cours vibration 2016 prat
 
Cours series fourier
Cours series fourierCours series fourier
Cours series fourier
 
Slide 2040-1-a2013
Slide 2040-1-a2013Slide 2040-1-a2013
Slide 2040-1-a2013
 
B1 2017 deuxieme session proposition + correction
B1 2017 deuxieme  session proposition + correctionB1 2017 deuxieme  session proposition + correction
B1 2017 deuxieme session proposition + correction
 
Cours1
Cours1Cours1
Cours1
 
T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)
T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)
T. Masrour - cours dynamique des systèmes - vibrations -chapitre2-n ddl (1)
 
Aates ch08 lois-a-densite
Aates ch08 lois-a-densiteAates ch08 lois-a-densite
Aates ch08 lois-a-densite
 
traitement de signal
traitement de signaltraitement de signal
traitement de signal
 
Rappels stats-2014-part2
Rappels stats-2014-part2Rappels stats-2014-part2
Rappels stats-2014-part2
 
Nib cours5 canalradio
Nib cours5  canalradioNib cours5  canalradio
Nib cours5 canalradio
 
Rappel de cours traitement de signal
Rappel de cours traitement de signalRappel de cours traitement de signal
Rappel de cours traitement de signal
 
Cours econometrie-uqam-st-2-v2
Cours econometrie-uqam-st-2-v2Cours econometrie-uqam-st-2-v2
Cours econometrie-uqam-st-2-v2
 
Estimation d’harmoniques dans un bruit multiplicatif à valeurs complexes
Estimation d’harmoniques dans un bruit multiplicatif à valeurs complexesEstimation d’harmoniques dans un bruit multiplicatif à valeurs complexes
Estimation d’harmoniques dans un bruit multiplicatif à valeurs complexes
 
Fic00126
Fic00126Fic00126
Fic00126
 

Dernier

Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...
Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...
Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...Pedago Lu
 
Quitter la nuit. pptx
Quitter          la        nuit.    pptxQuitter          la        nuit.    pptx
Quitter la nuit. pptxTxaruka
 
PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024
PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024
PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024frizzole
 
Festival de Cannes 2024. pptx
Festival    de   Cannes      2024.  pptxFestival    de   Cannes      2024.  pptx
Festival de Cannes 2024. pptxTxaruka
 
Présentation sur les Risques Électriques et Leur Prévention en Algérie
Présentation sur les Risques Électriques et Leur Prévention en AlgériePrésentation sur les Risques Électriques et Leur Prévention en Algérie
Présentation sur les Risques Électriques et Leur Prévention en AlgérieSeifTech
 
Quitter la nuit. pptx
Quitter        la             nuit.   pptxQuitter        la             nuit.   pptx
Quitter la nuit. pptxTxaruka
 
Webinaire Technologia | DAX : nouvelles fonctions
Webinaire Technologia | DAX : nouvelles fonctionsWebinaire Technologia | DAX : nouvelles fonctions
Webinaire Technologia | DAX : nouvelles fonctionsTechnologia Formation
 
Comment enseigner la langue française en Colombie?
Comment enseigner la langue française en Colombie?Comment enseigner la langue française en Colombie?
Comment enseigner la langue française en Colombie?sashaflor182
 
EL KATRY Reem: Proposition de Programme Artistique et Exposition pour les Écoles
EL KATRY Reem: Proposition de Programme Artistique et Exposition pour les ÉcolesEL KATRY Reem: Proposition de Programme Artistique et Exposition pour les Écoles
EL KATRY Reem: Proposition de Programme Artistique et Exposition pour les ÉcolesSOLIANAEvelyne
 
Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...
Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...
Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...Technologia Formation
 
Système National de Santé au- Maroc-(2017)."pdf"
Système National de Santé au- Maroc-(2017)."pdf"Système National de Santé au- Maroc-(2017)."pdf"
Système National de Santé au- Maroc-(2017)."pdf"tachakourtzineb
 

Dernier (12)

Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...
Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...
Fiche - Accompagnement du travail coopératif au sein d’une équipe d’enseignan...
 
Quitter la nuit. pptx
Quitter          la        nuit.    pptxQuitter          la        nuit.    pptx
Quitter la nuit. pptx
 
Traitement des eaux usées par lagunage a macrophytes.pptx
Traitement des eaux usées par lagunage a macrophytes.pptxTraitement des eaux usées par lagunage a macrophytes.pptx
Traitement des eaux usées par lagunage a macrophytes.pptx
 
PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024
PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024
PLANNING HEBDO ET CR LYCEE COUDON 21 MAI2024
 
Festival de Cannes 2024. pptx
Festival    de   Cannes      2024.  pptxFestival    de   Cannes      2024.  pptx
Festival de Cannes 2024. pptx
 
Présentation sur les Risques Électriques et Leur Prévention en Algérie
Présentation sur les Risques Électriques et Leur Prévention en AlgériePrésentation sur les Risques Électriques et Leur Prévention en Algérie
Présentation sur les Risques Électriques et Leur Prévention en Algérie
 
Quitter la nuit. pptx
Quitter        la             nuit.   pptxQuitter        la             nuit.   pptx
Quitter la nuit. pptx
 
Webinaire Technologia | DAX : nouvelles fonctions
Webinaire Technologia | DAX : nouvelles fonctionsWebinaire Technologia | DAX : nouvelles fonctions
Webinaire Technologia | DAX : nouvelles fonctions
 
Comment enseigner la langue française en Colombie?
Comment enseigner la langue française en Colombie?Comment enseigner la langue française en Colombie?
Comment enseigner la langue française en Colombie?
 
EL KATRY Reem: Proposition de Programme Artistique et Exposition pour les Écoles
EL KATRY Reem: Proposition de Programme Artistique et Exposition pour les ÉcolesEL KATRY Reem: Proposition de Programme Artistique et Exposition pour les Écoles
EL KATRY Reem: Proposition de Programme Artistique et Exposition pour les Écoles
 
Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...
Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...
Présentation Webinaire Cohésion - Concevoir et mettre en place une CMDB, comm...
 
Système National de Santé au- Maroc-(2017)."pdf"
Système National de Santé au- Maroc-(2017)."pdf"Système National de Santé au- Maroc-(2017)."pdf"
Système National de Santé au- Maroc-(2017)."pdf"
 

03-exemples.pdf

  • 1. Signaux Aléatoires Exemples de signaux aléatoires R. Flamary 23 septembre 2014 Plan du cours Introduction Signaux aléatoires Exemples de signaux aléatoires Processus de Poisson Loi de Poisson Propriétés du processus de Poisson Exemple de réalisations Basculateur poissonnien Définition Propriétés du basculateur poissonnien Exemple de réalisations Marche aléatoire Définition Propriétés de la marche aléatoire Exemple de réalisations Signaux Gaussiens Définition Propriétés et cas particuliers Exemple de réalisations Propriétés spectrales des signaux stationnaires 2 / 28 Séries usuelles I Série Géométrique 1 1 − x = ∞ X n=0 xn pour |x| < 1 I Exponentielle ex = ∞ X n=0 xn n! = 1 + x + x2 2! + x3 3! + · · · ∀x I Trigonométriques sin x = eix − e−ix 2 = ∞ X n=0 (−1)n (2n + 1)! x2n+1 = x − x3 3! + x5 5! − · · · ∀x cos x = eix + e−ix 2 = ∞ X n=0 (−1)n (2n)! x2n = 1 − x2 2! + x4 4! − · · · ∀x I Hyperboliques sinh x = ex − e−x 2 = ∞ X n=0 x2n+1 (2n + 1)! = x + x3 3! + x5 5! + · · · for all x cosh x = ex + e−x 2 = ∞ X n=0 x2n (2n)! = 1 + x2 2! + x4 4! + · · · for all x 3 / 28 Loi de Poisson Rappel loi de Poisson I Loi de probabilité discrète. I Modélise un nombre d’occurrences d’un évènement dans un intervalle de temps. I Paramètre λ correspond au nombre moyen d’occurrences dans un intervalle de temps donné. I Si λ0 est une moyenne d’évènements par unité de temps alors, pour un intervalle de temps ∆t, λ = λ0∆t. Exemples d’utilisation de la loi de poisson I Electronique : modélise les apparitions de pannes dans les circuits électroniques I Simulation de file d’attente : modéliser les apparitions de clients aux caisse ainsi que le temps mis pour traiter les clients. I Astronomie : modélise le nombre de photons sur les capteurs CCD lorsque la lumière est très faible. 4 / 28
  • 2. Loi de poisson Propriétés I Fonction de masse p(k) = P(X = k) = e−λ λk k! I Espérance : mX = E(X) = 1 n ∞ X k=0 ke−λ λk k! = I Variance : V ar(X) = E(X2 ) − E(X)2 = 5 / 28 Processus de Poisson Accumulation entre deux instants I Soit N(t, t0 ) le nombre de points ti apparaissant sur l’intervalle ∆t = t0 − t. I N(·) est un v.a. de poisson de paramètre λ∆t de probabilité P(n(t, t0 ) = k) = e−λ∆t (λ∆t)k k! (1) I Si les intervalles [t, t0 ] et [u, u0 ] sont disjoints alors les v.a. N(t, t0 ) et N(u, u0 ) sont indépendantes. Processus de Poisson Un processus de poisson est un signal aléatoire définit par : Xp(t) = N(0, t) ∀t ∈ R+ (2) I Processus de comptage d’évènements. I Les évènements sont définis par leur instant d’apparition ti 6 / 28 Propriétés du processus de Poisson Moyenne mXp (t) mXp (t) = E(Xp(t)) = E(N(0, t)) = (3) I Variance V ar(Xp(t)) V ar(Xp(t)) = E((Xp(t) − mXp (t))2 ) = (4) Autocorrélation RXp (t1, t2) pour t1 ≤ t2 RXp (t1, t2) = λt1 + λ2 t1t2 7 / 28 Démonstration de l’autocorrélation RXp (t1, t2) RXp (t1, t2) = λt1 + λ2 t1t2 (5) Démonstration. I Si t1 = t2 alors Eq. (18) est bonne E(Xp(t)2 ) = V ar(Xp(t)) + E(Xp(t))2 = λt + λ2 t2 I Si t1 < t2, les v.a. Xp(t1) et Xp(t2) − Xp(t1) sont indépendantes car elles suivent des lois de poissons sur des intervalles disjoints. I Xp(t1) ∼ N(0, t1) I Xp(t2) − Xp(t1) ∼ N(0, t2 − t1) I On peut en déduire que E(Xp(t1)(Xp(t2) − Xp(t1)))) = E(Xp(t1))E(Xp(t2) − Xp(t1)) = λt1λ(t2 − t1) or comme Xp(t1)Xp(t2) = Xp(t1)(Xp(t2) − Xp(t1))) + Xp(t1)2 on retrouve RXp (t1, t2) = λt1 + λ2 t2 1 + λt1λ(t2 − t1) 8 / 28
  • 3. Exemple de réalisations 0 1 2 3 4 5 6 7 8 9 10 0 5 10 15 Moments d’un processus de Poisson mX (t) mX (t) ± σX (t) 0 1 2 3 4 5 6 7 8 9 10 0 5 10 15 Moments d’un processus de Poisson mX (t) mX (t) ± σX (t) Processus de Poisson I λ = 1 I mXp (t) = I V ar(Xp(t)) = 9 / 28 Basculateur poissonien Définition I Signal aléatoire obtenu à partir d’un processus de poisson Xp(t) : Xbp(t) = ( 1 si Xp(t) est pair −1 si Xp(t) est impair (6) I Signal oscillant entre la valeur 1 et −1. I Également appelé signal du télégraphiste. I Signal semi-aléatoire car la valeur en t = 0 est connue et fixée à 1. 10 / 28 Probabilités d’occurence de 1 et −1 Probabilité d’avoir la valeur 1 à l’instant t P(Xbp(t) = 1) = ∞ X k=0 P(xp(t) = 2k) = = e−λt cosh(λt) (7) avec cosh(x) = ex +e−x 2 Probabilité d’avoir la valeur −1 à l’instant t P(Xbp(t) = −1) = e−λt sinh(λt) (8) avec sinh(x) = ex −e−x 2 11 / 28 Propriétés du basculateur poissonnien Moyenne mXbp (t) mXbp (t) = E(Xbp(t)) = (9) Variance V ar(Xbp(t)) V ar(Xbp(t)) = E(Xbp(t)2 ) − E(Xbp(t))2 = (10) Autocorrélation RXbp (t1, t2) pour t1 ≤ t2 RXbp (t1, t2) = e−2λ|t2−t1| Signal stationnaire ? 12 / 28
  • 4. Basculateur poissonnien aléatoire Pour rendre la basculateur poissinien totalement aléatoire on définit : X̃bp(t) = AXbp(t) (11) I A uniforme discrète sur {1, 1} avec une probabilité 1/2 : A ∼ U({−1, 1}). I A et Xbp(t) sont indépendantes. I L’espérance devient E(X̃bp(t)) = E(A)E(Xbp(t)) = I Et la variance V ar(X̃bp(t)) = E(X̃bp(t)2 ) − E(X̃bp(t))2 = (12) I L’auto-corrélation est inchangée. I Le basculateur poissonnien aléatoire est donc 13 / 28 Exemple de réalisations 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 Moments du basculateur poissonnien mX (t) m X (t) ± σ X (t) 0 1 2 3 4 5 6 7 8 9 10 −1 −0.5 0 0.5 1 Basculateur poissonnien realisation 1 0 1 2 3 4 5 6 7 8 9 10 −1 −0.5 0 0.5 1 Basculateur poissonnien realisation 2 0 1 2 3 4 5 6 7 8 9 10 −1 −0.5 0 0.5 1 Basculateur poissonnien realisation 3 Basculateur poissonnien I λ = 1 I mXbp (t) = I V ar(Xbp(t)) = 14 / 28 Historique de la marche aléatoire I Introduit par Karl Pearson en 1905 pour modéliser la migration des moustiques dans une forêt (Nature 72, 294 ; 318 ; 342 (1905)). I Problème résolu par Lord Rayleigh qui lui donne l’approximation gaussienne. I Remarque de Karl Pearson : ”The most probable place to find a drunken man who is at all capable of keeping on his feet is somewhere near his starting point !”. 15 / 28 Marche aléatoire Définition Signal aléatoire discret définit récursivement par Xma(n) = Xma(n − 1) + sUn = s n X i=1 Ui I Un ∼ U({−1, 1}) où les variable aléatoires Un sont indépendantes. I Xma(0) = 0 I s ∈ R est le pas I La valeur du signal aléatoire change à chaque instant n. I Version continue de période T : X̃ma(t) = {Xma(n)|nT ≤ t < (np + 1)T} 16 / 28
  • 5. Propriétés de la marche aléatoire (1) Probabilités à l’instant n I À l’instant n, Xma peut prendre les valeurs Xma(n) ∈ {−ns, −(n + 1)s, . . . , (n − 1)s, ns} I Si les réalisation de Un on données k fois +1 et n − k fois −1 alors Xma(n) = ks − (n − k)s = ms, m = 2k − n I On reconnaı̂t la loi binomiale de probabilité p = 1 2 P(Xma(n) = ms) = n k 1 2n = Ck n 1 2n k = m + n 2 (13) 17 / 28 Propriétés de la marche aléatoire (1) Moyenne mXma (n) mXma (n) = E( n X i=1 Ui) = n X i=1 E(Ui) = (14) Variance V ar(Xma(n)) V ar(Xma(n)) = E(Xma(n)2 ) = E(( n X i=1 Ui)2 ) = (15) Autocorrélation RXma (n1, n2) pour n1 n2 RXma (n1, n2) = E(Xma(n1)Xma(n2)) = Signal stationnaire ? 18 / 28 Approximation pour n grand Approximation de la loi binomiale Quand n est grand, et que k est dans le voisinage √ npq de np, alors : n k pk qn−k ≈ 1 √ 2πnpq e−(k−np)2 /2npq (16) 0 1 2 3 4 5 6 k P[X=k] 0 0.05 0.15 0.25 0.3 0.2 0.1 Normal p.d.f. Binomial p.m.f. Application à la marche aléatoire Dans notre cas p = q = .5 et m=2k − n alors P(Xma(n) = ms) ≈ 1 p πn/2 e−m2 /2n (17) 19 / 28 Exemple de réalisations 0 2 4 6 8 10 12 14 16 18 20 −8 −6 −4 −2 0 2 4 6 8 Moments de la marche aléatoire mX (t) mX (t) ± σX (t) 0 2 4 6 8 10 12 14 16 18 20 −8 −6 −4 −2 0 2 4 6 8 Marche Aleatoire 10 realisations Marche aléatoire I s = 1 I mXp (t) = I V ar(Xp(t)) = 20 / 28
  • 6. Signal aléatoire gaussien Définition Un signal aléatoire gaussien XG(t, w) est un signal aléatoire qui est complètement défini par une loi gaussienne. I Soit le vecteur aléatoire suivant : XG(w)T = [XG(t1, w), XG(t2, w), . . . , XG(tk, w)] (18) I Alors la densité de probabilité d’un signal gaussien est pXG (X) = 1 p (2π)k|Σ| e−(1 2 (X−mX)T Σ−1 (X−mX)) (19) avec le vecteur des moyenne mX et la matrice de covariance Σ définis par mX = [mX (t1), mX (t2), . . . , mX (tk)] (20) (Σ)i,j = E(Xc(ti, w)Xc(tj, w)∗ ) = CX (ti, tj) (21) 21 / 28 Signal aléatoire gaussien (2) Signal gaussien stationnaire I Moyenne mXG = mX [1, 1, . . . , 1] mXG (t) = mXG I Covariance (Σ)i,j = CX (tj − ti) = CX (τ) Discussion I La loi Gaussienne est complètement caractérisée par ses deux premiers moments I Dans le cas stationnaire alors mX et RXG (τ)/CXG (τ) sont suffisants pour connaı̂tre complètement la signal aléatoire.. 22 / 28 Bruit gaussien Définition Le bruit gaussien est un signal aléatoire, dont la densité de probabilité suit une loi gaussienne : XB(t, w) ∼ N(0, σ(t)2 ) ∀i (22) Bruit gaussien Indépendant et identiquement distribué (I.I.D.) I Indépendant implique que XB(t1, w) et XB(t2, w) indép. pour t1 6= t2. I Identiquement distribué implique un signal stationnaire (σ(t) = σ) mXB (t) = 0 (23) V arXB (t) = σ2 (24) RXB (τ) = CXB (τ) = σ2 δ(τ) (25) I Signal complètement connu car moyenne et matrice de covariance connus. I Bruit blanc : contient toutes les fréquences du spectre. 23 / 28 Exemple de réalisations 0 1 2 3 4 5 6 7 8 9 10 −4 −3 −2 −1 0 1 2 3 4 Moments du bruit gaussien mX (t) mX (t) ± σX (t) 0 1 2 3 4 5 6 7 8 9 10 −4 −3 −2 −1 0 1 2 3 4 Bruit gaussien 10 realisations Bruit Gaussien I σ = 1 I mXp (t) = 0 I V ar(Xp(t)) = σ2 24 / 28
  • 7. Processus de Wiener Historique I En l’honneur de Norbert Wiener, fondateur de la cybernétique. I Aussi appelé mouvement brownien (Robert Brown). I Utilisé en physique statistique, économie, finances. Définition Le processus de Wiener est construit comme Xw(t, w) = lim T →0 X̃ma(t, w) s.c. s = √ T C’est un processus Gaussien caractérisé par 3 propriétés : I X(0, w) = 0 I Le signal aléatoire certainement continu (avec une proba 1). I Les incréments X(t2, w) − X(t1, w) sont indépendants et suivent un loi gaussienne de type N(0, t2 − t1). 25 / 28 Processus de Wiener (2) Densité de probabilité pXw(t,w)(x) = 1 √ 2πt e− x2 2t (26) Moyenne mXw (t) mXw (t) = 0 Variance V arXw (t) V arXw (t) = t Autocorrélation RXw (t1, t2) pour t1 t2 RX (t1, t2) = E(X(t1, w)X(t2, w)] (27) = E(X(t1, w)(X(t2, w) − X(t1, w) + X(t1, w))) (28) = E(X(t1, w)(X(t2, w) − X(t1, w))) + E(X(t1, w)2 ) = t1 (29) Signal stationnaire ? 26 / 28 Exemple de réalisations 0 1 2 3 4 5 6 7 8 9 10 −4 −3 −2 −1 0 1 2 3 4 Moments du processus de Wiener mX (t) mX (t) ± σX (t) 0 1 2 3 4 5 6 7 8 9 10 −4 −3 −2 −1 0 1 2 3 4 Processus de Wiener 10 realisations Processus de Wiener I mXp (t) = 0 I V ar(Xp(t)) = t 27 / 28 Bibliographie Cours fortement inspiré des références suivantes : I Traitement Statistique du Signal, R. Herault, INSA Rouen. https://moodle.insa-rouen.fr/course/view.php?id=199 I Signaux Aléatoires, J.-F. Bercher, ESIEE http://www.esiee.fr/~bercherj/New/polys/poly_alea.pdf I Théorie du signal, C. Jutten, http://www.gipsa-lab.grenoble-inp.fr/~christian.jutten/mescours/ Theorie_du_signal.pdf I Probability, random variables and stochastic processes., A Papoulis 28 / 28