2. Variabili Casuali (v.c.)
Una variabile casuale X e’ una funzione definita
sullo spazio campionario Ω che associa ad ogni
evento E ⊂ Ω un unico numero reale.
X
Ω
x6
E2 E3
x5
E1 x4
E6
E5 E4
E7 x3
x2
E9 E8 x1
3. Variabili casuali discrete e continue
• Una variabile casuale discreta può assumere un
insieme discreto (finito o numerabile) di numeri
reali.
• Una variabile casuale continua può assumere
tutti i valori compresi in un intervallo reale.
Ω discreto V.C. discreta
Ω continuo V.C. discreta o continua
4. Variabili casuali discrete
P(X=xi) Probabilità che la v.c. X
assuma il valore xi
La funzione di probabilità di una variabile
casuale discreta X associa ad ognuno dei
valori xi la corrispondente probabilità P(X=xi)
Proprietà ∑ i P ( xi ) = 1
P ( xi ) ≥ 0
6. Funzione di Ripartizione
Data una v.c discreta X, la funzione che fa corrispondere
ai valori x le probabilità cumulate
P(X ≤ x)
viene detta funzione di ripartizione ed indicata con
F (x ) = P ( X ≤ x ) = ∑P(X = w)
w ≤x
8. Funzione di Ripartizione: proprietà
• è non decrescente, ossia:
x1 < x 2 ⇒ F ( x1 ) ≤ F ( x 2 )
• Inoltre
lim F ( x ) = 0 lim F ( x ) = 1
x →−∞ x →∞
• è continua a destra, ossia
lim F (x ) = F ( x0 )
+
x → x0
9. Variabili casuali continue
Chiameremo Funzione di densità, la funzione
matematica f(x) per cui l’area sottesa alla
funzione, corrispondente ad un certo intervallo,
è uguale alla probabilità che X assuma un
valore in quell’intervallo.
10. Proprietà delle funzioni di densità
≥
• f(x)≥0 sempre
• L’area totale sottesa alla funzione =1, ossia
+∞
∫ f ( x ) dx = 1
−∞
• La probabilità che la v.c. assuma un particolare valore
dell’intervallo è zero.
11. Funzione di Ripartizione
Data una v.c. continua X, la funzione che fa
corrispondere ai valori x le probabilità cumulate
≤
P(X≤ x) viene detta funzione di ripartizione.
x
F ( x ) = P( X ≤ x ) = ∫ f ( w )dw
−∞
12. Variabili casuali continue
Esempio: 2,0
f x
X ~ f ( x) 1,5
f ( x) = 12x(1 − x)2 1,0
x ∈ [0;1]
0,5 0,229
0, 7 0,0
∫ f (x)dx = 0,229
0,0 0,5 0,7 1,0 X
0, 5
+∞ 1
∫ f (x)dx =∫ f (x)dx =1
−∞ 0
P(0,5<X<0,7)
13. Esempio
Funzioni di densità e corrispondenti funzioni di ripartizione
f (x ) F (x )
x x
2,00 1,0
f (x ) F (x )
0,8
1,50
0,6
1,00
0,4
0,50
0,2
0,00 0,0
0,0 1,5
x 3,0 0,0 1,5
x 3,0
14. Valore atteso di una v.c.
Il valore medio di una v.c. X, è definito come
E ( X ) = ∑ x i P ( x i ) Se la v.c. è discreta
i
+∞
E(X ) = ∫ x f (x ) dx Se la v.c. è continua
−∞
16. Esempio: v.c. continua
− λx
Consideriamo la v.c. X ~ λe
con lambda una costante positiva e x ≥0
(Esponenziale). Il valore atteso è dato
da 2,0
1,6
+∞
−λx 1
E(X ) = ∫ xλe dx = 1,2
−∞
λ 0,8
0,4
0,0
0,0 0,5 1,0 1,5 2,0 2,5 3,0
17. La varianza di una v.c.
La varianza V(X) di una variabile casuale X è definita da
V ( X ) = ∑ ( x i − E ( X ))2 P ( x i ) Se la v.c. è discreta
i
+∞
V (X ) = ∫ (x − E ( X ))2 f (x )dx Se la v.c. è continua
−∞
18. Varianza di una v.c.
Notazioni alternative:
V ( X ) = E {[ X − E ( X )] 2 }
oppure, dopo alcuni passaggi
( )− [E ( X )]
V (X ) = E X 2 2
La deviazione standard è definita
SD ( X ) = V ( X )
19. V.c. Standardizzate
I valori standardizzati esprimono la distanza tra i
valori osservati e la media in termini di deviazione
standard.
Se X è una v.c. con valore E(X) e SD(X) allora:
X − E( X )
Y =
SD( X )
È una v.c. standardizzata con E(Y)=0 e V(Y)=1
20. Teorema di Chebyshev
Sia X una variabile casuale e k un valore reale
positivo, allora vale la seguente disuguaglianza:
P ( X − E ( X ) ≥ k ⋅ SD ( X )) ≤ 2
1
k
Indipendentemente dalla distribuzione della v.c. , la
probabilità che X assuma valori distanti dalla media più
di k deviazioni standard è al più 1/k2
21. Distribuzioni di probabilità
• Sono una estensione delle distribuzioni di
frequenza
• Il caso più semplice da trattare è relativo a
distribuzioni di probabilità di variabili discrete
– Variabili discrete:
• Fenomeni di conteggio
• Esperimenti con modalità limitate
– Variabili continue:
• Misurazioni
• Esperimenti con modalità nel continuo
22. Metodi di sintesi delle distribuzioni
• In analogia con quanto detto circa le distribuzioni
di frequenze, anche per le distribuzioni di
probabilità abbiamo la necessità di sintetizzare i
dati
• In particolare ci interessa una sintesi di centralità
– Valore atteso
• Ed una sintesi della variabilità
– Varianza
– Scarto quadratico medio
– Coefficiente di variazione
23. Modelli probabilistici
• Per modello si intende una legge di probabilità
in grado di misurare l’incertezza circa il
fenomeno reale sotto studio
Fenomeno reale:
reale Modello matematico:
matematico
Numero di figli Distribuzione di
per famiglia probabilità da associare
al fenomeno di interesse
Risultati dal
per analizzarlo
lancio di un dado
24. • In funzione del fenomeno reale sotto studio,
si cerca di associare un modello opportuno a
descriverne la variabilità
• I modelli si dividono in:
– Modelli discreti, alcuni dei quali sono:
• Modello uniforme discreto
• Modello binomiale
• Modello poisson
– Modelli continui
• Modello normale
• Modello esponenziale
25. Modello uniforme (1)
• Si tratta della distribuzione più semplice
• Consente di valutare la probabilità di un
fenomeno per il quale ognuno degli k
possibili risultati sia equamente probabile.
• Ad esempio, la probabilità che un numero sia
estratto al lotto è descritta dal modello
Uniforme, perché ciascuno dei 90 numeri ha
una probabilità pari a 1/90 di essere estratto.
26. Modello bernoulliano (1)
• Questo particolare modello è adatto a descrive la probabilità
associata a variabili dicotomiche, cioè fenomeni che assumono
soltanto uno tra due possibili valori: x = 1 (si verifica un certo
evento di interesse E, ed x = 0 se non si verifica l’evento E).
• Esempio: (morto vs vivo, maschio vs femmina; presenza di un
evento di interesse contrapposto a tutti gli altri)
•
P ( X = 1) = p
P ( X = 0) = 1 − p
E(X ) = p
var( X ) = p (1 − p )
27. Distribuzione di Bernoulli
Una v.c. di Bernoulli può assumere il valore 1
con probabilità π e il valore 0 con probabilità 1-π
π
La sua funzione di probabilità può essere espressa come
P ( X = x ) = π x (1 − π )1− x per x = 0,1
Tutte le prove che producono solo due possibili risultati
generano v.c. di Bernoulli: il lancio di una moneta, il
sesso di un nascituro, il superamento o meno di un certo
livello di inflazione….
28. Modello Binomiale
• Il modello binomiale, descrive la probabilità il
numero x di successi ottenuti in un campione di
n prove (osservazioni):
n!
Pr( X = x | p ) = p x (1 − p ) n − x
x!(n − x)!
n x n− x
= p (1 − p )
x
E ( X ) = np
var( X ) = np (1 − p )
29. Modello Binomiale (2)
• La formulazione Pr(X = x) indica che su n osservazioni si
sono verificati esattamente x successi e, di conseguenza,
n – x insuccessi
• Poiché le prove sono indipendenti e la probabilità di
successo è costante pari a p per ogni prova, osserveremo
su n tentativi:
– x con probabilità p
– n – x con probabilità 1 – p
• Rimane da considerare il fatto che l’ordine in cui le prove
sono osservate è variabile e noi siamo interessati solo al
totale dei successi-insuccessi, non all’ordine
30. Modello Binomiale (3)
• Infatti, si potrebbero verificare:
– tutti i successi e poi tutti gli insuccessi
– oppure un successo e un insuccesso in sequenza
– oppure tutti gli insuccessi e poi tutti i successi …
• Per tenere conto di queste possibilità, le
probabilità sono moltiplicate per il numero di
possibili combinazioni di k
n n!
=
x x!(n − x)! con n!= n × (n − 1) × ... × 2 × 1
37. Modello Poisson (1)
• Il modello Poisson si adatta a rappresentare esperimenti
aleatori che danno luogo ad un numero discreto di
eventi in un intervallo continuo (es. arrivi in un
aeroporto in un’ora di tempo, )
• Le realizzazioni degli eventi devono avere le seguenti
caratteristiche:
– L’intervallo (di tempo o di spazio) è suddivisibile in n sotto-
intervalli all’interno dei quali la probabilità di manifestarsi di
un evento è piccola e la probabilità di manifestarsi di più
eventi tende a zero
– La probabilità di manifestarsi degli eventi nei sottointervalli
è costante
– Eventi relativi a sotto intervalli differenti sono
stocasticamente indipendenti (processo senza memoria)
38. Modello Poisson (2)
• In termini matematici il modello è
specificato come:
−λ
e λ x
Pr( X = x | λ ) =
x!
• Il parametro λ rappresenta il numero
medio di eventi che si verificano
nell’intervallo (numero atteso di successi)
39. Distribuzione di Poisson
Una v.c. di Poisson, è una v.c. discreta che può assumere
qualsiasi valore intero non-negativo.
La distribuzione di probabilità della Poisson è data da
λx −λ
P( x ) = e x = 0, 1, 2, K 0<λ<∞
x! 0,40
0,35 Poisson(1)
E(X ) = λ
0,30
0,25 Poisson(3)
V (X ) = λ
0,20
0,15
Poisson(7)
0,10
0,05
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
40. Modello Poisson (3)
• L’esperimento aleatorio di interesse è il
“numero di arrivi di clienti presso una banca”
• Supponiamo che mediamente arrivino 3 clienti
ogni minuto
• Ci interessa calcolare:
– la probabilità che nello stesso intervallo arrivino
esattamente 2 clienti
– la probabilità che nello stesso intervallo arrivino più
di 2 clienti
41. Modello Poisson (4)
• Utilizzando la funzione della distribuzione
Poisson, si ha che:
−3 −3
e 3 2
9 × (2.71828 )
Pr( X = 2) = =
2! (2 × 1)
= 0.224
42. Modello Poisson (5)
• Invece, per determinare
∞
Pr( X > 2) = ∑ Pr( X = i)
i =3
è più comodo notare che:
Pr( X > 2) = 1 − Pr( X ≤ 2)
= Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2)
dove queste tre probabilità sono “semplici” da
calcolare
43. Modello Poisson (6)
e −3 3 0 1 × (2.71828 ) −3
Pr( X = 0 ) = =
0! 1
= 0.0498
e −3 3 1 3 × (2.71828 ) −3
Pr( X = 1) = =
1! 1 Pr( X > 2) = 0.577
= 0.1494
e −3 3 2 9 × (2.71828 ) −3
Pr( X = 2) = =
2! (2 × 1)
= 0.224
44. Modello Poisson (7)
• NB nel modello Poisson, il parametro λ
rappresenta anche la varianza oltre che il numero
atteso di eventi
• Dunque, all’aumentare della media, aumenta
anche la varianza della distribuzione
• Questo fa sì che nella pratica si possa ricorrere a
formulazioni alternative del modello Poisson, che
permettono di “modellare” in modo indipendente
il termine di variabilità