SlideShare une entreprise Scribd logo
1  sur  44
Télécharger pour lire hors ligne
Variabili casuali e
Distribuzioni di Probabilità
Variabili Casuali (v.c.)
Una variabile casuale X e’ una funzione definita
sullo spazio campionario Ω che associa ad ogni
evento E ⊂ Ω un unico numero reale.
                                                   X


      Ω
                                                   x6

               E2             E3
                                                   x5
                              E1                   x4
          E6
                    E5             E4
                              E7                   x3
                                                   x2
               E9        E8                        x1
Variabili casuali discrete e continue
• Una variabile casuale discreta può assumere un
  insieme discreto (finito o numerabile) di numeri
  reali.
• Una variabile casuale continua può assumere
  tutti i valori compresi in un intervallo reale.


  Ω discreto            V.C. discreta


  Ω continuo            V.C. discreta o continua
Variabili casuali discrete

P(X=xi)           Probabilità che la v.c. X
                  assuma il valore xi

La funzione di probabilità di una variabile
casuale discreta X associa ad ognuno dei
valori xi la corrispondente probabilità P(X=xi)


  Proprietà                ∑ i P ( xi ) = 1
                           P ( xi ) ≥ 0
Esempio
Corrispondenza tra eventi e valori della variabile
casuale X “somma dei punteggi”, nella prova “lancio
di due dadi”
Funzione di Ripartizione
Data una v.c discreta X, la funzione che fa corrispondere
ai valori x le probabilità cumulate
                  P(X ≤ x)
viene detta funzione di ripartizione ed indicata con


    F (x ) = P ( X ≤ x ) =     ∑P(X       = w)
                              w ≤x
Esempio
 X           2       3       4       5   6       7       8         9        10    11   12

P(x) 1   2    3    4    5    6    5    4    3    2   1
      36 36 36 36 36 36 36 36 36 36 36
F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1

     1

 F(x)
   0,8



   0,6



   0,4



   0,2



     0
         1       2   3   4       5   6   7   8       9   10   11       12    13   x
Funzione di Ripartizione: proprietà

 • è non decrescente, ossia:

        x1 < x 2 ⇒ F ( x1 ) ≤ F ( x 2 )
 • Inoltre

      lim F ( x ) = 0       lim F ( x ) = 1
     x →−∞                 x →∞


 •   è continua a destra, ossia

               lim F (x ) = F ( x0 )
                   +
              x → x0
Variabili casuali continue
Chiameremo Funzione di densità, la funzione
matematica f(x) per cui l’area sottesa alla
funzione, corrispondente ad un certo intervallo,
è uguale alla probabilità che X assuma un
valore in quell’intervallo.
Proprietà delle funzioni di densità

      ≥
• f(x)≥0 sempre
• L’area totale sottesa alla funzione =1, ossia
                 +∞
                 ∫ f ( x ) dx   = 1
                  −∞
• La probabilità che la v.c. assuma un particolare valore
  dell’intervallo è zero.
Funzione di Ripartizione

Data una v.c. continua X, la funzione che fa
corrispondere ai valori x le probabilità cumulate
    ≤
P(X≤ x) viene detta funzione di ripartizione.
                               x
      F ( x ) = P( X ≤ x ) =   ∫ f ( w )dw
                               −∞
Variabili casuali continue
 Esempio:                    2,0

                            f x
  X ~ f ( x)                 1,5


  f ( x) = 12x(1 − x)2       1,0

  x ∈ [0;1]
                             0,5            0,229

  0, 7                       0,0


  ∫ f (x)dx = 0,229
                                0,0   0,5           0,7   1,0   X

  0, 5
  +∞           1

  ∫ f (x)dx =∫ f (x)dx =1
  −∞           0
                                      P(0,5<X<0,7)
Esempio
Funzioni di densità e corrispondenti funzioni di ripartizione
     f (x )                         F (x )




                          x                             x
       2,00                           1,0


     f (x )                         F (x )
                                      0,8
       1,50


                                      0,6

       1,00

                                      0,4


       0,50
                                      0,2



       0,00                           0,0
              0,0   1,5
                          x   3,0           0,0   1,5
                                                        x   3,0
Valore atteso di una v.c.

Il valore medio di una v.c. X, è definito come

E ( X ) = ∑ x i P ( x i ) Se la v.c. è discreta
           i
           +∞
 E(X ) =   ∫ x f (x ) dx   Se la v.c. è continua
           −∞
Esempio: v.c. discreta

  X     2   3   4    5    6   7    8    9   10   11   12

 P(x) 1   2    3    4    5    6    5    4    3    2   1
       36 36 36 36 36 36 36 36 36 36 36
 F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1


          1      2     3     4  5  6  5  4
E(X ) = 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9
         36     36    36    36 36 36 36 36
            3       2     1
      + 10    + 11 + 12     =7
           36      36    36
Esempio: v.c. continua
                                  − λx
Consideriamo la v.c.     X ~ λe
con lambda una costante positiva e x                 ≥0
(Esponenziale). Il valore atteso è dato
da                                  2,0



                                         1,6
           +∞
                   −λx        1
 E(X ) =   ∫ xλe         dx =            1,2



           −∞
                              λ          0,8



                                         0,4



                                         0,0
                                               0,0   0,5   1,0   1,5   2,0   2,5   3,0
La varianza di una v.c.

La varianza V(X) di una variabile casuale X è definita da



V ( X ) = ∑ ( x i − E ( X ))2 P ( x i )   Se la v.c. è discreta
           i
           +∞
V (X ) =   ∫ (x − E ( X ))2 f (x )dx      Se la v.c. è continua
           −∞
Varianza di una v.c.
Notazioni alternative:

           V ( X ) = E {[ X − E ( X )] 2 }
oppure, dopo alcuni passaggi

                      ( )− [E ( X )]
           V (X ) = E X   2            2

La deviazione standard è definita

             SD ( X ) = V ( X )
V.c. Standardizzate
I valori standardizzati esprimono la distanza tra i
 valori osservati e la media in termini di deviazione
 standard.

Se X è una v.c. con valore E(X) e SD(X) allora:

                        X − E( X )
                    Y =
                         SD( X )

È una v.c. standardizzata con E(Y)=0 e V(Y)=1
Teorema di Chebyshev
Sia X una variabile casuale e k un valore reale
positivo, allora vale la seguente disuguaglianza:


      P ( X − E ( X ) ≥ k ⋅ SD ( X )) ≤ 2
                                           1
                                       k
Indipendentemente dalla distribuzione della v.c. , la
probabilità che X assuma valori distanti dalla media più
di k deviazioni standard è al più 1/k2
Distribuzioni di probabilità
• Sono una estensione delle distribuzioni di
  frequenza
• Il caso più semplice da trattare è relativo a
  distribuzioni di probabilità di variabili discrete
  – Variabili discrete:
     • Fenomeni di conteggio
     • Esperimenti con modalità limitate
  – Variabili continue:
     • Misurazioni
     • Esperimenti con modalità nel continuo
Metodi di sintesi delle distribuzioni
• In analogia con quanto detto circa le distribuzioni
  di frequenze, anche per le distribuzioni di
  probabilità abbiamo la necessità di sintetizzare i
  dati
• In particolare ci interessa una sintesi di centralità
  – Valore atteso
• Ed una sintesi della variabilità
  – Varianza
  – Scarto quadratico medio
  – Coefficiente di variazione
Modelli probabilistici
• Per modello si intende una legge di probabilità
  in grado di misurare l’incertezza circa il
  fenomeno reale sotto studio


  Fenomeno reale:
           reale               Modello matematico:
                                       matematico
   Numero di figli                 Distribuzione di
    per famiglia              probabilità da associare
                              al fenomeno di interesse
    Risultati dal
                                   per analizzarlo
    lancio di un dado
• In funzione del fenomeno reale sotto studio,
  si cerca di associare un modello opportuno a
  descriverne la variabilità
• I modelli si dividono in:
  – Modelli discreti, alcuni dei quali sono:
     • Modello uniforme discreto
     • Modello binomiale
     • Modello poisson
  – Modelli continui
     • Modello normale
     • Modello esponenziale
Modello uniforme (1)
• Si tratta della distribuzione più semplice
• Consente di valutare la probabilità di un
  fenomeno per il quale ognuno degli k
  possibili risultati sia equamente probabile.
• Ad esempio, la probabilità che un numero sia
  estratto al lotto è descritta dal modello
  Uniforme, perché ciascuno dei 90 numeri ha
  una probabilità pari a 1/90 di essere estratto.
Modello bernoulliano (1)
• Questo particolare modello è adatto a descrive la probabilità
  associata a variabili dicotomiche, cioè fenomeni che assumono
  soltanto uno tra due possibili valori: x = 1 (si verifica un certo
  evento di interesse E, ed x = 0 se non si verifica l’evento E).
• Esempio: (morto vs vivo, maschio vs femmina; presenza di un
  evento di interesse contrapposto a tutti gli altri)
•
    P ( X = 1) = p
    P ( X = 0) = 1 − p
    E(X ) = p
    var( X ) = p (1 − p )
Distribuzione di Bernoulli

Una v.c. di Bernoulli può assumere il valore 1
con probabilità π e il valore 0 con probabilità 1-π
                                                  π

La sua funzione di probabilità può essere espressa come



    P ( X = x ) = π x (1 − π )1− x     per x = 0,1


Tutte le prove che producono solo due possibili risultati
generano v.c. di Bernoulli: il lancio di una moneta, il
sesso di un nascituro, il superamento o meno di un certo
livello di inflazione….
Modello Binomiale
• Il modello binomiale, descrive la probabilità il
  numero x di successi ottenuti in un campione di
  n prove (osservazioni):
                          n!
    Pr( X = x | p ) =            p x (1 − p ) n − x
                      x!(n − x)!
              n x         n− x
           =   p (1 − p )
              x
              
   E ( X ) = np
  var( X ) = np (1 − p )
Modello Binomiale (2)
• La formulazione Pr(X = x) indica che su n osservazioni si
  sono verificati esattamente x successi e, di conseguenza,
  n – x insuccessi
• Poiché le prove sono indipendenti e la probabilità di
  successo è costante pari a p per ogni prova, osserveremo
  su n tentativi:
   – x con probabilità p
   – n – x con probabilità 1 – p
• Rimane da considerare il fatto che l’ordine in cui le prove
  sono osservate è variabile e noi siamo interessati solo al
  totale dei successi-insuccessi, non all’ordine
Modello Binomiale (3)
• Infatti, si potrebbero verificare:
   – tutti i successi e poi tutti gli insuccessi
   – oppure un successo e un insuccesso in sequenza
   – oppure tutti gli insuccessi e poi tutti i successi …
• Per tenere conto di queste possibilità, le
  probabilità sono moltiplicate per il numero di
  possibili combinazioni di k

  n      n!
  =
  x  x!(n − x)!        con n!= n × (n − 1) × ... × 2 × 1
  
N=10 p=0.4
Calcolo delle probabilità nel modello
 binomiale

• Calcolare Pr(X = 3|n = 4, p = 0.1)
                             4!
           Pr( X = 3) =             0.13 (1 − 0.1) 4 − 3
                         3!(4 − 3)!
                   4 × 3× 2×1
                 =              × 0.13 × 0.9 1
                   3 × 2 × 1× 1
                 = 4 × 0.001 × 0.9
                  = 0.0036
• Calcolare Pr(X ≥ 3) con n = 4 prove e p = 0.1
                                               Poiché le prove sono
Pr( X ≥ 3) = Pr( X = 3 ∪ X = 4 )               indipendenti per Hp

             4!                   4 −3       4!
      =            0.1 (1 − 0.1) +
                      3
                                                    0.14 (1 − 0.1) 4 − 4
        3!(4 − 3)!                      4!(4 − 4 )!
        4 × 3× 2×1                       4 × 3× 2×1
      =              × 0 .1 × 0 .9 +
                           3       1
                                                        × 0.1 × 0.9
                                                              4         0

        3 × 2 × 1× 1                   4 × 3 × 2 × 1× 1
      = 4 × 0.001 × 0.9 + 1 × 0.0001 × 1
      = 0.0036 + 0.0001 = 0.0037
                                                       Perché 0! = 1 per
                                                       definizione
• Calcolare Pr(X < 3) con n = 4 prove e p = 0.1
          Pr( X < 3) = Pr( X = 0 ∪ X = 1 ∪ X = 2)
                = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2)
                      2
                 =   ∑ Pr( X = i)
                     i =0

                  4!
Pr( X = 0 ) =             0.10 (1 − 0.1) 4 −0 = 0.6561
              0!(4 − 0 )!
                  4!                   4 −1
Pr( X = 1) =             0.1 (1 − 0.1) = 0.2916
                             1

              1!(4 − 1)!
                  4!
Pr( X = 2) =              0.12 (1 − 0.1) 4 − 2 = 0.0486
              2!(4 − 2)!
N=4 p=0.1
Esempi di Binomiale
0,300
                Binomiale(7;0,5)

0,250




0,200
                                                           Binomiale(20;0,5)


0,150




0,100




0,050




0,000
        0   1    2   3   4   5   6   7   8   9   10   11   12   13   14   15   16   17   18   19   20
Modello Poisson (1)
• Il modello Poisson si adatta a rappresentare esperimenti
  aleatori che danno luogo ad un numero discreto di
  eventi in un intervallo continuo (es. arrivi in un
  aeroporto in un’ora di tempo, )
• Le realizzazioni degli eventi devono avere le seguenti
  caratteristiche:
   – L’intervallo (di tempo o di spazio) è suddivisibile in n sotto-
     intervalli all’interno dei quali la probabilità di manifestarsi di
     un evento è piccola e la probabilità di manifestarsi di più
     eventi tende a zero
   – La probabilità di manifestarsi degli eventi nei sottointervalli
     è costante
   – Eventi relativi a sotto intervalli differenti sono
     stocasticamente indipendenti (processo senza memoria)
Modello Poisson (2)
• In termini matematici il modello è
  specificato come:
                            −λ
                             e λ   x
           Pr( X = x | λ ) =
                              x!
• Il parametro λ rappresenta il numero
  medio di eventi che si verificano
  nell’intervallo (numero atteso di successi)
Distribuzione di Poisson

Una v.c. di Poisson, è una v.c. discreta che può assumere
qualsiasi valore intero non-negativo.
La distribuzione di probabilità della Poisson è data da

           λx −λ
 P( x ) =      e            x = 0, 1, 2, K       0<λ<∞
          x!       0,40


                   0,35       Poisson(1)


 E(X ) = λ
                   0,30


                   0,25            Poisson(3)


V (X ) = λ
                   0,20


                   0,15
                                                         Poisson(7)

                   0,10


                   0,05

                   0,00
                          1    2     3   4   5   6   7    8   9   10   11   12   13   14   15   16   17
Modello Poisson (3)
• L’esperimento aleatorio di interesse è il
  “numero di arrivi di clienti presso una banca”
• Supponiamo che mediamente arrivino 3 clienti
  ogni minuto
• Ci interessa calcolare:
  – la probabilità che nello stesso intervallo arrivino
    esattamente 2 clienti
  – la probabilità che nello stesso intervallo arrivino più
    di 2 clienti
Modello Poisson (4)

• Utilizzando la funzione della distribuzione
  Poisson, si ha che:

                     −3                     −3
                     e 3  2
                           9 × (2.71828 )
        Pr( X = 2) =     =
                      2!        (2 × 1)
              = 0.224
Modello Poisson (5)

• Invece, per determinare
                              ∞
              Pr( X > 2) =   ∑ Pr( X = i)
                             i =3
  è più comodo notare che:
       Pr( X > 2) = 1 − Pr( X ≤ 2)
             = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2)

  dove queste tre probabilità sono “semplici” da
  calcolare
Modello Poisson (6)
              e −3 3 0 1 × (2.71828 ) −3
Pr( X = 0 ) =         =
                 0!            1
      = 0.0498
             e −3 3 1 3 × (2.71828 ) −3
Pr( X = 1) =         =
                1!            1            Pr( X > 2) = 0.577
      = 0.1494
             e −3 3 2 9 × (2.71828 ) −3
Pr( X = 2) =         =
                2!         (2 × 1)
      = 0.224
Modello Poisson (7)
• NB nel modello Poisson, il parametro λ
  rappresenta anche la varianza oltre che il numero
  atteso di eventi
• Dunque, all’aumentare della media, aumenta
  anche la varianza della distribuzione
• Questo fa sì che nella pratica si possa ricorrere a
  formulazioni alternative del modello Poisson, che
  permettono di “modellare” in modo indipendente
  il termine di variabilità

Contenu connexe

Tendances

An Intuitive Approach to Fourier Optics
An Intuitive Approach to Fourier OpticsAn Intuitive Approach to Fourier Optics
An Intuitive Approach to Fourier Opticsjose0055
 
Composite Functions.ppt
Composite Functions.pptComposite Functions.ppt
Composite Functions.pptXiaodong Li
 
5.3 areas, riemann sums, and the fundamental theorem of calaculus
5.3 areas, riemann sums, and the fundamental theorem of calaculus5.3 areas, riemann sums, and the fundamental theorem of calaculus
5.3 areas, riemann sums, and the fundamental theorem of calaculusmath265
 
Relations & functions.pps
Relations  &  functions.ppsRelations  &  functions.pps
Relations & functions.ppsindu psthakur
 
1 review on derivatives
1 review on derivatives1 review on derivatives
1 review on derivativesmath266
 
Langrange Interpolation Polynomials
Langrange Interpolation PolynomialsLangrange Interpolation Polynomials
Langrange Interpolation PolynomialsSohaib H. Khan
 
Math presentation on domain and range
Math presentation on domain and rangeMath presentation on domain and range
Math presentation on domain and rangeTouhidul Shawan
 
Infinite sequences and series i
Infinite sequences and series iInfinite sequences and series i
Infinite sequences and series iEasyStudy3
 
6.2 the indefinite integral
6.2 the indefinite integral 6.2 the indefinite integral
6.2 the indefinite integral dicosmo178
 
Estadistica 2º eso
Estadistica 2º esoEstadistica 2º eso
Estadistica 2º esolarubia1
 
4.4 review on derivatives
4.4 review on derivatives4.4 review on derivatives
4.4 review on derivativesmath265
 
Math functions, relations, domain & range
Math functions, relations, domain & rangeMath functions, relations, domain & range
Math functions, relations, domain & rangeRenee Scott
 
POWERPOINT (SETS & FUNCTIONS).pdf
POWERPOINT (SETS & FUNCTIONS).pdfPOWERPOINT (SETS & FUNCTIONS).pdf
POWERPOINT (SETS & FUNCTIONS).pdfMaryAnnBatac1
 
Topology for Computing: Homology
Topology for Computing: HomologyTopology for Computing: Homology
Topology for Computing: HomologySangwoo Mo
 
4.6 Exponential Growth and Decay
4.6 Exponential Growth and Decay4.6 Exponential Growth and Decay
4.6 Exponential Growth and Decaysmiller5
 
3.2 Derivative as a Function
3.2 Derivative as a Function3.2 Derivative as a Function
3.2 Derivative as a Functiongregcross22
 
4.6 Relations And Functions
4.6 Relations And Functions4.6 Relations And Functions
4.6 Relations And Functionsguestd1dc2e
 
Fourier series Introduction
Fourier series IntroductionFourier series Introduction
Fourier series IntroductionRizwan Kazi
 

Tendances (20)

topology definitions
 topology definitions topology definitions
topology definitions
 
An Intuitive Approach to Fourier Optics
An Intuitive Approach to Fourier OpticsAn Intuitive Approach to Fourier Optics
An Intuitive Approach to Fourier Optics
 
Composite Functions.ppt
Composite Functions.pptComposite Functions.ppt
Composite Functions.ppt
 
5.3 areas, riemann sums, and the fundamental theorem of calaculus
5.3 areas, riemann sums, and the fundamental theorem of calaculus5.3 areas, riemann sums, and the fundamental theorem of calaculus
5.3 areas, riemann sums, and the fundamental theorem of calaculus
 
Relations & functions.pps
Relations  &  functions.ppsRelations  &  functions.pps
Relations & functions.pps
 
1 review on derivatives
1 review on derivatives1 review on derivatives
1 review on derivatives
 
Langrange Interpolation Polynomials
Langrange Interpolation PolynomialsLangrange Interpolation Polynomials
Langrange Interpolation Polynomials
 
Metric space
Metric spaceMetric space
Metric space
 
Math presentation on domain and range
Math presentation on domain and rangeMath presentation on domain and range
Math presentation on domain and range
 
Infinite sequences and series i
Infinite sequences and series iInfinite sequences and series i
Infinite sequences and series i
 
6.2 the indefinite integral
6.2 the indefinite integral 6.2 the indefinite integral
6.2 the indefinite integral
 
Estadistica 2º eso
Estadistica 2º esoEstadistica 2º eso
Estadistica 2º eso
 
4.4 review on derivatives
4.4 review on derivatives4.4 review on derivatives
4.4 review on derivatives
 
Math functions, relations, domain & range
Math functions, relations, domain & rangeMath functions, relations, domain & range
Math functions, relations, domain & range
 
POWERPOINT (SETS & FUNCTIONS).pdf
POWERPOINT (SETS & FUNCTIONS).pdfPOWERPOINT (SETS & FUNCTIONS).pdf
POWERPOINT (SETS & FUNCTIONS).pdf
 
Topology for Computing: Homology
Topology for Computing: HomologyTopology for Computing: Homology
Topology for Computing: Homology
 
4.6 Exponential Growth and Decay
4.6 Exponential Growth and Decay4.6 Exponential Growth and Decay
4.6 Exponential Growth and Decay
 
3.2 Derivative as a Function
3.2 Derivative as a Function3.2 Derivative as a Function
3.2 Derivative as a Function
 
4.6 Relations And Functions
4.6 Relations And Functions4.6 Relations And Functions
4.6 Relations And Functions
 
Fourier series Introduction
Fourier series IntroductionFourier series Introduction
Fourier series Introduction
 

En vedette

Le distribuzioni di probabilità
Le distribuzioni di probabilitàLe distribuzioni di probabilità
Le distribuzioni di probabilitàVispo Srl
 
Probabilità
ProbabilitàProbabilità
ProbabilitàVispo Srl
 
Statistica probabilità blog
Statistica probabilità blogStatistica probabilità blog
Statistica probabilità blogGianni Locatelli
 
4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilitàpontematica
 
Variabilità - Lezione 3
Variabilità - Lezione 3Variabilità - Lezione 3
Variabilità - Lezione 3Sergio Pinna
 
Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Sergio Pinna
 
Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Sergio Pinna
 
Variabili casuali - Lezione 5
Variabili casuali - Lezione 5Variabili casuali - Lezione 5
Variabili casuali - Lezione 5Sergio Pinna
 
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti DerivatiP1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivatialanaylett82
 
Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8Sergio Pinna
 
Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6Sergio Pinna
 
Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Sergio Pinna
 
Combinatoria e probabilità
Combinatoria e probabilitàCombinatoria e probabilità
Combinatoria e probabilitàLuca Gervasio
 
Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Sergio Pinna
 
Inferenza statistica
Inferenza statisticaInferenza statistica
Inferenza statisticaVispo Srl
 
Probabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsioneProbabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsioneAndrea Capocci
 
8.7 il teorema del limite centrale e la legge dei grandi numeri
8.7   il teorema del limite centrale e la legge dei grandi numeri8.7   il teorema del limite centrale e la legge dei grandi numeri
8.7 il teorema del limite centrale e la legge dei grandi numeriRiccardo Rigon
 

En vedette (20)

Le distribuzioni di probabilità
Le distribuzioni di probabilitàLe distribuzioni di probabilità
Le distribuzioni di probabilità
 
Probabilità
ProbabilitàProbabilità
Probabilità
 
Statistica probabilità blog
Statistica probabilità blogStatistica probabilità blog
Statistica probabilità blog
 
4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità
 
Variabilità - Lezione 3
Variabilità - Lezione 3Variabilità - Lezione 3
Variabilità - Lezione 3
 
Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9
 
Teoria probabilità 4
Teoria probabilità 4Teoria probabilità 4
Teoria probabilità 4
 
Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7
 
Variabili casuali - Lezione 5
Variabili casuali - Lezione 5Variabili casuali - Lezione 5
Variabili casuali - Lezione 5
 
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti DerivatiP1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivati
 
Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8
 
Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6
 
Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2
 
Aqfa probabilita
Aqfa   probabilitaAqfa   probabilita
Aqfa probabilita
 
Combinatoria e probabilità
Combinatoria e probabilitàCombinatoria e probabilità
Combinatoria e probabilità
 
La mia probabilità
La mia probabilitàLa mia probabilità
La mia probabilità
 
Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4
 
Inferenza statistica
Inferenza statisticaInferenza statistica
Inferenza statistica
 
Probabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsioneProbabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsione
 
8.7 il teorema del limite centrale e la legge dei grandi numeri
8.7   il teorema del limite centrale e la legge dei grandi numeri8.7   il teorema del limite centrale e la legge dei grandi numeri
8.7 il teorema del limite centrale e la legge dei grandi numeri
 

Similaire à Distribuzioni di Probabilita e Variabili Casuali (20)

Analisi Limiti
Analisi LimitiAnalisi Limiti
Analisi Limiti
 
Infiniti infinitesimi asintoti
Infiniti infinitesimi asintotiInfiniti infinitesimi asintoti
Infiniti infinitesimi asintoti
 
Limiti deriv
Limiti derivLimiti deriv
Limiti deriv
 
Limiti
LimitiLimiti
Limiti
 
Massimi e minimi
Massimi e minimiMassimi e minimi
Massimi e minimi
 
Stimatori per covarianza
Stimatori per covarianzaStimatori per covarianza
Stimatori per covarianza
 
Corbo relativita
Corbo relativitaCorbo relativita
Corbo relativita
 
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.pptFUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
 
Le variabili casuali
Le variabili casualiLe variabili casuali
Le variabili casuali
 
Derivate
DerivateDerivate
Derivate
 
Introduzione allo studio di funzione
Introduzione allo studio di funzioneIntroduzione allo studio di funzione
Introduzione allo studio di funzione
 
Capitolo 5 richiami prob. stat. mercati fin
Capitolo 5   richiami prob. stat. mercati finCapitolo 5   richiami prob. stat. mercati fin
Capitolo 5 richiami prob. stat. mercati fin
 
Disequazioni esponenziali e logaritmiche
Disequazioni esponenziali e logaritmicheDisequazioni esponenziali e logaritmiche
Disequazioni esponenziali e logaritmiche
 
Matematica
MatematicaMatematica
Matematica
 
Flessi
FlessiFlessi
Flessi
 
Le variabili casuali
Le variabili casualiLe variabili casuali
Le variabili casuali
 
Algebra E Matematica Generale
Algebra E Matematica GeneraleAlgebra E Matematica Generale
Algebra E Matematica Generale
 
Distribuzioni continue
Distribuzioni continueDistribuzioni continue
Distribuzioni continue
 
GlobalInvertibility
GlobalInvertibilityGlobalInvertibility
GlobalInvertibility
 
Problema 2 (indirizzo ordinario)
Problema 2 (indirizzo ordinario)Problema 2 (indirizzo ordinario)
Problema 2 (indirizzo ordinario)
 

Dernier

Ticonzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza culturaTiconzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza culturaPierLuigi Albini
 
Corso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativoCorso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativovaleriodinoia35
 
XIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia RomanaXIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia RomanaStefano Lariccia
 
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla CresimaIL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla CresimaRafael Figueredo
 
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia RomanaXI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia RomanaStefano Lariccia
 
lezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldilezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldivaleriodinoia35
 
La seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medieLa seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medieVincenzoPantalena1
 
Storia dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptxStoria dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptxOrianaOcchino
 
Esperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superioreEsperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superiorevaleriodinoia35
 

Dernier (9)

Ticonzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza culturaTiconzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza cultura
 
Corso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativoCorso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativo
 
XIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia RomanaXIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
 
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla CresimaIL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
 
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia RomanaXI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
 
lezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldilezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldi
 
La seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medieLa seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medie
 
Storia dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptxStoria dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptx
 
Esperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superioreEsperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superiore
 

Distribuzioni di Probabilita e Variabili Casuali

  • 2. Variabili Casuali (v.c.) Una variabile casuale X e’ una funzione definita sullo spazio campionario Ω che associa ad ogni evento E ⊂ Ω un unico numero reale. X Ω x6 E2 E3 x5 E1 x4 E6 E5 E4 E7 x3 x2 E9 E8 x1
  • 3. Variabili casuali discrete e continue • Una variabile casuale discreta può assumere un insieme discreto (finito o numerabile) di numeri reali. • Una variabile casuale continua può assumere tutti i valori compresi in un intervallo reale. Ω discreto V.C. discreta Ω continuo V.C. discreta o continua
  • 4. Variabili casuali discrete P(X=xi) Probabilità che la v.c. X assuma il valore xi La funzione di probabilità di una variabile casuale discreta X associa ad ognuno dei valori xi la corrispondente probabilità P(X=xi) Proprietà ∑ i P ( xi ) = 1 P ( xi ) ≥ 0
  • 5. Esempio Corrispondenza tra eventi e valori della variabile casuale X “somma dei punteggi”, nella prova “lancio di due dadi”
  • 6. Funzione di Ripartizione Data una v.c discreta X, la funzione che fa corrispondere ai valori x le probabilità cumulate P(X ≤ x) viene detta funzione di ripartizione ed indicata con F (x ) = P ( X ≤ x ) = ∑P(X = w) w ≤x
  • 7. Esempio X 2 3 4 5 6 7 8 9 10 11 12 P(x) 1 2 3 4 5 6 5 4 3 2 1 36 36 36 36 36 36 36 36 36 36 36 F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1 1 F(x) 0,8 0,6 0,4 0,2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 x
  • 8. Funzione di Ripartizione: proprietà • è non decrescente, ossia: x1 < x 2 ⇒ F ( x1 ) ≤ F ( x 2 ) • Inoltre lim F ( x ) = 0 lim F ( x ) = 1 x →−∞ x →∞ • è continua a destra, ossia lim F (x ) = F ( x0 ) + x → x0
  • 9. Variabili casuali continue Chiameremo Funzione di densità, la funzione matematica f(x) per cui l’area sottesa alla funzione, corrispondente ad un certo intervallo, è uguale alla probabilità che X assuma un valore in quell’intervallo.
  • 10. Proprietà delle funzioni di densità ≥ • f(x)≥0 sempre • L’area totale sottesa alla funzione =1, ossia +∞ ∫ f ( x ) dx = 1 −∞ • La probabilità che la v.c. assuma un particolare valore dell’intervallo è zero.
  • 11. Funzione di Ripartizione Data una v.c. continua X, la funzione che fa corrispondere ai valori x le probabilità cumulate ≤ P(X≤ x) viene detta funzione di ripartizione. x F ( x ) = P( X ≤ x ) = ∫ f ( w )dw −∞
  • 12. Variabili casuali continue Esempio: 2,0 f x X ~ f ( x) 1,5 f ( x) = 12x(1 − x)2 1,0 x ∈ [0;1] 0,5 0,229 0, 7 0,0 ∫ f (x)dx = 0,229 0,0 0,5 0,7 1,0 X 0, 5 +∞ 1 ∫ f (x)dx =∫ f (x)dx =1 −∞ 0 P(0,5<X<0,7)
  • 13. Esempio Funzioni di densità e corrispondenti funzioni di ripartizione f (x ) F (x ) x x 2,00 1,0 f (x ) F (x ) 0,8 1,50 0,6 1,00 0,4 0,50 0,2 0,00 0,0 0,0 1,5 x 3,0 0,0 1,5 x 3,0
  • 14. Valore atteso di una v.c. Il valore medio di una v.c. X, è definito come E ( X ) = ∑ x i P ( x i ) Se la v.c. è discreta i +∞ E(X ) = ∫ x f (x ) dx Se la v.c. è continua −∞
  • 15. Esempio: v.c. discreta X 2 3 4 5 6 7 8 9 10 11 12 P(x) 1 2 3 4 5 6 5 4 3 2 1 36 36 36 36 36 36 36 36 36 36 36 F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1 1 2 3 4 5 6 5 4 E(X ) = 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 36 36 36 36 36 36 36 36 3 2 1 + 10 + 11 + 12 =7 36 36 36
  • 16. Esempio: v.c. continua − λx Consideriamo la v.c. X ~ λe con lambda una costante positiva e x ≥0 (Esponenziale). Il valore atteso è dato da 2,0 1,6 +∞ −λx 1 E(X ) = ∫ xλe dx = 1,2 −∞ λ 0,8 0,4 0,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0
  • 17. La varianza di una v.c. La varianza V(X) di una variabile casuale X è definita da V ( X ) = ∑ ( x i − E ( X ))2 P ( x i ) Se la v.c. è discreta i +∞ V (X ) = ∫ (x − E ( X ))2 f (x )dx Se la v.c. è continua −∞
  • 18. Varianza di una v.c. Notazioni alternative: V ( X ) = E {[ X − E ( X )] 2 } oppure, dopo alcuni passaggi ( )− [E ( X )] V (X ) = E X 2 2 La deviazione standard è definita SD ( X ) = V ( X )
  • 19. V.c. Standardizzate I valori standardizzati esprimono la distanza tra i valori osservati e la media in termini di deviazione standard. Se X è una v.c. con valore E(X) e SD(X) allora: X − E( X ) Y = SD( X ) È una v.c. standardizzata con E(Y)=0 e V(Y)=1
  • 20. Teorema di Chebyshev Sia X una variabile casuale e k un valore reale positivo, allora vale la seguente disuguaglianza: P ( X − E ( X ) ≥ k ⋅ SD ( X )) ≤ 2 1 k Indipendentemente dalla distribuzione della v.c. , la probabilità che X assuma valori distanti dalla media più di k deviazioni standard è al più 1/k2
  • 21. Distribuzioni di probabilità • Sono una estensione delle distribuzioni di frequenza • Il caso più semplice da trattare è relativo a distribuzioni di probabilità di variabili discrete – Variabili discrete: • Fenomeni di conteggio • Esperimenti con modalità limitate – Variabili continue: • Misurazioni • Esperimenti con modalità nel continuo
  • 22. Metodi di sintesi delle distribuzioni • In analogia con quanto detto circa le distribuzioni di frequenze, anche per le distribuzioni di probabilità abbiamo la necessità di sintetizzare i dati • In particolare ci interessa una sintesi di centralità – Valore atteso • Ed una sintesi della variabilità – Varianza – Scarto quadratico medio – Coefficiente di variazione
  • 23. Modelli probabilistici • Per modello si intende una legge di probabilità in grado di misurare l’incertezza circa il fenomeno reale sotto studio Fenomeno reale: reale Modello matematico: matematico Numero di figli Distribuzione di per famiglia probabilità da associare al fenomeno di interesse Risultati dal per analizzarlo lancio di un dado
  • 24. • In funzione del fenomeno reale sotto studio, si cerca di associare un modello opportuno a descriverne la variabilità • I modelli si dividono in: – Modelli discreti, alcuni dei quali sono: • Modello uniforme discreto • Modello binomiale • Modello poisson – Modelli continui • Modello normale • Modello esponenziale
  • 25. Modello uniforme (1) • Si tratta della distribuzione più semplice • Consente di valutare la probabilità di un fenomeno per il quale ognuno degli k possibili risultati sia equamente probabile. • Ad esempio, la probabilità che un numero sia estratto al lotto è descritta dal modello Uniforme, perché ciascuno dei 90 numeri ha una probabilità pari a 1/90 di essere estratto.
  • 26. Modello bernoulliano (1) • Questo particolare modello è adatto a descrive la probabilità associata a variabili dicotomiche, cioè fenomeni che assumono soltanto uno tra due possibili valori: x = 1 (si verifica un certo evento di interesse E, ed x = 0 se non si verifica l’evento E). • Esempio: (morto vs vivo, maschio vs femmina; presenza di un evento di interesse contrapposto a tutti gli altri) • P ( X = 1) = p P ( X = 0) = 1 − p E(X ) = p var( X ) = p (1 − p )
  • 27. Distribuzione di Bernoulli Una v.c. di Bernoulli può assumere il valore 1 con probabilità π e il valore 0 con probabilità 1-π π La sua funzione di probabilità può essere espressa come P ( X = x ) = π x (1 − π )1− x per x = 0,1 Tutte le prove che producono solo due possibili risultati generano v.c. di Bernoulli: il lancio di una moneta, il sesso di un nascituro, il superamento o meno di un certo livello di inflazione….
  • 28. Modello Binomiale • Il modello binomiale, descrive la probabilità il numero x di successi ottenuti in un campione di n prove (osservazioni): n! Pr( X = x | p ) = p x (1 − p ) n − x x!(n − x)!  n x n− x =   p (1 − p )  x   E ( X ) = np var( X ) = np (1 − p )
  • 29. Modello Binomiale (2) • La formulazione Pr(X = x) indica che su n osservazioni si sono verificati esattamente x successi e, di conseguenza, n – x insuccessi • Poiché le prove sono indipendenti e la probabilità di successo è costante pari a p per ogni prova, osserveremo su n tentativi: – x con probabilità p – n – x con probabilità 1 – p • Rimane da considerare il fatto che l’ordine in cui le prove sono osservate è variabile e noi siamo interessati solo al totale dei successi-insuccessi, non all’ordine
  • 30. Modello Binomiale (3) • Infatti, si potrebbero verificare: – tutti i successi e poi tutti gli insuccessi – oppure un successo e un insuccesso in sequenza – oppure tutti gli insuccessi e poi tutti i successi … • Per tenere conto di queste possibilità, le probabilità sono moltiplicate per il numero di possibili combinazioni di k  n n!  =  x  x!(n − x)! con n!= n × (n − 1) × ... × 2 × 1  
  • 32. Calcolo delle probabilità nel modello binomiale • Calcolare Pr(X = 3|n = 4, p = 0.1) 4! Pr( X = 3) = 0.13 (1 − 0.1) 4 − 3 3!(4 − 3)! 4 × 3× 2×1 = × 0.13 × 0.9 1 3 × 2 × 1× 1 = 4 × 0.001 × 0.9 = 0.0036
  • 33. • Calcolare Pr(X ≥ 3) con n = 4 prove e p = 0.1 Poiché le prove sono Pr( X ≥ 3) = Pr( X = 3 ∪ X = 4 ) indipendenti per Hp 4! 4 −3 4! = 0.1 (1 − 0.1) + 3 0.14 (1 − 0.1) 4 − 4 3!(4 − 3)! 4!(4 − 4 )! 4 × 3× 2×1 4 × 3× 2×1 = × 0 .1 × 0 .9 + 3 1 × 0.1 × 0.9 4 0 3 × 2 × 1× 1 4 × 3 × 2 × 1× 1 = 4 × 0.001 × 0.9 + 1 × 0.0001 × 1 = 0.0036 + 0.0001 = 0.0037 Perché 0! = 1 per definizione
  • 34. • Calcolare Pr(X < 3) con n = 4 prove e p = 0.1 Pr( X < 3) = Pr( X = 0 ∪ X = 1 ∪ X = 2) = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2) 2 = ∑ Pr( X = i) i =0 4! Pr( X = 0 ) = 0.10 (1 − 0.1) 4 −0 = 0.6561 0!(4 − 0 )! 4! 4 −1 Pr( X = 1) = 0.1 (1 − 0.1) = 0.2916 1 1!(4 − 1)! 4! Pr( X = 2) = 0.12 (1 − 0.1) 4 − 2 = 0.0486 2!(4 − 2)!
  • 36. Esempi di Binomiale 0,300 Binomiale(7;0,5) 0,250 0,200 Binomiale(20;0,5) 0,150 0,100 0,050 0,000 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
  • 37. Modello Poisson (1) • Il modello Poisson si adatta a rappresentare esperimenti aleatori che danno luogo ad un numero discreto di eventi in un intervallo continuo (es. arrivi in un aeroporto in un’ora di tempo, ) • Le realizzazioni degli eventi devono avere le seguenti caratteristiche: – L’intervallo (di tempo o di spazio) è suddivisibile in n sotto- intervalli all’interno dei quali la probabilità di manifestarsi di un evento è piccola e la probabilità di manifestarsi di più eventi tende a zero – La probabilità di manifestarsi degli eventi nei sottointervalli è costante – Eventi relativi a sotto intervalli differenti sono stocasticamente indipendenti (processo senza memoria)
  • 38. Modello Poisson (2) • In termini matematici il modello è specificato come: −λ e λ x Pr( X = x | λ ) = x! • Il parametro λ rappresenta il numero medio di eventi che si verificano nell’intervallo (numero atteso di successi)
  • 39. Distribuzione di Poisson Una v.c. di Poisson, è una v.c. discreta che può assumere qualsiasi valore intero non-negativo. La distribuzione di probabilità della Poisson è data da λx −λ P( x ) = e x = 0, 1, 2, K 0<λ<∞ x! 0,40 0,35 Poisson(1) E(X ) = λ 0,30 0,25 Poisson(3) V (X ) = λ 0,20 0,15 Poisson(7) 0,10 0,05 0,00 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
  • 40. Modello Poisson (3) • L’esperimento aleatorio di interesse è il “numero di arrivi di clienti presso una banca” • Supponiamo che mediamente arrivino 3 clienti ogni minuto • Ci interessa calcolare: – la probabilità che nello stesso intervallo arrivino esattamente 2 clienti – la probabilità che nello stesso intervallo arrivino più di 2 clienti
  • 41. Modello Poisson (4) • Utilizzando la funzione della distribuzione Poisson, si ha che: −3 −3 e 3 2 9 × (2.71828 ) Pr( X = 2) = = 2! (2 × 1) = 0.224
  • 42. Modello Poisson (5) • Invece, per determinare ∞ Pr( X > 2) = ∑ Pr( X = i) i =3 è più comodo notare che: Pr( X > 2) = 1 − Pr( X ≤ 2) = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2) dove queste tre probabilità sono “semplici” da calcolare
  • 43. Modello Poisson (6) e −3 3 0 1 × (2.71828 ) −3 Pr( X = 0 ) = = 0! 1 = 0.0498 e −3 3 1 3 × (2.71828 ) −3 Pr( X = 1) = = 1! 1 Pr( X > 2) = 0.577 = 0.1494 e −3 3 2 9 × (2.71828 ) −3 Pr( X = 2) = = 2! (2 × 1) = 0.224
  • 44. Modello Poisson (7) • NB nel modello Poisson, il parametro λ rappresenta anche la varianza oltre che il numero atteso di eventi • Dunque, all’aumentare della media, aumenta anche la varianza della distribuzione • Questo fa sì che nella pratica si possa ricorrere a formulazioni alternative del modello Poisson, che permettono di “modellare” in modo indipendente il termine di variabilità