1. DISTRIBUCIONES DE
PROBABILIDAD:
INTRODUCCIÓN, CONCEPTO Y
FORMULAS.
UTT Universidad
Tecnológica de Torreón
ESTADÍSTICA
PROBABILIDAD
ROSALVA GUERRERO HERNÁNDEZ
2. DISTRIBUCIONES COMÚNMENTE USADAS
Distribución de Bernoulli
Introducción
La inferencia estadística consiste en extraer una muestra y analizar sus datos
con el propósito de aprender acerca de ello. En este capítulo se describen
algunas de estas funciones comunes y las condiciones en que es apropiado
usar casa una.
Distribución de Bernoulli
Para cualquier ensayo de Bernoulli se define a la variable aleatoria X así: Si el
experimento “éxito”, entonces X =1. De lo contrario, X=0. De ahí que X sea una
variable aleatoria discreta, con función de masa de probabilidad p(x) definida
por
P (0)=P(X=0) = 1-p FRACASO
P (1)= P(X=1)=p ÉXITO
Media y varianza de una variable aleatoria de Bernoulli
Es fácil calcular la media y la varianza de una variable aleatoria de Bernoulli.
Resumen
Si X Bernoulli (p), entonces
Media = (0) (1-p) + (1) (p)= P Media = p
Varianza = (0 -p)2 (1 – p) + (1 – p)2(p) = P (1-p) Varianza = p (1 – p)
En otras palabras:
Valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se denota
Un ejemplo típico de este tipo de variables aleatorias consiste en lanzar una
moneda al aire y considerar la v. a.
3. Para un v. a. de Bernoulli, tenemos que su función de probabilidad es:
Distribución Binomial
En estadística, la distribución binomial es una distribución de probabilidad
discreta que mide el número de éxitos en una secuencia de n ensayos de
Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del
éxito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo
son posibles dos resultados. A uno de estos se denomina éxito y tiene una
probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p.
En la distribución binomial el anterior experimento se repite n veces, de forma
independiente, y se trata de calcular la probabilidad de un determinado número
de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de
Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial
de parámetros n y p, se escribe:
Experimento binomial
Existen muchas situaciones en las que se presenta una experiencia binomial.
Cada uno de los experimentos es independiente de los restantes (la
probabilidad del resultado de un experimento no depende del resultado del
resto). El resultado de cada experimento ha de admitir sólo dos categorías (a
las que se denomina éxito y fracaso). Las probabilidades de ambas
posibilidades han de ser constantes en todos los experimentos (se denotan
como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han
producido en los n experimentos.
4. Cuando se dan estas circunstancias, se dice que la variable X sigue una
distribución de probabilidad binomial, y se denota B(n, p).
Distribución Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una
distribución de probabilidad discreta que expresa, a partir de una frecuencia de
ocurrencia media, la probabilidad que ocurra un determinado número de
eventos durante cierto periodo de tiempo.
Se trata de un modelo discreto, pero en el que el conjunto de valores con
probabilidad no nula no es finito, sino numerable. Se dice que una variable
aleatoria X sigue la distribución de Poisson si su función de densidad viene
dada por:
Propiedades del modelo de Poisson
1) Esperanza: E(X) = λ.
2) Varianza: V(X) = λ.
En esta distribución la esperanza y la varianza coinciden.
3) La suma de dos variables aleatorias independientes con distribución de
Poisson resulta en una nueva variable aleatoria, también con distribución de
Poisson, de parámetro igual a la suma de parámetros:
X1 ~ P (λ = λ1) y X2 ~ P (λ = λ2)
Y definimos Z = X1 + X2, entonces,
Z ~ P (λ = λ1 + λ2)
Este resultado se extiende inmediatamente al caso de n variables aleatorias
independientes con distribución de Poisson. En este caso, la variable suma de
todas ellas sigue una distribución de Poisson de parámetro igual a la suma de
los parámetros.
5. Distribución Normal
Se llama distribución normal, distribución de Gauss o distribución
gaussiana, a una de las distribuciones de probabilidad de variable continua
que con más frecuencia aparece aproximada en fenómenos reales.
La importancia de esta distribución radica en que permite modelar numerosos
fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos
que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la
enorme cantidad de variables incontrolables que en ellos intervienen, el uso del
modelo normal puede justificarse asumiendo que cada observación se obtiene
como la suma de unas pocas causas independientes.
La distribución normal es continua en vez de discreta. La media de una variable
aleatoria normal puede tener cualquier valor y la varianza cualquier valor
positivo. La función de densidad de probabilidad de una variable aleatoria con
media y varianza está dada por:
:
Ecuación 1:
Distribución Gamma
Este modelo es una generalización del modelo Exponencial ya que, en
ocasiones, se utiliza para modelar variables que describen el tiempo hasta que
se produce p veces un determinado suceso.
Su función de densidad es de la forma:
Como vemos, este modelo depende de dos parámetros positivos: α y p. La
función Γ (p) es la denominada función Gamma de Euler que representa la
siguiente integral:
6. Que verifica Γ (p + 1) = pΓ (p), con lo que, si p es un número entero positivo,
Γ(p + 1) = p!
El siguiente programa permite visualizar la forma de la función de densidad de
este modelo (para simplificar, se ha restringido al caso en que p es un número
entero).
Propiedades de la distribución Gamma
1. Su esperanza es pα.
2. Su varianza es pα2
3. La distribución Gamma (α, p = 1) es una distribución Exponencial de
parámetro α. Es decir, el modelo Exponencial es un caso particular de la
Gamma con p = 1.
4. Dadas dos variables aleatorias con distribución Gamma y parámetro α
común
X ~ G (α, p1) y Y ~ G (α, p2)
Se cumplirá que la suma también sigue una distribución Gamma
X + Y ~ G (α, p1 + p2).
Una consecuencia inmediata de esta propiedad es que, si tenemos k variables
aleatorias con distribución Exponencial de parámetro α (común) e
independientes, la suma de todas ellas seguirá una distribución G (α, k).
Distribución T de Student
La distribución t (de Student) es una distribución de probabilidad que surge del
problema de estimar la media de una población normalmente distribuida
cuando el tamaño de la muestra es pequeño.
Aparece de manera natural al realizar la prueba t de Student para la
determinación de las diferencias entre dos medias muestréales y para la
construcción del intervalo de confianza para la diferencia entre las medias de
dos poblaciones cuando se desconoce la desviación típica de una población y
ésta debe ser estimada a partir de los datos de una muestra.
Caracterización
La distribución t de Student es la distribución de probabilidad del cociente
7. Donde
Z tiene una distribución normal de media nula y varianza 1
V tiene una distribución ji-cuadrado con grados de libertad
Z y V son independientes
Si μ es una constante no nula, el cociente es una variable aleatoria que
sigue la distribución t de Student no central con parámetro de no-centralidad .
Aparición y especificaciones de la distribución t de Student
Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas
normalmente, con media μ y varianza σ2. Sea
La media muestral. Entonces
Sigue una distribución normal de media 0 y varianza 1.
Sin embargo, dado que la desviación estándar no siempre es conocida de
antemano, Gosset estudió un cociente relacionado,
Donde
Es la varianza muestral y demostró que la función de densidad de T es
Donde es igual a n − 1.
8. La distribución de T se llama ahora la distribución-t de Student.
El parámetro representa el número de grados de libertad. La distribución
depende de , pero no de o , lo cual es muy importante en la práctica.
Intervalos de confianza derivados de la distribución t de Student
El procedimiento para el cálculo del intervalo de confianza basado en la t de
Student consiste en estimar la desviación típica de los datos S y calcular el
error estándar de la media , siendo entonces el intervalo de confianza
para la media = .
Es este resultado el que se utiliza en el test de Student: puesto que la
diferencia de las medias de muestras de dos distribuciones normales se
distribuye también normalmente, la distribución t puede usarse para examinar
si esa diferencia puede razonablemente suponerse igual a cero.
Para efectos prácticos el valor esperado y la varianza son:
E (t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3
gueher2011@hotmail.com
http://rosgueher.bligoo.com.mx
GRACIAS POR SU ATENCION