1. PROBABILIDAD
CONCEPTO Y DEFINICIÓN
PROPIEDADES
PROBABILIDAD CONDICIONADA
INDEPENDENCIA DE SUCESOS
DAGOBERTO SALGADO HORTA
2. CONCEPTOS
PROBABILIDAD: CONCEPTOS
Experiencia aleatoria: aquella experiencia
afectada por las leyes del azar:
impredecibilidad
regularidad estadística.
Resultado elemental de una experiencia
aleatoria.
Suceso: conjunto de resultados elementales
de una experiencia aleatoria. A veces se le
llama también resultado.
Espacio muestral: conjunto de sucesos
asociados a una experiencia aleatoria.
3. CONCEPTO DE PROBABILIDAD
PROBABILIDAD: CONCEPTO
DEFINICIÓN DE LAPLACE:
LA PROBABILIDAD DE UN SUCESO
ASOCIADO A UNA EXPERIENCIA
ALEATORIA ES EL COCIENTE ENTRE
EL NÚMERO DE RESULTADOS
ELEMENTALES FAVORABLES Y EL
NÚMERO DE RESULTADOS
ELEMENTALES POSIBLES QUE
PUEDEN DARSE
4. CONCEPTO DE PROBABILIDAD
PROBABILIDAD: CONCEPTO
DEFINICIÓN FRECUENCIALISTA:
PROBABILIDAD DE UN SUCESO ASOCIADO A
UNA EXPERIENCIA ALEATORIA ES EL
COCIENTE ENTRE EL NÚMERO DE VECES
QUE SE PRESENTA ESE SUCESO Y EL
NÚMERO DE ENSAYOS REALIZADOS CUANDO
EL NÚMERO DE ENSAYOS CRECE
INDEFINIDAMENTE
5. CONCEPTO DE PROBABILIDAD
PROBABILIDAD: CONCEPTO
DEFINICIÓN SUBJETIVA:
LA PROBABILIDAD DE UN SUCESO ES
EL GRADO DE CREENCIA QUE SE
TIENE EN QUE ESE SUCESO ES
CIERTO.
6. DEFINICIÓN
PROBABILIDAD: DEFINICIÓN
Un número P asociado a un resultado de una
experiencia aleatoria es una probabilidad si
cumple los siguientes axiomas:
Todo suceso tiene una probabilidad no negativa.
P(A)≥0
La probabilidad del suceso seguro es 1
P(E)=1
La probabilidad de la unión de cualquier grupo de
sucesos disjuntos es la suma de las probabilidades
de cada uno de esos sucesos.
P(∪Ai)=∑P(Ai) con Ai∩Aj=∅
7. PROPIEDADES
PROBABILIDAD: PROPIEDADES
La probabilidad del suceso imposible es 0: P(∅)=0
Una probabilidad nunca puede ser menor que 0 ni mayor
que 1: 0≤P(A)≤1
Si un suceso A incluye a un suceso B, la probabilidad de A
siempre es mayor o igual que la de B: Si B⊂A ⇒ P(B)≤P(A)
La probabilidad del suceso complementario es:
P(A)=1-P(A)
La probabilidad de la unión de dos sucesos es:
P(A∪B)=P(A)+P(B)-P(A∩B)
Y en general podemos decir que:
⎛ ⎞ ⎛ ⎞
P ⎜ ∪ A I ⎟ = ∑ P( A i ) + ∑∑ P( A i ∩ A j ) + ⋅⋅⋅ + ( −1) n −1 P ⎜ ∩ A i ⎟
⎜ ⎟ ⎜ ⎟
⎝ i ⎠ i i j ⎝ i ⎠
i=1,2,...,n
8. PROBABILIDAD CONDICIONADA
PROBABILIDAD CONDICIONADA
CON ELLA SE PRETENDE VALORAR EL EFECTO
QUE TIENE SOBRE LA PROBABILIDAD DE UN
SUCESO EL HECHO DE DISPONER DE
INFORMACIONES PARCIALES SOBRE EL MISMO
SE DEFINE COMO “PROBABILIDAD DEL SUCESO
B CONDICIONADA A QUE HA OCURRIDO EL
SUCESO A” A LA SIGUIENTE
P(B/A) = P(A∩B) / P(A)
9. SUCESOS INDEPENDIENTES
INDEPENDENCIA DE SUCESOS
DOS SUCESOS SE DICEN INDEPENDIENTES SI
EL CONOCIMIENTO DE QUE HA OCURRIDO UNO
DE ELLOS NO MODIFICA LA PROBABILIDAD DEL
OTRO:
P(B/A) = P(B)
P(A/B) = P(A)
P(A∩B) = P(A) P(B)
10. TEOREMA DE BAYES
Si los Ai son una partición del espacio muestral y el
suceso B es de probabilidad no nula, se cumple:
TEOREMA DE BAYES
P(A i ) P(B/A i )
P(A i /B) =
Σ P(A i )P(B/A i )
LOS Ai SUELEN INTERPRETARSE COMO LAS CAUSAS U
ORÍGENES DE B, QUE A SU VEZ ES EL RESULTADO O
CONSECUENCIA DE ALGUNO(S) DE LOS Ai
EL TEOREMA DE BAYES PERMITE EVALUAR LA
PROBABILIDAD DE LAS CAUSAS VISTO EL EFECTO
11. OTROS COMENTARIOS SOBRE
PROBABILIDAD
Sucesos independiente y sucesos excluyentes
no es lo mismo.
La reunión de sucesos equivale al “o” lógico, la
disyunción no exclusiva:
A ∪ B = A o B = [o A, o B, o ambos]
La intersección de sucesos equivale al “y” lógico,
la conjunción:
A ∩ B = A y B = [A y B simultáneamente]
Método del árbol para la solución de problemas
VARIOS
de probabilidad:
Es una representación gráfica de la secuencia de
acontecimientos que definen el problema
estudiado
13. VARIABLE ALEATORIA
LLAMAREMOS ALEATORIA A
VARIABLES ALEATORIAS
AQUELLA VARIABLE QUE TOMA
VALORES INFLUIDA POR EL AZAR
PODRÍAMOS CONTRAPONER
VARIABLES Y FENOMENOS
DETERMINISTAS CON VARIABLES Y
FENÓMENOS ALEATORIOS
14. TIPOS DE VARIABLE ALEATORIA
DISCRETA:
VARIABLES ALEATORIAS
Toma valores de un conjunto discreto y cada
valor posible xi tiene asignada una
probabilidad p(xi)
CONTINUA:
Toma valores en un conjunto continuo y la
distribución de la probabilidad a lo largo del
mismo viene dada por una función f(x)
15. FUNCIONES:
p(xi) se llama función de probabilidad
VARIABLES ALEATORIAS
f(x) se llama función de densidad
F(x) se llama función de distribución:
F(x) = P(X ≤ x)
existe para variables discretas (F(xi)) o continuas
16. FUNCION DE PROBABLIDAD
Asignar probabilidades en una variable
VARIABLES ALEATORIAS
discreta significa definir P(xi) en cada
punto de la variable cumpliéndose:
P(xi) ≥ 0 ∀i
ΣP(xi) = 1
17. ¿Qué probabilidad hay de que aparezcan X uds
defectuosas en una muestra de 10, cuando la
producción tiene un 30% de defectuosas?
VARIABLES ALEATORIAS
Binomial Distribution
0.3 Event prob.,Tria
0.3,10
0.25
0.2
0.15
0.1
0.05
0
0 1 2 3 4 5 6 7 8 9 10
x
18. FUNCIÓN DE DENSIDAD
En el caso continuo la caracterización de la
VARIABLES ALEATORIAS
variable se realiza mediante la FUNCIÓN DE
DENSIDAD f(x)
Para comprender su significado puede ser útil
recurrir a la analogía mecánica:
La distribución de probabilidad es similar a una
distribución de masa, y en el caso unidimensional la
distribución de la masa a lo largo del eje es imagen de la
distribución de la probabilidad. Al igual que la masa en un
punto es nula, también lo es la probabilidad en un punto:
ambas requieren intervalos para tomar valores no nulos
19. ¿Cómo se distribuye la longitud de las
barras de una pata de mesa de tubo metálico
cortado? El valor objetivo es 850 mm.
VARIABLES ALEATORIAS
Normal Distribution
0.1 Mean,Std. dev.
850,4
0.08
density
0.06
0.04
0.02
0
820 830 840 850 860 870 880
x
20. ¿Qué porcentaje de las unidades
producidas está entre 848 y 855 mm?
VARIABLES ALEATORIAS
21. FUNCIÓN DE DENSIDAD
Entre otros requisitos, una función de
VARIABLES ALEATORIAS
densidad f(x) de una variable aleatoria
continua debe cumplir:
f(x) ≥ 0 ∀x
+∞
∫−∞
f ( x) dx = 1
22. FUNCIÓN DE DISTRIBUCIÓN
En variables discretas se cumple que:
VARIABLES ALEATORIAS
F(X) = ∑ P( x )
x i ≤X
i
En variables continuas se cumple que:
x
F( x ) = ∫ f ( x ) dx
−∞
d F( x )
f ( x) =
dx
23. Binomial Distribution Función de
cumulative probability
1 Event prob.,Trial
0.8
0.3,10 distribución
0.6 en variable
0.4
discreta.
VARIABLES ALEATORIAS
0.2
0
0 2 4 6 8 10
x
Función de Normal Distribution
distribución cumulative probability 1 Mean,Std. dev.
850,4
0.8
en variable 0.6
continua. 0.4
0.2
0
830 840 850 860 870
x
24. PARÁMETROS DE UNA DISTRIBUCIÓN
Son similares a los estudiados en
estadística descriptiva.
Son de cuatro tipos:
PARÁMETROS
- Parámetros de Posición
- Parámetros de Dispersión
- Parámetros de Asimetría
- Parámetros de Curtosis
25. VALOR MEDIO (MEDIA)
Describe la posición de la variable
aleatoria X (es decir, su orden de magnitud)
si x es variable discreta
E( x ) = ∑ xi P( xi )
i
PARÁMETROS
si x es variable continua
+∞
E( x ) = ∫ − ∞ x f ( x ) dx
En la analogía mecánica es el centro de
gravedad de la distribución
26. VARIANZA
Describe el grado de dispersión de la
variable
si x es variable discreta
σ 2 = ∑ ( x i − m) 2 P( x i )
si x es variable continua
PARÁMETROS
+∞
σ = ∫ ( x − m) f ( x)dx
2 2
−∞
Su raíz cuadrada es la desviación típica σ
En la analogía mecánica es el momento de inercia
de la distribución
27. DISTRIBUCIONES DE PROBABILIDAD
DISTRIBUCIONES DE PROBABILIDAD
ALGUNAS VARIABLES ALEATORIAS
PRESENTAN COMPORTAMIENTOS
CARACTERÍSTICOS QUE SON
ESTÁNDARES DE FRECUENTE USO
UNA DISTRIBUCIÓN DE PROBABILIDAD
SE CARACTERIZA POR UNA FUNCIÓN DE
DISTRIBUCIÓN DADA
en el caso discreto se caracterizan también por la
función de probabilidad,
en el caso continuo por la función de densidad
28. DISTRIBUCIONES DE PROBABILIDAD
PRINCIPALES DISTRIBUCIONES
DE PROBABILIDAD
LAS MÁS IMPORTANTES DENTRO DEL
ÁMBITO DE LA CALIDAD SON LAS
SIGUIENTES:
VARIABLES DISCRETAS
DISTRIBUCIÓN HIPERGEOMÉTRICA
DISTRIBUCIÓN BINOMIAL
DISTRIBUCIÓN DE POISSON
VARIABLES CONTINUAS
DISTRIBUCIÓN NORMAL
DISTRIBUCIÓN χ2
DISTRIBUCIÓN t
DISTRIBUCIÓN F
29. DISTRIBUCIÓN HIPERGEOMÉTRICA
DISTRIBUCIONES DISCRETAS
Considérese:
Una población formada por N individuos.
Una muestra extraída al azar de esa población
y formada por n individuos.
Una cierta característica A que identifica a D
de los individuos de la población, con lo que
p=D/N es la proporción de individuos con esa
característica.
La variable X que representa al número de
individuos de la muestra que tienen esa
característica A.
30. DISTRIBUCIÓN HIPERGEOMÉTRICA
DISTRIBUCIONES DISCRETAS
N X = H(N, n, p)
N-D n
A
D X
A
31. DISTRIBUCIÓN HIPERGEOMÉTRICA
DISTRIBUCIONES DISCRETAS
EN ESTAS CONDICIONES, DIREMOS QUE LA
VARIABLE X SIGUE UNA DISTRIBUCIÓN
HIPERGEOMÉTRICA DE PARÁMETROS N, n, p:
X ≡ H (N, n, p) x = {0, 1, 2, … n}
SUS CARACTERÍSTICAS SON:
⎛ D ⎞⎛ N − D ⎞
⎜ ⎟⎜
⎜ x ⎟⎜ n − x ⎟
⎟
P( x ) = ⎝ ⎠⎝ ⎠ E( x ) = np
⎛N⎞ N−n
⎜ ⎟
⎜n⎟ σ ( x) =
2
np(1 − p)
⎝ ⎠ N −1
32. DISTRIBUCIÓN BINOMIAL
DISTRIBUCIONES DISCRETAS
Considérese:
Una población formada por ∞ individuos.
Una muestra extraída al azar de esa población
y formada por n individuos.
Una cierta característica A que identifica a una
proporción p de individuos de la población.
La variable X que representa al número de
individuos de la muestra que tienen esa
característica A.
EN ESTAS CONDICIONES, DIREMOS QUE LA VARIABLE X
SIGUE UNA DISTRIBUCIÓN BINOMIAL DE PARÁMETROS
n, p:
X ≡ B (n, p) x = {0, 1, 2, … n}
35. DISTRIBUCIÓN de POISSON
DISTRIBUCIONES DISCRETAS
Considérese:
Una muestra de tamaño infinito extraída al azar
de una población.
Una cierta característica A que se presenta
con una probabilidad muy pequeña (→0) en
los individuos de la población.
Un promedio finito λ de individuos de la
muestra con esa característica.
La variable X que representa al número de
individuos de la muestra que tienen esa
característica A.
36. DISTRIBUCIÓN de POISSON
DISTRIBUCIONES DISCRETAS
Se aplican mucho en análisis de defectos
superficiales, donde la probabilidad de que
aparezca un defecto en un punto concreto es
muy baja, hay muchos puntos posibles donde
aparecer el defecto y tenemos un promedio
de defectos determinado.
Poisson
37. DISTRIBUCIÓN de POISSON
DISTRIBUCIONES DISCRETAS
EN ESTAS CONDICIONES, DIREMOS QUE
LA VARIABLE X SIGUE UNA
DISTRIBUCIÓN DE POISSON DE
PARÁMETRO λ:
X ≡ Ps (λ) x = {0, 1, 2, …}
SUS CARACTERÍSTICAS SON:
P(x) = (e-λ λx) / x!
E(x) = λ σ2(x) = λ
39. DISTRIBUCIÓN NORMAL
DISTRIBUCIONES CONTINUAS
ES LA MÁS IMPORTANTE Y ÚTIL DE LAS
DISTRIBUCIONES CONTINUAS E INCLUSO,
BAJO CIERTAS CONDICIONES, DE LAS
DISCRETAS.
FUE DESCRITA POR
GAUSS, Y SE
DENOMINA TAMBIÉN
DISTRIBUCION
GAUSSIANA
40. DISTRIBUCIÓN NORMAL
DISTRIBUCIONES CONTINUAS
UNA VARIABLE NORMAL DE PARÁMETROS m, σ
SE DEFINE POR SU FUNCIÓN DE DENSIDAD:
−
( x −m )2
1
f ( x) = e 2σ2
σ 2π
DIREMOS ENTONCES QUE
X ≡ N (m, σ) con x ∈ ]-∞, +∞[
SUS CARACTERÍSTICAS SON:
E(x) = m σ2(x) = σ2
41. DISTRIBUCIÓN NORMAL
TIPIFICADA
DISTRIBUCIONES CONTINUAS
SE LLAMA NORMAL TIPIFICADA N (0, 1) A AQUELLA EN
QUE:
m=0 σ=1
LA FUNCIÓN DE DENSIDAD QUEDA AHORA:
x2
1 −
f (x) = e 2
2π
LA FUNCIÓN DE DISTRIBUCIÓN DE LA NORMAL
TIPIFICADA ESTÁ TABULADA, PUES LA INTEGRAL QUE
LA DEFINE A PARTIR DE f(x) NO TIENE PRIMITIVA
42. TABLA DE LA NORMAL TIPIFICADA
DISTRIBUCIONES CONTINUAS
LA TABLA DA VALORES DE F(x)
ENTRANDO CON EL VALOR DE x
A ESTA FUNCIÓN DE DISTRIBUCIÓN SE
LE LLAMA CON FRECUENCIA φ(x)
43. TABLA DE LA NORMAL TIPIFICADA
P(z<1.75) = 0.9599
44. TABLAS DE LA NORMAL
DISTRIBUCIONES CONTINUAS
EL CÁLCULO DE LA FUNCIÓN DE DISTRIBUCIÓN EN UNA
NORMAL GENERAL REQUERIRÍA INTEGRAR LA FUNCIÓN
DE DENSIDAD NUMERICAMENTE O DISPONER DE UNA
TABLA PARA CADA N(m,σ)
EN LUGAR DE ELLO, SE PREFIERE UN PROCEDIMIENTO
LLAMADO TIPIFICACIÓN QUE CONSISTE EN CONVERTIR
LA NORMAL N(m,σ) EN UNA NORMAL N(0,1) Y EMPLEAR
LAS TABLAS DE ESTA NORMAL TIPIFICADA:
Si x ≡ N (m, σ)
x−m
z= ≡ N (0, 1)
σ
con lo cual sólo es necesaria una tabla para calcular
probabilidades en la distribución normal.
46. X=N(850,4) ¿P(846.5 < X <855)? ⎛ 846.5 − 850 ⎞
P( X ≤ 846.5) = P⎜ Z ≤ ⎟ = φ(−0.875)
⎝ 4 ⎠
P = 0.8944 – 0.1894
⎛ 855 − 850 ⎞
P( X ≤ 855) = P⎜ Z ≤ ⎟ = φ(1.25)
P = 0.705 ⎝ 4 ⎠
47. DISTRIBUCIÓN χ2 de PEARSON
DISTRIBUCIONES CONTINUAS
SE DEFINE LA VARIABLE CHI CUADRADO CON
n GRADOS DE LIBERTAD () COMO LA SUMA DE
LOS CUADRADOS DE n VARIABLES
ALEATORIAS NORMALES TIPIFICADAS
INDEPENDIENTES
Zi = N(0,1) i = 1...n
X=∑ Z =χn
2
2
i
i
ESTÁ DEFINIDA COMO NO NEGATIVA
SU FUNCIÓN DE DENSIDAD ES ASIMÉTRICA
49. DISTRIBUCIÓN
t de STUDENT
DISTRIBUCIONES CONTINUAS
SE DEFINE COMO EL COCIENTE ENTRE UNA
NORMAL TIPIFICADA Y LA RAIZ CUADRADA DE
UNA CHI CUADRADO DIVIDIDA POR SUS
GRADOS DE LIBERTAD, AMBAS
INDEPENDIENTES :
z
tn = tn ∈]-∞, + ∞[
χn
2
/n
z = N(0,1), χ n = Chi cuadrado con n g.l.
2
donde :
E(tn) = 0 D2(tn) = n/(n-2)
50. DISTRIBUCIÓN t de STUDENT
X=t6 P(X>1.44)= 0.10 t6,0.01= 3.143
51. DISTRIBUCIÓN
t de STUDENT
DISTRIBUCIONES CONTINUAS
Next time you have a beer,
thank William Gosset,
and next time you perform a t-test,
have a Guiness.
(La próxima vez que tomes una cerveza,
agradéceselo a William Gosset,
y la próxima vez que use la distribución t de
Student, tómate una Guiness.)
52. DISTRIBUCIÓN F de SNEDECOR
DISTRIBUCIONES CONTINUAS
SE DEFINE COMO EL COCIENTE
DE DOS CHI CUADRADOS
INDEPENDIENTES DIVIDIDAS
POR SUS GRADOS DE
LIBERTAD :
χ n1 / n1
2
Fn1,n2 =
χ n 2 / n2
2
•Toma valores no negativos
•Su función de densidad es asimétrica
•Su función de distribución se obtiene de tablas
53. DISTRIBUCIÓN F de SNEDECOR
X ≡ F3,10 P(X>6.6)= 0.01
54. DISTRIBUCIÓN F de SNEDECOR
X ≡ F3,10 F3,10(0.05)= 3.71
55. APROXIMACIONES
ENTRE
VARIABLES H (N, n, p)
(N /n) >10
n > 50
p < 0.1
B (n, p) np < 5 Ps(np) =
Ps(λ)
np > 5*
λ>5*
NORMAL
n1>30
n>30 n>30 n2>30
χ 2
n tn Fn1 ,n2
57. INFERENCIA ESTADÍSTICA
CONCEPTO
DISTRIBUCIONES EN EL MUESTREO
TIPOS DE INFERENCIA ESTADÍSTICA
ESTIMACION PUNTUAL
ESTIMACION POR INTERVALOS
CONTRASTE DE HIPÓTESIS
58. INFERENCIA ESTADÍSTICA
CONJUNTO DE TÉCNICAS
INFERENCIA ESTADÍSTICA
ESTADÍSTICAS QUE NOS PERMITEN
EXTRAER CONCLUSIONES A
PARTIR DE DATOS MUESTRALES
?
60. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIONES EN EL
MUESTREO
Los parámetros de una población no suelen
ser conocidos.
Su estudio requiere la toma de muestra y su
‘estimación’ a través de métodos
estadísticos.
Al estar calculados en base a información
muestral (sujeta a variaciones aleatorias)
estos parámetros muestrales son variables
aleatorias.
61. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIONES EN EL
MUESTREO
POBLACION MUESTRA
PARÁMETROS PARÁMETROS
POBLACIONALES MUESTRALES
VALORES VALORES
EXACATOS PERO APROXIMADOS
DESCONOCIDOS PERO CONOCIDOS
CONSTANTE VARIABLE
ALEATORIA
62. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIÓN DE LA MEDIA MUESTRAL
La media muestral se calcula mediante:
n
Xi
x=∑
i =1 n
media y varianza de la media muestral son:
σ2
E(x) = μ D ( x) =
2
n
es decir:
la media poblacional de la media muestral
coincide con la media poblacional de X.
La varianza de la media muestral decrece con
el tamaño de muestra
63. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIÓN
DE LA MEDIA MUESTRAL
Si la variable es normal, se cumple:
⎛ σ ⎞
x ≡ N(μ, σ) ⇒ x ≡ N ⎜ μ, ⎟
⎝ n⎠
Aunque X no fuera una distribución Normal,
si n es lo suficientemente grande, según el
Teorema de Lindenberg-Levy, la media
muestral seguiría teniendo una distribución
normal.
http://www.umd.umich.edu/casl/socsci/econ/StudyAids/JavaStat/CentralLimitTheorem.html
64. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIÓN DE LA VARIANZA MUESTRAL
La varianza muestral se determina mediante:
( Xi − x )
2 n
( Xi − x ) 2
=∑
n
s =∑
2
2
sn −1
n
i =1 n i =1 n −1
Características en poblaciones normales:
n⋅ s 2
(n −1) ⋅ s 2
≡ χn −1
2
n n −1
≡χ 2
n −1
σ 2
σ 2
[ ] E[s ] = σ
n −1 2
Es = ⋅σ
2 2 2
n n −1
n
65. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIÓN DE LA DIFERENCIA DE
MEDIAS MUESTRALES
Si tenemos X1=N(μ1,σ1) y X2=N(μ2,σ2)
x1 − x 2 = N⎛ μ1 − μ 2 , σ1 σ2 ⎞
2
⎜ + 2
⎟
⎝ n1 n2
⎠
66. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIÓN DEL COCIENTE DE
VARIANZAS MUESTRALES
Si tenemos dos variables aleatorias
independientes con distribuciones
normales X1=N(μ1,σ1) y X2=N(μ2,σ2) la
distribución del cociente entre sus
varianzas muestrales es:
s1 / σ1
2 2
= Fn1 −1,n 2 −1
s2 / σ2
2 2
67. DISTRIBUCIONES EN EL MUESTREO
DISTRIBUCIÓN DE LA
PROPORCIÓN MUESTRAL
Si X=B(n,p), la media y la varianza de la
proporción muestral son
p ⋅(1− p)
E(p) = p
ˆ D (p) =
2
ˆ
n
Si X=Ps(λ) la media y la varianza de la
proporción muestral son
p
E(p) = p
ˆ D (p) =
ˆ 2
n
68. ESTIMACIÓN PUNTUAL
SE PRETENDE AVERIGUAR EL VALOR DE
ESTIMACIÓN PUNTUAL
UN PARÁMETRO DE UNA DISTRIBUCIÓN
COMO ESTIMACIÓN DE
LOS PARÁMETROS POBLACIONALES
SE USAN LOS CORRESPONDIENTES
ESTADÍSTICOS MUESTRALES
69. ESTIMACIÓN PUNTUAL
CARACTERÍSTICA DESEABLES EN UN ESTIMADOR:
ESTIMACIÓN PUNTUAL
DEBE SER INSESGADO
DEBE TENER VARIANZA MÍNIMA
DEBE SER CONSISTENTE
POR EJEMPLO :
MEDIA POBLACIONAL .................. MEDIA MUESTRAL
VARIANZA POBLACIONAL ........... ID. MUESTRAL (n-1)
PROPORCIÓN POBLACIONAL ..... ID MUESTRAL
70. ESTIMACIÓN POR
INTERVALOS DE CONFIANZA
INTERVALOS DE CONFIANZA
SE PRETENDE ENCONTRAR UN INTERVALO TAL
QUE CONTENGA CON UNA PROBABILIDAD DADA
AL VALOR VERDADERO DEL PARÁMETRO
ESTIMADO:
HALLAR DOS ESTADÍSTICOS L1 Y L2 TALES QUE
DEFINEN UN INTERVALO [L1, L2] QUE INCLUYE
AL VALOR VERDADERO DEL PARÁMETRO CON
PROBABILIDAD (1- α)
1 - α = NIVEL DE CONFIANZA
α = NIVEL DE SIGNIFICACIÓN
Intervalos de confianza
71. POBLACIONES NORMALES
INTERVALOS DE CONFIANZA
Para la media de una población
normal
de varianza conocida:
σ
x ± zα
2 n
de varianza desconocida:
α/2 s
x ± t n−1
n
72. POBLACIONES NORMALES
Para la diferencia de medias de dos
INTERVALOS DE CONFIANZA
poblaciones normales
de varianzas conocidas:
σ1 σ 2
2
( x1 − x 2 ) ± z α + 2
2 n1 n2
de varianzas desconocidas, pero iguales:
α 2 1 1
( x1 − x 2 ) ± t n1/ + n2 −1 S +
n1 n2
(n1 − 1) s1 + (n2 − 1)s2
2
S2 = 2
n1 + n2 − 2
73. POBLACIONES NORMALES
INTERVALOS DE CONFIANZA
Para la varianza de una población normal:
⎡ ⎤
⎢ (n − 1) s (n − 1) s ⎥
2 2
⎢ 2 , 2 ⎥
χ χ
⎢ n−1, α n− 1,1− α ⎥
⎣ 2 2⎦
Para la razón de varianzas de dos
poblaciones normales:
⎡ s2 / s2 s1 / s2 ⎤
2
⎢ 1 2 , 2 ⎥
⎢ Fn /−1,n −1 Fn−−α,/n2) −1 ⎥
α 2 1 (
⎣ 1 2 1 1 2 ⎦
74. POBLACIONES BINOMIALES
INTERVALOS DE CONFIANZA
Con aproximación a la Normal (np>5)
p(1 − p)
ˆ ˆ
p ±z α
ˆ
2
n
Método exacto:
Usar gráfica, entrando con p (estimada) y
n y leyendo Li y Ls.
75. TEST DE HIPÓTESIS
SE PRETENDE COMPROBAR SI SE VERIFICAN
DETERMINADAS HIPÓTESIS ESTABLECIDAS
SOBRE EL VALOR DE ALGÚN PARÁMETRO DE
TEST DE HIPÓTESIS
UNA DISTRIBUCIÓN O SOBRE LA PROPIA
DISTRIBUCIÓN DE UNA VARIABLE, Y HACERLO
CON UN RIESGO DE ERROR MEDIBLE
LA CERTEZA NO ES POSIBLE DADO EL
CARÁCTER ALEATORIO DE LA INFORMACIÓN
EMPLEADA
76. ELEMENTOS DE UN TEST DE HIPÓTESIS:
HIPÓTESIS
HIPÓTESIS NULA (H0)
ES LA QUE SE DESEA COMPROBAR
TEST DE HIPÓTESIS
(Suele ir asociada a lo que e considera
situación correcta o normal)
HIPÓTESIS NULA (H1)
SUELE SER LA CONTRARIA DE LA
HIPÓTESIS NULA
(Con frecuencia va asociada a la situación
incorrecta o no deseada)
77. ELEMENTOS DE UN TEST DE
HIPÓTESIS: HIPÓTESIS
HIPÓTESIS SIMPLE / COMPUESTA
La zona donde es cierta se reduce a un
TEST DE HIPÓTESIS
punto o a más de uno:
m=120 m>120
HIPÓTESIS UNILATERAL / BILATERAL
La zona donde es cierta se define a un
solo lado o a los dos de un cierto valor:
m≠120 m>120
78. ELEMENTOS DE UN TEST DE HIPÓTESIS:
ERRORES
ERROR TIPO I
RECHAZAR LA HIPÓTESIS NULA CUANDO
TEST DE HIPÓTESIS
ES CIERTA
(falsa alarma)
ERROR TIPO II
ACEPTAR LA HIPÓTESIS NULA CUANDO ES
FALSA
(no suena la alarma cuando debiera hacerlo)
79. ELEMENTOS DE UN TEST DE HIPÓTESIS:
RIESGOS
NIVEL DE SIGNIFICACIÓN
ES LA PROBABILIDAD DE RECHAZAR LA
TEST DE HIPÓTESIS
HIPÓTESIS NULA CUANDO ES CIERTA
ES LA PROBABILIDAD DE ERROR TIPO I
SE REPRESENTA POR α Y SE LE LLAMA
RIESGO DEL FABRICANTE
LA PROBABILIDAD DE ERROR TIPO
II SE REPRESENTA POR β Y SE LE
LLAMA RIESGO DEL COMPRADOR
80. TEST SOBRE LA MEDIA
Hipótesis nula simple contra alternativa
bilateral (H0 : m=m0 H1 : m ≠ m0),
supuesta σ desconocida.
TEST DE HIPÓTESIS
x − m0
1. Calcular : t=
s/ n
α/2
2. Comparar t con el valor de una t n −1
α/ 2
3. Decidir: si t > tn−1 se rechazaráH0
81. TEST SOBRE LA MEDIA
Hipótesis nula simple contra alternativa
unilateral (H0 : m=m0 H1 : m > m0),
supuesta σ desconocida
TEST DE HIPÓTESIS
x − m0
1. Calcular : t=
s/ n
α
2. Comparar t con el valor de una t n −1
α
3. Decidir: si t > tn−1 se rechazaráH0
82. TEST DE
IGUALDAD DE DOS MEDIAS
Hipótesis nula simple contra alternativa bilateral
(H0 : m1=m2 H1 : m1 ≠ m2), supuestas las σ
desconocidas pero iguales
TEST DE HIPÓTESIS
(n1 − 1)s1 + (n 2 − 1)s 2
2
1. Obtener la varianza media ponderada : S = 2 2
n1 + n 2 − 2
x1 − x2
2.Calcular t =
S n1 + n12
1
α 2
3. Comparar t con el valor de una t n1/+n2 − 2
α
4. Decidir : si t > t n1/+2n 2 − 2 se rechazará H 0
83. TEST SOBRE LA VARIANZA
Hipótesis nula simple contra alternativa
bilateral (H0 : σ=σ0 H1 : σ ≠ σ0)
TEST DE HIPÓTESIS
Se obtendrá un intervalo de confianza
en torno a S y se comprobará si σ0
queda incluida en el mismo :
⎡ (n − 1)s 2 (n − 1)s 2 ⎤
Si σ0 ∈ ⎢ 2 , 2 ⎥ se aceptará H0
⎢ χn−1, α χn−1,1− α ⎥
⎣ 2 2 ⎦
84. TEST SOBRE LA VARIANZA
Hipótesis nula simple contra alternativa
unilateral (H0 : σ=σ0 H1 : σ > σ0)
TEST DE HIPÓTESIS
(n − 1)s 2
1. Obtener χ =
2
σ02
2. Leer de tablas χn−1,α
2
3. Si χ 2 ≤ χn−1,α se aceptará H0
2
85. TEST SOBRE LA VARIANZA
Hipótesis nula simple contra alternativa
unilateral (H0 : σ=σ0 H1 : σ < σ0)
TEST DE HIPÓTESIS
(n − 1)s 2
1. Obtener χ =
2
σ02
2. Leer de tablas χn−1,1−α
2
3. Si χ 2 ≥ χn−1,1−α se aceptará H0
2
86. TEST DE
IGUALDAD DE VARIANZAS
Hipótesis nula simple contra alternativa
unilateral (H0 : σ1=σ2 H1 : σ1>σ2), siendo
TEST DE HIPÓTESIS
s1 la desv. típica muestral mayor
2
s1
1. Calcular F = 2
s2
2.Leer de tablas Fnα −1,n2 −1
1
3.Decidir : Si F> Fnα −1,n2 −1 se rechazará H0
1
87. TEST SOBRE LA PROPORCIÓN
H0(p=p0) vs H1(p≠p0) (Binomial)
{
A = np0 − z α / 2 np0 q0 ≤ x ≤ np0 + z α / 2 np0 q0 }
H0(p=p0) vs H1(p>p0) (Binomial)
{
A = x ≤ np0 + z α np0q0 }
H0(p1=p2) vs H1(p1≠p2) (Binomial)
⎧ ˆ ˆ ⎫ n1p1 − n2p2
ˆ ˆ
⎪ p1 − p2 ⎪ p=
ˆ
A =⎨ ≤ zα / 2 ⎬ con
⎪ p ⋅ n1 + n 2
ˆ 1 1 ⎪ n1 + n2
⎩ ⎭
88. TEST SOBRE LA POISSON
H0(p=p0) vs H1(p≠p0) (Poisson)
{
A = np0 − z α / 2 np0 ≤ x ≤ np0 + z α / 2 np0 }
H0(p=p0) vs H1(p>p0) (Poisson)
{
A = x ≤ np0 + z α np0 }
89. TAMAÑOS DE MUESTRA
Las muestras necesarias para proceder
a estimar los parámetros de una
distribución deben ser calculadas de
modo que se garantice la adecuada
precisión y confiabilidad de las
estimaciones.
En todo caso, debe garantizarse la
aleatoriedad de la muestra.
90. MUESTREO EN POBLACIONES FINITAS
Estimación de la media (normal)
zα / 2 ⋅ σ2
2
n=
(N −1) ⋅ ε 2 z2 / 2 ⋅ σ2
+ α
N N
Estimación de la proporción (binomial)
z α / 2 ⋅ (p ⋅ q )
2
n=
( N − 1) ⋅ ε 2 z α / 2 ⋅ (p ⋅ q )
2
+
N N
Estimación de la media (poisson)
z2 / 2 ⋅ λ
n= α
(N −1) ⋅ ε2 z 2 / 2 ⋅ λ
+ α
N N
91. MUESTREO EN POBLACIONES INFINITAS
Estimación de la media (normal)
2
⎛ σ ⋅ zα / 2 ⎞
n≥⎜ ⎟
⎝ ε ⎠
Estimación de la proporción (binomial)
2
⎛ pq ⋅ z α / 2 ⎞
n≥⎜ ⎟
⎜ ε ⎟
⎝ ⎠
Estimación de la media (poisson)
2
⎛ p ⋅ zα / 2 ⎞
n≥⎜ ⎟
⎜ ε ⎟
⎝ ⎠
92. TAMAÑO DE MUESTRA EN TEST DE
HIPÓTESIS
El más importante de ellos es para el
contraste de hipótesis es H0(μ=μ0) vs
H1(μ≠μ0). Entonces el tamaño de
muestra se calcula mediante:
2
⎛ z α / 2 + zβ ⎞
n≥⎜
⎜ ⎟
⎟
⎝ d ⎠