1) El documento describe los conceptos de estimación puntual y por intervalo en inferencia estadística. 2) La estimación puntual involucra dar un valor numérico que aproxime al parámetro poblacional, mientras que la estimación por intervalo especifica un método para calcular los límites de un intervalo que contenga al parámetro. 3) Se discuten propiedades deseables de los estimadores puntuales como insesgabilidad, eficiencia y consistencia, y cómo construir intervalos de confianza para estimar parámetros como la media, varianza y
1. Estimación:
El proceso de estimación en inferencia estadística puede ser descrito como el proceso de
estimar un parámetro a partir del estadístico correspondiente, tal como usar una media muestral
(Estadístico) para estimar la media poblacional, (parámetro).
La estimación de parámetros puede ser:
• Puntual o Por Punto.
• Por Intervalo.
Estimación Puntual:
Objetivo.
Dar un valor numérico que aproxime en forma muy cercana al parámetro poblacional.
La estimación puntual de un parámetro de una población es un solo valor numérico de un
estadístico que corresponde a este parámetro.
Un estadístico utilizado para aproximar a un parámetro de una población se denomina
Estimador del Parámetro. El número obtenido cuando se evalúa el estimador para una muestra
particular, se denomina Estimación del Parámetro.
Sea X una variable aleatoria de interés con distribución de probabilidad f (x).
θ : Parámetro Desconocido.
: f (X1, X2, X3,…,Xn)
m. a. de tamaño n.
Estadístico.
Estimador.
es un posible estimador de µ.
Por ejemplo:
µ=θ
1
2. : : Estimador puntual de µ, porque al evaluarlo para una muestra es concreto, da un solo
numero o punto.
: Estimación puntual de µ.
Otros Parámetros de Interés:
P: Proporción Poblacional (proporción binomial).
“Proporción de elementos con cierta característica de interés en un universo dado.”
= Estimador puntual de P.
X: Nº de elementos en la muestra con característica de interés.
σ2 : Varianza Poblacional.
Estadístico: Estimador puntual de σ2.
σ : Desviación estándar de una población.
Estimador puntual de σ.
µ1 - µ2: Diferencia de dos medias poblacionales.
Estimador puntual de µ1 - µ2.
Diferencia entre las medias de dos muestras aleatorias independientes.
P1 – P2
2
3. Estimador puntual para P1 – P2
Diferencia entre dos proporciones muéstrales, basadas en dos muestras aleatorias
independientes.
Razón de dos varianzas poblacionales.
Estimador puntual de
Sea X una variable aleatoria con media µ desconocida y varianza σ2.
X1, X2,…, Xn m. a. de tamaño n.
θ=µ
= f (X1, X2,…, Xn)
Estimadores posibles para µ
¿Cuál es el mejor?
Antes de responder a esta pregunta debemos decidir que propiedades son deseables en un
estimador puntual.
Obviamente queremos que el estimador produzca estimaciones que puedan esperarse sean
próximas en valor al parámetro que se esta estimando.
Propiedades De Los Estimadores Puntuales:
3
4. • Insesgabilidad
• Eficiencia
• Consistencia
• Suficiencia
Estimador In sesgado:
un estimador puntual de un parámetro θ, entonces
Sea es un estimador
) = θ. De lo contrario se dice que es sesgado.
insesgado si E (
Distribución muestral de un estimador insesgado.
Distribución muestral de un estimador sesgado positivamente, para el cual
Si el estimador es sesgado, la magnitud del sesgo es:
4
5. Sesgo =
Suponga que X es una variable aleatoria con media µ y varianza σ2, sea X1, X2, X3, X4,…,
Xn una m. a. de tamaño n de X. Es posible probar que la media muestral y la varianza muestral
S son estimadores insesgados de µ y σ respectivamente.
2 2
Sin embargo S1 (Desviación estándar muestral) es un estimador sesgado de σ. (σ:
Desviación estándar poblacional).
de un parámetro θ.
Error estándar de un estimador
Medida usual de la precisión de una estimación puntual.
Error cuadrado medio (ECM) de un estimador .
Se puede demostrar que:
Si es un estimador puntual insesgado de θ; entonces:
Ya que el sesgo
Varianza de
Error de estimación.
5
6. El error de estimación Є es la distancia entre el estimador y su parámetro. Es decir;
= f (X1, X2,…, Xn)
m. a.
Є Cantidad aleatoria.
Nota: La condición de que es insesgado, supone que el valor promedio de
(promedio de los valores de ) es exactamente correcto. No dice que un solo valor sea
exactamente correcto.
Eficiencia Relativa:
La eficiencia relativa entre dos estimadores y de un parámetro θ, con ECM
respectivos ECM ( ) y ECM ( ) se define como:
Si la eficiencia relativa es menor que 1 entonces concluimos que es un mejor estimador
de θ que
Si y son dos estimadores insesgados de θ, entonces:
Eficiencia Relativa =
Si consideramos todos los posibles estimadores insesgados de algún parámetro θ, el de
menor varianza se llama Estimador mas Eficiente de θ.
Estimador Consistente:
6
7. es un estimador insesgado de θ, basado en una m. a. de tamaño n, decimos que
Si
es consistente para θ, si:
La consistencia es una propiedad de muestras grandes.
Los estimadores cuyo ECM (o varianza si el estimador es insesgado) tiende a cero cuando
el tamaño de la muestra tiende al infinito, son consistentes.
Por ejemplo:
N (µ, σ2) y X1, X2,…, Xn
Si X
Es una muestra aleatoria de tamaño n de X, entonces es un
estimador consiente de µ.
Es un estimador insesgado de µ.
Estimación Por Intervalo.
7
8. Un estimador por intervalo es una regla que especifica un método que utiliza las
mediciones de la muestra para calcular dos números que forman los extremos del intervalo.
Objetivo:
Encontrar un estimador por intervalo que genere intervalos angostos que contengan a θ
(parámetro) con una alta probabilidad.
Los estimadores por intervalo se denominan comúnmente intervalos de confianza.
Un intervalo de confianza de θ, es un intervalo [L, U] que incluye a θ con un grado de
certidumbre establecido.
L y U se denominan extremos inferior y superior del intervalo de confianza.
L: Limite inferior de confianza.
U: Limite de confianza superior.
L, U: Estadísticos (variables aleatorias).
Para construir un estimador por intervalo del parámetro θ desconocido, debemos encontrar
L y U tal que:
P (L ≤ θ ≤ U) = 1 – α
La probabilidad 1 – α se le llama Coeficiente de Confianza. Usualmente, se expresa en
porcentaje: 100 (1 – α) %.
1 – α es la probabilidad de que el intervalo contenga al parámetro.
0<α<1
El intervalo resultante:
L≤θ≤U
Se llama intervalo de confianza del 100 (1 – α) % para el parámetro θ. (Intervalo de
confianza de dos lados).
En ocasiones un intervalo de confianza de un lado podría ser útil.
L ≤ θ Intervalo de confianza inferior del 100 (1 – α) %.
θ ≤ U Intervalo de confianza superior del 100 (1 – α) %
Donde U se elige de modo que:
P (θ ≤ U) = 1 - α
Estimación Por Intervalo de µ.
8
9. Intervalo de confianza sobre la media (µ), conocida la varianza (σ2).
Construir un intervalo de confianza del 100 (1 – α) % para la media µ de una población
denotada por X, con varianza σ2 conocida a partir de una muestra aleatoria (m. a.) X1, X2, X3,…,
Xn de tamaño n.
como estimador puntuales de µ.
Si usamos
Distribución de .
• Si la muestra es seleccionada de una población normal.
De donde:
• A falta de esta (De población normal), si n es suficiente grande:
* Si se cumplen las condiciones del TLC.
Aproximadamente.
Aproximadamente.
Para construir un intervalo de confianza de µ, primero hallaremos una variable aleatoria (v.
a.) cuya expresión contenga a µ y cuya distribución se conozca al menos aproximadamente.
Contiene al parámetro µ y su distribución es normal
Nótese que la v. a.
estándar (o al menos aproximadamente normal estándar).
Queremos determinar L y U de forma que P (L ≤ θ ≤ U) = 1 – α
Consideremos la participación de la curva normal estándar.
(I)
9
10. Formula exacta cuando la población muestreada tiene distribución normal y varianza σ2
conocida.
Si σ2 no se conoce (y σ) reemplazar σ por S en (I). Buena aproximación,
•
siempre que n sea grande (n ≥ 30).
Intervalo de confianza sobre la medida (μ), σ2 desconocida, muestra pequeña.
Suponer:
Población normal con medida μ y σ2 (varianza) desconocida.
•
N (μ, σ2)
X
• Muestra aleatoria de tamaño n.
X1, X2,… Xn
Media Muestral
Varianza Muestral
• n pequeña (< 30).
Construir un intervalo de confianza del 100 (1 – α) % para μ.
Estimador puntual de μ
10
11. Reacomodando:
P (L ≤ θ ≤ U) = 1 – α
Intervalo de confianza de dos lados del 100 (1 – α) % para μ.
11
12. Donde es el valor t con n – 1 grados de libertad que deja una área de a la
derecha.
A la formula anterior a menudo se le denomina formula del intervalo de confianza para la
media en muestras pequeñas, aunque es valido para muestras de cualquier tamaño.
Intervalo de confianza de un lado del
100 (1 – α) % en μ.
12
13. Estimación de σ2.
Suponga que una m. a. de tamaño n es seleccionada de una población normal con media μ
y varianza σ2 desconocidas.
N (μ, σ2)
X
X1, X2,…, Xn.
m. a.
Estimador puntual de µ.
Estimador puntual de σ2.
Son estadísticos.
Construir un intervalo de confianza del 100 (1 – α) % para σ2.
Va a utilizar para construir el intervalo de confianza para σ2.
13
14. Reacomodando:
P (L ≤ θ ≤ U) = 1- α
Limite de confianza
son los valores X2 con n-1 grados de libertad que
Donde
dejan áreas de α/2, 1- α/2, respectivamente a la derecha.
Intervalos de confianza bilaterales del 100 (1-α) % para σ2.
14
15. Extrayendo Raíz Cuadrada
Intervalos de Confianza bilateral del 100 (1-α) % para σ
Intervalo De Confianza Para Una Proporción P
Supóngase que estamos interesados en estimar la proporción P de elementos que presentan la
característica de interés en un universo dado. Una muestra aleatoria de tamaño n es seleccionada al
azar y se observa el numero de elementos X (x≤n) en la muestra que tiene la característica de
interés.
Sabemos que:
Cuando n es grande (?)
Aproximadamente.
Estandarizando:
Aproximadamente.
15
16. Dividiendo numerador y denominador entre n, tenemos:
Estimador puntual de P
Es un estimador integrado de P.
V.a a utilizar para construir el intervalo de confianza del 100 (1-α) % para P
Considerando la partición de la curva normal estándar, tenemos:
16
17. Pero:
Reacomodando:
Al sustituir P por en el error estándar (lo que resulta un error estándar estimado) tenemos que:
El intervalo de coeficiente bilateral del 100 (1 – α) % aproximado en P es:
Estimación De La Diferencia Entre Dos Medias.
• Puntual.
• Por intervalo.
Considérese dos poblaciones con medias μ1 y μ2 y varianzas σ12 y σ22 (conocidas) respectivamente.
Dos muestras aleatorias independientes de tamaño n1 y n2 son seleccionadas, una de dada
población.
17
18. Un estimador lógico de μ1- μ2 es donde son las medidas muéstrales.
X11, X12,.......X1n1 m.a de tamaño n1 de X1.
X21, X22,…X2n2 m.a de tamaño n2 de X2.
X1 y X2 denotan las poblaciones de interés.
;
Estimador puntual de μ1- μ2.
El valor numérico es la estimulación puntual de μ1- μ2.
La distribución maestral de es normal si X1 y X2 están distribuidas de forma normal o
aproximadamente normal si se completa las condiciones del TLC.
La distribución de la v.a Z es normal estimada; si X1 y X2 son normales o aprox. Normal estándar
si n1 y n2 son grandes (TLC).
18
20. *intervalo de confianza aproximado a menos que las dos poblaciones sean normales.
La forma del intercambio anterior se aplica si se conocen σ12 y σ22. Si las varianzas no se conocen y
las dos poblaciones son normales, la distribución t resulta implicada como en el caso de una
muestra. Si no esta dispuesto a suponer normalidad muestras grandes (≥ 30) permitirán el uso de
S12 y S22 respectivamente.
Intervalo De Confianza Para μ1- μ2 Con Varianza Desconocida.
Suposiciones:
• Poblaciones normales
• Varianza desconocida, pero iguales.
• Muestra aleatoria undipendientes de tamaños n1 y n2
20
21. • Muestras pequeñas.
X11, X12,…, X1n, X21, X22,…, X2n2
Con la suposición de σ12 = σ22 un intervalo de confianza para μ1 - μ2 basado en la v.a T se puede
construir.
21
22. Sustituyendo T
Reareglando:
De donde:
Intervalo de confianza del 100 (1 – α) % para
μ1 - μ2, σ12= σ22 pero desconocidas.
A la forma anterior a menudo se le denomina formula del intervalo de confianza para μ1 - μ2 en
muestras pequeñas, aunque es valida para muestras de cualquier tamaño y funciona
satisfactoriamente cuando la población no es normal, mientras que la desviación de la normalidad
no se exceda.
Cuando no es razonable suponer que σ12= σ22, un intervalo de confianza de dos lados de100 (1 – α)
% aproximado en μ1 - μ2 es:
22
23. De donde
La construcción del intervalo de confianza anterior se bazo en la variable aleatoria:
Intervalo de confianza para μ1 - μ2
Observaciones pareadas
Suponer:
• Poblaciones normales
• Muestras aleatorias dependientes.
X11, X12,…, X1n,
X21, X22,…, X2n2
23
24. • -n1=n2=n n pequeña.
D: denota una población de diferencia.
Se puede construir un intervalo de confianza para μ1 - μ2 con solo encontrar un intervalo de
confianza para μD.
24
25. Uso de distribución t.
Sustituyendo y reacomodando tenemos:
Intervalo de confianza de dos lados del 100 (1 – α) % en
Intervalo de confianza sobre la razón de
Varianzas de dos poblaciones normales
Suponer:
• Poblaciones normales.
μ1 - μ2, σ12 y σ22 no se conocen
• Muestras aleatorias independientes.
X11, X12,…, X1n,
X21, X22,…, X2n2
25
26. La forma mas lógica de estimar (estimador puntual) la razón de dos varianzas, es estimar cada una
por separado como se vio anteriormente y después estimar que es la razón de estas
estimaciones.
Estimador puntual de σ12.
Estimador puntual de σ22.
Si σ12 y σ22 son las varianzas de dos poblaciones normales, podemos construir un intervalo
de confianza basándonos en la variable aleatoria F.
26
27. Variable aleatoria a utilizar para construir el intervalo de confianza de 100 (1 - α) %.
De la figura tenemos:
27
28. Reareglando:
De donde:
Donde es un valor f con grados de
libertad que deja un área a la derecha de . es un valor de f similar con
grados de libertad (g. l.)
Intervalo de confianza de dos lados (Bilateral) del 100 (1 – α) % para .
28
29. Intervalo De Confianza Para La Diferencia De Dos Proporciones P1 – P2.
P1 – P2 Parámetro.
P1: Proporción de elementos con la característica de interés en un universo dado.
P2: Proporción de elementos con la característica de interés en otro universo dado.
Si bien se trata de dos universos diferentes, la característica de interés deberá ser la misma.
P1 y P2 son parámetros binomiales.
Si toman muestras aleatorias independientes de tamaño n1 y n2 respectivamente.
X1: Nº de elementos en la muestra 1 con la característica de interés.
X2: Nº de elementos en la muestra 2 con la característica de interés.
Un estimador lógico de P1 – P2 es:
Es posible probar que:
29
30. Se puede construir un intervalo de confianza para P1 – P2 considerando la distribución
muestral de :
Distribución muestral de :
Para n1 y n2 grandes.
De donde:
30
31. De la curva normal estándar podemos escribir:
Sustituyendo para Z.
Reareglando:
31
32. De donde un intervalo de confianza de dos lados del 100 (1 – α) % aproximado para P1 – P2
es:
La construcción del intervalo de confianza para P1 – P2 se basa en la aproximación normal a
la binomial que es adecuada para n1 y n2 grandes. ¿ ?
32