1. REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA
VICERRECTORADO ACADEMICO
COORDINACION DE PRE-GRADO
PROYECTO DE CARRERA: INGENIERIA EN INDUSTRIAS FORESTALES
CATEDRA: ESTADISTICA II
ESTIMACION
(INTERVALOS DE CONFIANZA PARA MEDIAS Y VARIANZAS)
AUTOR:
LOPEZ SIGMARBI
C.I 25.003.182
TUTOR:
ING. ALVARO BARRIOS
UPATA, JUNIO (2015)
2. REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA
VICERRECTORADO ACADEMICO
COORDINACION DE PRE-GRADO
PROYECTO DE CARRERA: INGENIERIA EN INDUSTRIAS FORESTALES
CATEDRA: ESTADISTICA II
ESTIMACION
(INTERVALOS DE CONFIANZA PARA MEDIAS Y VARIANZAS)
AUTOR:
LOPEZ SIGMARBI
C.I 25.003.182
TUTOR:
ING. ALVARO BARRIOS
UPATA, JUNIO (2015)
(RESUMEN)
El siguiente tema a tratar es la estimación, utilizado para pronosticar los parámetros de la
población por lo general, se calcula la media y la muestra, y en algunas ocasiones la
proporción a partir de una muestra. Esto se hace estimando un intervalo en el que vamos
a hacer inferencia de que se encuentran los parámetros, con una probabilidad de acertar,
es decir, próxima a 1. Se necesita una calculadora científica para el estudio de estos
valores de la muestra. Sabiendo que mientras que el tamaño de la muestra sea mayor,
este reducirá el intervalo de confianza, ya que el valor obtenido de la muestra se acercara
al valor real de la población, haciendo el margen de error más pequeño. Tomando en
cuenta que las características de la población harán que varié la estimación de los
intervalos, lo que es invariable es el patrón de trabajo para su construcción.
3. INTRODCCION
La estimación por intervalos consiste en dar un par de valores a y b
constituidos en intervalos [a, b]. Existen un sin fin de intervalos para
cualquier distribución a los cuales le corresponda la misma probabilidad,
pero nosotros solo necesitamos buscar una estimación lo más exacta posible,
es decir, de todos los intervalos que confirman lo antes ya mencionado, solo
tomaremos el que tenga menor amplitud. Es sencillo ver que si la distribución
es simétrica y unimodal, de todos los intervalos isoprobables, el que tenga
menor amplitud es el que va más centrado a la media. Los gerentes recurren
a las estimaciones porque en todas sus decisiones, menos las más triviales,
deben tomar decisiones racionales sin información completa y con mucha
incertidumbre respecto a lo que les depara. El gobierno necesita
estimaciones, de tiempo en tiempo, del nivel de desempleo, el número de
familias con ingreso inferior a la “línea de pobreza” establecida, la tasa de
inflación, los rendimientos de las cosechas, las demandas de exportación e
importación, etc., con el fin de formular políticas económicas apropiadas.
En la práctica, interesa no solamente dar una estimación puntual de un
parámetro sino, un intervalo que permita precisar la incertidumbre existente
en la estimación, así como la precisión con la que se ha realizado la
estimación puntual.
4. Marco Teórico
Estimación Puntual
Consiste en utilizar el valor de un estadístico para inferir el parámetro de una
población. La estimación puntual es a menudo insuficiente, puesto que o
acierta o se equivoca. Se obtiene al seleccionar un estadístico apropiado y
calcular su valor a partir de datos de la muestra.
Estimadores puntuales comunes insesgados
Un estimador debe estar “próximo” en algún sentido al valor verdadero del
parámetro desconocido. De manera formal, se dice que θ ˆ es un estimador
insesgado de θ si el valor esperado de θ ˆ es igual a θ . Puesto que no hay un
estimador insesgado único, no es posible depender exclusivamente de esta
propiedad para seleccionar el estimador. Se necesita un método para
seleccionar uno de entre varios estimadores insesgados.
Evaluación de la bondad de un estimador insesgado
La bondad de un estimador por intervalo se analiza de manera muy similar a
la de un estimador puntual.
Se seleccionan muestras del mismo tamaño, respectivamente, y se determina
el intervalo de estimación para cada proceso. Este método generará un gran
número de intervalos, en vez de puntos. Una buena estimación por intervalo
contendrá, con éxito, el valor real del parámetro para una fracción grande del
tiempo. Tal fracción se denomina coeficiente de confianza para el estimador;
el estimador mismo se llama, a menudo, intervalo de confianza.
Suficiencia mínima y estimación insesgada de mínima varianza
Si se consideran todos los estimadores insesgados de θ , el que tiene la
menor varianza recibe el nombre de estimador insesgado de varianza
mínima.
Es importante determinar si es que existe dicho estimador, ya que,
naturalmente, se evitarían procedimientos menos que óptimos, en igualdad
de condiciones. Esto ha llevado al desarrollo sustancial de la teoría estadística
relacionada con el problema de la estimación óptima. Aunque la memoria
particular de "óptimo" aquí - que requiere insesgamiento y medir la
"bondad" con la varianza - puede no ser siempre lo que se quiere para
5. cualquier situación práctica dada, es una donde se encuentran los resultados
útiles y de aplicación general.
Método de los Momentos
Caracterizan una distribución de probabilidad si dos variables aleatorias
tienen los mismos momentos, entonces dichas variables tienen o siguen la
misma función de densidad. Podemos emplear momentos muéstrales para
estimar los parámetros, basándonos en la intuición de que los momentos de
la población se “parecerán” a los respectivos momentos de la muestra.
Método de máxima verosimilitud
El método permite construir buenos estimadores, de utilización universal,
denominados estimadores de máxima verosimilitud (EMV). El estimador es
siempre un valor del espacio del parámetro. En la práctica, es frecuente
considerar la función LogL ( ) a la hora de maximizar, ya que presenta los
mismos máximos y mínimos y suele ser más fácil de manejar.
El uso extendido del método de máxima verosimilitud para la construcción de
estimadores de se debe a las óptimas propiedades que estos poseen
cuando el n es suficientemente grande.
Cuando el n crece, la distribución del EMV es aproximadamente normal.
Intervalos de Confianza
Es un rango de valores (calculado en una muestra) en el cual se encuentra el
verdadero valor del parámetro, con una probabilidad determinada.
La probabilidad de que el verdadero valor del parámetro se encuentre en el
intervalo construido se denomina nivel de confianza, y se denota 1- . La
probabilidad de equivocarnos se llama nivel de significancia y se simboliza .
Generalmente se construyen intervalos con confianza 1- =95% (o
significancia =5%). Menos frecuentes son los intervalos con =10% o =1%.
Intervalos de confianza para una muestra Grande
Es difícil conocer la distribución en el muestreo de determinados estadísticos
y que, en cambio, se puede conocer su distribución asintótica. Como ocurre
con los cuantiles y los momentos muéstrales, frecuentemente, es posible
6. disponer de una sucesión Tn de estadísticos, correspondientes a sucesivos
tamaños muéstrales n, tales que Tn − θ σn(θ) d −→ N(0, 1) donde θ
representa el parámetro que caracteriza la distribución teórica y σn(θ)
depende en general de n y del parámetro poblacional.
Selección del tamaño de la muestra
Se puede pensar que el intervalo de confianza es demasiado amplio,
reflejando una importante incertidumbre sobre el parámetro estimado. La
única manera de obtener un intervalo más preciso, con un nivel de confianza
dado, es aumentando el tamaño muestral. En algunas circunstancias, se
puede fijar previamente la amplitud del intervalo, eligiendo un tamaño
muestral adecuado.
Intervalos de confianza con muestras pequeñas
Si conocemos la desviación estándar poblacional σ, entonces todo está bien,
y podemos seguir adelante y utilizar la fórmula anterior para el intervalo de
confianza para muestras pequeñas (suponiendo que estamos tomando
muestras de una variable distribuida normalmente). Pero si, como suele ser
el caso, no sabemos σ, entonces si seguimos adelante y utilizamos en su lugar
la desviación estándar muestral s, es probable que obtengamos intervalos de
confianza que son demasiado pequeños. La razón es que, mientras que la
distribución muestral de ( −μ)/σ, es normal (siempre que x es normal) la
distribución muestral de ( − μ)/s no es normal (a menos que se trate de
muestras grandes, en cuyo caso es aproximadamente normal).
7. CONCLUSIÓN
Se ha estudiado el procedimiento tradicional de estimación, este estudio se
ha hecho hasta ahora suponiendo que la distribución de un estimador está
totalmente distribuida. Tomando en cuenta el tamaño de la muestra,
mientras mas preciso o más corto sea el intervalo de confianza, o si se
incrementa al coeficiente de confianza, menos precisa es la estimación (o
mayor su error). Si la meta es tener un error pequeño y un alto nivel de
confianza, el tamaño de la muestra debe aumentar.
Si comparamos dos estadísticos de una muestra del mismo tamaño y
tratamos de inferir cuál de ellas es un estimador más eficiente, escogeríamos
el estadístico que tuviera el menor error estándar, o la menor desviación
estándar de la distribución de muestreo. Tiene sentido pensar que un
estimador con una desviación estándar menor, tendrá una oportunidad
superior de generar una estimación más cercana al parámetro de población
que se considera.
Se dice que un estimador es bueno si posee las propiedades de
insesgabilidad, consistencia, eficiencia y suficiencia. El método de máxima
verosimilidad proporciona estimadores que ordinariamente son consistentes,
eficientes y suficientes; pero no siempre proporcionan estimadores
insesgados.