3. ESTADISTICA INFERENCIAL: de la muestra
a la población
Se utiliza para probar hipótesis y estimar parámetros.
Los resultados estadístico de una muestra se denominan
ESTADIGRAFOS
-media
-mediana
-moda
-Desviación estándar
-rango
A la estadística de la población se les
Conoce como PARAMETROS ESTADISTICA INFERENCIA
SE INFIEREN DE LOS
ESTADIGRAFOS
4. ESTADISTICA INFERENCIAL
se utiliza fundamentalmente para dos procedimientos
vinculados:
1. Probar hipótesis poblacionales
2. Estimar parámetros.
5. 1.- PRUEBA DE HIPÓTESIS
por medio de la prueba de hipótesis es determinar si la
hipótesis poblacional es congruente con los datos
obtenidos en la muestra
Para comprender lo que es la prueba de hipótesis en la
estadística inferencial es necesario revisar los conceptos de
distribución muestral y nivel de significancia.
6. 1.- PRUEBA DE HIPÓTESIS
Distribución muestral.- es un conjunto de valores sobre
una estadística calculada de todas las muestras posibles de
determinado tamaño de una población.
7. 1.- PRUEBA DE HIPÓTESIS
nivel de significancia.- Es un nivel de la probabilidad de
equivocarse y que fija de manera a priori el investigador.
8. 1.- PRUEBA DE HIPÓTESIS
Hay dos tipos de análisis estadísticos que pueden realizarse
para probar hipótesis: los análisis paramétricos y los no
paramétricos.
los análisis a realizar dependen de las hipótesis que
hayamos formulado y el nivel de medición de las variables
que las conforman
9. Análisis paramétricos
1. La distribución poblacional de la variable dependiente es normal: el universo
tiene una distribución normal.
2. El nivel de medición de las variables es por intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas, tienen una varianza
homogénea: las poblaciones en cuestión poseen una dispersión similar en sus
distribuciones
10. cuales son los métodos o las pruebas
estadísticas paramétricas mas utilizadas?
Coeficiente de correlación de Pearson y regresión lineal.
Prueba t.
Prueba de contraste de la diferencia de proporciones.
Análisis de varianza unidireccional (ANOVA en un sentido o oneway).
Análisis de varianza factorial (ANOVA).
Análisis de covarianza (ANCOVA).
11. COEfiCIENTE DE CORRELACIÓN DE PEARSON
prueba estadística para analizar la relación entre dos variables medidas en un nivel
por intervalos o de razón.
Se simboliza: r.
Hipótesis a probar: correlacional, del tipo de “a mayor X, mayor Y ”, “a mayor X,
menor Y ”, “altos valores en X están asociados con altos valores en Y ”, “altos
valores en X se asocian con bajos valores de Y ”.
La hipótesis de investigación señala que la correlación es significativa.
Variables: dos. La prueba en sí no considera a una como independiente y a otra
como dependiente, ya que no evalúa la causalidad.
13. INTERPRETACION coeficiente r de Pearson
El signo indica la DIRECCION de la correlación (positiva o negativa)
El valor numérico la MAGNITUD de la correlación.
14.
15.
16.
17.
18.
19.
20.
21. Un asterisco (*) implica una significancia menor a 0.05 (quiere decir que el
coeficiente es significativo en el nivel de 0.05, la probabilidad de error es menor de
5%) y dos asteriscos (**) una significancia menor a 0.01 (la probabilidad de error es
menor de 1%).
23. Regresión lineal
Definición: es un modelo estadístico para estimar el efecto de una variable sobre otra. Está
asociado con el coeficiente r de Pearson. Brinda la oportunidad de predecir las puntuaciones de
una variable tomando las puntuaciones de la otra variable. Entre mayor sea la correlación entre
las variables (covariación), mayor capacidad de predicción.
Hipótesis: correlacionales y causales.
Variables: dos. Una se considera como independiente y otra como dependiente. Pero, para
poder hacerlo, debe tenerse un sólido sustento teórico.
Nivel de medición de las variables: intervalos o razón.
Procedimiento e interpretación: la regresión lineal se determina con base en el diagrama de
dispersión. Éste consiste en una gráfi ca donde se relacionan las puntuaciones de una muestra
en dos variables.
36. Prueba t
Definición: es una prueba estadística para evaluar si dos
grupos difieren entre sí de manera significativa respecto a sus
medias en una variable.
Simbolo: t.
Hipótesis: de diferencia entre dos grupos. La hipótesis de
investigación propone que los grupos difieren de manera
significativa entre sí y la hipótesis nula plantea que los grupos
no difieren significativamente.
37. Prueba t
Variables: la comparación se realiza sobre una variable (regularmente y de manera
teórica: dependiente). Si hay diferentes variables, se efectuarán varias pruebas t
(una por cada par de variables), y la razón que motiva la creación de los grupos
puede ser una variable independiente.
Cálculo e interpretación: son el valor t y su significancia.- la prueba t se basa en una
distribución muestral o poblacional de diferencia de medias conocida como la
distribución t de Student que se identifica por los grados de libertad, los cuales
constituyen el número de maneras en que los datos pueden variar libremente.
45. Prueba t para trabajos de comparación
RESINA “A” RESINA “B”
LA HIPOTESIS DEL INVESTIGADOS:
El promedio de la resistencia adhesiva en megapascales de la resina “A” es mayor que la de la resina
“B”.
H1= Existe una DIFERENCIA SIGNIFICATIVA entre la media de calificaciones del grupo de resinas
A y la media del grupo de resina B.
COMPARACION
46. Determinar alfa en la prueba t
Alfa= 5% = 0,05 es la prueba de error
Variable fija: variable tipo de resina organizada en dos grupos:
Resina A
Resina B
Variable aleatoria: variable numérica dado en mega pascales.
Es decir prueba t para dos muestras independientes.
47. LECTURA DE P-VALOR
ANTES DE CALCULAR EL VALOR T SE HACE:
1.- NORMALIDA.- se debe corroborar que la variable aleatoria en ambos grupo se
distribuye normalmente.
Se usa la prueba de Kolmogorov-Smirnov, para muestras grandes (>30 individuos)
Se usa la prueba de Chapiro Wilk, para muestras pequeñas (<30 individuos)
El criterio para determinar si la variable se distribuye normalmente es:
a. p-valor =>alfa Aceptar Ho (los datos proviene de una distribución normal).
b. p-valor =< alfa Aceptar H1 (los datos NO proviene de una distribución normal).
48. LECTURA DE P-VALOR
ANTES DE CALCULAR EL VALOR TSE HACE:
2.- igualdad de varianza (prueba de levene). Se debe corroborar la igualdad de
varianza entre los grupos.
a. P-valor = > alfa Aceptar HO = las varianzas son iguales
b.. P-valor = < alfa Aceptar H1 = existe diferencias significativa entre las
varianzas.
49. LECTURA DE P-VALOR
ANTES DE CALCULAR EL VALOR TSE HACE:
3.- calcular P- Valor de la Prueba: T de Student muestras independientes.
56. Prueba t para muestras independientes
1.- El criterio para determinar si la variable se distribuye nromalemente es:
a. p-valor =>alfa Aceptar Ho (los datos proviene de una distribución normal).
b. p-valor =< alfa Aceptar H1 (los datos NO proviene de una distribución
normal).
NORMALIDAD resistencia
P- Valor (resina A) = 0,211 > Alfa= 0,05
P- Valor (resina B) = 0,662 > Alfa= 0,05
Conclusión: la variable resistencia en ambos grupos se comporta normalmente.
57. LECTURA DE P-VALOR
ANTES DE CALCULAR EL VALOR T SE HACE:
2.- igualdad de varianza (prueba de levene). Se debe corroborar la igualdad de
varianza entre los grupos.
a. P-valor = > alfa Aceptar HO = las varianzas son iguales
b.. P-valor = < alfa Aceptar H1 = existe diferencias significativa entre las
varianzas.
Igualdad de VARIANZA
P- Valor > Alfa=
Conclusión:
64. LECTURA DE P-VALOR
ANTES DE CALCULAR EL VALOR T SE HACE:
2.- igualdad de varianza (prueba de levene). Se debe corroborar la igualdad de
varianza entre los grupos.
a. P-valor = > alfa Aceptar HO = las varianzas son iguales
b.. P-valor = < alfa Aceptar H1 = existe diferencias significativa entre las
varianzas.
Igualdad de VARIANZA
P- Valor = 0,878 > Alfa= 0,05
Conclusión: LAS VARIANZAS SON IGUALES
65. LECTURA DE P-VALOR
ANTES DE CALCULAR EL VALOR T SE HACE:
2.- igualdad de varianza (prueba de levene). Se debe corroborar la igualdad de
varianza entre los grupos.
a. P-valor = > alfa Aceptar HO = las varianzas son iguales
b.. P-valor = < alfa Aceptar H1 = existe diferencias significativa entre las
varianzas.
Igualdad de VARIANZA
P- Valor = 0,878 > Alfa= 0,05
Conclusión: LAS VARIANZAS SON IGUALES
SE CUMPLEN CON LOS DOS SUPESTOS ANTERIORES Y LUEGO RECIEN SE PUEDE
CALCULAR:
3.- calcular P- Valor de la Prueba: T de Student muestras independientes.
68. Prueba t para muestras independientes
3.- calcular P- Valor de la Prueba: T de Student muestras independientes.
EL CRITERIO PARA DEICDIR ES:
Si la probabilidad obtenida P-valor < o igual a alfa, se rechaza H0 (se acepta H1)
Si la probabilidad obtenida P-valor > a alfa, NO se rechaza H0 (se acepta H0)
DECISION ESTADISTICA
P- Valor = 0,000 < Alfa= 0,05
Conclusión: SE RECHAZA LA HIPOTESIS NULA Y SE ACEPTA LA HIPOTESIS DE
INVESTIGACION
70. análisis de varianza unidireccional o de un
factor (ANOVA)
Definición: es una prueba estadística para analizar si más de
dos grupos difieren significativamente entre sí en cuanto a
sus medias y varianzas. La prueba t se usa para dos grupos y
el análisis de varianza unidireccional se usa para tres, cuatro o
más grupos. Aunque con dos grupos se puede utilizar
también.
71. análisis de varianza unidireccional o de un
factor (ANOVA)
Hipótesis: de diferencia entre más de dos grupos. La hipótesis
de investigación propone que los grupos difieren
significativamente entre sí y la hipótesis nula propone que los
grupos no difieren significativamente.
Variables: una variable independiente y una variable
dependiente.
Nivel de medición de las variables: la variable independiente
es categórica y la dependiente es por intervalos o razón.
72. El hecho de que la variable independiente sea categórica significa que es posible
formar grupos diferentes. Puede ser una variable nominal, ordinal, por intervalos o
de razón (pero en estos últimos dos casos la variable debe reducirse a categorías)
81. Para realizar los análisis no paramétricos debe
partirse de las siguientes consideraciones:
Las variables deben ser categóricas.
Las variables no necesariamente tienen que estar medidas en un nivel por
intervalos o de razón; pueden analizar datos nominales u ordinales. De hecho, si se
quieren aplicar análisis no paramétricos a datos por intervalos o razón, éstos necesitan
resumirse a categorías discretas (a unas cuantas).
82. Para realizar los análisis no paramétricos debe
partirse de las siguientes consideraciones:
Las pruebas no paramétricas más utilizadas son:
La chi cuadrada o χ 2.
Los coeficientes de correlación e independencia para tabulaciones cruzadas.
Los coeficientes de correlación por rangos ordenados de Spearman y Kendall.
83. LA CHI CUADRADO O X2
Prueba estadística para evaluar hipótesis acerca de la relación entre dos variables
categóricas.
Se simboliza: χ2
Hipótesis a probar: correlacionales.
Variables involucradas: dos. La prueba chi cuadrada no considera relaciones causales.
Nivel de medición de las variables: nominal u ordinal (o intervalos o razón reducidos a
ordinales).
84. LA CHI CUADRADO O X2
Procedimiento: se calcula por medio de una tabla de contingencia o tabulación
cruzada, que es un cuadro de dos dimensiones, y cada dimensión contiene una
variable. A su vez, cada variable se subdivide en dos o más categorías.
85. LA CHI CUADRADO O X2
La prueba de Chi Cuadrado parte del supuesto de que las dos variables no están
relacionadas (hay independencia)
H0: independencia de las variables
H1: variables relacionadas
Valor alfa (nivel de significación)= 0,05
Valor alfa (nivel de significación) = 0,01
Probabilidad de cometer erro en rechazar la hipótesis nula.
Cuando el estadístico tiene una probabilidad menor a 0,05 se rechaza la H0
86. LA CHI CUADRADO O X2
Ejemplo
Plantemos una hipótesis en función de dos variables categóricas:
La distribución de la Variable.….. esta relacionada con la otra variable….
95. LA CHI CUADRADO O X2
La prueba de Chi Cuadrado parte del supuesto de que las dos variables no están
relacionadas (hay independencia)
H0: independencia de las variables
H1: variables relacionadas
Valor alfa (nivel de significación)= 0,05
Valor alfa (nivel de significación) = 0,01
Probabilidad de cometer erro en rechazar la hipótesis nula.
Cuando el estadístico tiene una probabilidad menor a 0,05 se rechaza la H0
97. Coeficiente de correlación de
Sperman y tau de Kendal
Son medidas de correlación para variables en un nivel de
medición ordinal (ambas), de tal modo que los individuos u
objetos de la muestra pueden ordenarse por rangos
(jerarquías)
Tau b de Kendal para variables ordinales con el mimo
numero de categorías (tabla cuadrada).
98. Coeficiente de correlación de
Sperman y tau de Kendal
Se simboliza Sperman: rho
Se simboliza tau de Kendal: t
Hipótesis a probar: correlacional, del tipo de “a mayor X,
mayor Y ”, “a mayor X, menor Y ”, “altos valores en X están
asociados con altos valores en Y ”, “altos valores en X se
asocian con bajos valores de Y ”.
La hipótesis de investigación señala que la correlación es
significativa.
Variables: dos. La prueba en sí no considera a una como
independiente y a otra como dependiente, ya que no evalúa
la causalidad.