2. Los métodos estadísticos
interferenciales no
paramétricos
Son procedimientos matemáticos para testar la hipótesis
estadística que, al contrario de la estadística paramétrica,
no hacen ninguna asunción sobre las distribuciones de
frecuencia de las variables que son determinadas.
• El nivel de medición puede ser nominal u ordinal.
• La muestra no tiene que ser aleatoria.
• La distribución de la frecuencia no tiene que ser
normal.
• Se puede usar con muestras más pequeñas.
3. Los métodos estadísticos
deductivos paramétricos
Son los procedimientos matemáticos para testar la
hipótesis estadística que asumen que las distribuciones
de las variables determinadas tienen ciertas
características.
• El nivel de medición debe ser racional o intervalar.
• La muestra debe ser aleatoria.
• La distribución de la frecuencia debe ser normal.
• La variación de resultados entre cada frecuencia debe
ser similar.
4. NOTA
• Cuando las pruebas estadísticas aplicables a las
variables cuantitativas no cumplen las asunciones
necesarias para su aplicación, deben utilizarse las
pruebas correspondientes como si las variables
de respuesta fuera una variable ordinal (pruebas
no paramétricas).
6. Variable de respuesta
Cualitativa nominal (2 Cualitativa nominal (>
Factor de estudio Cualitativa Ordinal Cuantitativa
Categorias) 2 categorías)
Cualitativo (dos
grupos)
Z de comparación de
t de Student-Fisher.
proporciones.
Independientes Chi al cuadrado. U de Mann-Whitney.
Chi cuadrado. Prueba
Prueba de Welch.
exacta de Fisher.
Prueba de McNemar. Prueba de los signos.
t de Student-Fisher
Apareados Prueba exacta de Q de Cochran. Prueba de los rangos para datos apareados.
Fisher. signados de Wilcoxon.
Cualitativo (más de
dos grupos)
Prueba de Kruskal-
Independientes Chi al cuadrado. Chi al cuadrado. Análisis de la variancia.
Wallis.
Análisis de la variancia
Apareados Q de Cochran. Q de Cochran. Prueba de Friedman.
de dos vías.
Correlación de
Correlación de Pearson.
Spearman.
Cuantitativo t de Student-Fisher. Análisis de la variancia.
Tau de Kendall. Regresión lineal.
7. PRUEBA DE
KOLMOGOROV-SMIRNOV
• Prueba de significación estadística no paramétrica para contrastar la
hipótesis nula cuando los parámetros de localización de ambos grupos son
iguales.
• Este contraste, que es válido únicamente para variables
continuas, compara la función de distribución (probabilidad acumulada)
teórica con la observada, y calcula un valor de discrepancia, representado
habitualmente como D, que corresponde a la discrepancia máxima en valor
absoluto entre la distribución observada y la distribución
teórica, proporcionando asimismo un valor de probabilidad P, que
corresponde, si estamos verificando un ajuste a la distribución normal, a la
probabilidad de obtener una distribución que discrepe tanto como la
observada si verdaderamente se hubiera obtenido una muestra
aleatoria, de tamaño n, de una distribución normal.
• Si esa probabilidad es grande no habrá por tanto razones estadísticas para
suponer que nuestros datos no proceden de una distribución, mientras que
si es muy pequeña, no será aceptable suponer ese modelo probabilístico
para los datos.
8. PRUEBA DE F
• Prueba estadística que sirve para comparar
varianzas.
• El estadístico F experimental es el estadístico de
contraste en el ANOVA y otras pruebas de
comparación de varianzas.
9. TEST DE CHI AL
CUADRADO
• La prueba de Ji-cuadrado es cualquier prueba
estadística de la hipótesis en cuál el test estadístico de
la distribución del Ji-cuadrado si la hipótesis nula es
verdad.
• Determina si existe asociación entre variables
cualitativas.
• Si el p-valor asociado al estadístico de contraste es
menor se rechazará la hipótesis nula.
• Se utiliza para analizar tablas de contingencia y
comparación de proporciones en datos independientes
10. PRUEBA EXACTA DE
FISHER (p.- 5%)
• Permite valorar el efecto del azar.
• Es una prueba estadística de significación usada en el análisis
de los tamaños pequeños categóricos de muestra de datos.
• La necesidad de la prueba de Fischer se presenta cuando
tenemos datos que se dividan en dos categorías de dos
maneras separadas.
• Prueba de significación estadística utilizada para comparar
proporciones en tablas de contingencia.
• Es preferible a la prueba de x2 cuando el tamaño de la
muestra es reducido (de menos de 30 efectivos).
• Es la prueba estadística de elección cuando la prueba de Chi
cuadrado no puede ser empleada por tamaño muestral
insuficiente
11. PRUEBA DE MCNEMAR
• Prueba estadística que sirve para comparar
proporciones en datos pareados.
• Prueba de significación estadística para probar la
hipótesis nula de inexistencia de cambios en la
proporción de sujetos que experimentan un
acontecimiento, cuando cada individuo es
evaluado dos veces (en condiciones diferentes) y
los datos están emparejados.
12. PRUEBA BINOMIAL
• En estadística, la prueba binomial es una prueba
exacta de la significación estadística de
desviaciones de una distribución teóricamente
prevista de observaciones en dos categorías.
• El uso más común de la prueba binomial es en el
caso donde la hipótesis nula es que dos
categorías son igualmente probables ocurrir.
13. TEST DE CORRELACIÓN
DE PEARSON
Se utiliza para estudiar la asociación entre un factor de estudio y una variable de
respuesta cuantitativa, mide el grado de asociación entre dos variables tomando
valores entre -1 y 1.
• Valores próximos a 1 indicarán fuerte asociación lineal positiva.
• Valores próxi-mos a -1 indicarán fuerte asociación lineal negativa.
• Valores próximos a 0 indicarán no asociación lineal, lo que no significa que no
pueda existir otro tipo de asociación.
Prueba en una hipótesis nula que las frecuencias relativas de la ocurrencia de
acontecimientos observados siguen una distribución de frecuencia especificada.
Los acontecimientos deben ser mutuamente exclusivos.
Es una prueba de la calidad de ajuste que establece sí o no una distribución de
frecuencia observada diferencia de una distribución teórica.
14. COEFICIENTE DE KAPPA
• El Kappa es un índice ómnibus de aceptación en los
estudios inter-observadores, indica el grado de
interrelación inter-observador.
• Permite cuantificar el nivel del acuerdo inter-
observador para disminuir la subjetividad del método
utilizado (test de movilidad) y si el grado de acuerdo
se debe al azar (a la suerte).
• El porcentaje de acuerdo acompañado del índice de
Kappa se utiliza para las variables cualitativas.
• Se habla del coeficiente de Kappa de Cohen para dos
terapeutas y de Fleiss para más de dos terapeutas.
15. COEFICIENTE DE KAPPA
• Este coeficiente está comprendido entre 0 y 1.
0, corresponde a una correlación que es idéntica a la
encontrada por casualidad y 1 una correlación
perfecta entre los exámenes.
• Los valores negativos indican habitualmente que
existe un desacuerdo en la manera de realizar el
método entre los terapeutas.
• Se calcula como la proporción de acuerdo, aparte del
que ya sería de esperar por azar, que ha sido
observado entre dos repeticiones del mismo
instrumento (por ejemplo, un juicio realizado por dos
observadores por separado).
16. COEFICIENTE DE KAPPA
• El coeficiente máximo de concordancia es de 1.00.
• Un valor de 0.00 indica ninguna concordancia.
• entre 0.00 y 0.20: ligera.
• entre 0.21 y 0.40: pasable
• entre 0.41 y 0.60: moderada
• entre 0.61 y 0.80: importante
• entre 0.81 y 1.00: perfecta.
• Un coeficiente de 0.4 puede considerarse como el límite de fiabilidad
aceptable de una prueba
• El kappa es”un corrector de la medida de acuerdo”.
• Como test de estadística, el kappa puede verificar que el acuerdo
exceda los niveles de suerte
17. COEFICIENTE DE CORRELACIÓN
INTRACLASE (ICC)
El coeficiente de correlación intraclase (ICC) para las variables
cuantitativas.
Utiliza el modelo 2 de Landis y Koch para la fiabilidad
interexaminador, y el modelo 3 para la fiabilidad
intraexaminadores (Landis RJ et Koch GG, 1977).
Este índice está también comprendido entre 0 y 1.
• El valor 1 corresponde a una reproductividad perfecta entre
las mediciones.
• El valor 0 indicaría que existe la misma variancia entre las
mediciones tomadas sobre un único paciente que las
mediciones tomadas entre diferentes pacientes.
18. TEST DE CORRELACIÓN
DE SPEARMAN
• Es una medición no paramétrica de correlación,
asume una función monotónica arbitraria para
describir la relación entre dos variables, sin hacer
ningunas asunciones sobre la distribución de
frecuencia de las variables.
• A la diferencia del coeficiente del test de Pearson, no
requiere la asunción que la relación entre las variables
es linear, ni que las variables sean medidas en
escalas del intervalo; puede ser utilizado para
variables medidas en nivel ordinal.
• Se utiliza si no se cumplen las condiciones de
aplicación del test de Pearson.
19. TEST DE CORRELACIÓN
DE SPEARMAN
• Es una variante del test de correlación de Pearson se aplica
cuando cada valor en sí no es tan importante como su
situación respecto a los restantes.
• Sus valores se interpretan exactamente igual que los del
coeficiente de correlación de Pearson.
• La correlación de Spearman mide el grado de asociación
entre dos variables cuantitativas que siguen una tendencia
siempre creciente o siempre decreciente.
• Es más general que el Coeficiente de correlación de
Pearson, la correlación de Spearman, en cambio se puede
calcular para relaciones exponenciales o logarítmicas entre
las variables.
20. TEST DE WILCOXON
• Contrasta la hipótesis nula de que la muestra procede
de una población en la que la magnitud de las
diferencias positivas y negativas entre los valores de
las variables es la misma.
• Prueba estadística no paramétrica para la
comparación de dos muestras (dos tratamientos).
• Las distribuciones de datos no necesitan seguir la
distribución normal.
• Es por tanto una prueba menos restrictiva que la
prueba t-Student.
21. PRUEBA DE SHAPIRO-
WILKS.
• Aunque esta prueba es menos conocida es la que
se recomienda para contrastar el ajuste de
nuestros datos a una distribución normal, sobre
todo cuando la muestra es pequeña (n<30).
• Mide el ajuste de la muestra a una recta, al
dibujarla en papel probabilístico normal.
22. PRUEBA “t” DE STUDENT-
FISHER
• Si se comparan dos grupos respecto a una variable
cuantitativa.
• En caso contrario, se utiliza una prueba no paramétrica
equivalente, como la U de Mann-Whitney.
• Se utiliza para la comparación de dos medias de poblaciones
independientes y normales.
• Prueba de significación estadística paramétrica para contrastar
la hipótesis nula respecto a la diferencia entre dos medias.
• Cuando las dos medias han sido calculadas a partir de dos
muestras completamente independientes de observaciones
(situación poco probable en la práctica, por lo menos desde un
punto de vista teórico), la prueba se describe como no
emparejada.
23. PRUEBA “t” DE STUDENT-
FISHER
• Cuando las dos medias han sido extraídas de observaciones
consecutivas en los mismos sujetos en dos situaciones
diferentes, se comparan los valores de cada individuo, y se
aplica una prueba emparejada.
• La prueba "t" de Student es un tipo de estadística deductiva.
• Se utiliza para determinar si hay una diferencia significativa
entre las medias de dos grupos.
• Con toda la estadística deductiva, asumimos que las variables
dependientes tienen una distribución normal.
• Especificamos el nivel de la probabilidad (nivel de la alfa, nivel
de la significación, p) que estamos dispuestos a aceptar antes
de que cerco datos (p < .05 es un valor común que se utiliza).
24. Notas sobre la prueba t de
Student
• Cuando la diferencia entre dos promedios de la población se está
investigando, se utiliza una prueba t. Es decir que se utiliza cuando
deseamos comparar dos medias (las cuentas se deben medir en una
escala de intervalo o de cociente).
• Utilizaríamos una prueba t si deseamos comparar el logro de la lectura de
hombres y de mujeres.
• Con una prueba t, tenemos una variable independiente y una dependiente.
• La variable independiente (género en este caso) puede solamente tener
dos niveles (varón y hembra).
• Si la independiente tuviera más de dos niveles, después utilizaríamos un
análisis de la variación unidireccional (ANOVA).
25. Notas sobre la prueba t de
Student
• La prueba estadística para t de Student es el valor t.
Conceptualmente, la t-valor representa el número de
unidades estándares que están separando las medias de
los dos grupos.
• Con una t-prueba, el investigador desea indicar con un
cierto grado de confianza que la diferencia obtenida entre
los medios de los grupos de la muestra sea demasiado
grande ser un acontecimiento chance.
• Si nuestra t-prueba produce una t-valor que da lugar a una
probabilidad de .01, decimos que la probabilidad de
conseguir la diferencia que encontramos sería por
casualidad 1 en 100 veces.
26. Asunciones subyacentes la
prueba de t
1. Las muestras se han dibujado aleatoriamente a partir de sus poblaciones
respectivas.
2. La población se debe distribuir normalmente.
3. Unimodal (un modo).
4. Simétrico (las mitades izquierdas y derechas son imágenes espejo), el mismo
número de gente arriba o abajo de la media.
5. Acampanado (altura máxima (moda) en el medio).
6. Media, moda, y mediana se localizan en el centro.
7. Asintótico (cuanto más lejos se aleja la curva de la media, más cercana será el eje
de X; pero la curva nunca debe tocar el eje de X).
8. El número de personas en las poblaciones debe tener la misma varianza (s2 = s2).Si
no es el caso se utiliza otro cálculo para el error estándar.
27. Existen 2 tipos de prueba t
de Student
Test t para diferencia par ( grupos dependientes, test t
correlacionado) : df= n (número de pares) -1
• Esto se refiere a la diferencia entre las cuentas medias de una sola
muestra de individuos que se determina antes del tratamiento y
después del tratamiento. Puede también comparar las cuentas medias
de muestras de individuos que se aparean de cierta manera (por
ejemplo los hermanos, madres, hijas, las personas que se emparejan
en términos de las características particulares).
Test t para muestras independientes
• Esto se refiere a la diferencia entre los promedios de dos poblaciones.
• Básicamente, el procedimiento compara los promedios de dos
muestras que fueron seleccionadas independientemente una de la
otra.
28. Error tipo I
• Rechaza una hipótesis nula que sea realmente
verdad. La probabilidad de hacer un error tipo I
depende del nivel alfa que se Eligio.
• Si se fijó la probabilidad alfa en p < 05, entonces
existe un 5% de posibilidades de hacer un error
de tipo I.
• Se puede reducir la posibilidad de hacer un error
tipo I fijando un nivel alfa más pequeño (p < .01).
El problema haciendo esto es que se aumenta la
posibilidad de un error tipo II.
29. Error tipo II
• Falla en rechazar una hipótesis nula que sea falsa.
• La idea básica para calcular una prueba de Student es
encontrar la diferencia entre las medias de los dos grupos y
dividirla por el error estándar (de la diferencia), es decir la
desviación de estándar de la distribución de las diferencias.
• Un intervalo de confianza para una prueba t con dos colas
es calculado multiplicando los valores críticos por el error
de estándar y agregando y restando eso de la diferencia de
las dos medias.
• El efecto tamaño se utiliza para calcular la diferencia
práctica. Si existen varios miles de pacientes, es muy fácil
encontrar una diferencia estadísticamente significativa.
30. Error tipo II
• Saber si esa diferencia es práctica o significativa es
otra pregunta.
• Con los estudios implicando diferencias de grupo, el
tamaño del efecto es la diferencia de las dos medias
dividido por la desviación estándar del grupo control (o
la desviación estándar media de ambos grupos si no
hay grupo de control).
• Generalmente, el tamaño del efecto es solamente
importante si existe una significación estadística.
• Un efecto tamaño de 2 se considera pequeño, 5 se
considera medio, y 8 se considera grande.
31. TEST DE MANN-WHITNEY
• La prueba de Mann-Whitney U es una de las pruebas
de significación más conocidas.
• Es apropiada cuando dos muestras independientes de
observaciones se miden en un nivel ordinal, es decir
que podemos decir cuál es la mayor de estas dos
observaciones.
• Determina si el grado de coincidencia entre dos
distribuciones observadas es inferior a la esperada por
suerte en la hipótesis nula que las dos muestras
vienen de una misma población.
32. TEST DE MANN-WHITNEY
• Prueba de significación estadística no paramétrica para
probar la hipótesis nula de que el parámetro de localización
(generalmente la mediana) es el mismo cuando se
comparan dos grupos independientes, cualquiera que sea el
tipo de distribución de la variable (distribución normal o de
otro tipo).
• Se usa cuando se quiere comparar dos poblaciones usando
muestras independientes, es decir; es una prueba alterna a
la prueba de t para comparar dos medias usando muestras
independientes.
• La hipótesis nula es que la mediana de las dos poblaciones
son iguales y la hipótesis alterna puede ser que la mediana
de la población 1 sea mayor (menor ó distinta) de la
mediana de la población 2.
33. PRUEBA DE KRUSKAL-
WALLIS
• Prueba de significación estadística no paramétrica
para contrastar la hipótesis nula cuando los
parámetros de localización de dos o más grupos son
iguales.
• La prueba de Kruskal-Wallis, es una alternativa a la
prueba F del análisis de varianza para diseños de
clasificación simple. En este caso se comparan varios
grupos pero usando la mediana de cada uno de ellos,
en lugar de las medias.
• La prueba de Kruskal-Wallis, es una alternativa a la
prueba F del análisis de varianza para diseños de
clasificación simple.
34. PRUEBA DE KRUSKAL-
WALLIS
• En este caso se comparan varios grupos pero
usando la mediana de cada uno de ellos, en lugar
de las medias.
• Ho: La mediana de las k poblaciones
consideradas son iguales y,
• Ha: Al menos una de las poblaciones tiene
mediana distinta a las otras.
35. PRUEBAS NO-
PARAMÉTRICAS
• El análisis de la variación asume que las
distribuciones subyacentes están distribuidas
normalmente y que las variaciones de las
distribuciones que son comparadas son similares.
• El coeficiente de correlación de Pearson asume
normalidad.
• Mientras que las técnicas paramétricas son robustas
(es decir, conservan a menudo un poder considerable
para detectar diferencias o semejanzas incluso
cuando se violan estas asunciones), algunas
distribuciones violan tanto que un alternativa no
paramétrica es más deseable para detectar una
diferencia o una semejanza.