SlideShare une entreprise Scribd logo
1  sur  37
Test Estadísticos
      Yerko Bravo
Los métodos estadísticos
        interferenciales no
           paramétricos
Son procedimientos matemáticos para testar la hipótesis
estadística que, al contrario de la estadística paramétrica,
no hacen ninguna asunción sobre las distribuciones de
frecuencia de las variables que son determinadas.


• El nivel de medición puede ser nominal u ordinal.
• La muestra no tiene que ser aleatoria.
• La distribución de la frecuencia no tiene que ser
  normal.
• Se puede usar con muestras más pequeñas.
Los métodos estadísticos
    deductivos paramétricos
Son los procedimientos matemáticos para testar la
hipótesis estadística que asumen que las distribuciones
de las variables determinadas tienen ciertas
características.


• El nivel de medición debe ser racional o intervalar.
• La muestra debe ser aleatoria.
• La distribución de la frecuencia debe ser normal.
• La variación de resultados entre cada frecuencia debe
  ser similar.
NOTA

• Cuando las pruebas estadísticas aplicables a las
  variables cuantitativas no cumplen las asunciones
  necesarias para su aplicación, deben utilizarse las
  pruebas correspondientes como si las variables
  de respuesta fuera una variable ordinal (pruebas
  no paramétricas).
Criterios de Selección
de Prueba Estadística
        Yerko Bravo
Variable de respuesta

                      Cualitativa nominal (2 Cualitativa nominal (>
Factor de estudio                                                           Cualitativa Ordinal         Cuantitativa
                           Categorias)           2 categorías)

 Cualitativo (dos
    grupos)

                       Z de comparación de
                                                                                                     t de Student-Fisher.
                          proporciones.
  Independientes                                  Chi al cuadrado.         U de Mann-Whitney.
                      Chi cuadrado. Prueba
                                                                                                     Prueba de Welch.
                        exacta de Fisher.

                      Prueba de McNemar.                                   Prueba de los signos.
                                                                                                  t de Student-Fisher
    Apareados           Prueba exacta de           Q de Cochran.            Prueba de los rangos para datos apareados.
                             Fisher.                                       signados de Wilcoxon.

Cualitativo (más de
   dos grupos)
                                                                            Prueba de Kruskal-
  Independientes         Chi al cuadrado.         Chi al cuadrado.                                 Análisis de la variancia.
                                                                                 Wallis.

                                                                                                   Análisis de la variancia
    Apareados             Q de Cochran.            Q de Cochran.           Prueba de Friedman.
                                                                                                        de dos vías.

                                                                              Correlación de
                                                                                                   Correlación de Pearson.
                                                                               Spearman.
   Cuantitativo        t de Student-Fisher.    Análisis de la variancia.
                                                                              Tau de Kendall.         Regresión lineal.
PRUEBA DE
    KOLMOGOROV-SMIRNOV
•   Prueba de significación estadística no paramétrica para contrastar la
    hipótesis nula cuando los parámetros de localización de ambos grupos son
    iguales.

•   Este contraste, que es válido únicamente para variables
    continuas, compara la función de distribución (probabilidad acumulada)
    teórica con la observada, y calcula un valor de discrepancia, representado
    habitualmente como D, que corresponde a la discrepancia máxima en valor
    absoluto entre la distribución observada y la distribución
    teórica, proporcionando asimismo un valor de probabilidad P, que
    corresponde, si estamos verificando un ajuste a la distribución normal, a la
    probabilidad de obtener una distribución que discrepe tanto como la
    observada si verdaderamente se hubiera obtenido una muestra
    aleatoria, de tamaño n, de una distribución normal.

•   Si esa probabilidad es grande no habrá por tanto razones estadísticas para
    suponer que nuestros datos no proceden de una distribución, mientras que
    si es muy pequeña, no será aceptable suponer ese modelo probabilístico
    para los datos.
PRUEBA DE F

• Prueba estadística que sirve para comparar
  varianzas.

• El estadístico F experimental es el estadístico de
  contraste en el ANOVA y otras pruebas de
  comparación de varianzas.
TEST DE CHI AL
             CUADRADO
• La prueba de Ji-cuadrado es cualquier prueba
  estadística de la hipótesis en cuál el test estadístico de
  la distribución del Ji-cuadrado si la hipótesis nula es
  verdad.

• Determina si existe asociación entre variables
  cualitativas.

• Si el p-valor asociado al estadístico de contraste es
  menor se rechazará la hipótesis nula.

• Se utiliza para analizar tablas de contingencia y
  comparación de proporciones en datos independientes
PRUEBA EXACTA DE
           FISHER (p.- 5%)
•   Permite valorar el efecto del azar.

•   Es una prueba estadística de significación usada en el análisis
    de los tamaños pequeños categóricos de muestra de datos.

•   La necesidad de la prueba de Fischer se presenta cuando
    tenemos datos que se dividan en dos categorías de dos
    maneras separadas.

•   Prueba de significación estadística utilizada para comparar
    proporciones en tablas de contingencia.

•   Es preferible a la prueba de x2 cuando el tamaño de la
    muestra es reducido (de menos de 30 efectivos).

•   Es la prueba estadística de elección cuando la prueba de Chi
    cuadrado no puede ser empleada por tamaño muestral
    insuficiente
PRUEBA DE MCNEMAR

• Prueba estadística que sirve para comparar
  proporciones en datos pareados.

• Prueba de significación estadística para probar la
  hipótesis nula de inexistencia de cambios en la
  proporción de sujetos que experimentan un
  acontecimiento, cuando cada individuo es
  evaluado dos veces (en condiciones diferentes) y
  los datos están emparejados.
PRUEBA BINOMIAL

• En estadística, la prueba binomial es una prueba
  exacta de la significación estadística de
  desviaciones de una distribución teóricamente
  prevista de observaciones en dos categorías.

• El uso más común de la prueba binomial es en el
  caso donde la hipótesis nula es que dos
  categorías son igualmente probables ocurrir.
TEST DE CORRELACIÓN
        DE PEARSON
Se utiliza para estudiar la asociación entre un factor de estudio y una variable de
respuesta cuantitativa, mide el grado de asociación entre dos variables tomando
valores entre -1 y 1.

•   Valores próximos a 1 indicarán fuerte asociación lineal positiva.

•   Valores próxi-mos a -1 indicarán fuerte asociación lineal negativa.

•   Valores próximos a 0 indicarán no asociación lineal, lo que no significa que no
    pueda existir otro tipo de asociación.

Prueba en una hipótesis nula que las frecuencias relativas de la ocurrencia de
acontecimientos observados siguen una distribución de frecuencia especificada.

Los acontecimientos deben ser mutuamente exclusivos.

Es una prueba de la calidad de ajuste que establece sí o no una distribución de
frecuencia observada diferencia de una distribución teórica.
COEFICIENTE DE KAPPA

• El Kappa es un índice ómnibus de aceptación en los
  estudios inter-observadores, indica el grado de
  interrelación inter-observador.
• Permite cuantificar el nivel del acuerdo inter-
  observador para disminuir la subjetividad del método
  utilizado (test de movilidad) y si el grado de acuerdo
  se debe al azar (a la suerte).
• El porcentaje de acuerdo acompañado del índice de
  Kappa se utiliza para las variables cualitativas.
• Se habla del coeficiente de Kappa de Cohen para dos
  terapeutas y de Fleiss para más de dos terapeutas.
COEFICIENTE DE KAPPA

• Este coeficiente está comprendido entre 0 y 1.
  0, corresponde a una correlación que es idéntica a la
  encontrada por casualidad y 1 una correlación
  perfecta entre los exámenes.
• Los valores negativos indican habitualmente que
  existe un desacuerdo en la manera de realizar el
  método entre los terapeutas.
• Se calcula como la proporción de acuerdo, aparte del
  que ya sería de esperar por azar, que ha sido
  observado entre dos repeticiones del mismo
  instrumento (por ejemplo, un juicio realizado por dos
  observadores por separado).
COEFICIENTE DE KAPPA

•   El coeficiente máximo de concordancia es de 1.00.

•   Un valor de 0.00 indica ninguna concordancia.
    •   entre 0.00 y 0.20: ligera.
    •   entre 0.21 y 0.40: pasable
    •   entre 0.41 y 0.60: moderada
    •   entre 0.61 y 0.80: importante
    •   entre 0.81 y 1.00: perfecta.

•   Un coeficiente de 0.4 puede considerarse como el límite de fiabilidad
    aceptable de una prueba

•   El kappa es”un corrector de la medida de acuerdo”.

•   Como test de estadística, el kappa puede verificar que el acuerdo
    exceda los niveles de suerte
COEFICIENTE DE CORRELACIÓN
         INTRACLASE (ICC)

El coeficiente de correlación intraclase (ICC) para las variables
cuantitativas.
Utiliza el modelo 2 de Landis y Koch para la fiabilidad
interexaminador, y el modelo 3 para la fiabilidad
intraexaminadores (Landis RJ et Koch GG, 1977).
Este índice está también comprendido entre 0 y 1.
• El valor 1 corresponde a una reproductividad perfecta entre
  las mediciones.
• El valor 0 indicaría que existe la misma variancia entre las
  mediciones tomadas sobre un único paciente que las
  mediciones tomadas entre diferentes pacientes.
TEST DE CORRELACIÓN
      DE SPEARMAN
• Es una medición no paramétrica de correlación,
  asume una función monotónica arbitraria para
  describir la relación entre dos variables, sin hacer
  ningunas asunciones sobre la distribución de
  frecuencia de las variables.
• A la diferencia del coeficiente del test de Pearson, no
  requiere la asunción que la relación entre las variables
  es linear, ni que las variables sean medidas en
  escalas del intervalo; puede ser utilizado para
  variables medidas en nivel ordinal.
• Se utiliza si no se cumplen las condiciones de
  aplicación del test de Pearson.
TEST DE CORRELACIÓN
       DE SPEARMAN
• Es una variante del test de correlación de Pearson se aplica
  cuando cada valor en sí no es tan importante como su
  situación respecto a los restantes.

• Sus valores se interpretan exactamente igual que los del
  coeficiente de correlación de Pearson.

• La correlación de Spearman mide el grado de asociación
  entre dos variables cuantitativas que siguen una tendencia
  siempre creciente o siempre decreciente.

• Es más general que el Coeficiente de correlación de
  Pearson, la correlación de Spearman, en cambio se puede
  calcular para relaciones exponenciales o logarítmicas entre
  las variables.
TEST DE WILCOXON

• Contrasta la hipótesis nula de que la muestra procede
  de una población en la que la magnitud de las
  diferencias positivas y negativas entre los valores de
  las variables es la misma.
• Prueba estadística no paramétrica para la
  comparación de dos muestras (dos tratamientos).
• Las distribuciones de datos no necesitan seguir la
  distribución normal.
• Es por tanto una prueba menos restrictiva que la
  prueba t-Student.
PRUEBA DE SHAPIRO-
         WILKS.
• Aunque esta prueba es menos conocida es la que
  se recomienda para contrastar el ajuste de
  nuestros datos a una distribución normal, sobre
  todo cuando la muestra es pequeña (n<30).

• Mide el ajuste de la muestra a una recta, al
  dibujarla en papel probabilístico normal.
PRUEBA “t” DE STUDENT-
           FISHER
•   Si se comparan dos grupos respecto a una variable
    cuantitativa.

•   En caso contrario, se utiliza una prueba no paramétrica
    equivalente, como la U de Mann-Whitney.

•   Se utiliza para la comparación de dos medias de poblaciones
    independientes y normales.

•   Prueba de significación estadística paramétrica para contrastar
    la hipótesis nula respecto a la diferencia entre dos medias.

•   Cuando las dos medias han sido calculadas a partir de dos
    muestras completamente independientes de observaciones
    (situación poco probable en la práctica, por lo menos desde un
    punto de vista teórico), la prueba se describe como no
    emparejada.
PRUEBA “t” DE STUDENT-
           FISHER
•   Cuando las dos medias han sido extraídas de observaciones
    consecutivas en los mismos sujetos en dos situaciones
    diferentes, se comparan los valores de cada individuo, y se
    aplica una prueba emparejada.

•   La prueba "t" de Student es un tipo de estadística deductiva.

•   Se utiliza para determinar si hay una diferencia significativa
    entre las medias de dos grupos.

•   Con toda la estadística deductiva, asumimos que las variables
    dependientes tienen una distribución normal.

•   Especificamos el nivel de la probabilidad (nivel de la alfa, nivel
    de la significación, p) que estamos dispuestos a aceptar antes
    de que cerco datos (p < .05 es un valor común que se utiliza).
Notas sobre la prueba t de
            Student
•   Cuando la diferencia entre dos promedios de la población se está
    investigando, se utiliza una prueba t. Es decir que se utiliza cuando
    deseamos comparar dos medias (las cuentas se deben medir en una
    escala de intervalo o de cociente).

•   Utilizaríamos una prueba t si deseamos comparar el logro de la lectura de
    hombres y de mujeres.

•   Con una prueba t, tenemos una variable independiente y una dependiente.

•   La variable independiente (género en este caso) puede solamente tener
    dos niveles (varón y hembra).

•   Si la independiente tuviera más de dos niveles, después utilizaríamos un
    análisis de la variación unidireccional (ANOVA).
Notas sobre la prueba t de
           Student
• La prueba estadística para t de Student es el valor t.
  Conceptualmente, la t-valor representa el número de
  unidades estándares que están separando las medias de
  los dos grupos.

• Con una t-prueba, el investigador desea indicar con un
  cierto grado de confianza que la diferencia obtenida entre
  los medios de los grupos de la muestra sea demasiado
  grande ser un acontecimiento chance.

• Si nuestra t-prueba produce una t-valor que da lugar a una
  probabilidad de .01, decimos que la probabilidad de
  conseguir la diferencia que encontramos sería por
  casualidad 1 en 100 veces.
Asunciones subyacentes la
            prueba de t
1.   Las muestras se han dibujado aleatoriamente a partir de sus poblaciones
     respectivas.

2.   La población se debe distribuir normalmente.

3.   Unimodal (un modo).

4.   Simétrico (las mitades izquierdas y derechas son imágenes espejo), el mismo
     número de gente arriba o abajo de la media.

5.   Acampanado (altura máxima (moda) en el medio).

6.   Media, moda, y mediana se localizan en el centro.

7.   Asintótico (cuanto más lejos se aleja la curva de la media, más cercana será el eje
     de X; pero la curva nunca debe tocar el eje de X).

8.   El número de personas en las poblaciones debe tener la misma varianza (s2 = s2).Si
     no es el caso se utiliza otro cálculo para el error estándar.
Existen 2 tipos de prueba t
            de Student
Test t para diferencia par ( grupos dependientes, test t
correlacionado) : df= n (número de pares) -1

•   Esto se refiere a la diferencia entre las cuentas medias de una sola
    muestra de individuos que se determina antes del tratamiento y
    después del tratamiento. Puede también comparar las cuentas medias
    de muestras de individuos que se aparean de cierta manera (por
    ejemplo los hermanos, madres, hijas, las personas que se emparejan
    en términos de las características particulares).

Test t para muestras independientes

•   Esto se refiere a la diferencia entre los promedios de dos poblaciones.

•   Básicamente, el procedimiento compara los promedios de dos
    muestras que fueron seleccionadas independientemente una de la
    otra.
Error tipo I

• Rechaza una hipótesis nula que sea realmente
  verdad. La probabilidad de hacer un error tipo I
  depende del nivel alfa que se Eligio.
• Si se fijó la probabilidad alfa en p < 05, entonces
  existe un 5% de posibilidades de hacer un error
  de tipo I.
• Se puede reducir la posibilidad de hacer un error
  tipo I fijando un nivel alfa más pequeño (p < .01).
  El problema haciendo esto es que se aumenta la
  posibilidad de un error tipo II.
Error tipo II

• Falla en rechazar una hipótesis nula que sea falsa.
• La idea básica para calcular una prueba de Student es
  encontrar la diferencia entre las medias de los dos grupos y
  dividirla por el error estándar (de la diferencia), es decir la
  desviación de estándar de la distribución de las diferencias.
• Un intervalo de confianza para una prueba t con dos colas
  es calculado multiplicando los valores críticos por el error
  de estándar y agregando y restando eso de la diferencia de
  las dos medias.
• El efecto tamaño se utiliza para calcular la diferencia
  práctica. Si existen varios miles de pacientes, es muy fácil
  encontrar una diferencia estadísticamente significativa.
Error tipo II

• Saber si esa diferencia es práctica o significativa es
  otra pregunta.
• Con los estudios implicando diferencias de grupo, el
  tamaño del efecto es la diferencia de las dos medias
  dividido por la desviación estándar del grupo control (o
  la desviación estándar media de ambos grupos si no
  hay grupo de control).
• Generalmente, el tamaño del efecto es solamente
  importante si existe una significación estadística.
• Un efecto tamaño de 2 se considera pequeño, 5 se
  considera medio, y 8 se considera grande.
TEST DE MANN-WHITNEY

• La prueba de Mann-Whitney U es una de las pruebas
  de significación más conocidas.
• Es apropiada cuando dos muestras independientes de
  observaciones se miden en un nivel ordinal, es decir
  que podemos decir cuál es la mayor de estas dos
  observaciones.
• Determina si el grado de coincidencia entre dos
  distribuciones observadas es inferior a la esperada por
  suerte en la hipótesis nula que las dos muestras
  vienen de una misma población.
TEST DE MANN-WHITNEY

• Prueba de significación estadística no paramétrica para
  probar la hipótesis nula de que el parámetro de localización
  (generalmente la mediana) es el mismo cuando se
  comparan dos grupos independientes, cualquiera que sea el
  tipo de distribución de la variable (distribución normal o de
  otro tipo).
• Se usa cuando se quiere comparar dos poblaciones usando
  muestras independientes, es decir; es una prueba alterna a
  la prueba de t para comparar dos medias usando muestras
  independientes.
• La hipótesis nula es que la mediana de las dos poblaciones
  son iguales y la hipótesis alterna puede ser que la mediana
  de la población 1 sea mayor (menor ó distinta) de la
  mediana de la población 2.
PRUEBA DE KRUSKAL-
         WALLIS
• Prueba de significación estadística no paramétrica
  para contrastar la hipótesis nula cuando los
  parámetros de localización de dos o más grupos son
  iguales.
• La prueba de Kruskal-Wallis, es una alternativa a la
  prueba F del análisis de varianza para diseños de
  clasificación simple. En este caso se comparan varios
  grupos pero usando la mediana de cada uno de ellos,
  en lugar de las medias.
• La prueba de Kruskal-Wallis, es una alternativa a la
  prueba F del análisis de varianza para diseños de
  clasificación simple.
PRUEBA DE KRUSKAL-
         WALLIS
• En este caso se comparan varios grupos pero
  usando la mediana de cada uno de ellos, en lugar
  de las medias.

• Ho: La mediana de las k poblaciones
  consideradas son iguales y,

• Ha: Al menos una de las poblaciones tiene
  mediana distinta a las otras.
PRUEBAS NO-
           PARAMÉTRICAS
• El análisis de la variación asume que las
  distribuciones subyacentes están distribuidas
  normalmente y que las variaciones de las
  distribuciones que son comparadas son similares.
• El coeficiente de correlación de Pearson asume
  normalidad.
• Mientras que las técnicas paramétricas son robustas
  (es decir, conservan a menudo un poder considerable
  para detectar diferencias o semejanzas incluso
  cuando se violan estas asunciones), algunas
  distribuciones violan tanto que un alternativa no
  paramétrica es más deseable para detectar una
  diferencia o una semejanza.
Pruebas no paramétricas
para muestras relacionadas
Gracias…

Contenu connexe

Tendances

Pruebas paramétricaspresentacion.pptx
Pruebas paramétricaspresentacion.pptxPruebas paramétricaspresentacion.pptx
Pruebas paramétricaspresentacion.pptx
Yulianny Luque
 
Chi Cuadrado
Chi CuadradoChi Cuadrado
Chi Cuadrado
aramirez
 
14 prueba chi cuadrado
14 prueba chi cuadrado14 prueba chi cuadrado
14 prueba chi cuadrado
Yerko Bravo
 
Prueba Chi-Cuadrado
Prueba Chi-CuadradoPrueba Chi-Cuadrado
Prueba Chi-Cuadrado
Julio Rivera
 
T de student para dos muestras independientes
T de student para dos muestras independientesT de student para dos muestras independientes
T de student para dos muestras independientes
Joseph AB
 
Muestreo aleatorio simple
Muestreo aleatorio simpleMuestreo aleatorio simple
Muestreo aleatorio simple
milit
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
Carol Ramos
 

Tendances (20)

Tamaño de muestra para datos cualitativos y cuantitativos
Tamaño de muestra para datos cualitativos y cuantitativosTamaño de muestra para datos cualitativos y cuantitativos
Tamaño de muestra para datos cualitativos y cuantitativos
 
Análisis de la varianza
Análisis de la varianzaAnálisis de la varianza
Análisis de la varianza
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
 
Pruebas estadísticas en medicina
Pruebas estadísticas en medicinaPruebas estadísticas en medicina
Pruebas estadísticas en medicina
 
Pruebas paramétricaspresentacion.pptx
Pruebas paramétricaspresentacion.pptxPruebas paramétricaspresentacion.pptx
Pruebas paramétricaspresentacion.pptx
 
Tipos de muestreos
Tipos de muestreosTipos de muestreos
Tipos de muestreos
 
Intervalos de confianza 2018
Intervalos de confianza 2018Intervalos de confianza 2018
Intervalos de confianza 2018
 
Pruebas no parametricas de wilcoxon 2007.
Pruebas no parametricas de wilcoxon 2007.Pruebas no parametricas de wilcoxon 2007.
Pruebas no parametricas de wilcoxon 2007.
 
Chi Cuadrado
Chi CuadradoChi Cuadrado
Chi Cuadrado
 
14 prueba chi cuadrado
14 prueba chi cuadrado14 prueba chi cuadrado
14 prueba chi cuadrado
 
Prueba Chi-Cuadrado
Prueba Chi-CuadradoPrueba Chi-Cuadrado
Prueba Chi-Cuadrado
 
La significancia en las pruebas estadísticas ¿qué son y para qué sirven?
La significancia en las pruebas estadísticas ¿qué son y para qué sirven?La significancia en las pruebas estadísticas ¿qué son y para qué sirven?
La significancia en las pruebas estadísticas ¿qué son y para qué sirven?
 
Analisis parametricos-y-no-parametricos
Analisis parametricos-y-no-parametricosAnalisis parametricos-y-no-parametricos
Analisis parametricos-y-no-parametricos
 
T de student para dos muestras independientes
T de student para dos muestras independientesT de student para dos muestras independientes
T de student para dos muestras independientes
 
Como elegir una prueba estadistica
Como elegir una prueba estadisticaComo elegir una prueba estadistica
Como elegir una prueba estadistica
 
Muestreo aleatorio simple
Muestreo aleatorio simpleMuestreo aleatorio simple
Muestreo aleatorio simple
 
Tipos de variables
Tipos de variablesTipos de variables
Tipos de variables
 
Diseños analiticos
Diseños analiticosDiseños analiticos
Diseños analiticos
 
Prueba de hipótesis
Prueba de hipótesisPrueba de hipótesis
Prueba de hipótesis
 
Pruebas No Parametricas
Pruebas No ParametricasPruebas No Parametricas
Pruebas No Parametricas
 

En vedette (6)

T student2
T student2T student2
T student2
 
Prueba t student
Prueba t studentPrueba t student
Prueba t student
 
La prueba o estadístico chi cuadrado se utiliza para comprobar si la diferenc...
La prueba o estadístico chi cuadrado se utiliza para comprobar si la diferenc...La prueba o estadístico chi cuadrado se utiliza para comprobar si la diferenc...
La prueba o estadístico chi cuadrado se utiliza para comprobar si la diferenc...
 
T student 5 ejemplos beeto
T student 5 ejemplos beetoT student 5 ejemplos beeto
T student 5 ejemplos beeto
 
Tipos de variables, Criterios de exclucion, eliminacion e inclusion
Tipos de variables, Criterios de exclucion, eliminacion e inclusionTipos de variables, Criterios de exclucion, eliminacion e inclusion
Tipos de variables, Criterios de exclucion, eliminacion e inclusion
 
DISTRIBUCION T DE STUDENT
DISTRIBUCION T DE STUDENTDISTRIBUCION T DE STUDENT
DISTRIBUCION T DE STUDENT
 

Similaire à 15 test estadísticos

analisis-parametricos-y-no-parametricos.ppt
analisis-parametricos-y-no-parametricos.pptanalisis-parametricos-y-no-parametricos.ppt
analisis-parametricos-y-no-parametricos.ppt
eduyagkug
 
Unidad 8 Eleccion de la prueba de significacion estadistica
Unidad 8 Eleccion de la prueba de significacion estadisticaUnidad 8 Eleccion de la prueba de significacion estadistica
Unidad 8 Eleccion de la prueba de significacion estadistica
Ricardo Ruiz de Adana
 
Analisis parametricos-y-no-parametricos-120628172353-phpapp02
Analisis parametricos-y-no-parametricos-120628172353-phpapp02Analisis parametricos-y-no-parametricos-120628172353-phpapp02
Analisis parametricos-y-no-parametricos-120628172353-phpapp02
Inti Sol
 
Analisis parametricos-y-no-parametricos-120706120850-phpapp02
Analisis parametricos-y-no-parametricos-120706120850-phpapp02Analisis parametricos-y-no-parametricos-120706120850-phpapp02
Analisis parametricos-y-no-parametricos-120706120850-phpapp02
Inti Sol
 
Pruebas no paramétricas en SPSS
Pruebas no paramétricas en SPSSPruebas no paramétricas en SPSS
Pruebas no paramétricas en SPSS
Jairo Acosta Solano
 

Similaire à 15 test estadísticos (20)

Analisis parametricos-y-no-parametricos
Analisis parametricos-y-no-parametricosAnalisis parametricos-y-no-parametricos
Analisis parametricos-y-no-parametricos
 
analisis-parametricos-y-no-parametricos.ppt
analisis-parametricos-y-no-parametricos.pptanalisis-parametricos-y-no-parametricos.ppt
analisis-parametricos-y-no-parametricos.ppt
 
analisis de datos cuantitativos segunda parte (spss).ppt1x
analisis de datos cuantitativos segunda parte (spss).ppt1xanalisis de datos cuantitativos segunda parte (spss).ppt1x
analisis de datos cuantitativos segunda parte (spss).ppt1x
 
Cuadro comparativo Prof. Cruz Guerra
Cuadro comparativo Prof. Cruz Guerra Cuadro comparativo Prof. Cruz Guerra
Cuadro comparativo Prof. Cruz Guerra
 
Unidad 8 Eleccion de la prueba de significacion estadistica
Unidad 8 Eleccion de la prueba de significacion estadisticaUnidad 8 Eleccion de la prueba de significacion estadistica
Unidad 8 Eleccion de la prueba de significacion estadistica
 
Presentación coeficientes Pearson y Spearman
Presentación coeficientes Pearson y Spearman Presentación coeficientes Pearson y Spearman
Presentación coeficientes Pearson y Spearman
 
Presentacion coeficientes de correlacion de Pearson y Spearman
Presentacion coeficientes de correlacion de Pearson y SpearmanPresentacion coeficientes de correlacion de Pearson y Spearman
Presentacion coeficientes de correlacion de Pearson y Spearman
 
Análisis estadístico inferencial
Análisis estadístico inferencialAnálisis estadístico inferencial
Análisis estadístico inferencial
 
Analisis parametricos-y-no-parametricos-120628172353-phpapp02
Analisis parametricos-y-no-parametricos-120628172353-phpapp02Analisis parametricos-y-no-parametricos-120628172353-phpapp02
Analisis parametricos-y-no-parametricos-120628172353-phpapp02
 
Analisis parametricos-y-no-parametricos-120706120850-phpapp02
Analisis parametricos-y-no-parametricos-120706120850-phpapp02Analisis parametricos-y-no-parametricos-120706120850-phpapp02
Analisis parametricos-y-no-parametricos-120706120850-phpapp02
 
El chi cuadrado
El chi cuadradoEl chi cuadrado
El chi cuadrado
 
Metodo parametrico y no parametrico
Metodo parametrico y no parametricoMetodo parametrico y no parametrico
Metodo parametrico y no parametrico
 
Pruebas no paramétricas en SPSS
Pruebas no paramétricas en SPSSPruebas no paramétricas en SPSS
Pruebas no paramétricas en SPSS
 
SPSS pruebas no parametricas
SPSS pruebas no parametricasSPSS pruebas no parametricas
SPSS pruebas no parametricas
 
Spearman y Pearson
Spearman y PearsonSpearman y Pearson
Spearman y Pearson
 
Coeficienrte de correlacion
Coeficienrte de correlacionCoeficienrte de correlacion
Coeficienrte de correlacion
 
Estadística II (II Bimestre)
Estadística II (II Bimestre)Estadística II (II Bimestre)
Estadística II (II Bimestre)
 
Validez y confiablidad en los instrumentos de medición 1
Validez y confiablidad en los instrumentos de medición 1Validez y confiablidad en los instrumentos de medición 1
Validez y confiablidad en los instrumentos de medición 1
 
Correlacion
CorrelacionCorrelacion
Correlacion
 
Correlacion
CorrelacionCorrelacion
Correlacion
 

Plus de Yerko Bravo

Plus de Yerko Bravo (20)

Control de Calidad en el Laboratorio.ppt
Control de Calidad en el Laboratorio.pptControl de Calidad en el Laboratorio.ppt
Control de Calidad en el Laboratorio.ppt
 
Diplomado U Andes Gestión de Calidad.pdf
Diplomado U Andes Gestión de Calidad.pdfDiplomado U Andes Gestión de Calidad.pdf
Diplomado U Andes Gestión de Calidad.pdf
 
3750.pdf
3750.pdf3750.pdf
3750.pdf
 
ep-15-a3-veracidad-pdf_compress.pdf
ep-15-a3-veracidad-pdf_compress.pdfep-15-a3-veracidad-pdf_compress.pdf
ep-15-a3-veracidad-pdf_compress.pdf
 
PEEC.pdf
PEEC.pdfPEEC.pdf
PEEC.pdf
 
Diagrama de Ishikawa.pptx
Diagrama de Ishikawa.pptxDiagrama de Ishikawa.pptx
Diagrama de Ishikawa.pptx
 
SCRUM
SCRUMSCRUM
SCRUM
 
Histogramas de frecuencia.pdf
Histogramas de frecuencia.pdfHistogramas de frecuencia.pdf
Histogramas de frecuencia.pdf
 
Bioestadísticas
BioestadísticasBioestadísticas
Bioestadísticas
 
Ambito Nº 8 INS Seguridad de las Instalaciones
Ambito Nº 8 INS Seguridad de las InstalacionesAmbito Nº 8 INS Seguridad de las Instalaciones
Ambito Nº 8 INS Seguridad de las Instalaciones
 
Normas ISO (16/9)
Normas ISO (16/9)Normas ISO (16/9)
Normas ISO (16/9)
 
Ambito 6 REG Gestión de Registros
Ambito 6 REG Gestión de RegistrosAmbito 6 REG Gestión de Registros
Ambito 6 REG Gestión de Registros
 
Ambito 5 RH Recursos Humanos
Ambito 5 RH Recursos HumanosAmbito 5 RH Recursos Humanos
Ambito 5 RH Recursos Humanos
 
Ambito 4 aoc acceso oportunidad y continuidad
Ambito 4 aoc acceso oportunidad y continuidadAmbito 4 aoc acceso oportunidad y continuidad
Ambito 4 aoc acceso oportunidad y continuidad
 
Ambito 3 GP Gestión de Procesos
Ambito 3 GP Gestión de ProcesosAmbito 3 GP Gestión de Procesos
Ambito 3 GP Gestión de Procesos
 
Ambito 2 CAL Gestión de Calidad
Ambito 2 CAL Gestión de CalidadAmbito 2 CAL Gestión de Calidad
Ambito 2 CAL Gestión de Calidad
 
Ambito 1 Dignidad del Paciente
Ambito 1 Dignidad del PacienteAmbito 1 Dignidad del Paciente
Ambito 1 Dignidad del Paciente
 
Citas Automaticas y Gestionadas con Mendeley y Word
Citas Automaticas y Gestionadas con Mendeley y WordCitas Automaticas y Gestionadas con Mendeley y Word
Citas Automaticas y Gestionadas con Mendeley y Word
 
Manual de Estandar de Calidad Chileno
Manual de Estandar de Calidad ChilenoManual de Estandar de Calidad Chileno
Manual de Estandar de Calidad Chileno
 
Normas Especificas de Laboratorio
Normas Especificas de LaboratorioNormas Especificas de Laboratorio
Normas Especificas de Laboratorio
 

15 test estadísticos

  • 1. Test Estadísticos Yerko Bravo
  • 2. Los métodos estadísticos interferenciales no paramétricos Son procedimientos matemáticos para testar la hipótesis estadística que, al contrario de la estadística paramétrica, no hacen ninguna asunción sobre las distribuciones de frecuencia de las variables que son determinadas. • El nivel de medición puede ser nominal u ordinal. • La muestra no tiene que ser aleatoria. • La distribución de la frecuencia no tiene que ser normal. • Se puede usar con muestras más pequeñas.
  • 3. Los métodos estadísticos deductivos paramétricos Son los procedimientos matemáticos para testar la hipótesis estadística que asumen que las distribuciones de las variables determinadas tienen ciertas características. • El nivel de medición debe ser racional o intervalar. • La muestra debe ser aleatoria. • La distribución de la frecuencia debe ser normal. • La variación de resultados entre cada frecuencia debe ser similar.
  • 4. NOTA • Cuando las pruebas estadísticas aplicables a las variables cuantitativas no cumplen las asunciones necesarias para su aplicación, deben utilizarse las pruebas correspondientes como si las variables de respuesta fuera una variable ordinal (pruebas no paramétricas).
  • 5. Criterios de Selección de Prueba Estadística Yerko Bravo
  • 6. Variable de respuesta Cualitativa nominal (2 Cualitativa nominal (> Factor de estudio Cualitativa Ordinal Cuantitativa Categorias) 2 categorías) Cualitativo (dos grupos) Z de comparación de t de Student-Fisher. proporciones. Independientes Chi al cuadrado. U de Mann-Whitney. Chi cuadrado. Prueba Prueba de Welch. exacta de Fisher. Prueba de McNemar. Prueba de los signos. t de Student-Fisher Apareados Prueba exacta de Q de Cochran. Prueba de los rangos para datos apareados. Fisher. signados de Wilcoxon. Cualitativo (más de dos grupos) Prueba de Kruskal- Independientes Chi al cuadrado. Chi al cuadrado. Análisis de la variancia. Wallis. Análisis de la variancia Apareados Q de Cochran. Q de Cochran. Prueba de Friedman. de dos vías. Correlación de Correlación de Pearson. Spearman. Cuantitativo t de Student-Fisher. Análisis de la variancia. Tau de Kendall. Regresión lineal.
  • 7. PRUEBA DE KOLMOGOROV-SMIRNOV • Prueba de significación estadística no paramétrica para contrastar la hipótesis nula cuando los parámetros de localización de ambos grupos son iguales. • Este contraste, que es válido únicamente para variables continuas, compara la función de distribución (probabilidad acumulada) teórica con la observada, y calcula un valor de discrepancia, representado habitualmente como D, que corresponde a la discrepancia máxima en valor absoluto entre la distribución observada y la distribución teórica, proporcionando asimismo un valor de probabilidad P, que corresponde, si estamos verificando un ajuste a la distribución normal, a la probabilidad de obtener una distribución que discrepe tanto como la observada si verdaderamente se hubiera obtenido una muestra aleatoria, de tamaño n, de una distribución normal. • Si esa probabilidad es grande no habrá por tanto razones estadísticas para suponer que nuestros datos no proceden de una distribución, mientras que si es muy pequeña, no será aceptable suponer ese modelo probabilístico para los datos.
  • 8. PRUEBA DE F • Prueba estadística que sirve para comparar varianzas. • El estadístico F experimental es el estadístico de contraste en el ANOVA y otras pruebas de comparación de varianzas.
  • 9. TEST DE CHI AL CUADRADO • La prueba de Ji-cuadrado es cualquier prueba estadística de la hipótesis en cuál el test estadístico de la distribución del Ji-cuadrado si la hipótesis nula es verdad. • Determina si existe asociación entre variables cualitativas. • Si el p-valor asociado al estadístico de contraste es menor se rechazará la hipótesis nula. • Se utiliza para analizar tablas de contingencia y comparación de proporciones en datos independientes
  • 10. PRUEBA EXACTA DE FISHER (p.- 5%) • Permite valorar el efecto del azar. • Es una prueba estadística de significación usada en el análisis de los tamaños pequeños categóricos de muestra de datos. • La necesidad de la prueba de Fischer se presenta cuando tenemos datos que se dividan en dos categorías de dos maneras separadas. • Prueba de significación estadística utilizada para comparar proporciones en tablas de contingencia. • Es preferible a la prueba de x2 cuando el tamaño de la muestra es reducido (de menos de 30 efectivos). • Es la prueba estadística de elección cuando la prueba de Chi cuadrado no puede ser empleada por tamaño muestral insuficiente
  • 11. PRUEBA DE MCNEMAR • Prueba estadística que sirve para comparar proporciones en datos pareados. • Prueba de significación estadística para probar la hipótesis nula de inexistencia de cambios en la proporción de sujetos que experimentan un acontecimiento, cuando cada individuo es evaluado dos veces (en condiciones diferentes) y los datos están emparejados.
  • 12. PRUEBA BINOMIAL • En estadística, la prueba binomial es una prueba exacta de la significación estadística de desviaciones de una distribución teóricamente prevista de observaciones en dos categorías. • El uso más común de la prueba binomial es en el caso donde la hipótesis nula es que dos categorías son igualmente probables ocurrir.
  • 13. TEST DE CORRELACIÓN DE PEARSON Se utiliza para estudiar la asociación entre un factor de estudio y una variable de respuesta cuantitativa, mide el grado de asociación entre dos variables tomando valores entre -1 y 1. • Valores próximos a 1 indicarán fuerte asociación lineal positiva. • Valores próxi-mos a -1 indicarán fuerte asociación lineal negativa. • Valores próximos a 0 indicarán no asociación lineal, lo que no significa que no pueda existir otro tipo de asociación. Prueba en una hipótesis nula que las frecuencias relativas de la ocurrencia de acontecimientos observados siguen una distribución de frecuencia especificada. Los acontecimientos deben ser mutuamente exclusivos. Es una prueba de la calidad de ajuste que establece sí o no una distribución de frecuencia observada diferencia de una distribución teórica.
  • 14. COEFICIENTE DE KAPPA • El Kappa es un índice ómnibus de aceptación en los estudios inter-observadores, indica el grado de interrelación inter-observador. • Permite cuantificar el nivel del acuerdo inter- observador para disminuir la subjetividad del método utilizado (test de movilidad) y si el grado de acuerdo se debe al azar (a la suerte). • El porcentaje de acuerdo acompañado del índice de Kappa se utiliza para las variables cualitativas. • Se habla del coeficiente de Kappa de Cohen para dos terapeutas y de Fleiss para más de dos terapeutas.
  • 15. COEFICIENTE DE KAPPA • Este coeficiente está comprendido entre 0 y 1. 0, corresponde a una correlación que es idéntica a la encontrada por casualidad y 1 una correlación perfecta entre los exámenes. • Los valores negativos indican habitualmente que existe un desacuerdo en la manera de realizar el método entre los terapeutas. • Se calcula como la proporción de acuerdo, aparte del que ya sería de esperar por azar, que ha sido observado entre dos repeticiones del mismo instrumento (por ejemplo, un juicio realizado por dos observadores por separado).
  • 16. COEFICIENTE DE KAPPA • El coeficiente máximo de concordancia es de 1.00. • Un valor de 0.00 indica ninguna concordancia. • entre 0.00 y 0.20: ligera. • entre 0.21 y 0.40: pasable • entre 0.41 y 0.60: moderada • entre 0.61 y 0.80: importante • entre 0.81 y 1.00: perfecta. • Un coeficiente de 0.4 puede considerarse como el límite de fiabilidad aceptable de una prueba • El kappa es”un corrector de la medida de acuerdo”. • Como test de estadística, el kappa puede verificar que el acuerdo exceda los niveles de suerte
  • 17. COEFICIENTE DE CORRELACIÓN INTRACLASE (ICC) El coeficiente de correlación intraclase (ICC) para las variables cuantitativas. Utiliza el modelo 2 de Landis y Koch para la fiabilidad interexaminador, y el modelo 3 para la fiabilidad intraexaminadores (Landis RJ et Koch GG, 1977). Este índice está también comprendido entre 0 y 1. • El valor 1 corresponde a una reproductividad perfecta entre las mediciones. • El valor 0 indicaría que existe la misma variancia entre las mediciones tomadas sobre un único paciente que las mediciones tomadas entre diferentes pacientes.
  • 18. TEST DE CORRELACIÓN DE SPEARMAN • Es una medición no paramétrica de correlación, asume una función monotónica arbitraria para describir la relación entre dos variables, sin hacer ningunas asunciones sobre la distribución de frecuencia de las variables. • A la diferencia del coeficiente del test de Pearson, no requiere la asunción que la relación entre las variables es linear, ni que las variables sean medidas en escalas del intervalo; puede ser utilizado para variables medidas en nivel ordinal. • Se utiliza si no se cumplen las condiciones de aplicación del test de Pearson.
  • 19. TEST DE CORRELACIÓN DE SPEARMAN • Es una variante del test de correlación de Pearson se aplica cuando cada valor en sí no es tan importante como su situación respecto a los restantes. • Sus valores se interpretan exactamente igual que los del coeficiente de correlación de Pearson. • La correlación de Spearman mide el grado de asociación entre dos variables cuantitativas que siguen una tendencia siempre creciente o siempre decreciente. • Es más general que el Coeficiente de correlación de Pearson, la correlación de Spearman, en cambio se puede calcular para relaciones exponenciales o logarítmicas entre las variables.
  • 20. TEST DE WILCOXON • Contrasta la hipótesis nula de que la muestra procede de una población en la que la magnitud de las diferencias positivas y negativas entre los valores de las variables es la misma. • Prueba estadística no paramétrica para la comparación de dos muestras (dos tratamientos). • Las distribuciones de datos no necesitan seguir la distribución normal. • Es por tanto una prueba menos restrictiva que la prueba t-Student.
  • 21. PRUEBA DE SHAPIRO- WILKS. • Aunque esta prueba es menos conocida es la que se recomienda para contrastar el ajuste de nuestros datos a una distribución normal, sobre todo cuando la muestra es pequeña (n<30). • Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilístico normal.
  • 22. PRUEBA “t” DE STUDENT- FISHER • Si se comparan dos grupos respecto a una variable cuantitativa. • En caso contrario, se utiliza una prueba no paramétrica equivalente, como la U de Mann-Whitney. • Se utiliza para la comparación de dos medias de poblaciones independientes y normales. • Prueba de significación estadística paramétrica para contrastar la hipótesis nula respecto a la diferencia entre dos medias. • Cuando las dos medias han sido calculadas a partir de dos muestras completamente independientes de observaciones (situación poco probable en la práctica, por lo menos desde un punto de vista teórico), la prueba se describe como no emparejada.
  • 23. PRUEBA “t” DE STUDENT- FISHER • Cuando las dos medias han sido extraídas de observaciones consecutivas en los mismos sujetos en dos situaciones diferentes, se comparan los valores de cada individuo, y se aplica una prueba emparejada. • La prueba "t" de Student es un tipo de estadística deductiva. • Se utiliza para determinar si hay una diferencia significativa entre las medias de dos grupos. • Con toda la estadística deductiva, asumimos que las variables dependientes tienen una distribución normal. • Especificamos el nivel de la probabilidad (nivel de la alfa, nivel de la significación, p) que estamos dispuestos a aceptar antes de que cerco datos (p < .05 es un valor común que se utiliza).
  • 24. Notas sobre la prueba t de Student • Cuando la diferencia entre dos promedios de la población se está investigando, se utiliza una prueba t. Es decir que se utiliza cuando deseamos comparar dos medias (las cuentas se deben medir en una escala de intervalo o de cociente). • Utilizaríamos una prueba t si deseamos comparar el logro de la lectura de hombres y de mujeres. • Con una prueba t, tenemos una variable independiente y una dependiente. • La variable independiente (género en este caso) puede solamente tener dos niveles (varón y hembra). • Si la independiente tuviera más de dos niveles, después utilizaríamos un análisis de la variación unidireccional (ANOVA).
  • 25. Notas sobre la prueba t de Student • La prueba estadística para t de Student es el valor t. Conceptualmente, la t-valor representa el número de unidades estándares que están separando las medias de los dos grupos. • Con una t-prueba, el investigador desea indicar con un cierto grado de confianza que la diferencia obtenida entre los medios de los grupos de la muestra sea demasiado grande ser un acontecimiento chance. • Si nuestra t-prueba produce una t-valor que da lugar a una probabilidad de .01, decimos que la probabilidad de conseguir la diferencia que encontramos sería por casualidad 1 en 100 veces.
  • 26. Asunciones subyacentes la prueba de t 1. Las muestras se han dibujado aleatoriamente a partir de sus poblaciones respectivas. 2. La población se debe distribuir normalmente. 3. Unimodal (un modo). 4. Simétrico (las mitades izquierdas y derechas son imágenes espejo), el mismo número de gente arriba o abajo de la media. 5. Acampanado (altura máxima (moda) en el medio). 6. Media, moda, y mediana se localizan en el centro. 7. Asintótico (cuanto más lejos se aleja la curva de la media, más cercana será el eje de X; pero la curva nunca debe tocar el eje de X). 8. El número de personas en las poblaciones debe tener la misma varianza (s2 = s2).Si no es el caso se utiliza otro cálculo para el error estándar.
  • 27. Existen 2 tipos de prueba t de Student Test t para diferencia par ( grupos dependientes, test t correlacionado) : df= n (número de pares) -1 • Esto se refiere a la diferencia entre las cuentas medias de una sola muestra de individuos que se determina antes del tratamiento y después del tratamiento. Puede también comparar las cuentas medias de muestras de individuos que se aparean de cierta manera (por ejemplo los hermanos, madres, hijas, las personas que se emparejan en términos de las características particulares). Test t para muestras independientes • Esto se refiere a la diferencia entre los promedios de dos poblaciones. • Básicamente, el procedimiento compara los promedios de dos muestras que fueron seleccionadas independientemente una de la otra.
  • 28. Error tipo I • Rechaza una hipótesis nula que sea realmente verdad. La probabilidad de hacer un error tipo I depende del nivel alfa que se Eligio. • Si se fijó la probabilidad alfa en p < 05, entonces existe un 5% de posibilidades de hacer un error de tipo I. • Se puede reducir la posibilidad de hacer un error tipo I fijando un nivel alfa más pequeño (p < .01). El problema haciendo esto es que se aumenta la posibilidad de un error tipo II.
  • 29. Error tipo II • Falla en rechazar una hipótesis nula que sea falsa. • La idea básica para calcular una prueba de Student es encontrar la diferencia entre las medias de los dos grupos y dividirla por el error estándar (de la diferencia), es decir la desviación de estándar de la distribución de las diferencias. • Un intervalo de confianza para una prueba t con dos colas es calculado multiplicando los valores críticos por el error de estándar y agregando y restando eso de la diferencia de las dos medias. • El efecto tamaño se utiliza para calcular la diferencia práctica. Si existen varios miles de pacientes, es muy fácil encontrar una diferencia estadísticamente significativa.
  • 30. Error tipo II • Saber si esa diferencia es práctica o significativa es otra pregunta. • Con los estudios implicando diferencias de grupo, el tamaño del efecto es la diferencia de las dos medias dividido por la desviación estándar del grupo control (o la desviación estándar media de ambos grupos si no hay grupo de control). • Generalmente, el tamaño del efecto es solamente importante si existe una significación estadística. • Un efecto tamaño de 2 se considera pequeño, 5 se considera medio, y 8 se considera grande.
  • 31. TEST DE MANN-WHITNEY • La prueba de Mann-Whitney U es una de las pruebas de significación más conocidas. • Es apropiada cuando dos muestras independientes de observaciones se miden en un nivel ordinal, es decir que podemos decir cuál es la mayor de estas dos observaciones. • Determina si el grado de coincidencia entre dos distribuciones observadas es inferior a la esperada por suerte en la hipótesis nula que las dos muestras vienen de una misma población.
  • 32. TEST DE MANN-WHITNEY • Prueba de significación estadística no paramétrica para probar la hipótesis nula de que el parámetro de localización (generalmente la mediana) es el mismo cuando se comparan dos grupos independientes, cualquiera que sea el tipo de distribución de la variable (distribución normal o de otro tipo). • Se usa cuando se quiere comparar dos poblaciones usando muestras independientes, es decir; es una prueba alterna a la prueba de t para comparar dos medias usando muestras independientes. • La hipótesis nula es que la mediana de las dos poblaciones son iguales y la hipótesis alterna puede ser que la mediana de la población 1 sea mayor (menor ó distinta) de la mediana de la población 2.
  • 33. PRUEBA DE KRUSKAL- WALLIS • Prueba de significación estadística no paramétrica para contrastar la hipótesis nula cuando los parámetros de localización de dos o más grupos son iguales. • La prueba de Kruskal-Wallis, es una alternativa a la prueba F del análisis de varianza para diseños de clasificación simple. En este caso se comparan varios grupos pero usando la mediana de cada uno de ellos, en lugar de las medias. • La prueba de Kruskal-Wallis, es una alternativa a la prueba F del análisis de varianza para diseños de clasificación simple.
  • 34. PRUEBA DE KRUSKAL- WALLIS • En este caso se comparan varios grupos pero usando la mediana de cada uno de ellos, en lugar de las medias. • Ho: La mediana de las k poblaciones consideradas son iguales y, • Ha: Al menos una de las poblaciones tiene mediana distinta a las otras.
  • 35. PRUEBAS NO- PARAMÉTRICAS • El análisis de la variación asume que las distribuciones subyacentes están distribuidas normalmente y que las variaciones de las distribuciones que son comparadas son similares. • El coeficiente de correlación de Pearson asume normalidad. • Mientras que las técnicas paramétricas son robustas (es decir, conservan a menudo un poder considerable para detectar diferencias o semejanzas incluso cuando se violan estas asunciones), algunas distribuciones violan tanto que un alternativa no paramétrica es más deseable para detectar una diferencia o una semejanza.
  • 36. Pruebas no paramétricas para muestras relacionadas