2. Toda medición o instrumento de recolección de los datos debe reunir dos requisitos
esenciales: validez y confiabilidad. La validez, en términos generales, se refiere al
grado en que un instrumento realmente mide la variable que pretende medir. La
confiabilidad de un instrumento de medición se refiere al grado en que su aplicación
repetida al mismo sujeto u objeto, produce iguales resultados.
Una medición es “válida” si mide lo
que en realidad trata de medir. Por
ejemplo, una prueba de matemática
no es válida para medir el
rendimiento de alfabetización de los
estudiantes. Tampoco sería válida
una prueba culturalmente sesgada.
Una medición es “confiable” si podemos
esperar en forma razonable que los
resultados de dicha medición sean
sistemáticamente precisos. Esto requiere
que el instrumento usado para realizar la
medición (como por ejemplo una prueba
o examen a estudiantes) sea confiable.
3. Es una condición necesaria de todo diseño de investigación y
significa que, dicho diseño “permite detectar la relación real que
pretendemos analizar”, es decir, que sus resultados deben contestar
las preguntas formuladas y no otro asunto.
4. La validez de contenido, se refiere a que los instrumentos de medición
estén construidos de tal modo que realmente midan los aspectos que se quiere
medir.
Una manera de lograrlo es mediante la operacionalización de las variables
en el cuadro técnico-metodológico. En el caso de las pruebas de conocimiento,
puede construirse el mayor número posible de reactivos para cada variable o asunto
a medir y luego elegir mediante un sorteo las preguntas que constituirán la prueba.
Además, se aconseja recurrir a una evaluación externa de los instrumentos, mediante
su revisión por expertos y advierten que “la validez de contenido está basada,
esencialmente y por necesidad, en el discernimiento y debe formularse un juicio
independiente en cada situación”.
5. El criterio queda definido como la medida externa que existe con
anterioridad al instrumento en cuestión y que es aceptado por expertos como un
índice adecuado o satisfactorio de la característica que el nuevo instrumento
pretende medir. Se trata de medir la ejecución futura de un individuo en alguna
variable significativa (el criterio). Entre los resultados del instrumento de medición se
relacionen más al criterio, la validez del criterio será mayor.
6. Se refiere a las pruebas que tratan de medir construcciones (combinaciones
de conceptos) difíciles de precisar como: inteligencia, motivación, aptitudes,
actitudes, autoestima y otras.
Para determinar esta validez, se utilizan un método lógico y uno empírico.
El primero consiste en preguntarse “si los elementos que mide la prueba son los que
integran la construcción”, aunque la respuesta dependerá del sentido que se le ha
dado al constructo. Con respecto al método empírico, éste consiste en medir la
relación existente entre las puntuaciones de los diferentes elementos componentes
del constructo y, si ésta no es positiva, significa que la prueba carece de validez de
construcción. También se pueden correlacionar los puntajes relativos a un constructo
con los relativos a otro, en cuyo caso, no debe haber relación.
7. Se puede definir como la estabilidad o consistencia de los resultados
obtenidos. Es decir, se refiere al grado en que la aplicación repetida del
instrumento, al mismo sujeto u objeto, produce iguales resultados.
Se refiere al grado en que su aplicación de un instrumento repetida al
mismo sujeto produce iguales resultados” Hernández, Fernández y Bastita
(1998) “(p.21) Se refiere a la consistencia de los resultados. En el análisis
de la confiabilidad se busca que los resultados de un cuestionario
concuerden con los resultados del cuestionario en otra ocasión.
Menéndez (2009)Se refiere al grado en que su aplicación repetida al
mismo sujeto u objeto produce iguales resultados. Silva
(2009)Reproducibilidad Estabilidad y Predictibilidad Seguridad Precisión
Consistencia Interna u Homogeneidad
8. Definición: Se trata de un índice de consistencia interna que toma valores entre 0
y 1 y que sirve para comprobar si el instrumento que se está evaluando recopila
información defectuosa y por tanto nos llevaría a conclusiones equivocadas o si se
trata de un instrumento fiable que hace mediciones estables y consistentes
Alfa es por tanto un coeficiente de correlación al cuadrado que, a grandes
rasgos, mide la homogeneidad de las preguntas promediando todas las
correlaciones entre todos los ítems para ver que, efectivamente, se parecen.
Su interpretación será que, cuanto más se acerque el índice al extremo 1,
mejor es la fiabilidad, considerando una fiabilidad respetable a partir de 0,80.
9. Muy baja Baja Regular Aceptable Elevada
0
0%
de confiabilidad
en la medición
(la medición está contaminada de error
1
100%
de confiabilidad
en la medición
(no hay error).
10. Items I II III
Suma de
Items
Sujetos
(1) 3 5 5 13
(2) 5 4 5 14
(3) 4 4 5 13
(4) 4 5 3 12
(5) 1 2 2 5
(6) 4 3 3 10
VARP 1.58 1.14 1.47 ST
2 : 9.14
(Varianza de
la
Población)
S Si
2
: 4.19
Ejemplo
Entre más cerca de 1
está α, más alto es el
grado de confiabilidad
11. Definición: Es un indicador de la fidelidad (consistencia interna). Los métodos basados
(Rulon, Alfa de Cronbach, Spearman, Brown) en la división en dos porciones (presumiblemente
iguales) da desventaja de ser relacionado con las opciones de la partición (véase la mitad
igualdad-impar, de la primera y segunda parte, al azar).
Kuder y Richardson desarrollaron un procedimiento basado en los resultados obtenidos con
cada ítem. De hecho, hay muchas maneras de precisar otra vez los ítems (reactivos) en 2 grupos,
que pueden conducir a las estimaciones diferentes de la consistencia interna.
Esta es la razón por la cual Kuder y Richardson consideren tantas (n) partes en la prueba de
acuerdo a los ítems (n).
En los métodos de partición en dos, (conocido también como bisección) supone para cada
parte ser equivalente ( las formas paralelas). Para el KR20, la misma lógica se adopta en el nivel
de los ítems. Es lo que uno llama unidimensional.
El KR20 se aplica en la caja dicotómica de los items
12. Ejemplo
Items I II III IV V
sujetos total(1)
1 1 1 1 1 1 5
2 1 1 1 1 1 5
3 0 1 1 1 1 4
4 1 0 1 1 1 4
5 0 1 1 1 1 4
6 1 1 1 1 0 4
7 1 1 1 0 0 3
8 0 0 1 1 1 3
9 0 1 1 0 0 2
vt 0,94
p 0,56 0,78 1 0,78 0,67
q 0,44 0,22 0 0,22 0,33
p*q 0,25 0,17 0 0,17 0,22 0,81
Entre más cerca de 1 está α,
más alto es el grado de
confiabilidad en este caso el
instrumento es poco
confiable
13. Definición: Consiste en que la misma prueba se aplica dos veces para verificar la
confiabilidad de la misma. Confiabilidad se refiere al grado en que su aplicación
repetida al mismo sujeto u objeto produce resultados iguales. Los valores serán
cero (o) a uno (1); el resultado no puede ser negativo. Se refiere a que si el test
retest se aplica hoy o dentro de un tiempo, siga siendo válido y fiable, es decir,
que se encuentre una relación entre lo que se obtiene hoy y lo que se obtiene
más adelante.
El investigador debe aplicar el mismo instrumento dos veces al mismo grupo
después de cierto periodo; El grupo debe tener características similares a la
muestra. Calcular la correlación entre ambas aplicaciones usando el coeficiente
de Pearson. El coeficiente de correlación de PEARSON altamente positivo = es un
instrumento confiable. FORMULA.
14. Definición: Requiere que se utilicen dos pruebas o instrumentos paralelos, esto es, que
midan lo mismo de forma diferente (por ejemplo, dos tests que con diferentes preguntas
midan un determinado rasgo). Después se comparan los dos tests, calculando el
coeficiente de correlación de Pearson. Esta correlación será, como hemos visto en el
apartado anterior, el coeficiente de fiabilidad. Si la correlación es alta, se considera que
hay una buena fiabilidad. Al valor obtenido también se le conoce como coeficiente de
equivalencia, en la medida en que supone un indicador del grado de equivalencia entre
las dos formas paralelas de un test.
La dificultad de este procedimiento radica en conseguir que dos instrumentos sean
realmente "paralelos", dada la dificultad que supone realizar dos pruebas que midan
exactamente lo mismo, pero con diferentes ítems. No obstante, en condiciones ideales
en las que se pueda garantizar el paralelismo de ambas formas, este es el método más
recomendable
Correlación de Pearson donde
d es la defenecía entre X y Y
15. Definición: El mismo instrumento se divide en dos instrumentos; ósea el
instrumento se divide por la mitad o en dos mitades. .Se forma un test con las
preguntas pares y otro con las preguntas impares . Requiere solo una aplicación de la
medición, el conjunto total de ítems es dividido en dos mitades y se comparan las
puntuaciones obtenidas en ambas mediciones con las puntuaciones de ambas
mitades fuertemente correlacionadas = instrumento confiable.
El instrumento real es el doble de los usados en la prueba, el coeficiente de Pearson
se corrige aplicando la fórmula de Spearman Brown.Rttn
La confiabilidad varía de acuerdo al número de ítems que incluya el instrumento de
medición. Cuantos más ítems la confiabilidad aumenta (desde luego, que se refieran
a la misma variable)
16. PROCEDIMIENTO DEL MÉTODO DE LAS MITADES DIVIDIDAS EN ELTRATAMIENTO DE
INSTRUMENTO.: MEDIANTE . a) La fórmula de Spearman Brown, b) Flanagan, c) de
CronBach
Es habitual dividir el test en ítems pares e impares, pero puede dividirse en dos mitades
cualesquiera, teniendo ambas el mismo número de ítems.
Si emparejamos los ítems según contenido de manera que cada mitad del test conste de
ítems muy parecidos, obtendremos una estimación más alta de la fiabilidad.
Cuando la mitad de los ítems son positivos y los otros negativos es útil quelas dos
mitades estén compuestas una por ítems positivos y otra por los negativos. Una
correlación entre los dos subtest en torno a 0,50 o mayor indica suficiente coherencia
entre los dos tipos de ítems y no se manifiesta aquí esencia
Se parte el test en dos mitades, y para decir que son formas paralelas tienen que tener:
a) la misma media, b) la misma varianza. Y si se correlacionan dará la fiabilidad de una
parte o de otra (son la misma) y con el coeficiente de Spearman - Brown hallamos la
fiabilidad del conjunto.
R12 = correlación entre las dos mitades del test
Esta fórmula calcula la fiabilidad de todo el test.
Supone que las dos mitades tienen medias y varianzas idénticas, por lo que sobre estima
la fiabilidad
17. ESQUEMA DEL PROCEDIMIENTO DE MITADES PARTIDAS
1
2
3
4
5
6
7
8
9
10
1
3
5
7
9
2
4
6
8
10
Resultados (Puntuaciones)
Resultados (Puntuaciones)
P
P1
C(0,1)
El instrumento de medición los
ítems se dividen en dos mitades.
Cada mitad se correlaciona Se
aplica a un grupo
El instrumento se
divide en dos mitades
El instrumento se
divide en dos
mitades
Determina la
confiabilidad
Al dividir los ítems, estos se
emparejan en contenido y
dificultad