La medición implica asignar valores significativos a variables para operacionalizarlas. Una medición es el resultado de comparar una cantidad con su unidad. La validez se refiere a la capacidad de un instrumento para medir la variable deseada. La confiabilidad es el grado de precisión de una medición al aplicar repetidamente el instrumento. Existen varias técnicas para calcular la confiabilidad como el test-retest, formas paralelas, split-halves, alfa de Cronbach y KR-20.
2. Medición
Medir es entonces la asignación de algún
valor significativo, sea numérico o
alfabético o de otro orden, a una serie
de objetos, con la finalidad de
operacionalizar variables.
Una medición es el resultado de la acción de
medir. Este verbo, con origen en el término
latino metiri, se refiere a la comparación que
se establece entre una cierta cantidad y su
correspondiente unidad para determinar
cuántas veces dicha unidad se encuentra
contenida en la cantidad en cuestión.
3. Validez
De manera general se dice que algo tiene validez porque
tiene, y se le reconoce, la cualidad de poseer un valor
determinado, o bien la capacidad o eficacia para realizar
el valor que se supone ha de tener.
Es la eficacia con que un
instrumento realmente
mide la variable que se
desea medir.
5. Es la que busca confirmar si el contenido de un
instrumento representa las características de lo
que se medir.
Se puede analizar este tipo de validez, mediante el
juicio de expertos.
Relaciona la prueba con las consecuencia de sus usos e
interpretaciones. Puede tener consecuencias deliberadas. El
autor de la prueba define qué usos se le darán y que objetivos
tendrán o consecuencias deliberadas. Estas consecuencias
pueden ser no deliberadas por el autor y aún así, pueden suceder
6.
7.
8. Confiabilidad
La confiabilidad se refiere al grado de precisión o
exactitud en la medida, en el sentido de que si se
aplica en forma repetida el instrumento de medición
al mismo sujeto u objeto de estudio, debe de
producir iguales resultados.
Sabino 2002 pag. 125 señala que es
confiable una escala cuando produzca
constantemente los mismos resultados
al aplicarlo a una muestra, por lo que se
afirma que un instrumento será confiable
de acuerdo al grado de uniformidad con
que este cumpla su función dentro de un
proceso de investigación.
10. Test- retest
Con este método el coeficiente de fiabilidad se calcula pasando
mismo test dos veces a los mismos sujetos. Se pueden pasar
inmediatamente, o dejando un intervalo de tiempo entre el test y
el retest. Después se calcula la correlación de Pearson entre las
puntuaciones de ambas aplicaciones, y el resultado obtenido será
el coeficiente de fiabilidad. Se considera un caso específico de
formas paralelas, dado que evidentemente un test es paralelo a sí
mismo. Al resultado obtenido se le denomina coeficiente de
estabilidad, al servir de indicador de hasta qué punto son estables
las mediciones realizadas durante la primera aplicación del test.
Las diferencias en los resultados se atribuyen al grado de
consistencia interna o muestreo de los ítems de la prueba en el
caso de pasar el retest de forma inmediata, y se le suman las
fluctuaciones en el tiempo en el caso del intervalo temporal.
11. Formas Paralelas
Este procedimiento es el que se deriva naturalmente del modelo.
Requiere que se utilicen dos pruebas o instrumentos paralelos, esto
es, que midan lo mismo de forma diferente (por ejemplo, dos tests
que con diferentes preguntas midan un determinado rasgo).
Después se comparan los dos tests, calculando el coeficiente de
correlación de Pearson. Esta correlación será el coeficiente de
fiabilidad. Si la correlación es alta, se considera que hay una buena
fiabilidad. Al valor obtenido también se le conoce como coeficiente
de equivalencia, en la medida en que supone un indicador del grado
de equivalencia entre las dos formas paralelas de un test.
La dificultad de este procedimiento radica en conseguir que dos
instrumentos sean realmente "paralelos", dada la dificultad que
supone realizar dos pruebas que midan exactamente lo mismo,
pero con diferentes ítems. No obstante, en condiciones ideales
en las que se pueda garantizar el paralelismo de ambas formas,
este es el método más recomendable.
12. Split- halves
Este método sólo requiere una aplicación del test. Tras obtener las
puntuaciones obtenidas por los sujetos en cada una de las dos
mitades en que se habrá dividido, se procede a calcular la
correlación entre las dos puntuaciones. El resultado obtenido será
un indicador de la covariación entre ambas mitades, es decir, de la
consistencia interna del test. La principal dificultad de este
sistema es asegurarse de que ambas mitades sean efectivamente
paralelas. Un sistema habitual es dividir el test entre los ítems
pares y los impares; no es recomendable dividirlo sin más por la
mitad, dado que muchos tests muestran un incremento gradual
de la dificultad de sus ítems.
13. Coeficiente Alfa de Cronbach
El coeficiente alfa (α) es un indicador de la
fiabilidad de un test basado en su grado de
consistencia interna. Indica el grado en que los
ítems de un test covarían. La medida de la fiabilidad mediante el alfa
de Cronbach asume que los ítems
(medidos en escala tipo Likert) miden un
mismo constructo y que están altamente
correlacionados (Welch & Comer, 1988).
Cuanto más cerca se encuentre el valor del
alfa a 1 mayor es la consistencia interna de
los ítems analizados.
La fiabilidad de la escala debe
obtenerse siempre con los datos de
cada muestra para garantizar la
medida fiable del constructo en la
muestra concreta de investigación.
14. Coeficiente KR-20
El Método KR20 representa un coeficiente de consistencia interna
del instrumento, que proporciona la media de todos los
coeficientes de división por mitades para todas las posibles
divisiones del instrumento en dos partes (Magnusson, 1995).
Permite calcular la confiabilidad con una sola aplicación del
instrumento. No requiere el diseño de pruebas paralelas. Es
aplicable sólo en instrumentos con ítems dicotómicos, en los
cuales sólo existen respuestas correctas e incorrectas. Se
representa de la siguiente manera: