2. DEFINICIÓN
La Teoría de Errores es identificar las
diversas fuentes que generan error en la medición,
determinar el verdadero valor de las magnitudes
físicas medidas de forma directa (medir la altura
de un cilindro con el calibrador Vernier) e indirecta
(medir el volumen de un cilindro, midiendo su
altura y diámetro con el calibrador Vernier).
3. TIPOS DE ERRORES
Ninguna medición se puede realizar con una exactitud perfecta, pero es
importante descubrir cual es la exactitud real y como se generan los diferentes
errores en las mediciones.
Los errores se clasifican en tres categorías principales:
• Errores gruesos o graves: Son en gran parte de origen humano, como mala
lectura de los instrumentos, ajuste incorrecto y aplicación inapropiada, así
como equivocaciones en los cálculos.
• Errores sistemáticos: Se deben a fallas de los instrumentos, como partes
defectuosas o gastadas y efectos ambientales sobre el equipo del usuario.
• Errores aleatorios: Ocurren por causas que no se pueden establecer
directamente debido a variaciones aleatorias en los parámetros o en los
sistemas de medición.
4. TIPOS DE ERRORES
• Error absoluto: Es la diferencia entre el valor de la
medida y el valor tomado como exacto. Puede ser
positivo o negativo, según si la medida es superior al
valor real o inferior (la resta sale positiva o negativa).
Tiene unidades, las mismas que las de la medida.
• Error relativo: este error resulta del cociente entre el
error absoluto y el valor exacto.
5. FUENTES BÁSICAS DE ERRORES
Existen dos causas principales de errores en los cálculos numéricos: Error de
truncamiento y error de redondeo.
• El Error de Redondeo se asocia con el número limitado de dígitos con que
se representan los números en una PC (para comprender la naturaleza de
estos errores es necesario conocer las formas en que se almacenan los
números y como se llevan a cabo las sumas y restas dentro de una PC).
• El Error de Truncamiento, se debe a las aproximaciones utilizadas en la
fórmula matemática del modelo (la serie de Taylor es el medio más
importante que se emplea para obtener modelos numéricos y analizar los
errores de truncamiento). Otro caso donde aparecen errores de
truncamiento es al aproximar un proceso infinito por uno finito (por ejemplo,
truncando los términos de una serie).