lunes, 26 de diciembre de 2016

10 MEDICIÓN, INCERTIDUMBRE Y ERRORES DE MEDICIÓN

Cuando realizas una media, empleas algún tipo de instrumento de medición. Por ejemplo, puedes emplear un metro para medir una altura, una balanza para determinar un peso, o un termómetro para determinar una temperatura. Este proceso generalmente presenta dos problemas. El primero si el instrumento emplea un sistema de medición analógico, se requiere de entrenamiento para saber leer el instrumento, este problema se evita con un sistema de medida digital que siempre arroja valores claros. El siendo problema es que por lo general los valores medidos directamente deben ser empleados en cálculos matemáticos que no siempre arrojan números enteros. Para poder controlar la cantidad de decimales obtenidos en dichos cálculos se emplea una serie de reglas que se denominan en su conjunto como cifras significativas. Las cifras significativas son una serie de valores que portan un significado verdadero al interior del número. Antes de aprender a operar empleando las cifras significativas, es esencial aprender a reconocerlas en diferentes tipos de números.


10.1 El arte de leer los instrumentos

El aparato que empleamos para medir una determinada cantidad física es denominado instrumento de medición. Tal vez el instrumento de medición más simple de todos es la regla, pero no por eso, saber medir con una regla es algo intuitivo. Existen otros instrumentos de medida que pueden llegar a ser importantes al medir valores trascendentales en nuestra vida cotidiana como la temperatura, la humedad, la presión, la corriente eléctrica, el volumen de agua entre muchos otros.


10.1.1 Instrumentos analógicos

Existen dos tipos de instrumentos, los instrumentos analógicos y los instrumentos digitales. Los instrumentos analógicos indican la magnitud medida mediante la comparación directa con la entidad física, que es el caso de las reglas o los transportadores, o mediante agujas que se mueven en torno a una determinada escala, que es el caso de los relojes de manecilla. 

Debido a que la escala es fija se puede tener dificultades cuando el valor queda en medio de los segmentos numerados de la escala. Esto hace necesario aproximar los valores dependiendo del instrumento que empleemos, lo cual hace que el valor decimal consignado no sea del todo preciso.

10.1.2 Instrumentos digitales

Los instrumentos digitales no tienen una escala prefijada, así que expresan sus resultados en magnitudes legibles directamente hasta su última cifra con significado de precisión. Esto hace que no sea necesario un entrenamiento previo para leer dicho instrumento, además muchos de ellos poseen menos partes móviles que los instrumentos analógicos, lo cual los hace más durables. 

Dado que hay menos error humano y de ingeniería en estos instrumentos, sus valores son mucho más confiables, pero el problema es que también son más costosos. Muchos de los instrumentos de la vida cotidiana o de un laboratorio escolar son instrumentos analógicos. A continuación hablaremos de la medición con instrumentos simples.

10.2 Insertidumbre

En la filosofía de las ciencias de la naturaleza se tiene presente la diferencia entre el valor medido y el valor real. El valor medido siempre será una aproximación al valor real debido a la existencia intrínseca de errores observacionales o de medición, que dependen de la accesibilidad del fenómeno, la precisión del instrumento, y la precisión del operario.  Los errores de medición pueden dividirse en dos categorías, los errores aleatorios y los errores sistemáticos (BIPM, IFCC, & IUPAC, 2008).


10.2.1 Errores aleatorios

Los errores aleatorios son errores de medición que conllevan a valores que no son consistentes entre una repetición y otra aun cuando estamos midiendo magnitudes que se consideran constantes universales. Las causas de los errores aleatorios se desconocen u obedecen a fenómenos físicos que interactúan de forma homogénea con el experimento causado todo tipo de desviaciones al interior de un rango de precisión. Estos cambios pueden ocurrir en el instrumento de medida o en las condiciones ambientales (Taylor, 1997). 

Algunas causas propuestas para los errores aleatorios es el ruido electrónico al interior de los circuitos electrónicos de los instrumentos digitales. Cambios irregulares en el flujo de calor de los instrumentos, que causa dilatación o contracción de las partes instrumentales, causando desviaciones entre una y otra medida que no pueden ser reguladas por medio de la calibración. Otra posibilidad es a cambios mínimos que hace el operario cada vez que manipula el instrumento, aun cuando se trate de un excelente operario siempre existirán alteraciones mínimas que afectan la dispersión de datos en cada repetición. Cabe anotar que este tipo de error no implica que el procedimiento experimental esté mal hecho, ellos siempre estarán presentes y por ende hay que buscar la forma de informar sobre estos errores en los informes de laboratorio.

El error aleatorio puede describirse en términos matemáticos empleando el modelo de normalidad de obtención de datos que se gráfica por medio de la curva de Gauss y en consecuencia pueden ser analizados por instrumentos estadísticos como el promedio aritmético, la desviación estándar y otros estadísticos de inferencia.  Los errores aleatorios estarán relacionados con el concepto de precisión. La precisión es la medida de respetabilidad de un fenómeno, un fenómeno que se repite de forma consistente en cada ronda experimental, es decir cuyos datos son concordantes cada vez que se experimenta es un dato preciso.


10.2.1.1 La gaussiana

O campana de Gauss es un diagrama de frecuencias, en el eje (Y) tenemos la cantidad de veces que se repite un determinado dato experimental, por lo que generalmente denominamos a ese eje (n) que representa el número de repeticiones que tiene un determinado tipo de datos y en el eje (X) tenemos los posibles resultados. Ahora bien, podemos tener una gráfica de columnas con una marcada tendencia central:

Este histograma ideal representa una medición aleatoria alrededor de cualquier medida física que se realiza con una suficiente cantidad de repeticiones, esto implica que entre menos repeticiones tenemos de un determinado dato aleatorio será más difícil ver la tendencia. La curva gaussiana es una curva suave imaginaria que une los puntos del histograma aleatorio.

Si nuestros datos se ajustan a la gaussiana podemos realizar una serie de procesos matemáticos muy comunes denominados estadísticos descriptivos. Por el momento solo introduciremos dos, el promedio aritmético como medida de tendencia central y la desviación estándar como medida de dispersión. Cabe destacar que los histogramas no siempre nos muestran una gaussiana clara, aun cuando tomemos suficientes datos.

Es por esto sé que han inventado instrumentos matemáticos para decidir si un histograma es gaussiano o no lo es. Sin embargo para nuestros intereses básicos, asumiremos arbitrariamente que todos nuestros datos son normales a menos que el histograma nos muestre con claridad otra tendencia, pues de ser así hay que botar los datos y repetir de nuevo el experimento.


10.2.1.2 Promedio aritmético

Si los datos cumplen con una distribución gaussiana podemos decir que el promedio aritmético es una medida buena de la verdadera tendencia central de la colección de datos presente.

La fórmula del promedio aritmético es la siguiente:

La fórmula (1) es la expresión resumida, el símbolo (sigma mayúscula) representa sumatorio, y funciona igual que cuando colocamos el Excel la función (=suma). En este caso se nos pide sumar los datos desde el inicio que se simboliza como (1) hasta el último dato que se simboliza como (n) de nuestra colección de datos, y luego se divide entre la cantidad total de datos que también se simboliza como (n). Esta fórmula es reconocible ya que es así como sacamos las magnitudes de la nota de asignatura. La fórmula (2) tiene la misma información que la fórmula (1) pero en este caso se explica de forma desglosada la operación a realizar, que es la suma de la lista de datos en caso de que el lector no comprenda el significado de la notación ∑.

Sin embargo dos colecciones de datos diferentes pueden llegar a tener un mismo promedio.

Si analizamos la curva, nos damos cuenta que a la izquierda los datos están más alejados del promedio, es decir se encuentran más dispersos, hay mayor diversidad o menor precisión. Mientras que a la derecha los datos no se alejan tanto de la medida central, lo cual implica una mayor precisión. Para poder representar esto requerimos una medida de la dispersión.

10.2.1.3 Desviación estándar

Al igual que con la medida de tendencia central, para nuestros propósitos solo introduciremos una medida de dispersión, que es la más común de todas, la llamaremos la desviación estándar (s). La desviación estándar nos interpretará que tan dispersos son nuestros datos, de forma tal que a menores desviaciones nuestra medida es más precisa, mientras que a mayores desviaciones nuestra medida es menos precisa.

La fórmula de la desviación estándar, en su forma resumida (3) y expandida (4), sigue la misma simbología que el promedio aritmético. Se trata de restar cada dato con el promedio aritmético, luego sacar el cuadrado de cada resta, posteriormente sumar los cuadrados, a ese resultado lo dividimos entre la cantidad total de datos (n) menos 1. Y finalmente le sacamos la raíz cuadrada a todo. No es una fórmula simple, pero si se tiene acceso a una hoja de cálculo como Excel la herramienta se encuentra preprogramada y se denomina (=desvest). 

10.2.2 Errores sistemáticos

Los errores sistemáticos son errores no aleatorios, la causa del error siempre está allí como un demonio que te corre tus números constantemente en la misma dirección. Este tipo de errores obedece a un operario mal entrenado que siempre comete el mismo error al manipular el instrumento, porque el instrumento se encuentra mal calibrado o se encuentra dañado. Una última fuente de error sistemático es que el operario cometa un error consistente a la hora de procesar la información para presentar su informe (Taylor, 1997).

Este tipo de errores solo es detectable cuando el operario conoce de antemano el rango de datos que debería estar obteniendo, es como cuando usted sabe intuitivamente que “hay algo raro en esa vaina”, por ejemplo cuando se maneja un termómetro y este no tiene un adecuado contacto con la superficie que se desea medir, o no se le da suficiente tiempo para que alcance el equilibrio térmico con el sistema. 

Los errores sistemáticos se encuentran relacionados con la exactitud. La exactitud es la medida de un fenómeno sobre un valor que se sabe de antemano que es exacto. En estadística, el símbolo empleado para el valor que se sabe que es exacto o real es μ. 

Matemáticamente existen varias formas para obtener una medida del error sistemático, pero siempre dependerán de conocer de antemano el valor denominado real μ. En términos más formales ningún dato es exacto, pero los valores consignados en los libros de texto como las constantes universales se realizan con mejor instrumentación de la que cuenta cualquier laboratorio escolar, por lo que podemos tomarlos como valores μ bastante buenos, contra los cuales poder comparar nuestros resultados experimentales. En cualquier caso los instrumentos matemáticos son las estimaciones de error y la comparación por medio de estadísticos de inferencia.

10.2.2.1 Estimaciones de error

Estos son los instrumentos clásicos para determinar los errores de procedimiento, y se dividen en tres, el error absoluto, el error relativo y el porcentaje de error relativo.

El error absoluto ε es la distancia absoluta desde el promedio de la muestra hasta μ, siendo este último el valor que asumimos como exacto. Sin embargo la distancia absoluta no es muy informativa. Por lo anterior se emplea el error relativo η que arroja valores desde 0 hasta infinito, donde 0 es la carencia de error, hay que destacar que a veces se pueden obtener errores relativos mayores al 1, especialmente en el contexto escolar así que no se asusten, pero si hay que reportarlo con claridad. Sin embargo la medida anterior también es poco analizable ya que nos gustan los valores de error en porcentajes. Por lo anterior se emplea el porcentaje de error relativo δ, el cual nos arroja valores desde 0% hasta infinito%, y nuevamente es muy posible obtener errores que superan el 100%.

10.2.2.2 Prueba t para una muestra

La prueba t de student nos sirve para inferir la probabilidad de que μ se encuentre al interior de nuestro promedio aun cuando no sea el promedio, y tiene muchas formas. En este caso se emplea para comparar el promedio de una variable continua con respecto a una expectativa teórica. Las hipótesis a probar son:

a- hipótesis nula: No existen diferencias significativas entre el promedio experimental y el valor asumido como exacto
b- hipótesis alternativa: existen diferencias significativas entre el promedio experimental y el valor asumido como exacto

La fórmula es la siguiente:

Una vez que se ha determinado de realizar la t calculada, debemos identificar la t teórica en la tabla con los grados de libertad y un límite de exclusión. Por lo general el límite de exclusión es del 95% o lo que es lo mismo el valor de 0,05. Si el valor calculado es mayor que el valor de t rechazamos la hipótesis, y si es menor lo aceptamos.

La tabla t de Student la usamos para encontrar la t teórica, en la primera fila se identifica el punto crítico que normalmente sería 0,05 y en la primera columna se busca el valor igual al (n) que siempre será menor a 30, luego en la intersección se obtiene la t teórica.

Si la t que calculamos es más grande que la t teórica significa que nuestra campana de Gauss está muy alejada del valor exacto, es decir que la embarramos completamente, pero si la t calculada es menor que la te teórica significa que nuestra colección de datos contiene al valor exacto, así sea por pura suerte.

10.3 Lectura de datos

10.3.1 Instrumentos analógicos

UN problema común con los instrumentos analógicos, y mucho más con aquellos cuya escala de medida está debajo de alguna superficie transparente, es que la luz se tuerce cuando atraviesa el material transparente, lo cual a su vez hace que veamos la raya de la medida donde no está realmente, este es denominado el error de Parallax. Por lo general se aconseja observar la escala desde un ángulo derecho, de esta forma si hay un error intrínseco a la observación, todos cometerán el mismo error y al menos todos estarán de acuerdo en ese mismo error. Algunos instrumentos profesionales como viejos multímetros caros emplean lupas para mejorar la visibilidad de la aguja.

El límite de precisión de un instrumento analógico será exactamente igual a la mitad de su escala más pequeña.

Esto implica que si la aguja o marca de medida nos queda por fuera de los segmentos de la escala más pequeña reportaremos el dato como si estuviera a la mitad, pero sabemos que no está a la mitad. Esto se conoce como intervalo de confianza, es decir aunque expresemos el dato como la mitad de la escala más pequeña, inmediatamente adicionaremos a la derecha un valor de límites de confianza igual a la mitad de la escala más pequeña, sé que suena enredado, pero miremos el ejemplo de la regla.

En la imagen vemos que la línea de marca queda en la zona no marcada por los milímetros, aunque no exactamente en el medio, si eso nos pasa lo reportamos como si estuviera en el medio 5,35 con un intervalo de confianza de ±0,05, de forma tal que el valor se extresa como 5,35±0,05 cm o 53,5±0,5 mm.

10.3.2 Instrumentos digitales

A menos que en el empaque se diga otra cosa, el papel del último dígito con significado ambiguo lo asume precisamente el último dígito más pequeño. Por ejemplo, mi reloj digital:

Posee cifras para decenas de horas, horas, decenas de segundos, segundos, décimas de segundo y centésimas de segundo. En este caso las centésimas de segundo se convierten en la última cifra que determina el intervalo de confianza de la medida del tiempo. Por ejemplo, si medimos los reflejos de un estudiante como lo rápido que son capaces de detener el cronómetro cuando ven determinada marca, se debe reportar que el instrumento tiene un intervalo de confianza de  ±0,1 cs. A este error lo llamaremos límite de precisión del instrumento.


10.4 Intervalos de confianza y propagación de errores.

El error aleatorio nos arroja un intervalo de confianza dado por promedio ± desviación estándar.

El error sistemático nos arroja varias opciones, la primera es el error absoluto, y la segunda es t de student  “La segunda es mucho mas confiable ya que nos dice si nuestra muestra de datos abarca al valor teórico, mientras que el error absoluto solo nos da la distancia desde la media al valor teórico”.

El límite de sensibilidad nos arroja un segund intervalo de confianza de la forma dato ± último dígito significativo. Este tipo de error no es aleatorio.

Aunque existen métodos para unificarlos, lo más conveniente es expresar los tres por separado ya que obedecen a causas diferentes, y a demás los métodos para unificarlos son algo complejos, y recuerden esto es solo una introducción a la medida de la incertidumbre experimental.

Unidades y medidas // Principal // Siguiente

No hay comentarios:

Publicar un comentario