Menú de Química

Buscar este blog

Translate

martes, 22 de julio de 2025

Incertidumbre experimental




Hasta ahora hemos realizado cálculos partiendo del presupuesto de que la última cifra significativa es plenamente confiable. Sin embargo, esto no es cierto en el trabajo experimental. Esa última cifra está sujeta a variaciones inevitables derivadas de las limitaciones del proceso de medición. A esta variabilidad la denominamos incertidumbre, y representa el margen dentro del cual se espera que se encuentre el valor real.

La incertidumbre se expresa mediante un intervalo de confianza, ya sea como un rango explícito (por ejemplo, de 9.8 a 10.0) o con la notación ± (por ejemplo, 9.9 ± 0.1). En ambos casos, se trata de reconocer que toda medición contiene un grado de duda, incluso cuando se utilizan instrumentos de precisión. Esta duda no es un error en el sentido común del término, sino una propiedad inherente a toda medición cuantitativa.

Precisión sistemática

Aun asumiendo que el instrumento es perfecto y está en óptimas condiciones, todo aparato de medición tiene límites físicos que restringen la exactitud de sus lecturas. Estos límites están definidos desde fábrica y deben interpretarse correctamente según el tipo de instrumento utilizado, ya sea analógico o digital.

Los instrumentos analógicos son aquellos que presentan sus lecturas mediante escalas continuas, como una regla graduada, una balanza de platillos o un termómetro de columna. En estos casos, la incertidumbre se estima como la mitad del valor de la menor división visible. Por ejemplo, si una regla tiene divisiones cada milímetro, se considera una incertidumbre de ±0.5 mm, ya que no es posible distinguir con seguridad fracciones más pequeñas entre dos marcas consecutivas.

Por otro lado, los instrumentos digitales muestran los valores mediante números, sin escala visible. Aquí, la incertidumbre se expresa generalmente como ± una unidad en la última cifra mostrada. Si una balanza digital marca 12.4 g, la incertidumbre es de ±0.1 g; si un voltímetro muestra 3.276 V, la incertidumbre es de ±0.001 V. Esta convención refleja el hecho de que el aparato redondea automáticamente su lectura al número más cercano dentro de su resolución, sin que el usuario pueda ver lo que ocurre en cifras más allá.

Podemos clasificar esta forma de incertidumbre como una precisión sistemática. La precisión se refiere al rango o repetibilidad de los datos obtenidos en una misma medición, sin importar cuán cercanos estén al valor verdadero. Es decir, un instrumento puede ser preciso sin ser exacto. En este caso, hablamos de un tipo de error sistemático porque obedece exclusivamente a las limitaciones estructurales del instrumento, y su magnitud será siempre la misma para un aparato dado, incluso si este se encuentra descalibrado. La precisión sistemática es predecible, cuantificable y controlable, lo cual la distingue de otras formas de incertidumbre como el error aleatorio.

La resolución de un instrumento determina cuántos dígitos de confianza nos ofrece y cuán estrecho es el rango de incertidumbre asociado a una medición. Una mayor resolución implica que el aparato puede detectar cambios más pequeños en la magnitud medida. Es importante destacar que una incertidumbre digital no es necesariamente menor que una incertidumbre analógica. Sin embargo, dado que los instrumentos digitales suelen ser más sensibles y pueden ser leídos con mayor facilidad y menor entrenamiento, tienden a ofrecer resoluciones más altas y, por lo tanto, intervalos de confianza más estrechos. Esta combinación de accesibilidad y precisión ha hecho que los dispositivos digitales se conviertan en el estándar en la mayoría de laboratorios modernos.

Exactitud sistemática

Ahora discutiremos la exactitud sistemática, entendida como la posibilidad de que un operario ideal —es decir, una persona que conoce a la perfección el funcionamiento del instrumento y trabaja en condiciones óptimas— pueda obtener el valor verdadero dentro del margen determinado por la incertidumbre de precisión sistemática. A diferencia del azar o de la habilidad del usuario, esta forma de exactitud depende del comportamiento predecible del aparato bajo control total de variables externas.

Mientras que la precisión describe la consistencia de los resultados en mediciones repetidas, la exactitud indica qué tan cercanos están esos resultados al valor real de la magnitud medida. Un aparato puede ser muy preciso, generando siempre la misma lectura, pero si está descalibrado, todas esas mediciones pueden estar alejadas del valor correcto. Este tipo de desviación no es aleatoria, sino constante, lo que la convierte en un problema sistemático que debe ser corregido.

La calibración del instrumento es, por tanto, el factor determinante para alcanzar la exactitud. La calibración consiste en comparar el aparato con un patrón conocido y ajustar su funcionamiento para que los resultados coincidan con el estándar. Un instrumento bien calibrado no solo ofrece valores repetibles, sino que esos valores se agrupan alrededor del valor correcto. Así, la exactitud sistemática puede entenderse como el alineamiento entre la precisión del aparato y la verdad física, bajo condiciones ideales de uso.

Precisión y exactitud aleatorios

En este caso nos referimos a los errores introducidos por el operario durante la toma de datos. A diferencia de los errores instrumentales, que son inherentes al diseño y funcionamiento del aparato, los errores humanos pueden variar entre un experimento y otro, incluso bajo condiciones similares. En la mayoría de los casos prácticos, la incertidumbre causada por el operario es considerablemente mayor que la del instrumento. Esto se debe a múltiples factores: el tiempo de reacción del usuario, las condiciones ambientales cambiantes (como iluminación, temperatura o vibraciones), la pureza de los reactivos, la estabilidad de los patrones de calibración o incluso el estado físico y mental de quien realiza la medición.

En general, los errores del instrumento se reportan en la sección de materiales y métodos de un informe, y la exactitud sistemática se corrige mediante procedimientos de calibración técnica. Sin embargo, la incertidumbre más difícil de gestionar es la que tiene origen aleatorio, es decir, aquella que no sigue un patrón fijo y varía de manera impredecible entre repeticiones de la misma operación. Aunque se pueda reducir con entrenamiento y experiencia, nunca desaparece del todo.

Entendemos por incertidumbre aleatoria aquella causada por factores que escapan al control directo del experimento: variaciones involuntarias en el manejo del instrumento, errores de lectura visual, pequeñas diferencias en la temperatura, la humedad, o incluso cambios sutiles en la composición química de los materiales utilizados. Esta incertidumbre también puede analizarse en términos de precisión (cuando los errores se agrupan estrechamente, aunque lejos del valor real) o exactitud (cuando, pese a la dispersión, el promedio se acerca al valor verdadero). Para poder interpretarla y reducir su impacto, se aplican técnicas estadísticas, las cuales permiten transformar una serie de datos dispersos en una estimación confiable.

Gestión básica de la incertidumbre por precisión

Las herramientas más básicas para este propósito son el promedio aritmético y el rango de datos. El promedio se calcula sumando todas las mediciones y dividiendo por su número total; representa la mejor estimación central del resultado, siempre que las mediciones no estén sesgadas.

[1]. Promedio aritmético. Pulse aquí para la descripción de los términos.

El rango, en cambio, se define como la diferencia entre el valor máximo y el valor mínimo, y nos da una primera idea de la dispersión de los resultados. Estas técnicas permiten comparar resultados y observar tendencias, pero también son limitadas. Por ello, la estadística moderna ofrece intervalos de confianza más robustos, como los construidos con la prueba t de Student o la prueba z, que permiten estimar con mayor precisión la confiabilidad de los datos, especialmente cuando el número de mediciones es pequeño.

[2]. Desviación estándar. Pulse aquí para la descripción de los términos.

Aparte del rango y de las técnicas estadísticas avanzadas, existe otro gestor de intervalos: la desviación estándar de la muestra. Esta es una medida que describe la dispersión de los datos alrededor del promedio obtenido a partir de una cantidad limitada de observaciones. Aunque se puede calcular manualmente, es común generarla con calculadoras científicas, hojas de cálculo como Excel o incluso con inteligencias artificiales. Sin embargo, es conveniente usar las IA solo como verificadores y no como fuentes absolutas de cálculo, debido a posibles errores como las alucinaciones matemáticas, que pueden surgir por errores de interpretación o procesamiento.

A diferencia de otros aspectos de la química, las fórmulas estadísticas no tienen interpretación mediante análisis dimensional, ya que su sentido es puramente algebraico. En otras palabras, no existen factores de conversión que puedan aplicarse para “homologar” unidades como se hace con las leyes físicas o químicas. Solo los químicos, por tradición o por necesidad pedagógica, suelen intentar aplicar criterios dimensionales a leyes naturales, aunque esto no siempre tiene justificación lógica.

Es importante tener presente que estas fórmulas estadísticas operan con los valores absolutos de las mediciones, sin considerar sus unidades. Así, cuando calculamos una desviación estándar, un promedio o un rango, lo que estamos manipulando son magnitudes numéricas puras que describen la dispersión o tendencia de los datos, no su naturaleza física o química.

Por esta razón, aunque las unidades pueden reintroducirse al final del proceso como referencia contextual (por ejemplo, "la desviación estándar es de ±0.03 mL"), durante el cálculo estadístico en sí, el tratamiento es unitario, sin distinción entre gramos, segundos o litros. Esto refuerza la idea de que la estadística, en química, es una herramienta matemática más que una rama interpretativa con significado físico propio.

Gestión básica de la incertidumbre por exactitud

Para gestionar la incertidumbre por exactitud, necesitamos conocer un valor verdadero, que en estadística se representa con la letra griega μ. Este valor actúa como referencia ideal o estándar contra el cual se comparan nuestras mediciones. Es lo que podríamos llamar “la verdad” del experimento, y por ello, es esencial medir la distancia entre nuestros datos y esa verdad para evaluar cuán precisos somos. En estadística, existen varias formas de hacerlo, pero en su forma más elemental —que es la que abordaremos aquí— se utiliza el error relativo, una medida que compara cuánto se aleja un dato o un promedio aritmético del valor verdadero en proporción al mismo.

Es importante aclarar que este valor verdadero no es una verdad ontológica, es decir, no representa una verdad eterna o absoluta, sino más bien un valor aceptado y reportado por consenso científico, con base en evidencia acumulada. Por tanto, se usa como referencia práctica, no como dogma. La ciencia avanza, mejora sus instrumentos y refina sus modelos; por eso, lo que hoy se toma como valor verdadero puede ser ajustado en el futuro a medida que crece nuestro conocimiento y disminuye la incertidumbre experimental.

[3] Error relativo del promedio. Pulse aquí para la descripción de los términos.

Sin embargo, en 2019 se redefinieron algunas constantes fundamentales para que funcionaran literalmente como verdades universales en el sistema internacional de unidades. Así, valores como el número de Avogadro, la constante de Boltzmann, la carga del electrón, entre otros, fueron definidos con valores exactos, convirtiéndose en los nuevos pilares sobre los que se apoyan nuestras mediciones más precisas. En esos casos, el valor verdadero no tiene incertidumbre, pues ha sido fijado por definición.

Referencias

Attivissimo, F., Cataldo, A., Fabbiano, L., & Giaquinto, N. (2011). Systematic errors and measurement uncertainty: An experimental approach. Measurement44(9), 1781-1789.

Brown, T. L., LeMay, H. E. Jr., Bursten, B. E., Murphy, C. J., & Woodward, P. M. (2022). Chemistry: The Central Science (15th ed., AP Edition). Pearson Savvas Higher Education.

Chang, R., & Overby, J. (2022). Chemistry (14th ed., AP Edition). McGraw Hill.

Hughes, I., & Hase, T. (2010). Measurements and their uncertainties: a practical guide to modern error analysis. OUP Oxford.

Kuster, M. (2015). Resolving Resolution Uncertainty. NCSLI Measure10(3), 44-54.

Oosterhuis, W. P., Bayat, H., Armbruster, D., Coskun, A., Freeman, K. P., Kallner, A., ... & Theodorsson, E. (2018). The use of error and uncertainty methods in the medical laboratory. Clinical Chemistry and Laboratory Medicine (CCLM)56(2), 209-219.

Pestman, W. R. (2021). Mathematical statistics: an introduction. Walter de Gruyter GmbH & Co KG.

Pham, H. (2023). Basic statistics. In Springer Handbook of Engineering Statistics (pp. 3-41). London: Springer London.

Rabinovich, S. G. (2005). Measurement errors and uncertainties: theory and practice. New York, NY: Springer New York.

No hay comentarios:

Publicar un comentario