Hasta ahora hemos realizado cálculos partiendo del
presupuesto de que la última cifra significativa es plenamente
confiable. Sin embargo, esto no es cierto en el trabajo experimental. Esa
última cifra está sujeta a variaciones inevitables derivadas de las
limitaciones del proceso de medición. A esta variabilidad la denominamos incertidumbre,
y representa el margen dentro del cual se espera que se encuentre el valor
real.
La incertidumbre se expresa mediante un intervalo
de confianza, ya sea como un rango explícito (por ejemplo, de 9.8 a
10.0) o con la notación ± (por ejemplo, 9.9 ± 0.1). En ambos casos, se
trata de reconocer que toda medición contiene un grado de duda, incluso cuando
se utilizan instrumentos de precisión. Esta duda no es un error en el sentido
común del término, sino una propiedad inherente a toda medición cuantitativa.
Precisión sistemática
Aun asumiendo que el instrumento es perfecto y está en
óptimas condiciones, todo aparato de medición tiene límites físicos que
restringen la exactitud de sus lecturas. Estos límites están definidos desde
fábrica y deben interpretarse correctamente según el tipo de instrumento
utilizado, ya sea analógico o digital.
Los instrumentos analógicos son aquellos que
presentan sus lecturas mediante escalas continuas, como una regla graduada, una
balanza de platillos o un termómetro de columna. En estos casos, la incertidumbre
se estima como la mitad del valor de la menor división visible. Por
ejemplo, si una regla tiene divisiones cada milímetro, se considera una
incertidumbre de ±0.5 mm, ya que no es posible distinguir con seguridad
fracciones más pequeñas entre dos marcas consecutivas.
Por otro lado, los instrumentos digitales muestran
los valores mediante números, sin escala visible. Aquí, la incertidumbre se
expresa generalmente como ± una unidad en la última cifra mostrada. Si
una balanza digital marca 12.4 g, la incertidumbre es de ±0.1 g; si un
voltímetro muestra 3.276 V, la incertidumbre es de ±0.001 V. Esta convención
refleja el hecho de que el aparato redondea automáticamente su lectura al
número más cercano dentro de su resolución, sin que el usuario pueda ver lo que
ocurre en cifras más allá.
Podemos clasificar esta forma de incertidumbre como una precisión
sistemática. La precisión se refiere al rango o repetibilidad de
los datos obtenidos en una misma medición, sin importar cuán cercanos estén
al valor verdadero. Es decir, un instrumento puede ser preciso sin ser
exacto. En este caso, hablamos de un tipo de error sistemático porque
obedece exclusivamente a las limitaciones estructurales del instrumento,
y su magnitud será siempre la misma para un aparato dado, incluso si este se
encuentra descalibrado. La precisión sistemática es predecible,
cuantificable y controlable, lo cual la distingue de otras formas de
incertidumbre como el error aleatorio.
La resolución de un instrumento determina cuántos dígitos
de confianza nos ofrece y cuán estrecho es el rango de incertidumbre
asociado a una medición. Una mayor resolución implica que el aparato puede
detectar cambios más pequeños en la magnitud medida. Es importante destacar que
una incertidumbre digital no es necesariamente menor que una incertidumbre
analógica. Sin embargo, dado que los instrumentos digitales suelen ser más
sensibles y pueden ser leídos con mayor facilidad y menor entrenamiento,
tienden a ofrecer resoluciones más altas y, por lo tanto, intervalos
de confianza más estrechos. Esta combinación de accesibilidad y precisión
ha hecho que los dispositivos digitales se conviertan en el estándar en la
mayoría de laboratorios modernos.
Exactitud sistemática
Ahora discutiremos la exactitud sistemática,
entendida como la posibilidad de que un operario ideal —es decir, una
persona que conoce a la perfección el funcionamiento del instrumento y trabaja
en condiciones óptimas— pueda obtener el valor verdadero dentro
del margen determinado por la incertidumbre de precisión sistemática. A
diferencia del azar o de la habilidad del usuario, esta forma de exactitud
depende del comportamiento predecible del aparato bajo control total de
variables externas.
Mientras que la precisión describe la consistencia
de los resultados en mediciones repetidas, la exactitud indica qué tan cercanos
están esos resultados al valor real de la magnitud medida. Un aparato puede
ser muy preciso, generando siempre la misma lectura, pero si está descalibrado,
todas esas mediciones pueden estar alejadas del valor correcto. Este tipo de
desviación no es aleatoria, sino constante, lo que la convierte en un problema
sistemático que debe ser corregido.
La calibración del instrumento es, por tanto, el
factor determinante para alcanzar la exactitud. La calibración consiste en
comparar el aparato con un patrón conocido y ajustar su funcionamiento para que
los resultados coincidan con el estándar. Un instrumento bien calibrado
no solo ofrece valores repetibles, sino que esos valores se agrupan alrededor
del valor correcto. Así, la exactitud sistemática puede entenderse como el alineamiento
entre la precisión del aparato y la verdad física, bajo condiciones ideales
de uso.
Precisión y exactitud aleatorios
En este caso nos referimos a los errores introducidos por
el operario durante la toma de datos. A diferencia de los errores
instrumentales, que son inherentes al diseño y funcionamiento del aparato, los
errores humanos pueden variar entre un experimento y otro, incluso bajo
condiciones similares. En la mayoría de los casos prácticos, la
incertidumbre causada por el operario es considerablemente mayor que la del
instrumento. Esto se debe a múltiples factores: el tiempo de reacción del
usuario, las condiciones ambientales cambiantes (como iluminación,
temperatura o vibraciones), la pureza de los reactivos, la estabilidad
de los patrones de calibración o incluso el estado físico y mental
de quien realiza la medición.
En general, los errores del instrumento se reportan
en la sección de materiales y métodos de un informe, y la exactitud
sistemática se corrige mediante procedimientos de calibración técnica.
Sin embargo, la incertidumbre más difícil de gestionar es la que tiene origen
aleatorio, es decir, aquella que no sigue un patrón fijo y varía de manera
impredecible entre repeticiones de la misma operación. Aunque se pueda reducir
con entrenamiento y experiencia, nunca desaparece del todo.
Entendemos por incertidumbre aleatoria aquella
causada por factores que escapan al control directo del experimento:
variaciones involuntarias en el manejo del instrumento, errores de
lectura visual, pequeñas diferencias en la temperatura, la humedad,
o incluso cambios sutiles en la composición química de los materiales
utilizados. Esta incertidumbre también puede analizarse en términos de precisión
(cuando los errores se agrupan estrechamente, aunque lejos del valor real) o exactitud
(cuando, pese a la dispersión, el promedio se acerca al valor verdadero). Para
poder interpretarla y reducir su impacto, se aplican técnicas estadísticas,
las cuales permiten transformar una serie de datos dispersos en una estimación
confiable.
Gestión básica de la incertidumbre por precisión
Las herramientas más básicas para este propósito son el promedio
aritmético y el rango de datos. El promedio se calcula sumando todas
las mediciones y dividiendo por su número total; representa la mejor estimación
central del resultado, siempre que las mediciones no estén sesgadas.
[1].
Promedio aritmético. Pulse
aquí para la descripción de los términos.
El rango, en cambio, se define como la diferencia entre el valor
máximo y el valor mínimo, y nos da una primera idea de la dispersión
de los resultados. Estas técnicas permiten comparar resultados y observar
tendencias, pero también son limitadas. Por ello, la estadística moderna ofrece
intervalos de confianza más robustos, como los construidos con la prueba
t de Student o la prueba z, que permiten estimar con mayor precisión
la confiabilidad de los datos, especialmente cuando el número de mediciones es
pequeño.
[2].
Desviación estándar. Pulse
aquí para la descripción de los términos.
Aparte del rango y de las técnicas estadísticas
avanzadas, existe otro gestor de intervalos: la desviación estándar de
la muestra. Esta es una medida que describe la dispersión de los datos
alrededor del promedio obtenido a partir de una cantidad limitada de
observaciones. Aunque se puede calcular manualmente, es común generarla con calculadoras
científicas, hojas de cálculo como Excel o incluso con inteligencias
artificiales. Sin embargo, es conveniente usar las IA solo como verificadores
y no como fuentes absolutas de cálculo, debido a posibles errores como las alucinaciones
matemáticas, que pueden surgir por errores de interpretación o
procesamiento.
A diferencia de otros aspectos de la química, las fórmulas
estadísticas no tienen interpretación mediante análisis dimensional,
ya que su sentido es puramente algebraico. En otras palabras, no existen
factores de conversión que puedan aplicarse para “homologar” unidades
como se hace con las leyes físicas o químicas. Solo los químicos, por tradición
o por necesidad pedagógica, suelen intentar aplicar criterios dimensionales a leyes
naturales, aunque esto no siempre tiene justificación lógica.
Es importante tener presente que estas fórmulas estadísticas
operan con los valores absolutos de las mediciones, sin considerar sus
unidades. Así, cuando calculamos una desviación estándar, un promedio
o un rango, lo que estamos manipulando son magnitudes numéricas puras
que describen la dispersión o tendencia de los datos, no su naturaleza física o
química.
Por esta razón, aunque las unidades pueden reintroducirse al
final del proceso como referencia contextual (por ejemplo, "la desviación
estándar es de ±0.03 mL"), durante el cálculo estadístico en sí, el
tratamiento es unitario, sin distinción entre gramos, segundos o litros.
Esto refuerza la idea de que la estadística, en química, es una herramienta
matemática más que una rama interpretativa con significado físico propio.
Gestión básica de la incertidumbre por exactitud
Para gestionar la incertidumbre por exactitud,
necesitamos conocer un valor verdadero, que en estadística se representa
con la letra griega μ. Este valor actúa como referencia ideal o estándar
contra el cual se comparan nuestras mediciones. Es lo que podríamos llamar “la
verdad” del experimento, y por ello, es esencial medir la distancia entre
nuestros datos y esa verdad para evaluar cuán precisos somos. En
estadística, existen varias formas de hacerlo, pero en su forma más elemental
—que es la que abordaremos aquí— se utiliza el error relativo, una
medida que compara cuánto se aleja un dato o un promedio aritmético del
valor verdadero en proporción al mismo.
Es importante aclarar que este valor verdadero no es una
verdad ontológica, es decir, no representa una verdad eterna o absoluta,
sino más bien un valor aceptado y reportado por consenso científico, con base
en evidencia acumulada. Por tanto, se usa como referencia práctica, no como
dogma. La ciencia avanza, mejora sus instrumentos y refina sus modelos; por
eso, lo que hoy se toma como valor verdadero puede ser ajustado en el futuro a
medida que crece nuestro conocimiento y disminuye la incertidumbre
experimental.
[3]
Error relativo del promedio. Pulse
aquí para la descripción de los términos.
Sin embargo, en 2019 se redefinieron algunas constantes
fundamentales para que funcionaran literalmente como verdades universales
en el sistema internacional de unidades. Así, valores como el número de
Avogadro, la constante de Boltzmann, la carga del electrón,
entre otros, fueron definidos con valores exactos, convirtiéndose en los
nuevos pilares sobre los que se apoyan nuestras mediciones más precisas. En
esos casos, el valor verdadero no tiene incertidumbre, pues ha sido
fijado por definición.
Referencias
Attivissimo,
F., Cataldo, A., Fabbiano, L., & Giaquinto, N. (2011). Systematic errors
and measurement uncertainty: An experimental approach. Measurement, 44(9),
1781-1789.
Brown, T.
L., LeMay, H. E. Jr., Bursten, B. E., Murphy, C. J., & Woodward, P. M.
(2022). Chemistry: The Central Science (15th ed., AP Edition).
Pearson Savvas Higher Education.
Chang, R.,
& Overby, J. (2022). Chemistry (14th ed., AP Edition).
McGraw Hill.
Hughes, I.,
& Hase, T. (2010). Measurements and their uncertainties: a
practical guide to modern error analysis. OUP Oxford.
Kuster, M.
(2015). Resolving Resolution Uncertainty. NCSLI Measure, 10(3),
44-54.
Oosterhuis,
W. P., Bayat, H., Armbruster, D., Coskun, A., Freeman, K. P., Kallner, A., ...
& Theodorsson, E. (2018). The use of error and uncertainty methods in the
medical laboratory. Clinical Chemistry and Laboratory Medicine
(CCLM), 56(2), 209-219.
Pestman, W.
R. (2021). Mathematical statistics: an introduction. Walter
de Gruyter GmbH & Co KG.
Pham, H.
(2023). Basic statistics. In Springer Handbook of Engineering
Statistics (pp. 3-41). London: Springer London.
Rabinovich, S. G. (2005). Measurement errors and uncertainties: theory and practice. New York, NY: Springer New York.