Menú de Química

Buscar este blog

Translate

Mostrando entradas con la etiqueta Unidades y medidas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Unidades y medidas. Mostrar todas las entradas

martes, 22 de julio de 2025

Incertidumbre experimental




Hasta ahora hemos realizado cálculos partiendo del presupuesto de que la última cifra significativa es plenamente confiable. Sin embargo, esto no es cierto en el trabajo experimental. Esa última cifra está sujeta a variaciones inevitables derivadas de las limitaciones del proceso de medición. A esta variabilidad la denominamos incertidumbre, y representa el margen dentro del cual se espera que se encuentre el valor real.

La incertidumbre se expresa mediante un intervalo de confianza, ya sea como un rango explícito (por ejemplo, de 9.8 a 10.0) o con la notación ± (por ejemplo, 9.9 ± 0.1). En ambos casos, se trata de reconocer que toda medición contiene un grado de duda, incluso cuando se utilizan instrumentos de precisión. Esta duda no es un error en el sentido común del término, sino una propiedad inherente a toda medición cuantitativa.

Precisión sistemática

Aun asumiendo que el instrumento es perfecto y está en óptimas condiciones, todo aparato de medición tiene límites físicos que restringen la exactitud de sus lecturas. Estos límites están definidos desde fábrica y deben interpretarse correctamente según el tipo de instrumento utilizado, ya sea analógico o digital.

Los instrumentos analógicos son aquellos que presentan sus lecturas mediante escalas continuas, como una regla graduada, una balanza de platillos o un termómetro de columna. En estos casos, la incertidumbre se estima como la mitad del valor de la menor división visible. Por ejemplo, si una regla tiene divisiones cada milímetro, se considera una incertidumbre de ±0.5 mm, ya que no es posible distinguir con seguridad fracciones más pequeñas entre dos marcas consecutivas.

Por otro lado, los instrumentos digitales muestran los valores mediante números, sin escala visible. Aquí, la incertidumbre se expresa generalmente como ± una unidad en la última cifra mostrada. Si una balanza digital marca 12.4 g, la incertidumbre es de ±0.1 g; si un voltímetro muestra 3.276 V, la incertidumbre es de ±0.001 V. Esta convención refleja el hecho de que el aparato redondea automáticamente su lectura al número más cercano dentro de su resolución, sin que el usuario pueda ver lo que ocurre en cifras más allá.

Podemos clasificar esta forma de incertidumbre como una precisión sistemática. La precisión se refiere al rango o repetibilidad de los datos obtenidos en una misma medición, sin importar cuán cercanos estén al valor verdadero. Es decir, un instrumento puede ser preciso sin ser exacto. En este caso, hablamos de un tipo de error sistemático porque obedece exclusivamente a las limitaciones estructurales del instrumento, y su magnitud será siempre la misma para un aparato dado, incluso si este se encuentra descalibrado. La precisión sistemática es predecible, cuantificable y controlable, lo cual la distingue de otras formas de incertidumbre como el error aleatorio.

La resolución de un instrumento determina cuántos dígitos de confianza nos ofrece y cuán estrecho es el rango de incertidumbre asociado a una medición. Una mayor resolución implica que el aparato puede detectar cambios más pequeños en la magnitud medida. Es importante destacar que una incertidumbre digital no es necesariamente menor que una incertidumbre analógica. Sin embargo, dado que los instrumentos digitales suelen ser más sensibles y pueden ser leídos con mayor facilidad y menor entrenamiento, tienden a ofrecer resoluciones más altas y, por lo tanto, intervalos de confianza más estrechos. Esta combinación de accesibilidad y precisión ha hecho que los dispositivos digitales se conviertan en el estándar en la mayoría de laboratorios modernos.

Exactitud sistemática

Ahora discutiremos la exactitud sistemática, entendida como la posibilidad de que un operario ideal —es decir, una persona que conoce a la perfección el funcionamiento del instrumento y trabaja en condiciones óptimas— pueda obtener el valor verdadero dentro del margen determinado por la incertidumbre de precisión sistemática. A diferencia del azar o de la habilidad del usuario, esta forma de exactitud depende del comportamiento predecible del aparato bajo control total de variables externas.

Mientras que la precisión describe la consistencia de los resultados en mediciones repetidas, la exactitud indica qué tan cercanos están esos resultados al valor real de la magnitud medida. Un aparato puede ser muy preciso, generando siempre la misma lectura, pero si está descalibrado, todas esas mediciones pueden estar alejadas del valor correcto. Este tipo de desviación no es aleatoria, sino constante, lo que la convierte en un problema sistemático que debe ser corregido.

La calibración del instrumento es, por tanto, el factor determinante para alcanzar la exactitud. La calibración consiste en comparar el aparato con un patrón conocido y ajustar su funcionamiento para que los resultados coincidan con el estándar. Un instrumento bien calibrado no solo ofrece valores repetibles, sino que esos valores se agrupan alrededor del valor correcto. Así, la exactitud sistemática puede entenderse como el alineamiento entre la precisión del aparato y la verdad física, bajo condiciones ideales de uso.

Precisión y exactitud aleatorios

En este caso nos referimos a los errores introducidos por el operario durante la toma de datos. A diferencia de los errores instrumentales, que son inherentes al diseño y funcionamiento del aparato, los errores humanos pueden variar entre un experimento y otro, incluso bajo condiciones similares. En la mayoría de los casos prácticos, la incertidumbre causada por el operario es considerablemente mayor que la del instrumento. Esto se debe a múltiples factores: el tiempo de reacción del usuario, las condiciones ambientales cambiantes (como iluminación, temperatura o vibraciones), la pureza de los reactivos, la estabilidad de los patrones de calibración o incluso el estado físico y mental de quien realiza la medición.

En general, los errores del instrumento se reportan en la sección de materiales y métodos de un informe, y la exactitud sistemática se corrige mediante procedimientos de calibración técnica. Sin embargo, la incertidumbre más difícil de gestionar es la que tiene origen aleatorio, es decir, aquella que no sigue un patrón fijo y varía de manera impredecible entre repeticiones de la misma operación. Aunque se pueda reducir con entrenamiento y experiencia, nunca desaparece del todo.

Entendemos por incertidumbre aleatoria aquella causada por factores que escapan al control directo del experimento: variaciones involuntarias en el manejo del instrumento, errores de lectura visual, pequeñas diferencias en la temperatura, la humedad, o incluso cambios sutiles en la composición química de los materiales utilizados. Esta incertidumbre también puede analizarse en términos de precisión (cuando los errores se agrupan estrechamente, aunque lejos del valor real) o exactitud (cuando, pese a la dispersión, el promedio se acerca al valor verdadero). Para poder interpretarla y reducir su impacto, se aplican técnicas estadísticas, las cuales permiten transformar una serie de datos dispersos en una estimación confiable.

Gestión básica de la incertidumbre por precisión

Las herramientas más básicas para este propósito son el promedio aritmético y el rango de datos. El promedio se calcula sumando todas las mediciones y dividiendo por su número total; representa la mejor estimación central del resultado, siempre que las mediciones no estén sesgadas.

[1]. Promedio aritmético. Pulse aquí para la descripción de los términos.

El rango, en cambio, se define como la diferencia entre el valor máximo y el valor mínimo, y nos da una primera idea de la dispersión de los resultados. Estas técnicas permiten comparar resultados y observar tendencias, pero también son limitadas. Por ello, la estadística moderna ofrece intervalos de confianza más robustos, como los construidos con la prueba t de Student o la prueba z, que permiten estimar con mayor precisión la confiabilidad de los datos, especialmente cuando el número de mediciones es pequeño.

[2]. Desviación estándar. Pulse aquí para la descripción de los términos.

Aparte del rango y de las técnicas estadísticas avanzadas, existe otro gestor de intervalos: la desviación estándar de la muestra. Esta es una medida que describe la dispersión de los datos alrededor del promedio obtenido a partir de una cantidad limitada de observaciones. Aunque se puede calcular manualmente, es común generarla con calculadoras científicas, hojas de cálculo como Excel o incluso con inteligencias artificiales. Sin embargo, es conveniente usar las IA solo como verificadores y no como fuentes absolutas de cálculo, debido a posibles errores como las alucinaciones matemáticas, que pueden surgir por errores de interpretación o procesamiento.

A diferencia de otros aspectos de la química, las fórmulas estadísticas no tienen interpretación mediante análisis dimensional, ya que su sentido es puramente algebraico. En otras palabras, no existen factores de conversión que puedan aplicarse para “homologar” unidades como se hace con las leyes físicas o químicas. Solo los químicos, por tradición o por necesidad pedagógica, suelen intentar aplicar criterios dimensionales a leyes naturales, aunque esto no siempre tiene justificación lógica.

Es importante tener presente que estas fórmulas estadísticas operan con los valores absolutos de las mediciones, sin considerar sus unidades. Así, cuando calculamos una desviación estándar, un promedio o un rango, lo que estamos manipulando son magnitudes numéricas puras que describen la dispersión o tendencia de los datos, no su naturaleza física o química.

Por esta razón, aunque las unidades pueden reintroducirse al final del proceso como referencia contextual (por ejemplo, "la desviación estándar es de ±0.03 mL"), durante el cálculo estadístico en sí, el tratamiento es unitario, sin distinción entre gramos, segundos o litros. Esto refuerza la idea de que la estadística, en química, es una herramienta matemática más que una rama interpretativa con significado físico propio.

Gestión básica de la incertidumbre por exactitud

Para gestionar la incertidumbre por exactitud, necesitamos conocer un valor verdadero, que en estadística se representa con la letra griega μ. Este valor actúa como referencia ideal o estándar contra el cual se comparan nuestras mediciones. Es lo que podríamos llamar “la verdad” del experimento, y por ello, es esencial medir la distancia entre nuestros datos y esa verdad para evaluar cuán precisos somos. En estadística, existen varias formas de hacerlo, pero en su forma más elemental —que es la que abordaremos aquí— se utiliza el error relativo, una medida que compara cuánto se aleja un dato o un promedio aritmético del valor verdadero en proporción al mismo.

Es importante aclarar que este valor verdadero no es una verdad ontológica, es decir, no representa una verdad eterna o absoluta, sino más bien un valor aceptado y reportado por consenso científico, con base en evidencia acumulada. Por tanto, se usa como referencia práctica, no como dogma. La ciencia avanza, mejora sus instrumentos y refina sus modelos; por eso, lo que hoy se toma como valor verdadero puede ser ajustado en el futuro a medida que crece nuestro conocimiento y disminuye la incertidumbre experimental.

[3] Error relativo del promedio. Pulse aquí para la descripción de los términos.

Sin embargo, en 2019 se redefinieron algunas constantes fundamentales para que funcionaran literalmente como verdades universales en el sistema internacional de unidades. Así, valores como el número de Avogadro, la constante de Boltzmann, la carga del electrón, entre otros, fueron definidos con valores exactos, convirtiéndose en los nuevos pilares sobre los que se apoyan nuestras mediciones más precisas. En esos casos, el valor verdadero no tiene incertidumbre, pues ha sido fijado por definición.

Referencias

Attivissimo, F., Cataldo, A., Fabbiano, L., & Giaquinto, N. (2011). Systematic errors and measurement uncertainty: An experimental approach. Measurement44(9), 1781-1789.

Brown, T. L., LeMay, H. E. Jr., Bursten, B. E., Murphy, C. J., & Woodward, P. M. (2022). Chemistry: The Central Science (15th ed., AP Edition). Pearson Savvas Higher Education.

Chang, R., & Overby, J. (2022). Chemistry (14th ed., AP Edition). McGraw Hill.

Hughes, I., & Hase, T. (2010). Measurements and their uncertainties: a practical guide to modern error analysis. OUP Oxford.

Kuster, M. (2015). Resolving Resolution Uncertainty. NCSLI Measure10(3), 44-54.

Oosterhuis, W. P., Bayat, H., Armbruster, D., Coskun, A., Freeman, K. P., Kallner, A., ... & Theodorsson, E. (2018). The use of error and uncertainty methods in the medical laboratory. Clinical Chemistry and Laboratory Medicine (CCLM)56(2), 209-219.

Pestman, W. R. (2021). Mathematical statistics: an introduction. Walter de Gruyter GmbH & Co KG.

Pham, H. (2023). Basic statistics. In Springer Handbook of Engineering Statistics (pp. 3-41). London: Springer London.

Rabinovich, S. G. (2005). Measurement errors and uncertainties: theory and practice. New York, NY: Springer New York.

Figura 1. Monedas

Un ejemplo emblemático de moneda que combina el poder político con el simbolismo divino es el aureus emitido por el emperador romano Augusto (27 a. C. – 14 d. C.). Esta moneda de oro de alta pureza no solo tenía gran valor económico, sino también un fuerte contenido ideológico y propagandístico. En el anverso (frente) solía figurar el rostro de Augusto, con una inscripción que lo identificaba como “Divi Filius”, es decir, “Hijo del Divino”, en referencia a su padre adoptivo Julio César, quien había sido deificado por el Senado romano tras su muerte. Al atribuirse esta filiación, Augusto se presentaba no como un simple líder humano, sino como un heredero legítimo del orden divino.

En el reverso (dorso), muchas de estas monedas mostraban a Apolo, dios de la luz, la armonía y la profecía, cuya imagen Augusto promovía como su protector personal y símbolo de su régimen. Otras versiones del reverso presentaban a Marte, Júpiter o incluso símbolos astrales que reforzaban la idea de que el emperador era el vínculo entre los dioses y Roma.

El aureus tenía un valor muy alto. Se estima que podía equivaler al salario mensual de un soldado romano o al costo de mantener una familia por varias semanas. Con uno de estos se podía comprar un esclavo joven, una buena capa de lana o incluso una pequeña cantidad de tierras en las provincias.

Esta combinación de iconografía política y religiosa consolidó el poder del emperador, mostrando cómo la moneda no solo era una unidad de intercambio, sino también un vehículo de legitimación divina, algo que sería imitado por siglos en muchas culturas.

Figura. Balanza de Watt-Kibble

La balanza de Watt es un instrumento científico de alta precisión diseñado para medir la masa en términos de fuerzas eléctricas y magnéticas, eliminando la necesidad de usar un patrón físico como referencia. A diferencia de una balanza tradicional, no compara dos masas, sino que relaciona la masa con constantes fundamentales de la naturaleza. Su funcionamiento se basa en dos modos complementarios: el modo estático, donde se equilibra el peso de una masa con una fuerza electromagnética, y el modo dinámico, donde se mide el voltaje inducido al mover una bobina dentro de un campo magnético. Esta relación entre magnitudes permite expresar la masa a partir de la constante de Planck, una de las constantes universales más importantes.

El funcionamiento de la balanza de Watt se apoya en dos principios físicos clave: la ley de Lorentz, que describe la fuerza sobre una carga en movimiento dentro de un campo magnético, y la ley de Faraday, que explica la inducción de voltaje al mover un conductor en un campo magnético. En el modo estático, se equilibra el peso de una masa con la fuerza generada por una corriente eléctrica en una bobina suspendida en un campo magnético. En el modo dinámico, se mueve esa bobina a velocidad constante y se mide el voltaje inducido. Combinando ambos datos, se elimina el campo magnético como incógnita, permitiendo determinar la masa con una precisión extraordinaria.

La balanza de Watt fue propuesta por el físico británico Bryan Kibble en 1975, mientras trabajaba en el National Physical Laboratory (NPL) en el Reino Unido. Inicialmente se llamó “balanza de corriente”, pero más tarde se renombró en honor a James Watt, como referencia al vínculo entre mecánica y electricidad. Desde entonces, ha sido fundamental en la redefinición del kilogramo en términos de la constante de Planck, implementada oficialmente en el Sistema Internacional en 2019.

Figura. Nuevo sistema de medidas

Es altamente beneficioso que las unidades de medida actuales ya no dependan de objetos físicos tangibles, pues estos están expuestos a daños, pérdidas o alteraciones con el tiempo. Un ejemplo notable fue el antiguo patrón internacional del kilogramo, un cilindro de platino-iridio que, a pesar de estar protegido en condiciones estrictas, mostró con los años variaciones mínimas de masa. Esta dependencia de objetos materiales hacía que la definición de una unidad fundamental pudiera verse comprometida por factores impredecibles, como el deterioro natural o las diferencias entre copias distribuidas en distintos países.

Además, la historia ha demostrado que incluso los objetos más protegidos no están exentos de amenazas externas. Durante el siglo XX, las guerras mundiales, los bombardeos y los conflictos políticos en Europa pusieron en riesgo numerosos estándares físicos almacenados en museos y laboratorios. Esto evidenció la fragilidad de un sistema de medición basado en artefactos únicos. En contraste, las definiciones modernas, basadas en constantes universales como la velocidad de la luz, la frecuencia del cesio-133 o la carga del electrón, no dependen de ningún objeto en particular y pueden reproducirse con precisión en cualquier laboratorio bien equipado.

Adoptar este enfoque no solo garantiza una mayor estabilidad y reproducibilidad en las mediciones, sino que también promueve la equidad científica global, ya que cualquier país, sin importar su situación geopolítica, puede acceder a las mismas definiciones. Este cambio fortalece la precisión científica, impulsa el avance tecnológico y asegura que las mediciones fundamentales sean independientes de eventos históricos, económicos o bélicos. De este modo, el sistema internacional de unidades se vuelve más robusto, confiable y universal, en consonancia con los ideales de una ciencia moderna, abierta y colaborativa.

Análisis dimensional




El análisis dimensional es el proceso mediante el cual se evalúa la homogeneidad dimensional de una ecuación. Esta homogeneidad implica que ambos lados de una igualdad deben conservar las mismas unidades dimensionales. Es importante recordar que una ecuación funciona como una balanza: no basta con que exista el mismo número (por ejemplo, 30) a ambos lados; también debe coincidir la unidad correspondiente.

En este sentido, podemos distinguir dos tipos de unidades: las unidades de la variable dependiente y las unidades de la función. Las primeras son, como su nombre lo indica, las unidades fundamentales que definen la magnitud que estamos observando, como kilogramos para la masa. Por su parte, las unidades de la función son el conjunto de unidades de entrada que, al combinarse adecuadamente, deben producir como resultado las unidades de la variable dependiente.

Dependiendo del tipo de proceso algorítmico que se emplee, el análisis dimensional puede asumir distintos matices. Por ejemplo, cuando se utiliza el lenguaje del factor de conversión, el análisis dimensional es en sí mismo el algoritmo: las unidades funcionan como una guía lógica que conduce desde el punto A al punto B, indicando paso a paso cómo transformar las cantidades.

En cambio, cuando se resuelven problemas mediante fórmulas, el análisis dimensional cumple un rol distinto. En este caso, constituye una etapa de verificación, posterior a la sustitución de variables pero previa al cálculo aritmético. Su objetivo es comprobar que la dimensionalidad de las cantidades sustituidas sea coherente con la ecuación.

Además, si acabamos de deducir una fórmula a partir de otras expresiones matemáticas, aplicar análisis dimensional por primera vez sirve para verificar que el despeje o la transformación algebraica haya sido correcta.

El análisis dimensional, por ende, depende del procedimiento elegido para abordar un determinado proceso fisicoquímico, y dentro de la propia química, varía según el capítulo temático. Por ejemplo, en la química de gases, es común utilizar fórmulas prediseñadas, como la ley de los gases ideales, en las cuales el análisis dimensional se emplea como una verificación posterior. En cambio, en capítulos como la estequiometría, el enfoque dominante es el del factor de conversión, donde el análisis dimensional guía directamente la secuencia de pasos del cálculo.

Sin embargo, en este curso de química proponemos demostrar que ambos métodos —el algebraico-formular y el de factores de conversión— pueden aplicarse en todos los capítulos. Por lo tanto, el salto de un método a otro entre temas no responde necesariamente a un criterio de coherencia lógica o rigor conceptual, sino que a menudo obedece a la estructura narrativa del libro de texto. Allí donde la ciencia parece no tener sentido, la explicación más razonable suele encontrarse en un capricho histórico o social, más que en una necesidad metodológica estricta.

Factores de dimensionalidad variable entre lenguajes

Algunos parámetros que son formalmente adimensionales, como la fracción de masa, pueden dejar de serlo cuando se interpretan mediante el lenguaje del factor de conversión.

Esto ocurre porque, al asociarse la unidad a la identidad de la sustancia, esta deja de ser un simple valor y no puede ser cancelada en un cociente de masas mediante reglas algebraicas convencionales. En el ejemplo [1a], el cociente “g HCl sobre g totales” no permite la cancelación directa, ya que las unidades están ligadas a sustancias distintas.

En cambio, en el lenguaje algebraico, la identidad química se separa de la unidad física. La identidad se representa mediante subíndices o paréntesis junto a la variable dependiente, mientras que en la función operativa las unidades permanecen como g/g, lo que permite su cancelación.

Por esta razón, puede afirmarse que el factor de conversión no es solo una técnica de cálculo, sino también un lenguaje operativo que organiza la información de forma distinta. De hecho, muchas unidades complejas aparecerán en los enunciados como expresiones algebraicas, pero deberán ser reinterpretadas como factores de conversión para poder operar correctamente.

Generalmente, la unidad en el numerador se asocia al valor principal, mientras que la del denominador se vincula a un 1 teórico, funcionando como base o punto de partida para la conversión, como sucede con la densidad.

O con la masa molar

De lo anterior se desprende que existen dos tipos de factores de conversión: por un lado, el factor de conversión físico, que está compuesto por un valor numérico, una unidad y, en algunos casos, una dirección vectorial; y por otro lado, el factor de conversión químico, cuyos términos incluyen no solo valor y unidad, sino también una identidad química explícita, además de, en ocasiones, una dirección vectorial.

Es precisamente la presencia de la identidad química lo que permite distinguir si un modelo es físico o químico. En el lenguaje algebraico, estas identidades se representan generalmente como subíndices asociados a las variables o, en ciertos casos, mediante su ausencia deliberada. Por ejemplo, en su artículo, deToma (1994) señalaba que las totalidades debían representarse sin subíndice, reservando estos únicamente para las partes diferenciadas dentro de una expresión química.

Totalidades y sumas

El análisis dimensional por factores de conversión, como su nombre lo indica, ha sido concebido para el análisis de productos (o cocientes), es decir, para trabajar con proporciones entre magnitudes. Sin embargo, cuando se aplica en ejercicios que implican sumatorias, puede volverse problemático o confuso, especialmente si no se conoce el truco necesario para superar el obstáculo de las identidades parciales.

Cuando se presentan sumas utilizando el lenguaje de los factores de conversión, es importante recordar que las identidades de las partes individuales deben ser reemplazadas por una identidad común o total para que la suma pueda ejecutarse correctamente. Por ejemplo, si se desea sumar el número total de entidades entre 4 manzanas y 2 peras, el álgebra básica nos dice que no se puede simplificar la expresión 4 manzanas+2 peras, ya que las identidades son distintas.

No obstante, si sabemos intuitivamente que se trata de un número total de frutas, podemos hacer un paso intermedio: sustituimos ambas identidades por una identidad superior compartida, como “frutas”, y así obtenemos 6 frutas.

En la notación algebraica, este problema no se presenta. Esto se debe a que la identidad de la totalidad se encuentra almacenada en la variable dependiente, mientras que las identidades individuales están contenidas en una fórmula mediante el operador de sumatoria —notación que veremos más adelante. Por ahora, basta con señalar que, al realizar la sustitución algebraica, obtendremos una suma de valores numéricos con unidades homogéneas, es decir, una suma sin identidades parciales. Esta homogeneización previa es lo que permite aplicar correctamente la operación aritmética, sin conflictos entre las distintas identidades físicas involucradas.

Este enfoque refuerza una de las ideas fundamentales del análisis dimensional: no se pueden sumar magnitudes con unidades distintas, a menos que estas se reconozcan como partes de una misma totalidad, lo cual exige una transformación conceptual previa.

Este principio se vuelve clave también en problemas inversos, donde se conoce la totalidad y una subtotalidad, y se desea hallar una particularidad. En estos casos, será necesario aplicar sustituciones de identidad que, aunque puedan parecer arbitrarias, son indispensables para que el lenguaje de los factores de conversión funcione correctamente.

No lineales

La principal ventaja del factor de conversión es que funciona de la misma manera, ya sea que estemos realizando conversiones directas o inversas. Sin embargo, esto implica que debemos escribir todo el procedimiento en cada caso. A pesar de su simplicidad, el método no está exento de variantes. Una de las más importantes se presenta en sistemas no lineales, como áreas (cuadrados) o volúmenes (cubos), cuando partimos de una igualdad lineal. En estos casos, se construye el factor de conversión ignorando inicialmente la potencia de la unidad dada. Posteriormente, se eleva todo el factor a la potencia deseada para obtener la conversión correcta.

Mediante sustitución algebraica, reemplazamos la definición base del metro dentro del paréntesis, y luego elevamos al cubo según la operación indicada. A partir de ese punto, el procedimiento continúa de forma equivalente al método por factores de conversión.

Para la conversión inversa tendríamos por factor de conversión:

Mediante sustitución algebraica, reemplazamos el centímetro cúbico por la definición de “centi” elevada al cubo. Es decir, la unidad cm3 debe interpretarse como (cm)3, donde el exponente afecta tanto al prefijo “centi” como a la unidad base “metro”. De forma implícita, debemos reconocer que el cubo se aplica a toda la unidad compuesta, y no solo al metro.

Anidación

Finalmente, los problemas de anidación —también llamados de encadenamiento— surgen cuando no existe una relación teórica directa entre las unidades dadas. En estos casos, se requiere el uso de una o más unidades puente para conectar origen y destino.

Cuando se resuelven mediante el método de factores de conversión, la estrategia consiste en agregar múltiples fracciones en serie hacia la derecha. En este enfoque, el orden de los factores es irrelevante, ya que el producto no se ve afectado por su disposición.

En cambio, cuando se emplea la sustitución algebraica, es recomendable dejar explícita la unidad que se sustituye, utilizando la raya de cancelación. Esto permite mantener la trazabilidad del proceso, es decir, hacer evidente la cadena lógica de sustituciones que se han aplicado en cada paso del procedimiento.

[Ejercicios resueltos de análisis dimensional]

Referencias

Brown, T. L., LeMay, H. E. Jr., Bursten, B. E., Murphy, C. J., & Woodward, P. M. (2022). Chemistry: The Central Science (15th ed., AP Edition). Pearson Savvas Higher Education.

Chang, R., & Overby, J. (2022). Chemistry (14th ed., AP Edition). McGraw Hill.

DeToma, R. P. (1994). Symbolic algebra and stoichiometry. Journal of chemical education71(7), 568.

García, J. L. G. (2025). Dimensional Analysis in Chemistry Textbooks 1900-2020 and an Algebraic Alternative. Educación Química36(1), 82-108.