Menú de Química

Buscar este blog

Translate

Mostrando entradas con la etiqueta química de gases. Mostrar todas las entradas
Mostrando entradas con la etiqueta química de gases. Mostrar todas las entradas

lunes, 15 de diciembre de 2025

Enriquecimiento de uranio

[Química de gases] Sección 5 

            [Teoría cinética

            [Rapidez molecular y leyes de Graham

            [Enriquecimiento del uranio

Enriquecer uranio consiste en aumentar la proporción de un isótopo de uranio inestable 235 con respecto a otro más estable 238, sin alterar la identidad química del elemento. En la naturaleza, el uranio se encuentra como una mezcla de isótopos, principalmente uranio-238, que es estable desde el punto de vista nuclear, y uranio-235, que es nuclearmente inestable y capaz de sufrir fisión. El proceso de enriquecimiento no crea nuevos átomos, sino que modifica la proporción relativa de estos isótopos para hacer posible su uso en aplicaciones energéticas o tecnológicas específicas.

Uranium - Wikipedia

Figura 1. El uranio es un metal sólido, denso y gris plateado, brillante al pulirse, cuyas propiedades metálicas dependen de su estructura electrónica. A nivel químico, sus isótopos son indistinguibles, ya que difieren solo en el núcleo atómico. Por ello, la separación isotópica requiere técnicas físicas, como difusión o efusión, basadas en diferencias de masa.

Un isótopo se define como una variante de un mismo elemento químico cuyos átomos poseen el mismo número de protones en el núcleo —lo que determina su identidad química— pero diferente número de neutrones. Esta diferencia en la composición del núcleo atómico altera la masa nuclear y, en muchos casos, la estabilidad del núcleo, sin afectar el comportamiento químico del átomo. En el caso del uranio, todos sus isótopos tienen 92 protones, pero difieren en el número de neutrones, lo que explica por qué algunos son estables y otros susceptibles a procesos nucleares.

Esta distinción estructural en el núcleo atómico es la base física que hace posible el enriquecimiento del uranio y, al mismo tiempo, la razón por la cual dicho proceso reviste una importancia científica, tecnológica y geopolítica significativa. En las siguientes secciones se analizará cómo esta diferencia isotópica se aprovecha, qué métodos permiten modificarla y cuáles son sus implicaciones.

El isótopo energético

El uranio relevante, en el contexto nuclear, es el uranio-235, no porque sea el más masivo, sino porque su núcleo es menos estable que el del uranio-238 y, por ello, energéticamente más susceptible a la fisión. La clave no está en la energía química, sino en la energía de enlace nuclear y en cómo se distribuyen protones y neutrones dentro del núcleo.

El núcleo del U-235 contiene 92 protones y 143 neutrones. Esta combinación lo sitúa en un equilibrio delicado: las fuerzas nucleares fuertes, que mantienen unido el núcleo, apenas compensan las repulsiones eléctricas entre los protones. Como resultado, el núcleo se encuentra en un estado metaestable. Cuando un neutrón lento es absorbido, el núcleo resultante se deforma y puede romperse (fisionar) en núcleos más pequeños. En ese proceso se libera una gran cantidad de energía nuclear, además de neutrones adicionales que pueden inducir nuevas fisiones, haciendo posible una reacción en cadena.

En contraste, el U-238, aunque más abundante y ligeramente más pesado, tiene un núcleo más estable. Su proporción de neutrones le permite absorber neutrones sin fisionarse con facilidad; por eso se considera fértil pero no fisionable con neutrones lentos. Esta diferencia explica por qué el enriquecimiento busca aumentar la fracción de U-235: no se trata de masa total, sino de inestabilidad nuclear aprovechable.

En síntesis, el uranio “importante” es aquel cuyo núcleo se encuentra lo suficientemente inestable como para liberar energía, pero no tan inestable como para desintegrarse espontáneamente. Esa condición intermedia convierte al U-235 en un material excepcional desde el punto de vista energético y estratégico, y explica por qué pequeñas variaciones en su proporción tienen consecuencias enormes.

No superveniencia y propiedades emergentes

La no superveniencia, en sentido filosófico, es la idea de que ciertas propiedades de un sistema no están completamente determinadas por sus componentes más básicas, aun cuando estas últimas permanezcan constantes, sino por como interactúan entre sí. Dicho de otro modo, conocer todos los componentes fundamentales de un sistema no siempre basta para predecir su comportamiento global, porque la organización y las relaciones entre las partes importan tanto como las partes mismas. Esta noción surge en filosofía de la ciencia para explicar por qué sistemas complejos exhiben propiedades nuevas —llamadas propiedades emergentes— que no se deducen de manera directa a partir de sus constituyentes aislados.

Trasladada al ámbito de la química, esta idea se manifiesta como la no superveniencia de los elementos químicos. En química, los átomos conservan su identidad nuclear —su número de protones y neutrones—, pero al reorganizarse mediante enlaces químicos, la materia resultante puede cambiar radicalmente sus propiedades físicas y químicas. El elemento no desaparece ni se transforma en otro, pero el comportamiento del sistema ya no es el mismo. Así, sustancias formadas por los mismos átomos pueden presentar estados físicos, reactividad y propiedades tecnológicas completamente distintas. La química, en este sentido, no es una simple consecuencia directa de la física nuclear.

El hexafluoruro de uranio

Este principio explica por qué la separación de isótopos de uranio no se realiza a partir del uranio metálico. El uranio, como metal, es sólido, denso y fuertemente cohesionado, con un punto de ebullición extremadamente alto, lo que hace prácticamente imposible su conversión directa en un gas utilizable. Sin embargo, al reaccionar químicamente con otros elementos, el uranio puede incorporarse a compuestos cuyas propiedades físicas no se parecen en nada a las del metal original, aun cuando los núcleos atómicos —y por tanto los isótopos— permanezcan intactos.

El caso más importante es la reacción con flúor, un oxidante muy potente, que produce hexafluoruro de uranio (UF₆). Aunque podría esperarse que este compuesto tuviera carácter iónico y un punto de ebullición elevado, el UF₆ es en realidad un compuesto molecular, con enlaces altamente polarizados pero discretos. Esta estructura le confiere un punto de sublimación relativamente bajo, permitiendo que se vaporice con facilidad a temperaturas moderadas. Gracias a esta transformación química —ejemplo claro de no superveniencia— el uranio puede introducirse en procesos físicos como la difusión y la efusión, donde las pequeñas diferencias de masa entre isótopos se vuelven técnicamente aprovechables.

Separación del uranio pesado

La ventaja de emplear flúor en los procesos de separación isotópica del uranio radica en una combinación excepcional de propiedades químicas y físicas. Al reaccionar con el uranio, el flúor forma el hexafluoruro de uranio (UF₆), un compuesto molecular y volátil, condición indispensable para aplicar métodos de separación basados en el movimiento de gases. Además, el flúor es prácticamente monoisotópico, ya que casi la totalidad del flúor natural corresponde al isótopo ¹⁹F. Esto garantiza que, durante la separación, cualquier diferencia de comportamiento entre las moléculas de UF₆ se deba exclusivamente a la masa del isótopo de uranio, y no a variaciones isotópicas del ligando químico. De este modo, el flúor actúa como un portador químicamente neutro desde el punto de vista isotópico.

Los métodos históricos basados en la difusión y efusión gaseosa requirieron instrumentos altamente especializados. Durante la Segunda Guerra Mundial, estos procesos se realizaban mediante barreras porosas, membranas metálicas, cámaras de vacío, sistemas de compresión y complejas redes de tuberías que permitían múltiples etapas sucesivas de separación. Cada etapa producía solo una diferencia mínima en la composición isotópica, por lo que era necesario encadenar miles de unidades en lo que se conoce como una cascada de separación. En ese contexto histórico, tanto el diseño de los materiales como el control de los flujos eran tecnologías extremadamente avanzadas y estrictamente secretas, accesibles únicamente a un pequeño número de potencias nucleares.

La centrífuga gaseosa es el instrumento técnico más importante en los procesos modernos de enriquecimiento de uranio, y representa una aplicación directa de principios físicos clásicos a gran escala tecnológica. Su función es separar moléculas de hexafluoruro de uranio (UF₆) que contienen distintos isótopos de uranio, aprovechando pequeñas diferencias de masa. A diferencia de los métodos históricos de difusión, la centrífuga no depende del paso del gas a través de barreras porosas, sino de un campo de aceleración centrífuga generado por la rotación rápida del sistema. Este enfoque permite una separación más eficiente con un consumo energético significativamente menor.

Desde un punto de vista conceptual, la centrífuga consiste en un recipiente cilíndrico sellado dentro del cual se introduce UF₆ en fase gaseosa. Al ponerse en rotación, las moléculas más pesadas tienden a desplazarse hacia regiones externas del campo centrífugo, mientras que las más ligeras permanecen relativamente más cerca del eje. Esta redistribución espacial no produce una separación completa, sino una diferencia gradual de concentración isotópica. Por esta razón, una sola centrífuga solo logra un enriquecimiento parcial, lo que hace necesario conectar múltiples unidades en cascadas, donde el producto de una etapa alimenta a la siguiente.

La importancia tecnológica de la centrífuga gaseosa radica en su eficiencia, modularidad y control, lo que permitió miniaturizar y optimizar el enriquecimiento en comparación con instalaciones masivas del pasado. A lo largo del tiempo, el diseño conceptual se mantuvo, pero se incorporaron avances en ingeniería de materiales, dinámica de fluidos, control automático y modelado computacional, mejorando su estabilidad y rendimiento. Aunque su uso industrial está estrictamente regulado, la centrífuga gaseosa es hoy un ejemplo paradigmático de cómo un principio físico simple puede convertirse en una herramienta tecnológica sofisticada, capaz de conectar la estructura nuclear de la materia con procesos industriales de alta precisión.

Imagen que contiene Diagrama

El contenido generado por IA puede ser incorrecto.

Figura 2. La centrífuga gaseosa es clave del enriquecimiento moderno de uranio: separa UF₆ según pequeñas diferencias de masa mediante rotación, con mayor eficiencia y menor consumo que la difusión. Cada unidad produce una separación parcial, por lo que se organizan en cascadas. Su evolución incorporó avances en materiales, control y modelado, manteniendo estricta regulación.

Geopolítica

En el plano geopolítico, la tecnología de enriquecimiento de uranio pasó de ser un recurso excepcional, concentrado en pocas manos, a convertirse en un factor estructural de inestabilidad global. Durante la Guerra Fría, el orden nuclear era esencialmente bipolar: Estados Unidos y la Unión Soviética monopolizaban las capacidades técnicas y militares, y la disuasión se sostenía sobre la idea de actores estatales relativamente racionales, con doctrinas claras y canales de comunicación estables. Aunque el riesgo era extremo, estaba contenido dentro de un marco estratégico reconocible, reforzado por tratados y equilibrios de poder bien definidos.

Con el tiempo, ese esquema se fragmentó. La difusión del conocimiento científico, la reducción de costos y la modularidad de tecnologías como la centrifugación gaseosa hicieron que el enriquecimiento dejara de ser secreto para convertirse en accesible bajo ciertas condiciones. En Medio Oriente, Israel desarrolló capacidades nucleares al margen de los regímenes formales de control, adoptando una política de ambigüedad estratégica frente a vecinos percibidos como hostiles. Esta situación no solo alteró el equilibrio regional, sino que incentivó respuestas indirectas y carreras tecnológicas asimétricas. De forma paralela, Irán avanzó en su programa de enriquecimiento, provocando sanciones, sabotajes y acciones militares indirectas por parte de Estados Unidos y sus aliados. La retirada de acuerdos y los bombardeos ordenados durante la presidencia de Donald Trump ilustran cómo estas intervenciones pueden retrasar, pero difícilmente eliminar, capacidades que descansan en conocimiento ya difundido.

U.S. Drops 14 Bunker Busters in B-2 Strike Against Iranian Nuclear Sites -  USNI News

Figura 3. La imagen ilustra la disuasión estratégica para frenar la proliferación militar de adversarios, no como “buenos contra malos”, sino como nosotros contra ellos. Acciones recientes (2024–2025) han retrasado capacidades, elevado la volatilidad global y reactivado la diplomacia. América del Sur queda como observador pasivo, afectado indirectamente y obligado a leer críticamente un orden multipolar e incierto.

Referencias

Atkins, P., de Paula, J., & Keeler, J. (2018). Atkins’ physical chemistry (11th ed.). Oxford University Press.

Bodansky, D. (2004). Nuclear energy: principles, practices, and prospects. New York, NY: Springer New York.

Cohen, B. L. (1974). Nuclear science and society (Vol. 73). Anchor Books.

Dunlap, R. A. (2023). An introduction to the physics of nuclei and particles. IOP Publishing.

Gaddis, J. L. (2005). The Cold War: A new history. Penguin Press.

Glaser, A. (2008). Characteristics of the gas centrifuge for uranium enrichment and their relevance for nuclear weapon proliferation. Science & Global Security16(1-2), 1-25.

Hasegawa, S. (2012). Isotope Separation Methods for Nuclear Fuel. In Nuclear Energy: Selected Entries from the Encyclopedia of Sustainability Science and Technology (pp. 59-76). New York, NY: Springer New York.

Hendry, R. F. (2010). Ontological reduction and molecular structure. Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics41(2), 183-191.

International Atomic Energy Agency. (2022). Nuclear fuel cycle information system. IAEA.

Lamarsh, J. R., & Baratta, A. J. (2018). Introduction to nuclear engineering. Pearson Education, Incorporated.

Reuters. (2025, June 21). Trump says Iran’s key nuclear sites ‘obliterated’ by US strikes; warns of more attacks if no peace. Reuters. https://www.reuters.com/world/middle-east/iran-israel-launch-new-attacks-after-tehran-rules-out-nuclear-talks-2025-06-21/

Reuters. (2025, June 29). US strikes on Iran’s nuclear sites set up “cat-and-mouse” hunt for missing uranium. Reuters. https://www.reuters.com/world/middle-east/us-strikes-irans-nuclear-sites-set-up-cat-and-mouse-hunt-missing-uranium-2025-06-29/

Rhodes, R. (1986). The making of the atomic bomb. Simon & Schuster.

Sagan, S. D. (1996). Why do states build nuclear weapons? Three models in search of a bomb. International Security, 21(3), 54–86.

Scerri, E. R. (2007). The philosophy of chemistry. Oxford University Press.

Scerri, E. R., & McIntyre, L. (1997). The case for the philosophy of chemistry. Synthese, 111(2), 213–232.

Serway, R. A., Moses, C. J., & Moyer, C. A. (2017). Modern physics (3rd ed.). Cengage Learning.

Shultis, J. K., McGregor, D. S., & Faw, R. E. (2016). Fundamentals of nuclear science and engineering. CRC press.

Sokolski, H. D. (2010). Nuclear proliferation and geopolitics. Strategic Studies Institute.

Stacey, W. M. (2018). Nuclear reactor physics. John Wiley & Sons.

Wood, H. G., Glaser, A., & Kemp, R. S. (2008). The gas centrifuge and nuclear weapons proliferation. Physics Today61(9), 40-45.

miércoles, 10 de diciembre de 2025

Viendo átomos

[Química de gases] Sección 6 

            [Gases reales

            [Viendo los átomos

A lo largo del último siglo, el ser humano ha intentado acercarse cada vez más al mundo atómico, ese dominio minúsculo donde la materia adquiere sus propiedades fundamentales. Los átomos son las unidades básicas de los elementos químicos y los ladrillos esenciales de toda la materia. Cada átomo posee un núcleo compuesto por protones y, por lo general, neutrones; alrededor de él se encuentra un conjunto de electrones mantenidos por fuerzas electromagnéticas. Lo que define a un elemento no es su apariencia ni su masa, sino el número atómico (la cantidad de protones). Todo átomo con 11 protones es sodio, todo átomo con 29 protones es cobre. Cuando dos átomos tienen igual número de protones pero distinto número de neutrones, hablamos de isótopos del mismo elemento. Aun así, todos comparten una cualidad sorprendente: su pequeñez extrema. Un átomo suele medir unos 100 picómetros; una hebra de cabello humano tiene de ancho casi un millón de átomos de carbono. Son más pequeños que la longitud de onda más corta de la luz visible, lo cual hace imposible observarlos con microscopios ópticos. Además, su comportamiento no puede describirse con la física clásica, pues está dominado por efectos cuánticos.

En televisión o en artículos de divulgación científica es común encontrar imágenes espectaculares donde los átomos parecen mostrarse como esferas brillantes, a veces incluso formando figuras reconocibles como “muñecos de nieve”, letras o logotipos. IBM, por ejemplo, hizo famoso un video animado moviendo átomos de xenón para escribir su nombre. Pero estas imágenes despiertan una pregunta inevitable: si los átomos son más pequeños que la luz visible, ¿cómo es posible verlos? La respuesta es que no los “vemos” como veríamos una mesa o un árbol. Lo que observamos son representaciones generadas a partir de señales físicas captadas por instrumentos extremadamente sensibles, capaces de medir cómo interactúa una punta metálica o un haz de electrones con las nubes electrónicas de los átomos.

Ibm Atom Manipulation by Science Photo Library

Figura 1. La imagen muestra átomos de xenón organizados con un microscopio de efecto túnel para formar “IBM”. No son fotos directas, sino mapas de densidad electrónica generados por señales cuánticas. Ilustra cómo la visualización y manipulación atómica dependen totalmente de la teoría cuántica y anticipa tecnologías futuras capaces de ensamblar materia átomo por átomo.

Las tecnologías modernas —como el microscopio de efecto túnel (STM), el microscopio de fuerza atómica (AFM) o la microscopía electrónica— no “fotografían” átomos. Más bien, registran variaciones en corrientes eléctricas, fuerzas intermoleculares o dispersión electrónica, que dependen de la densidad de probabilidad con que los electrones ocupan el espacio alrededor del núcleo. En otras palabras, lo que se interpreta como una “esfera daltoniana” no es el átomo mismo, sino una traducción visual realizada por computadoras a partir de información cuántica. Por eso, las imágenes de átomos no reflejan bolas sólidas, sino mapas de probabilidad, densidades electrónicas reconstruidas y coloreadas para que resulten comprensibles.

Una de las técnicas más revolucionarias en este campo es la manipulación atómica mediante microscopio de efecto túnel (STM). En esta herramienta, una punta extremadamente afilada —terminada en un solo átomo— se acerca a la superficie que se estudia. Debido al efecto túnel cuántico, los electrones pueden “saltar” entre la punta y la superficie incluso sin necesidad de contacto. Midiendo la corriente túnel, el instrumento reconstruye un mapa de la densidad electrónica a escala atómica. El STM no solo permite visualizar estos mapas, sino también mover átomos individuales aplicando delicadas pulsaciones de voltaje y fuerzas controladas. Así se construyen figuras, patrones o estructuras funcionales que sirven como demostraciones y como experimentos pioneros en nanociencia y nanotecnología.

Figura 2. Wilhelm Ostwald, químico físico y Nobel de 1909, fue pionero en catálisis y equilibrio químico, además de influyente filósofo de la ciencia. Inicialmente rechazó el atomismo, defendiendo el energeticismo y enfrentándose a Boltzmann. Pero la evidencia del movimiento browniano lo llevó a aceptar la existencia de átomos, contribuyendo decisivamente a la consolidación del modelo atómico moderno.

Estas técnicas han abierto un universo donde la materia puede reorganizarse átomo por átomo, algo impensable para los científicos de hace un siglo. Aun así, conviene recordar que nuestras “imágenes atómicas” son interpretaciones basadas en señales indirectas. No vemos núcleos, electrones ni densidades de probabilidad como objetos sólidos, sino proyecciones visuales creadas para traducir el extraño mundo cuántico al lenguaje de nuestros sentidos. Y, sin embargo, gracias a estas proyecciones, hemos logrado iniciar la era donde el ser humano puede diseñar dispositivos, memorias, sensores y materiales desde la escala mínima de la existencia.

Microscopio Scanning Tunneling microscope (STM) y (SEM) « ¡NANO-FUTURO!

Figura 3. El microscopio de efecto túnel (STM) utiliza el efecto túnel cuántico entre una punta metálica y una superficie para medir corrientes extremadamente sensibles a la distancia, permitiendo obtener imágenes con resolución atómica. No fotografía átomos: detecta su densidad electrónica. Además, puede mover átomos individuales, lo que lo convierte en una herramienta clave para la nanotecnología y la manipulación atómica.

La idea de una impresora atómica surge como una extrapolación natural de las tecnologías capaces de manipular átomos individuales, especialmente el microscopio de efecto túnel (STM) y el microscopio de fuerza atómica (AFM). En esencia, sería una máquina capaz de posicionar átomos uno a uno para construir moléculas, superficies o nanoestructuras exactamente como un ingeniero diseña una pieza mecánica. El cambio conceptual es profundo: pasaríamos de la química tal como la entendemos —donde ajustamos condiciones externas para que las moléculas se formen espontáneamente según las leyes termodinámicas— a un modelo de ingeniería directa de la materia, donde los átomos se ensamblan como bloques de construcción bajo control explícito.

Hoy en día, esta tecnología no existe como una impresora funcional o automatizada, pero sí tenemos prototipos conceptuales y primeros pasos experimentales que muestran que el control atómico es físicamente posible, aunque extremadamente lento y costoso. La manipulación atómica por STM permitió desde los años 80 mover átomos individuales de xenón sobre una superficie metálica, y hoy en día se pueden crear cadenas de átomos, puntos cuánticos, lógicas moleculares, e incluso conductores hechos átomo por átomo. Esto constituye la base experimental para imaginar una verdadera impresora atómica. Sin embargo, la capacidad actual se asemeja más a tallar un diamante con una aguja que a un proceso industrial reproducible.

Un dispositivo de impresión atómica real debería cumplir varias condiciones. Primero, una punta o conjunto de puntas capaces de depositar o retirar átomos con resolución subnanométrica. Segundo, un sistema de retroalimentación cuántica que identifique la posición y el estado electrónico de cada átomo depositado. Tercero, la habilidad de trabajar en condiciones de vacío extremo y temperaturas ultrabajas para evitar que los átomos recién colocados se difundan o reorganicen espontáneamente, como ocurre de forma natural en superficies limpias. A esto se sumaría un software de diseño molecular avanzado, algo semejante a los programas de ingeniería asistida por computador, pero que opere directamente en términos de enlaces, orbitales y geometrías cuánticas.

El límite teórico no es la física fundamental, pues sabemos que átomos individuales pueden manipularse. El verdadero obstáculo está en la escala y la estabilidad. Para crear una molécula orgánica modesta, como un aminoácido, habría que posicionar con precisión decenas de átomos reaccionantes, asegurando que sus orbitales electrónicos formen enlaces estables en el orden deseado. En la práctica, esto requeriría combinar manipulación atómica con estímulos externos como cambios de voltaje, aportes de energía o catalizadores locales. No sería como armar un Lego; sería más parecido a dirigir una microorquesta cuántica donde cada átomo debe encontrarse y enlazarse bajo condiciones estrictamente controladas.

Por ahora, esta idea pertenece al borde entre la nanotecnología emergente y la ciencia ficción dura. No existe una impresora atómica funcional, pero la física no la prohíbe. En laboratorios especializados ya se construyen estructuras simples átomo por átomo, y se han ensamblado moleculitas artificiales, aunque el proceso es demasiado laborioso para que pueda considerarse “impresión”. Si en el futuro logramos escalar la precisión, automatizar la manipulación y aumentar la velocidad, podríamos inaugurar una era donde diseñar materiales imposibles, enzimas artificiales, farmacéuticos a medida o chips tridimensionales perfectos será tan simple como imprimir un modelo digital. Hasta entonces, es una frontera en construcción: técnicamente posible, experimentalmente embrionaria y conceptualmente transformadora.

La aspiración moderna de manipular átomos uno por uno, como en una hipotética impresora atómica, dialoga con un viejo debate del siglo XIX. En aquel tiempo, los antiatomistas más obstinados —figuras como Ernst Mach o Wilhelm Ostwald, por ejemplo— exigían pruebas imposibles para la tecnología de su época: querían ver los átomos, contarlos, manipularlos directamente. Para ellos, hablar de partículas indivisibles sin evidencia visual era una extrapolación innecesaria. Consideraban que la ciencia debía limitarse a describir relaciones entre fenómenos observables, y que los átomos eran solo una construcción matemática sin entidad física demostrada.

Sin embargo, las leyes de los gases comenzaron a erosionar esa postura. Al trabajar con cantidades fijas de gases puros y medir presiones, volúmenes y temperaturas, los químicos descubrieron relaciones que solo podían explicarse si la materia estaba compuesta de partículas contables. La ley de Avogadro, las leyes de Dalton y los experimentos de Gay-Lussac revelaban proporciones sencillas entre cantidades enteras, propias de un mundo hecho de unidades discretas. Aun así, para los últimos antiatomistas esto no bastaba: seguían reclamando pruebas “directas”.

Fue el movimiento browniano, explicado por Einstein en 1905 y comprobado experimentalmente por Jean Perrin, el que finalmente cerró el debate. Al medir el zigzagueo de pequeñas partículas suspendidas en un fluido y relacionarlo con impactos de moléculas invisibles, se obtuvo una verificación cuantitativa que los propios antiatomistas no pudieron refutar. Desde entonces, la existencia del átomo dejó de ser discutida en física y química.

Hoy, nadie pone en duda que los átomos existen. Pero es importante recordar que su existencia es accesible únicamente a través de la teoría. No vemos átomos como bolitas; vemos manifestaciones de modelos cuánticos traducidas por instrumentos. Las imágenes de microscopios de efecto túnel, las densidades electrónicas reconstruidas en computadoras o las simulaciones de orbitales no son fotografías directas, sino representaciones de una realidad que solo puede comprenderse gracias al andamiaje conceptual de la teoría cuántica. Sin esa teoría, ni podríamos visualizarlos ni sería posible manipularlos; estaríamos ciegos ante su escala.

Esto muestra que en ciencia el concepto de teoría está lejos de ser una suposición informal o una conjetura ligera. Una teoría es una estructura lógica y experimentalmente validada que permite describir, predecir y —en casos como este— incluso hacer visible lo invisible. La teoría atómica no solo explica la materia: nos da las herramientas para interactuar con ella a niveles que los antiguos antiatomistas habrían considerado pura fantasía.

Referencias

Binnig, G., Rohrer, H., Gerber, C., & Weibel, E. (1982). Surface studies by scanning tunneling microscopy. Physical Review Letters, 49(1), 57–61. https://doi.org/10.1103/PhysRevLett.49.57
Binnig, G., & Rohrer, H. (1987). Scanning tunneling microscopy—from birth to adolescence. Reviews of Modern Physics, 59(3), 615–625. https://doi.org/10.1103/RevModPhys.59.615
Eigler, D. M., & Schweizer, E. K. (1990). Positioning single atoms with a scanning tunnelling microscope. Nature, 344(6266), 524–526. https://doi.org/10.1038/344524a0
Perrin, J. (1910). Brownian movement and molecular reality. Annales de Chimie et de Physique, 18, 5–114.
Einstein, A. (1905). Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik, 322(8), 549–560.
Ostwald, W. (1908). The philosophical significance of energetics. The Monist, 18(4), 481–511.
Mach, E. (1911). The principles of physical optics. Chicago: Open Court.
Atkins, P., & de Paula, J. (2014). Atkins’ Physical Chemistry (10th ed.). Oxford University Press.
Norris, D. J., & Zhao, Y. (2019). Nanotechnology: Understanding small systems (3rd ed.). CRC Press.
Reif, F. (1965). Fundamentals of Statistical and Thermal Physics. McGraw-Hill.
Novotny, L., & Hecht, B. (2012). Principles of Nano-Optics (2nd ed.). Cambridge University Press.
 Wolf, E. L. (2012). Principles of electron tunneling spectroscopy (Vol. 152). International Monographs on Ph.

miércoles, 3 de diciembre de 2025

Rapidez molecular, Leyes de Graham: difusión y efusión.

[Química de gases] Sección 5 

            [Teoría cinética

            [Rapidez molecular y leyes de Graham

            [Enriquecimiento del uranio

El modelo matemático de la teoría cinética de gases, es la combinación de la ecuación de estado del gas ideal con las leyes de la cinemática newtoniana. Por ello aborda el concepto de velocidad molecular, tanto en su comportamiento individual como en su comportamiento colectivo, utilizando para ello experimentos reales y también experimentos mentales. Sus principales resultados —es decir, aquello que empleamos al resolver problemas teóricos— son las leyes de difusión y efusión de los gases.

Interfaz de usuario gráfica

El contenido generado por IA puede ser incorrecto.

Figura 1. El applet PhET Gas Properties actúa como un punto intermedio entre un experimento mental y uno real: permite visualizar partículas en movimiento, modificar temperatura, volumen o masa, y observar cómo cambian presión y colisiones en tiempo real. Modela las leyes del gas ideal y muestra de forma intuitiva cómo el comportamiento microscópico de las moléculas produce las propiedades macroscópicas del gas. Enlace a la app.

La constante de Boltzman

La constante de Boltzmann, aunque suele escribirse con un símbolo distinto (k), no es conceptualmente diferente de la clásica constante del gas ideal R. La relación entre ambas es directa: k = R / N, donde N es el número de Avogadro. En otras palabras, k es simplemente la constante del gas ideal “por cada molécula”, mientras que R es la misma constante “por mol de moléculas”.

Dado que en este curso hemos asumido —siguiendo la redefinición del SI de 2019— que el mol corresponde exactamente a un número perfecto, definido por el valor fijo del número de Avogadro, podemos considerar que R y k representan la misma relación fundamental: el puente entre temperatura y energía. Esto se evidencia al recordar que una atmósfera-litro equivale aproximadamente a 101.3 J, lo que permite expresar R en unidades de J/K, revelando con claridad su significado profundo como factor de conversión entre energía térmica y temperatura 1.380649 x 10−23 J K−1.

Así, ambas constantes encapsulan la misma idea física: la energía térmica asociada al movimiento de partículas aumenta en proporción directa a la temperatura. Lo único que cambia es la escala: R describe el comportamiento energético de un conjunto macroscópico de entidades (moles), mientras que k describe el mismo fenómeno a nivel microscópico (entidades), partícula por partícula. Con esta interpretación unificada, se hace evidente que la teoría cinética, la física estadística y la termodinámica comparten una misma estructura conceptual en torno al vínculo entre energía y temperatura.

Sin embargo, asumir plenamente las consecuencias de la redefinición del SI nos ahorra pasos matemáticos, ya que la fórmula N = N n se vuelve irrelevante. Al estar el mol definido como un número exacto de entidades, ya no necesitamos convertir entre partículas y moles: contamos directamente en múltiplos de un número perfecto la unidad mol.

Concepto de velocidad molecular de una sola partícula

Imagina un experimento mental —un gedankenexperiment— diseñado para visualizar el concepto de velocidad molecular. Supongamos que colocamos una sola molécula dentro de un contenedor cúbico perfectamente aislado. Esta molécula, según la teoría cinética, se mueve siguiendo las leyes de Newton, con una velocidad bien definida y una dirección concreta en cada instante. Esto es crucial: hablamos de velocidad, no de rapidez, porque la dirección del movimiento forma parte esencial de su descripción.

Ahora bien, esa dirección no permanece fija. Cada vez que la molécula choca contra una pared del contenedor, la pared ejerce sobre ella una fuerza que cambia el vector de velocidad según el ángulo del impacto. En un contenedor cúbico, por ejemplo, un choque frontal invertirá el componente normal de la velocidad, mientras que un choque oblicuo la desviará siguiendo la ley de reflexión. Si el contenedor tuviera una forma irregular —digamos esférica, cilíndrica o poliédrica— la molécula seguiría trayectorias muy distintas, todas determinadas por los ángulos locales de las superficies donde rebota.

Para entender cuán extremadamente rápido ocurre esto, pensemos en un ejemplo cotidiano: los perros pueden detectar una única molécula de olor que viaja desde su punto de origen hasta ellos, a veces a largas distancias. Esto implica que las moléculas se desplazan a altísimas velocidades, muchísimo mayores que las velocidades perceptibles a escala humana. Por lo tanto, si una sola molécula se mueve tan rápido en aire libre, podemos inferir que dentro de un contenedor finito —del tamaño típico de un experimento de laboratorio— esa misma molécula chocará contra las paredes miles o millones de veces por segundo.

Concepto de velocidad molecular poblacional o promedio

La distribución de velocidades moleculares funciona exactamente como las distribuciones biológicas de tamaños, masas o tiempos de reacción: existe un promedio poblacional, pero cada individuo puede desviarse por encima o por debajo de ese valor. En un gas, esto significa que algunas moléculas se mueven mucho más rápido que la media, otras mucho más lento, y la mayoría se concentran alrededor de una velocidad intermedia que llamamos velocidad promedio o velocidad más probable. Esta es la que gobierna las propiedades de estado del gas, porque resume el comportamiento colectivo del conjunto.

Figura 2. El experimento mide la distribución de velocidades moleculares usando un chorro de gas que atraviesa un disco giratorio con rendija, fijando el tiempo de salida. Las moléculas viajan en vacío hasta el detector, donde su tiempo de llegada revela si son rápidas, promedio o lentas. La longitud y densidad del depósito en el detector permiten reconstruir la distribución Maxwell-Boltzmann del gas.

El experimento ilustrado en la Figura 2 utiliza un chorro molecular que sale de un horno por una boquilla y atraviesa un chopper rotatorio con una rendija. La rendija funciona como un cronómetro mecánico: solo deja pasar moléculas en un instante preciso mientras rota. Las moléculas que cruzan la rendija vuelan libremente hasta el detector situado a una distancia fija. Aquí ocurre lo crucial: si todas las moléculas viajaran a la misma rapidez, llegarían al detector en el mismo tiempo; pero como hay moléculas lentas, promedio y rápidas, sus tiempos de llegada se dispersan.

Interfaz de usuario gráfica, Gráfico, Aplicación

El contenido generado por IA puede ser incorrecto.

Figura 3. La figura muestra cómo la temperatura modifica la distribución de velocidades moleculares del mismo gas (N₂). A baja temperatura, las moléculas son lentas y la distribución es estrecha. A temperaturas medias se desplaza hacia velocidades mayores y se ensancha. A temperaturas altas aparecen muchas moléculas muy rápidas. Esto evidencia que la temperatura mide la energía cinética promedio del gas.

El detector registra la llegada como un pulso ampliado en el tiempo:

  • las moléculas rápidas llegan primero,
  • luego las promedio,
  • y finalmente las lentas.

Esa diferencia de tiempos se traduce en diferencias de rapidez, porque la distancia es fija. Con esta información podemos reconstruir la distribución de velocidades.

Cuando repetimos el experimento a distintas temperaturas, la forma de la distribución cambia: a mayor temperatura, la población molecular se desplaza hacia mayores velocidades, la curva se ensancha y el máximo se mueve hacia la derecha, tal como se ve en las gráficas. Así, el detector no mide directamente la velocidad, sino el tiempo de vuelo, que es matemáticamente equivalente para obtener la rapidez. Esto demuestra experimentalmente que en un gas existe un rango completo de velocidades, aunque su comportamiento macroscópico esté dominado por la velocidad promedio.

La comparación experimental entre gases de distinta identidad revela con claridad el límite práctico del modelo del gas ideal. Según este modelo, la naturaleza del gas es irrelevante: todas las sustancias deberían comportarse igual si están a la misma temperatura y presión. Pero cuando medimos velocidades moleculares reales, descubrimos que la masa molar modifica de manera decisiva la forma de la distribución.

Interfaz de usuario gráfica, Gráfico, Aplicación

El contenido generado por IA puede ser incorrecto.

Figura 4. La figura muestra que la identidad del gas sí importa: aunque todos están a la misma temperatura, sus velocidades moleculares difieren por la masa molar. Los gases ligeros, como el helio, tienen velocidades altas y gran dispersión; los pesados, como el cloro, son más lentos y uniformes. Esto evidencia que el gas ideal es solo una aproximación y no describe completamente el comportamiento real.

Los resultados muestran que, para gases de baja masa molar —como hidrógeno o helio—, la dispersión de velocidades es mucho mayor. Esto significa que existe un número considerable de moléculas extremadamente rápidas y, al mismo tiempo, muchas muy lentas. El valor promedio deja de representar bien al conjunto porque la población es más heterogénea; hay demasiadas entidades que se alejan significativamente del promedio. Como consecuencia, los experimentos de tiempo de vuelo con gases ligeros tienden a presentar errores experimentales más altos, simplemente porque el comportamiento estadístico está menos concentrado alrededor de un único valor representativo.

En contraste, los gases de alta masa molar —como cloro o xenón— muestran curvas de velocidad más estrechas y compactas. La dispersión es menor: la mayoría de las moléculas se agrupa alrededor de una velocidad más baja y muy cercana al promedio. Aquí, el promedio sí describe adecuadamente a la población molecular, y las mediciones experimentales presentan menor variabilidad.

Este fenómeno evidencia que, aunque el gas ideal ignore la identidad de las moléculas, el comportamiento dinámico real depende fuertemente de la masa de cada especie. Cuanto más ligera sea la molécula, más ancha y desplazada hacia valores altos estará su distribución de velocidades; cuanto más pesada, más estrecha y lenta será. Así, el experimento muestra que el gas ideal es una excelente aproximación para describir propiedades colectivas, pero no captura las diferencias cinéticas finas entre moléculas reales de distinta identidad.

Múltiples rapideces moleculares

 Aunque el concepto de rapidez molecular promedio resulta intuitivo, su cálculo riguroso no lo es. Esto se debe a que las curvas de distribución de velocidades moleculares no son verdaderamente normales (gaussianas). Los fisicoquímicos observaron que estas distribuciones presentan una asimetría característica, con un sesgo hacia las velocidades más bajas, lo que impide describir el sistema mediante un único valor promedio simple.

[1] Rapidez promedio de una molecula de identidad (i) como función de la temperatura T y la masa molar M. Pulse aquí para una expansión de su descripción [Enlace].

Como consecuencia de esta distribución no normal, surgen al menos tres definiciones distintas de rapidez molecular media, todas derivadas de la misma función estadística. En primer lugar, se define la rapidez más probable, correspondiente a la partícula típica, es decir, aquella rapidez que posee el mayor número de partículas. Esta rapidez se simboliza como vmpv_{mp}. En segundo lugar, se encuentra la rapidez promedio, que se obtiene al promediar las velocidades de todas las partículas, desde las más lentas hasta las más rápidas, y se simboliza como vˉ\bar v. Finalmente, se define la rapidez cuadrática media, asociada directamente con la energía cinética promedio del conjunto de partículas, y que se simboliza como vrmsv_{\text{rms}}.

Estos tres tipos de rapidez se ordenan de manera estricta según la distribución de Maxwell–Boltzmann, la cual establece que la rapidez más probable es menor que la rapidez promedio, y que esta, a su vez, es menor que la rapidez correspondiente a la energía cinética promedio. Es decir:

vmp<vˉ<vrmsv_{mp} < \bar v < v_{\text{rms}}

De las tres magnitudes, la que resulta de mayor interés en el análisis energético de los gases es la rapidez cuadrática media, ya que está directamente relacionada con la energía cinética traslacional promedio de las partículas. Esta rapidez se obtiene a partir de la expresión general:

mientras que la rapidez más probable se obtiene sustituyendo el factor 3 por 2 en dicha expresión, reflejando su origen puramente estadístico y no energético.

Leyes de Graham

Difusión y efusión

La difusión es el proceso mediante el cual las moléculas de un gas se desplazan y se mezclan espontáneamente debido a su movimiento térmico aleatorio, avanzando desde regiones de mayor concentración hacia regiones de menor concentración. Durante la difusión, las moléculas colisionan continuamente entre sí, y el proceso continúa hasta que el gas alcanza una distribución uniforme en todo el volumen disponible.

 

Diffusion and effusion — Science Learning Hub

Figura 5. La difusión ocurre cuando un gas se expande libremente al retirarse una barrera, ocupando todo el volumen mediante el movimiento aleatorio de sus moléculas. La efusión sucede cuando un gas atraviesa un orificio microscópico hacia otro compartimento. Ambos procesos se describen con las leyes de Graham, aunque el mecanismo físico y el diseño experimental son distintos.

La efusión, por su parte, es el proceso mediante el cual un gas atraviesa una barrera porosa o un orificio microscópico sin que existan colisiones intermoleculares durante el paso. Este fenómeno ocurre únicamente cuando el tamaño del orificio es mucho menor que el camino libre medio, de modo que el transporte está gobernado por el movimiento individual de las moléculas y no por interacciones colectivas.

Ambos procesos tienden a confundirse porque, a pesar de sus diferencias físicas, dependen de la misma propiedad fundamental: la rapidez molecular, la cual está determinada por la masa molar del gas. Por esta razón, tanto la difusión como la efusión pueden analizarse mediante las mismas relaciones empíricas establecidas por Graham, ya sea comparando rapideces o tiempos de paso. En ambos casos, la diferencia no radica en la ley utilizada, sino en el diseño experimental y en la magnitud que se mide directamente.

Modelos matemáticos

La ratios rapidez vs masa, establece que la rapidez con la que un gas se difunde es inversamente proporcional a la raíz cuadrada de su masa molar. En otras palabras, los gases ligeros se dispersan más rápido que los pesados porque sus moléculas tienen mayor rapidez promedio. Esta ley describe con precisión cómo la masa molar determina la velocidad del proceso de difusión.

Thomas Graham • Biografias • Quimicafacil.net

Figura 6. Thomas Graham (1805–1869), químico escocés, fue pionero en el estudio del movimiento molecular. Formuló las leyes de difusión y efusión, demostrando que la rapidez de un gas depende inversamente de la raíz cuadrada de su masa molar. También investigó la diálisis y los geles, y llegó a ser Master of the Mint. Su trabajo anticipó la teoría cinética moderna.

Históricamente, fue formulada por Thomas Graham a mediados del siglo XIX, a partir de experimentos comparativos en los que observó que distintos gases atravesaban membranas porosas a velocidades sistemáticamente distintas. Sus resultados proporcionaron una de las primeras evidencias experimentales sólidas de que la masa molecular influye directamente en el comportamiento dinámico de los gases.

[2] Ley de Difusión. Pulse aquí para una expansión de su descripción [Enlace].

La ratios tiempos vs masas, también formulada por Graham, establece que la rapidez con la que un gas escapa por un orificio extremadamente pequeño es inversamente proporcional a la raíz cuadrada de su masa molar. Así, los gases ligeros efusionan con mayor velocidad que los pesados, porque sus moléculas poseen una rapidez promedio más elevada y chocan con más frecuencia —y energía— contra el orificio. Esta ley describe cómo la efusión depende directamente de la combinación entre rapidez molecular y masa molar.

[3] Ley de Efusión. Pulse aquí para una expansión de su descripción [Enlace].

Históricamente, Thomas Graham descubrió esta relación en el siglo XIX al comparar la velocidad con que distintos gases atravesaban pequeños capilares u orificios. Sus hallazgos proporcionaron una de las primeras confirmaciones experimentales de que la masa molecular influye profundamente en los procesos de transporte gaseoso, anticipando conceptos que luego serían fundamentales en la teoría cinética.

Ruta libre media

La ruta libre media (o camino libre medio) es la distancia promedio que recorre una molécula de gas entre dos colisiones sucesivas. Este concepto es central en la teoría cinética de los gases, ya que conecta el movimiento microscópico de las partículas con el comportamiento macroscópico del gas.

Chapter 6.7: Mean Free Path - Chemistry LibreTexts

Figura 7 El camino libre medio fue introducido en el siglo XIX por Clausius, y desarrollado por Maxwell y Boltzmann, como parte de la teoría cinética de los gases. Permitió vincular el movimiento molecular con propiedades macroscópicas como difusión y viscosidad. Hoy es clave en tecnología de vacío, microelectrónica, aeronáutica y astrofísica.

En el modelo ideal, la ruta libre media depende principalmente de la densidad del gas y del tamaño efectivo de las moléculas: a mayor densidad, las colisiones son más frecuentes y la ruta libre media disminuye; a mayor tamaño molecular, aumenta la probabilidad de choque y la distancia libre promedio se reduce. Además, variables como la presión y el volumen influyen indirectamente, ya que modifican la separación promedio entre moléculas. La temperatura, en condiciones ideales, tiene un efecto secundario, pues aumenta la rapidez molecular pero no altera de forma significativa la distancia promedio entre colisiones.

Cuando se consideran gases reales, la ruta libre media deja de depender solo de la geometría y la densidad. Las fuerzas intermoleculares introducen nuevos efectos: las atracciones aumentan la probabilidad de colisión efectiva, reduciendo la ruta libre media, mientras que las repulsiones a distancias cortas pueden desviar trayectorias y modificar la frecuencia de choques. Estos efectos son especialmente relevantes a altas presiones y bajas temperaturas, donde el comportamiento se aleja del ideal.

Finalmente, cuando el volumen del contenedor es muy pequeño o la presión es muy alta, el supuesto de que existe “mucho vacío” entre las moléculas deja de ser válido. El volumen propio de las partículas ya no es despreciable, las trayectorias se acortan y la ruta libre media disminuye notablemente. En este régimen, el gas se aproxima a un comportamiento no ideal, y la ruta libre media refleja no solo colisiones, sino también la estructura real del sistema.

[Ejercicios resueltos de rapidez molecular y leyes de Graham]

Referencias

Brown, T. L., LeMay, H. E. J., Bursten, B. E., Murphy, C. J., Woodward, P., & Stoltzfus, M. W. (2015). Chemistry the Central Science.

Brown, T. L., LeMay, H. E. J., Bursten, B. E., Murphy, C. J., Woodward, P., Stoltzfus, M. W., & Lufaso, M. W. (2022). Chemistry, the central science (15th ed.). Pearson.

Chang, R. (2010). Chemistry (10th ed.). McGraw-Hill New York.

Chang, R., & Overby, J. (2021). Chemistry (14th ed.). McGraw-Hill.

García García, J. L. (2025). Dimensional Analysis in Chemistry Textbooks 1900-2020 and an Algebraic Alternative. Educación química36(1), 82-108.

Göbel, E. O., & Siegner, U. (2019). The New International System of Units (SI): quantum metrology and quantum standards. John Wiley & Sons.

Matamala, M., & González Tejerina, P. (1975). Química (1ª ed.). Bogotá: Ediciones Cultural.

Newell, D. B., & Tiesinga, E. (2019). The international system of units (SI). NIST Special Publication330(1).

Seager, S. L., Slabaugh, M. M., & Hansen, M. M. (2022). Chemistry for Today (10th ed.). Cengage Learning.

Stock, M., Davis, R., de Mirandés, E., & Milton, M. J. (2019). The revision of the SI—the result of three decades of progress in metrology. Metrologia56(2), 022001.

Zumdahl, S. S., Zumdahl, S. A., DeCoste, D. J., & Adams, G. (2018). Chemistry (10th ed.). Cengage Learning.