Física


Historia de la Física


¿Qué es la física?

Su importancia y su división.

Física, ciencia que se ocupa de los componentes fundamentales del Universo, de las fuerzas que éstos ejercen entre sí y de los efectos de dichas fuerzas. En ocasiones la física moderna incorpora elementos de los tres aspectos mencionados, como ocurre con las leyes de simetría y conservación de la energía, el momento, la carga o la paridad.

Principales campos de la física.


TÉRMINO DESCRIPCIÓN

Acústica Estudia las propiedades del sonido.

Física atómica Estudia la estructura y las propiedades del átomo.

Criogenia Estudia el comportamiento de la materia a temperaturas extremadamente bajas.

Electromagnetismo Estudia los campos eléctrico y magnético, y las cargas eléctricas que los generan.

Física de partículas Se dedica a la investigación de las partículas elementales.

Dinámica de fluidos Examina el comportamiento de los líquidos y gases en movimiento.

Geofísica Aplicación de la física al estudio de la Tierra. Incluye los campos de la hidrología, la meteorología, la oceanografía, la sismología y la vulcanología.

Física matemática Estudia las matemáticas en relación con los fenómenos naturales.

Mecánica Estudia el movimiento de los objetos materiales sometidos a la acción de fuerzas.

Física molecular Estudia las propiedades y estructura de las moléculas.

Física nuclear Analiza las propiedades y estructura del núcleo atómico, las reacciones nucleares y su aplicación.

Óptica Estudia la propagación y el comportamiento de la luz.

Física del plasma Estudia el comportamiento de los gases altamente ionizados (con carga eléctrica).

Física cuántica Estudia el comportamiento de sistemas extremadamente pequeños y la cuantización de la energía.

Física de la materia

condensada Estudia las propiedades físicas de los sólidos y los líquidos.

Mecánica estadística Aplica principios estadísticos para predecir y describir el comportamiento de sistemas compuestos de múltiples partículas.

Termodinámica Estudia el calor y la conversión de la energía de una forma a otra.


La crisis de la física clásica

Hacia 1880 la física presentaba un panorama de calma: la mayoría de los fenómenos podían explicarse mediante la mecánica de Newton, la teoría electromagnética de Maxwell, la termodinámica y la mecánica estadística de Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas, como la determinación de las propiedades del éter y la explicación de los espectros de emisión y absorción de sólidos y gases. Sin embargo, estos fenómenos contenían las semillas de una revolución cuyo estallido se vio acelerado por una serie de asombrosos descubrimientos realizados en la última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió los rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en 1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899, Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales de la física, unidos a los inquietantes resultados del experimento de Michelson-Morley y al descubrimiento de los rayos catódicos, formados por chorros de electrones, desafiaban a todas las teorías disponibles.

La física moderna

Dos importantes avances producidos durante el primer tercio del siglo XX -la teoría cuántica y la teoría de la relatividad- explicaron estos hallazgos, llevaron a nuevos descubrimientos y cambiaron el modo de comprender la física.

Física nuclear

En 1931 el físico estadounidense Harold Clayton Urey descubrió el isótopo del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El núcleo de deuterio o deuterón (formado por un protón y un neutrón) constituye un excelente proyectil para inducir reacciones nucleares. Los físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo radiactivo artificial en 1933-1934, con lo que comenzó la producción de radioisótopos para su empleo en arqueología, biología, medicina, química y otras ciencias.

Fermi y numerosos colaboradores emprendieron una serie de experimentos para producir elementos más pesados que el uranio bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han creado artificialmente al menos una docena de estos elementos transuránicos. A medida que continuaba su trabajo se produjo un descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se dividían en dos partes, fenómeno denominado fisión nuclear. La fisión liberaba una cantidad enorme de energía debida a la pérdida de masa, además de algunos neutrones. Estos resultados sugerían la posibilidad de una reacción en cadena automantenida, algo que lograron Fermi y su grupo en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945 como resultado de un ingente programa de investigación dirigido por el físico estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado a la producción de electricidad entró en funcionamiento en Gran Bretaña en 1956, con una potencia de 78 megavatios.

La investigación de la fuente de energía de las estrellas llevó a nuevos avances. El físico estadounidense de origen alemán Hans Bethe demostró que las estrellas obtienen su energía de una serie de reacciones nucleares que tienen lugar a temperaturas de millones de grados. En estas reacciones, cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que liberan dos positrones y cantidades inmensas de energía. Este proceso de fusión nuclear se adoptó con algunas modificaciones -en gran medida a partir de ideas desarrolladas por el físico estadounidense de origen húngaro Edward Teller- como base de la bomba de fusión, o bomba de hidrógeno. Este arma, que se detonó por primera vez en 1952, era mucho más potente que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña bomba de fisión aporta las altas temperaturas necesarias para desencadenar la fusión, también llamada reacción termonuclear.

Gran parte de las investigaciones actuales se dedican a la producción de un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía. En diciembre de 1993 se logró un avance significativo en esa dirección cuando los investigadores de la Universidad de Princeton, en Estados Unidos, usaron el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que proporcionó durante un breve tiempo una potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de la que produjo.

Física del estado sólido

En los sólidos, los átomos están densamente empaquetados, lo que lleva a la existencia de fuerzas de interacción muy intensas y numerosos efectos relacionados con este tipo de fuerzas que no se observan en los gases, donde las moléculas actúan en gran medida de forma independiente. Los efectos de interacción son responsables de las propiedades mecánicas, térmicas, eléctricas, magnéticas y ópticas de los sólidos, un campo que resulta difícil de tratar desde el punto de vista teórico, aunque se han realizado muchos progresos.

Una característica importante de la mayoría de los sólidos es su estructura cristalina, en la que los átomos están distribuidos en posiciones regulares que se repiten de forma geométrica. La distribución específica de los átomos puede deberse a una variada gama de fuerzas. Por ejemplo, algunos sólidos como el cloruro de sodio o sal común se mantienen unidos por enlaces iónicos debidos a la atracción eléctrica entre los iones que componen el material. En otros, como el diamante, los átomos comparten electrones, lo que da lugar a los llamados enlaces covalentes. Las sustancias inertes, como el neón, no presentan ninguno de esos enlaces. Su existencia es el resultado de las llamadas fuerzas de van der Waals, así llamadas en honor al físico holandés Johannes Diderik van der Waals. Estas fuerzas aparecen entre moléculas o átomos neutros como resultado de la polarización eléctrica. Los metales, por su parte, se mantienen unidos por lo que se conoce como 'gas electrónico', formado por electrones libres de la capa atómica externa compartidos por todos los átomos del metal y que definen la mayoría de sus propiedades.

Los niveles de energía definidos y discretos permitidos a los electrones de átomos individuales se ensanchan hasta convertirse en bandas de energía cuando los átomos se agrupan densamente en un sólido. La anchura y separación de esas bandas definen muchas de las propiedades del material. Por ejemplo, las llamadas bandas prohibidas, en las que no pueden existir electrones, restringen el movimiento de éstos y hacen que el material sea un buen aislante térmico y eléctrico. Cuando las bandas de energía se solapan, como ocurre en los metales, los electrones pueden moverse con facilidad, lo que hace que el material sea un buen conductor de la electricidad y el calor. Si la banda prohibida es estrecha, algunos de los electrones más rápidos pueden saltar a la banda de energía superior: es lo que ocurre en un semiconductor como el silicio. En ese caso, el espacio entre las bandas de energía puede verse muy afectado por cantidades minúsculas de impurezas, como arsénico. Cuando la impureza provoca el descenso de una banda de energía alta, se dice que es un donante de electrones, y el semiconductor resultante se llama de tipo n. Cuando la impureza provoca el ascenso de una banda de energía baja, como ocurre con el galio, se dice que es un aceptor de electrones. Los vacíos o 'huecos' de la estructura electrónica actúan como si fueran cargas positivas móviles, y se dice que el semiconductor es de tipo p. Numerosos dispositivos electrónicos modernos, en particular el transistor, desarrollado por los físicos estadounidenses John Bardeen, Walter Houser Brattain y William Bradford Shockley, están basados en estas propiedades de los semiconductores.

Las propiedades magnéticas de los sólidos se deben a que los electrones actúan como minúsculos dipolos magnéticos. Casi todas las propiedades de los sólidos dependen de la temperatura. Por ejemplo, los materiales ferromagnéticos como el hierro o el níquel pierden su intenso magnetismo residual cuando se los calienta a una temperatura característica denominada temperatura de Curie. La resistencia eléctrica suele decrecer al disminuir la temperatura, y en algunos materiales denominados superconductores desaparece por completo en las proximidades del cero absoluto. Éste y muchos otros fenómenos observados en los sólidos dependen de la cuantización de la energía, y la mejor forma de describirlos es a través de 'partículas' efectivas con nombres como fonón, polarón o magnón.

Física del electrón

En el siglo XIX ya se sospechaba que los portadores de las cargas eléctricas eran partículas extremadamente pequeñas, y los experimentos electroquímicos indicaban que la carga de esas partículas elementales era una cantidad definida e invariante. Los experimentos sobre conducción de electricidad en gases a baja presión llevaron al descubrimiento de dos clases de rayos: los rayos catódicos, procedentes del electrodo negativo de un tubo de descarga, y los rayos positivos o rayos canales, procedentes del electrodo positivo. El experimento realizado por Joseph John Thomson en 1895 midió la relación entre la carga q y la masa m de las partículas de los rayos catódicos. En 1899 Lenard confirmó que esta relación era la misma en las partículas emitidas en el efecto fotoeléctrico. Hacia 1911 Millikan determinó por fin que la carga eléctrica siempre aparece en múltiplos de una unidad básica e, y midió su valor, que es de 1,602 10-19 culombios. A partir del valor obtenido para la relación q/m, se determinó que la masa del portador de carga, denominado electrón, es de 9,109 10-31 kilogramos.

Posteriormente Thomson y otros demostraron que los rayos positivos también estaban formados por partículas, pero con carga de signo positivo. Estas partículas (en la actualidad se sabe que son iones positivos producidos al eliminar electrones de un átomo neutro) tienen una masa muchísimo mayor que la del electrón. La más pequeña, el ion hidrógeno, está formado por un solo protón (con carga e pero de signo positivo) y tiene una masa de 1,673 10-27 kg, unas 1.800 veces mayor que la del electrón (véase Ionización). La naturaleza 'cuantizada' de la carga eléctrica había quedado firmemente establecida, y al mismo tiempo se habían identificado dos de las partículas subatómicas fundamentales.

Modelos atómicos

En 1913 el físico británico nacido en Nueva Zelanda Ernest Rutherford comprobó que el anterior modelo atómico de Thomson, con partículas positivas y negativas uniformemente distribuidas, era insostenible. Las partículas alfa empleadas por Rutherford, muy rápidas y con carga positiva, se desviaban con claridad al atravesar una capa muy fina de materia. Para explicar este efecto era necesario un modelo atómico con un núcleo central pesado y cargado positivamente que provocara la dispersión de las partículas alfa. Rutherford sugirió que la carga positiva del átomo estaba concentrada en un núcleo estacionario de gran masa, mientras que los electrones negativos se movían en órbitas alrededor del núcleo, ligadas por la atracción eléctrica entre cargas opuestas. Sin embargo, este modelo de 'sistema solar' no podía ser estable según la teoría de Maxwell ya que, al girar, los electrones son acelerados y deberían emitir radiación electromagnética, perder energía y como consecuencia caer en el núcleo en un tiempo muy breve.

Esto exigió otra ruptura radical con la física clásica, que corrió a cargo del físico danés Niels Bohr. Según Bohr en los átomos existían ciertas órbitas en las que los electrones giran sin emitir radiación electromagnética. Estas órbitas permitidas, los llamados estados estacionarios, están determinadas por la condición de que el momento angular J del electrón de la órbita tiene que ser un múltiplo entero positivo de la constante de Planck dividida entre 2p, es decir, J = nh/2p, donde el número cuántico n puede tomar cualquier valor entero positivo. Estas fórmulas extendieron la 'cuantización' a la dinámica, fijaron las órbitas posibles y permitieron a Bohr calcular los radios de las mismas y los niveles de energía correspondientes. En 1913, el año en que apareció el primer trabajo de Bohr sobre este tema, el modelo fue confirmado experimentalmente por el físico estadounidense nacido en Alemania James Franck y su colega alemán Gustav Hertz.

Bohr desarrolló su modelo con mucha mayor profundidad. Explicó el mecanismo por el que los átomos emiten luz y otras ondas electromagnéticas y propuso la hipótesis de que un electrón 'elevado' por una perturbación suficiente desde la órbita de menor radio y menor energía (el estado fundamental) hasta otra órbita vuelve a 'caer' al estado fundamental al poco tiempo. Esta caída está acompañada de la emisión de un único fotón con energía E = hf, que corresponde a la diferencia de energía entre las órbitas superior e inferior. Cada transición entre órbitas emite un fotón característico cuya longitud de onda y frecuencia están exactamente definidas; por ejemplo, en una transición directa desde la órbita de n = 3 hasta la de n = 1 se emite un solo fotón, muy distinto de los dos fotones emitidos en una transición secuencial desde la órbita de n = 3 hasta la de n = 2 y a continuación desde ésta hasta la de n = 1. Este modelo permitió a Bohr explicar con gran precisión el espectro atómico más sencillo, el del hidrógeno, que había desafiado a la física clásica.

Aunque el modelo de Bohr se amplió y perfeccionó, no podía explicar los fenómenos observados en átomos con más de un electrón. Ni siquiera podía explicar la intensidad de las rayas espectrales del sencillo átomo de hidrógeno. Como su capacidad de predicción de resultados experimentales era limitada, no resultaba plenamente satisfactorio para los físicos teóricos.

Física nuclear

El descubrimiento de la radiactividad del mineral de uranio, llevado a cabo en 1896 por Becquerel, también facilitó la comprensión de la estructura atómica. En los años siguientes se comprobó que la radiación de los materiales radiactivos estaba formada por tres tipos de emisiones: los llamados rayos alfa, beta y gamma. Rutherford estableció que los primeros eran núcleos de átomos de helio, y Becquerel demostró que los segundos eran electrones muy rápidos. Los rayos gamma resultaron ser radiación electromagnética de muy alta frecuencia. En 1898, los físicos franceses Marie y Pierre Curie aislaron dos elementos muy radiactivos, el radio y el polonio, a partir del mineral de uranio, con lo que demostraron que las radiaciones pueden identificarse con determinados elementos. En 1903, Rutherford y el químico y físico británico Frederick Soddy demostraron que la emisión de rayos alfa o beta provoca la transmutación del núcleo del elemento emisor en un núcleo de un elemento diferente. Poco después se comprobó que los procesos radiactivos son aleatorios y sólo pueden estudiarse desde un punto de vista estadístico: no existe ningún método para indicar qué núcleo de un átomo de un material radiactivo se desintegrará en un momento dado. Estos avances, además de llevar al modelo atómico de Rutherford y Bohr, también sugerían que los rayos alfa, beta y gamma sólo podían proceder de núcleos de átomos muy pesados. En 1919, Rutherford bombardeó núcleos de nitrógeno con partículas alfa y los convirtió en núcleos de hidrógeno y oxígeno, con lo que logró la primera transmutación artificial de elementos.

Entretanto el conocimiento de la naturaleza y abundancia de los isótopos iba creciendo, debido en gran medida al desarrollo del espectrómetro de masas. Surgió un modelo atómico en el que el núcleo contenía toda la carga positiva y casi toda la masa del átomo. Los portadores de la carga nuclear fueron identificados como protones, pero sólo podía explicarse la masa del núcleo si existían otras partículas adicionales sin carga (salvo en el caso del hidrógeno, cuyo núcleo está formado sólo por un protón). En 1932, el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra cuya masa es igual a 1,675 10-27 kg, algo mayor que la del protón. Los núcleos atómicos resultaron pues estar formados por protones y neutrones -llamados colectivamente nucleones- y el número atómico del elemento corresponde al número de protones del núcleo. Por otra parte, el número másico, también denominado número isotópico, corresponde a la suma del número de protones y neutrones. Por ejemplo, todos los átomos de oxígeno (cuyo número atómico es 8) tienen ocho protones, pero los tres isótopos de oxígeno 16O, 17O y 18O contienen respectivamente ocho, nueve y diez neutrones en su núcleo.

Las cargas eléctricas positivas se repelen, y puesto que los núcleos atómicos (salvo el del hidrógeno) tienen más de un protón, se desintegrarían a no ser por una fuerza atractiva muy intensa, la llamada interacción nuclear fuerte, que mantiene unidos los nucleones. La energía asociada con esta interacción fuerte es muy grande, millones de veces mayor que las energías características de los electrones en sus órbitas, responsables de los enlaces químicos. Por tanto, una partícula alfa (formada por dos neutrones y dos protones) tendría que superar esta intensa interacción fuerte para escapar de un núcleo radiactivo como el del uranio. El fenómeno fue explicado por los físicos estadounidenses Edward Condon, George Gamow y Ronald Wilfred Gurney, que en 1928 aplicaron la mecánica cuántica al problema de la emisión alfa y demostraron que la naturaleza estadística de los procesos nucleares permitía que las partículas alfa salieran de los núcleos radiactivos aunque su energía media fuera insuficiente para superar la interacción nuclear fuerte. La emisión beta se explicó como resultado de la desintegración de un neutrón del núcleo, que se transforma en un electrón (la partícula beta) que se expulsa rápidamente y en un protón residual. El núcleo resultante tiene un protón más que el núcleo original, por lo que su número atómico, y por tanto su posición en la tabla periódica, aumentan en una unidad. Después de una emisión alfa o beta, el núcleo suele tener un exceso de energía, del que se deshace emitiendo un fotón de rayos gamma.

En todos estos procesos se libera una gran cantidad de energía, según la ecuación de Einstein E = mc2. Al finalizar el proceso, la masa total de los productos es menor que la del núcleo original: esta diferencia de masa corresponde a la energía liberada.

En 1931 el físico estadounidense Harold Clayton Urey descubrió el isótopo del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El núcleo de deuterio o deuterón (formado por un protón y un neutrón) constituye un excelente proyectil para inducir reacciones nucleares. Los físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo radiactivo artificial en 1933-1934, con lo que comenzó la producción de radioisótopos para su empleo en arqueología, biología, medicina, química y otras ciencias.

Fermi y numerosos colaboradores emprendieron una serie de experimentos para producir elementos más pesados que el uranio bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han creado artificialmente al menos una docena de estos elementos transuránicos. A medida que continuaba su trabajo se produjo un descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se dividían en dos partes, fenómeno denominado fisión nuclear. La fisión liberaba una cantidad enorme de energía debida a la pérdida de masa, además de algunos neutrones. Estos resultados sugerían la posibilidad de una reacción en cadena automantenida, algo que lograron Fermi y su grupo en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945 como resultado de un ingente programa de investigación dirigido por el físico estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado a la producción de electricidad entró en funcionamiento en Gran Bretaña en 1956, con una potencia de 78 megavatios.

La investigación de la fuente de energía de las estrellas llevó a nuevos avances. El físico estadounidense de origen alemán Hans Bethe demostró que las estrellas obtienen su energía de una serie de reacciones nucleares que tienen lugar a temperaturas de millones de grados. En estas reacciones, cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que liberan dos positrones y cantidades inmensas de energía. Este proceso de fusión nuclear se adoptó con algunas modificaciones -en gran medida a partir de ideas desarrolladas por el físico estadounidense de origen húngaro Edward Teller- como base de la bomba de fusión, o bomba de hidrógeno. Este arma, que se detonó por primera vez en 1952, era mucho más potente que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña bomba de fisión aporta las altas temperaturas necesarias para desencadenar la fusión, también llamada reacción termonuclear.

Gran parte de las investigaciones actuales se dedican a la producción de un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía. En diciembre de 1993 se logró un avance significativo en esa dirección cuando los investigadores de la Universidad de Princeton, en Estados Unidos, usaron el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que proporcionó durante un breve tiempo una potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de la que produjo.

Física del plasma

Un plasma es cualquier sustancia (generalmente un gas) cuyos átomos han perdido uno o más electrones, por lo que ha quedado ionizada. Sin embargo, los electrones perdidos permanecen en el volumen del gas, que de forma global permanece eléctricamente neutro. La ionización puede producirse mediante la introducción de grandes concentraciones de energía, como el bombardeo con electrones externos rápidos, mediante irradiación con luz láser o mediante calentamiento a temperaturas muy altas. Las partículas cargadas individuales que forman el plasma responden a campos eléctricos y magnéticos, por lo que pueden ser manipuladas y contenidas.

Los plasmas se encuentran en fuentes de luz gaseosas (como una lámpara de neón), en el espacio interestelar, donde el hidrógeno residual es ionizado por la radiación, y en las estrellas, cuyas elevadas temperaturas interiores producen un alto grado de ionización, un proceso estrechamente relacionado con la fusión nuclear que proporciona su energía a las estrellas. Para que los núcleos de hidrógeno se fusionen y formen núcleos más pesados deben tener una velocidad suficientemente alta para superar su repulsión eléctrica mutua; esto implica una temperatura muy elevada (millones de grados). Para producir una fusión controlada hay que generar plasmas y contenerlos magnéticamente. Es un problema importante y complejo que entra en el ámbito de la magnetohidrodinámica.

Avances de la física desde 1930

La rápida expansión de la física en las últimas décadas ha sido posible gracias a los avances fundamentales del primer tercio del siglo XX, junto con los recientes adelantos tecnológicos, sobre todo en tecnología informática, electrónica, aplicaciones de la energía nuclear y aceleradores de partículas de altas energías.

Criogenia

Estudio y utilización de materiales a temperaturas muy bajas. No se ha acordado un límite superior para las temperaturas criogénicas, pero el Instituto Nacional de Modelos y Tecnología de Estados Unidos ha sugerido que se aplique el término 'criogenia' para todas las temperaturas inferiores a -150 °C (123 K). Algunos científicos consideran el punto de ebullición normal del oxígeno (-183 °C) como límite superior (véase Cero absoluto). Las temperaturas criogénicas se obtienen por la evaporación rápida de líquidos volátiles o por la expansión de gases confinados a presiones de entre 150 a 200 atmósferas. La expansión puede ser simple, es decir, a través de una válvula que comunica con una región de menor presión, o tener lugar en el cilindro de un motor alternativo, donde el gas impulsa el pistón del motor. El segundo método es más eficiente, pero también es más difícil de aplicar.

Evolución histórica

Los primeros trabajos en la física de bajas temperaturas realizados por los químicos británicos Humphry Davy y Michael Faraday entre 1823 y 1845 allanaron el camino para el desarrollo de la criogenia. Davy y Faraday generaron gases calentado una mezcla adecuada en un extremo de un tubo estanco con forma de V invertida. El otro extremo se mantenía en una mezcla de hielo y sal para enfriarlo. La combinación de temperaturas reducidas y altas presiones hacía que el gas generado se licuara. Al abrir el tubo, el líquido se evaporaba rápidamente y se enfriaba hasta su punto de ebullición normal. Evaporando a bajas presiones dióxido de carbono sólido mezclado con éter, Faraday obtuvo una temperatura de aproximadamente 163 K (-110 °C).

Si un gas a temperatura moderada se expande a través de una válvula, su temperatura aumenta. Pero si su temperatura inicial está por debajo de la llamada temperatura de inversión, la expansión provoca una reducción de temperatura: es lo que se llama efecto Joule-Thomson. Las temperaturas de inversión del hidrógeno y el helio, dos gases criogénicos fundamentales, son extremadamente bajas, y para lograr una reducción de temperatura por expansión, deben enfriarse primero por debajo de sus temperaturas de inversión: el hidrógeno mediante aire líquido y el helio mediante hidrógeno líquido. Generalmente, este método no logra la licuefacción de gases en un solo paso, pero encadenando los efectos en cascada, el físico francés Louis Paul Cailletet y el físico suizo Raoul Pierre Pictet, de forma independiente, lograron producir en 1877 algunas gotas de oxígeno líquido. El éxito de estos investigadores marcó el final del concepto de gases permanentes, y estableció la posibilidad de licuar cualquier gas mediante una compresión moderada a temperaturas inferiores a la temperatura de inversión.

El físico holandés Heike Kamerlingh Onnes montó la primera planta de producción de aire líquido en 1894, utilizando el principio de cascada. A lo largo de los siguientes 40 años, investigadores de Gran Bretaña, Francia, Alemania y Rusia desarrollaron diversas mejoras del proceso. El químico británico James Dewar fue el primero en licuar el hidrógeno en 1898, y Kamerlingh Onnes licuó el helio (el gas más difícil de licuar) en 1908. Desde entonces se ha dedicado una atención cada vez mayor al estudio de fenómenos a bajas temperaturas. Uno de los retos ha seguido siendo mejorar la eficiencia haciendo que un gas refrigerante opere en un motor alternativo o una turbina. Fueron notables los trabajos del físico ruso Piotr Kapitsa y el ingeniero estadounidense Samuel Collins. Un licuador de helio basado en el diseño de Collins ha hecho posible que muchos laboratorios no especializados puedan realizar experimentos en el punto de ebullición normal del helio, 4,2 K (-268,9 °C).




Descargar
Enviado por:Andrés Pedroza
Idioma: castellano
País: España

Te va a interesar