Física


Física


FÍSICA

Ciencia que se ocupa de los componentes fundamentales del Universo, de las fuerzas que éstos ejercen entre sí y de los efectos de dichas fuerzas. En ocasiones la física moderna incorpora elementos de los tres aspectos mencionados, como ocurre con las leyes de simetría y conservación de la energía, el momento, la carga o la paridad.

La física está estrechamente relacionada con las demás ciencias naturales, y en cierto modo las engloba a todas. La química, por ejemplo, se ocupa de la interacción de los átomos para formar moléculas; gran parte de la geología moderna es en esencia un estudio de la física de la Tierra y se conoce como geofísica; la astronomía trata de la física de las estrellas y del espacio exterior. Incluso los sistemas vivos están constituidos por partículas fundamentales que siguen el mismo tipo de leyes que las partículas más sencillas estudiadas tradicionalmente por los físicos.

El hincapié que la física moderna hace en la interacción entre partículas (el llamado planteamiento microscópico) necesita muchas veces como complemento un enfoque macroscópico que se ocupe de elementos o sistemas de partículas más extensos. Este planteamiento macroscópico es indispensable en la aplicación de la física a numerosas tecnologías modernas.

Hasta principios del siglo XIX, era frecuente que los físicos fueran al mismo tiempo matemáticos, filósofos, químicos, biólogos o ingenieros. En la actualidad el ámbito de la física ha crecido tanto que, con muy pocas excepciones, los físicos modernos tienen que limitar su atención a una o dos ramas de su ciencia. Una vez que se descubren y comprenden los aspectos fundamentales de un nuevo campo, éste pasa a ser de interés para los ingenieros y otros científicos. Por ejemplo, los descubrimientos del siglo XIX en electricidad y magnetismo forman hoy parte del terreno de los ingenieros electrónicos y de comunicaciones; las propiedades de la materia descubiertas a comienzos del siglo XX han encontrado aplicación en la electrónica; los descubrimientos de la física nuclear, muchos de ellos posteriores a 1950, son la base de los trabajos de los ingenieros nucleares.

ANTIGÜEDAD

Los chinos, los babilonios, los egipcios y los mayas observaron los movimientos de los planetas y lograron predecir los eclipses, pero no consiguieron encontrar un sistema subyacente que explicara el movimiento planetario. Las especulaciones de los filósofos griegos introdujeron dos ideas fundamentales sobre los componentes del Universo, opuestas entre sí: el atomismo, propuesto por Leucipo en el siglo IV a.C., y la teoría de los elementos, formulada en el siglo anterior.

En Alejandría, el centro científico de la civilización occidental durante el periodo helenístico, hubo notables avances. Allí, el matemático e inventor griego Arquímedes diseñó con palancas y tornillos varios aparatos mecánicos prácticos y midió la densidad de objetos sólidos sumergiéndolos en un líquido. Otros científicos griegos importantes de aquella época fueron el astrónomo Aristarco de Samos, que halló la relación entre las distancias de la Tierra al Sol y de la Tierra a la Luna, el matemático, astrónomo y geógrafo Eratóstenes, que midió la circunferencia de la Tierra y elaboró un catálogo de estrellas, y el astrónomo Hiparco de Nicea, que descubrió la presesión de los equinoccios. En el siglo II d.C. el astrónomo, matemático y geógrafo Tolomeo propuso el sistema que lleva su nombre para explicar el movimiento planetario. En el sistema de Tolomeo, la Tierra está en el centro y el Sol, la Luna y las estrellas giran en torno a ella en órbitas circulares.

EDAD MEDIA

Durante la edad media se produjeron pocos avances, tanto en la física como en las demás ciencias. Sin embargo, sabios árabes como Averroes o como Ibn al-Nafis (también conocido como al-Qarashi) contribuyeron a la conservación de muchos tratados científicos de la Grecia clásica. En general, las grandes universidades medievales fundadas en Europa por las órdenes monásticas a partir del siglo XIII no supusieron un gran avance para la física y otras ciencias experimentales. El filósofo escolástico y teólogo italiano santo Tomás de Aquino, por ejemplo, trató de demostrar que las obras de Platón y Aristóteles eran compatibles con las Sagradas Escrituras. El filósofo escolástico y científico británico Roger Bacon fue uno de los pocos filósofos que defendió el método experimental como auténtica base del conocimiento científico; también investigó en astronomía, química, óptica y diseño de máquinas.

SIGLOS XVI y XVII

La ciencia moderna surgió tras el renacimiento, en el siglo XVI y comienzos del XVII, cuando cuatro astrónomos destacados lograron interpretar de forma muy satisfactoria el comportamiento de los cuerpos celestes. El astrónomo polaco Nicolás Copérnico propuso un sistema heliocéntrico, en el que los planetas giran alrededor del Sol. Sin embargo, Copérnico estaba convencido de que las órbitas planetarias eran circulares, por lo que su sistema requería unas elaboraciones casi tan complicadas como el sistema de Tolomeo al que pretendía sustituir. El astrónomo danés Tycho Brahe adoptó una fórmula de compromiso entre los sistemas de Copérnico y Tolomeo; según él, los planetas giraban en torno al Sol, mientras que el Sol giraba alrededor de la Tierra. Brahe era un gran observador y realizó una serie de medidas increíblemente precisas. Esto proporcionó a su ayudante Johannes Kepler los datos para atacar al sistema de Tolomeo y enunciar tres leyes que se ajustaban a una teoría heliocéntrica modificada. Galileo, que había oído hablar de la invención del telescopio, construyó uno, y en 1609 pudo confirmar el sistema heliocéntrico observando las fases del planeta Venus.

También descubrió las irregularidades en la superficie de la Luna, los cuatro satélites de Júpiter más brillantes, las manchas solares y muchas estrellas de la Vía Láctea. Los intereses de Galileo no se limitaban a la astronomía: empleando planos inclinados y un reloj de agua perfeccionado ya había demostrado que los objetos tardan lo mismo en caer, independientemente de su masa (lo que invalidaba los postulados de Aristóteles), y que la velocidad de los mismos aumenta de forma uniforme con el tiempo de caída. Los descubrimientos astronómicos de Galileo y sus trabajos sobre mecánica precedieron la obra del matemático y físico británico del siglo XVII Isaac Newton, uno de los científicos más grandes de la historia.

LA FÍSICA A PARTIR DE NEWTON

A partir de 1665, cuando tenía 23 años, Newton desarrolló los principios de la mecánica, formuló la ley de la gravitación universal, separó la luz blanca en sus colores constituyentes e inventó el cálculo diferencial e integral. Las contribuciones de Newton cubrieron una gama muy amplia de fenómenos naturales. Por ejemplo, demostró que tanto las leyes de Kepler sobre el movimiento planetario como los descubrimientos de Galileo sobre la caída de los cuerpos se deducen de la segunda ley del movimiento (segunda ley de Newton) combinada con la ley de la gravitación. Newton también logró explicar el efecto de la Luna sobre las mareas, así como la precesión de los equinoccios.

EL DESARROLLO DE LA MECÁNICA

El posterior desarrollo de la física debe mucho a las leyes del movimiento o leyes de Newton, especialmente a la segunda, que afirma que la fuerza necesaria para acelerar un objeto es igual a su masa multiplicada por su aceleración. Si se conocen la posición y velocidad iniciales de un cuerpo, así como la fuerza aplicada, es posible calcular las posiciones y velocidades posteriores aunque la fuerza cambie con el tiempo o la posición; en esos casos es necesario aplicar el cálculo infinitesimal de Newton. La segunda ley del movimiento también contiene otro aspecto importante: todos los cuerpos tienen una propiedad intrínseca, su masa inercial, que influye en su movimiento. Cuanto mayor es esa masa, menor es la aceleración que adquiere cuando se aplica una fuerza determinada sobre el cuerpo. Hoy sabemos que esta ley es válida siempre que el cuerpo no sea extremadamente pequeño, grande o rápido. La tercera ley de Newton, que afirma que “a cada fuerza de acción corresponde una fuerza de reacción igual y opuesta”, podría expresarse en términos modernos como que todas las fuerzas entre partículas se producen en pares de sentido opuesto, aunque no necesariamente situados a lo largo de la línea que une las partículas.

GRAVEDAD

La contribución más específica de Newton a la descripción de las fuerzas de la naturaleza fue la explicación de la fuerza de la gravedad. En la actualidad los científicos saben que sólo hay otras tres fuerzas, además de la gravedad, que originan todas las propiedades y actividades observadas en el Universo: el electromagnetismo, la llamada interacción nuclear fuerte (que mantiene unidos los protones y neutrones en los núcleos atómicos) y la interacción nuclear débil (o interacción débil) entre algunas de las partículas elementales, que explica el fenómeno de la radiactividad.

La comprensión del concepto de fuerza se remonta a la ley de la gravitación universal, que reconocía que todas las partículas materiales, y los cuerpos formados por estas partículas, tienen una propiedad denominada masa gravitacional. Esta propiedad hace que dos partículas cualesquiera ejerzan entre sí una fuerza atractiva (a lo largo de la línea que las une) directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa. Esta fuerza gravitatoria rige el movimiento de los planetas alrededor del Sol y de los objetos en el campo gravitatorio terrestre; también es responsable del colapso gravitacional que, según se cree, constituye el estado final del ciclo vital de las estrellas masivas y es la causa de muchos fenómenos astrofísicos.

“La contribución más específica de Newton a la descripción de las fuerzas de la naturaleza fue la explicación de la fuerza de la gravedad.”

Una de las observaciones más importantes de la física es que la masa gravitacional de un cuerpo (que es el origen de la fuerza gravitatoria que existe entre el cuerpo y otros cuerpos) es igual a su masa inercial, la propiedad que determina el movimiento del cuerpo en respuesta a cualquier fuerza ejercida sobre él. Esta equivalencia, confirmada experimentalmente con gran precisión (se ha demostrado que, en caso de existir alguna diferencia entre ambas masas, es menor de una parte en 1013), lleva implícita el principio de proporcionalidad: cuando un cuerpo tiene una masa gravitacional dos veces mayor que otro, su masa inercial también es dos veces mayor. Esto explica la observación de Galileo —realizada con anterioridad a la formulación de las leyes de Newton— de que todos los cuerpos caen con la misma aceleración independientemente de su masa: aunque los cuerpos más pesados experimentan una fuerza gravitatoria mayor, su mayor masa inercial disminuye en un factor igual a la aceleración por unidad de fuerza, por lo que la aceleración total es la misma que en un cuerpo más ligero.

Sin embargo, el significado pleno de esta equivalencia entre las masas gravitacional e inercial no se apreció hasta que Albert Einstein enunció la teoría de la relatividad general. Einstein se dio cuenta de que esta equivalencia tenía una implicación adicional: la equivalencia de un campo gravitatorio y un sistema de referencia acelerado “La fuerza gravitatoria es la más débil de las cuatro fuerzas de la naturaleza.”

La fuerza gravitatoria es la más débil de las cuatro fuerzas de la naturaleza. Por ejemplo, la fuerza gravitatoria entre dos protones (una de las partículas elementales más pesadas) es 1036 veces menos intensa que la fuerza electrostática entre ellos, sea cual sea la distancia que los separe. En el caso de dos protones situados en el núcleo de un átomo, la fuerza electrostática de repulsión es a su vez mucho menor que la interacción nuclear fuerte. El que la gravedad sea la fuerza dominante a escala macroscópica se debe a dos hechos:

1) según se sabe, sólo existe un tipo de masa, por lo que sólo existe un tipo de fuerza gravitacional, siempre atractiva; esto hace que las fuerzas gravitacionales de las numerosísimas partículas elementales que componen un cuerpo como la Tierra se sumen, con lo que la fuerza total resulta muy grande.

2) Las fuerzas gravitacionales actúan a cualquier distancia, disminuyendo según el cuadrado de la separación entre los cuerpos.

En cambio, las cargas eléctricas de las partículas elementales, que originan las fuerzas electrostáticas y electromagnéticas, pueden ser positivas o negativas. Las cargas iguales se repelen y las cargas opuestas se atraen. Los cuerpos formados por muchas partículas tienden a ser eléctricamente neutros, y las fuerzas eléctricas ejercidas por las partículas, aunque tienen un alcance infinito al igual que la fuerza de gravedad, se cancelan mutuamente. Por su parte, las interacciones nucleares, tanto la fuerte como la débil, tienen un alcance extremadamente corto, y apenas son apreciables a distancias mayores de una billonésima de centímetro.

A pesar de su importancia macroscópica, la fuerza de la gravedad es tan débil que un cuerpo tiene que poseer una masa enorme para que su influencia sobre otro cuerpo resulte apreciable. Por eso, la ley de la gravitación universal se dedujo de las observaciones del movimiento de los planetas mucho antes de que pudiera comprobarse de forma experimental. Esto sucedió en 1771, cuando el físico y químico británico Henry Cavendish confirmó la ley utilizando grandes esferas de plomo para atraer pequeñas masas unidas a un péndulo de torsión. A partir de esas medidas, Cavendish también dedujo la masa y la densidad de la Tierra.

Durante los dos siglos posteriores a Newton, aunque la mecánica se analizó, se reformuló y se aplicó a sistemas complejos, no se aportaron nuevas ideas físicas. El matemático suizo Leonhard Euler fue el primero en formular las ecuaciones del movimiento para sólidos rígidos, mientras que Newton sólo se había ocupado de masas que se podían considerar concentradas en un punto. Diferentes físicos matemáticos, entre ellos Joseph Louis Lagrange y William Hamilton, ampliaron la segunda ley de Newton con formulaciones más complejas. A lo largo del mismo periodo, Euler, el científico Daniel Bernoulli y otros investigadores también ampliaron la mecánica newtoniana y sentaron las bases de la mecánica de fluidos.

ELECTRICIDAD Y MAGNETISMO

Aunque los antiguos griegos conocían las propiedades electrostáticas del ámbar, y los chinos ya fabricaban imanes con magnetita en el 2700 a.C., los fenómenos eléctricos y magnéticos no empezaron a comprenderse hasta finales del siglo XVIII, cuando comenzaron a realizarse experimentos en estos campos. En 1785, el físico francés Charles de Coulomb confirmó por primera vez de forma experimental que las cargas eléctricas se atraen o se repelen con una intensidad inversamente proporcional al cuadrado de la distancia que las separa (ley de Coulomb). Más tarde el matemático francés Siméon Denis Poisson y su colega alemán Carl Friedrich Gauss desarrollaron una potente teoría para calcular el efecto de un número indeterminado de cargas eléctricas estáticas arbitrariamente distribuidas.

ECUACIONES DE MAXWELL

James Clerk Maxwell resumió las propiedades conocidas de los fenómenos eléctricos y magnéticos en cuatro ecuaciones. La primera relaciona el campo eléctrico E que atraviesa una superficie A (por ejemplo una esfera) con la carga eléctrica Q contenida dentro de la superficie. La segunda ecuación relaciona el campo magnético B que atraviesa una superficie A con la carga magnética contenida en la superficie, y afirma que dicha carga es nula, es decir, que no existen cargas magnéticas. La tercera ecuación describe dos formas de inducir un campo magnético B en una espira circular l. Una de ellas implica el movimiento de cargas en una corriente eléctrica ? , y la otra implica un flujo eléctrico variable. La cuarta ecuación describe la forma de inducir un campo eléctrico E mediante un flujo magnético variable. La variación de un flujo depende de la variación del campo (E o B) y de la superficie A atravesada por el mismo.


TERMODINÁMICA

Una rama de la física que alcanzó pleno desarrollo en el siglo XIX fue la termodinámica. En primer lugar aclaró los conceptos de calor y temperatura, proporcionando definiciones coherentes y demostrando cómo podían relacionarse éstas con los conceptos de trabajo y energía, que hasta entonces tenían un carácter puramente mecánico.

CALOR Y TEMPERATURA

Cuando una persona toca un cuerpo caliente y otro frío experimenta sensaciones diferentes: esto llevó al concepto cualitativo y subjetivo de temperatura. La adición de calor a un cuerpo lleva a un aumento de su temperatura (mientras no se produzca fusión o vaporización); cuando se ponen en contacto dos cuerpos a temperaturas diferentes, se produce un flujo de calor del más caliente al más frío hasta que se igualan sus temperaturas y se alcanza el equilibrio térmico. Para llegar a una medida de la temperatura, los científicos aprovecharon la observación de que la adición o sustracción de calor produce un cambio en alguna propiedad bien definida del cuerpo. Por ejemplo, la adición de calor a una columna de líquido mantenida a presión constante aumenta la longitud de la columna, mientras que el calentamiento de un gas confinado en un recipiente aumenta su presión. Esto hace que la temperatura pueda medirse a partir de otra propiedad física siempre que se mantengan constantes las otras propiedades relevantes. La relación matemática entre las propiedades físicas relevantes de un cuerpo o sistema y su temperatura se conoce como ecuación de estado. Por ejemplo, en los gases llamados ideales, hay una relación sencilla entre la presión p, el volumen V, el número de moles n y la temperatura absoluta T, dada por la ecuación

pV = nRT

Donde R es una constante igual para todos los gases. La ley de Boyle-Mariotte, llamada así en honor al físico y químico británico Robert Boyle y al físico francés Edme Mariotte, y la ley de Charles y Gay-Lussac, llamada así en honor a los físicos y químicos franceses Joseph Louis Gay-Lussac y Jacques Alexandre César Charles, están contenidas en esa ecuación de estado.

Hasta bien entrado el siglo XIX se consideraba que el calor era un fluido sin masa, el llamado “calórico”, que estaba contenido en la materia y podía introducirse en un cuerpo o extraerse del mismo. Aunque la teoría del calórico explicaba las cuestiones básicas de termometría y calorimetría, no lograba explicar satisfactoriamente muchas observaciones realizadas a principios del siglo XIX.

La primera relación cuantitativa entre el calor y otras formas de energía fue observada en 1798 por el físico y estadista estadounidense de origen inglés Benjamin Thompson, conde de Rumford, que observó que el calor producido al taladrar el ánima de un cañón era aproximadamente proporcional al trabajo empleado (en mecánica, el trabajo es el producto de la fuerza que actúa sobre un cuerpo por la distancia recorrida por el cuerpo en la dirección de esta fuerza durante su aplicación).

TEORÍA CINÉTICA Y MECÁNICA ESTADÍSTICA

El concepto moderno de átomo fue propuesto por primera vez por el químico y físico británico John Dalton en 1808, a partir de sus estudios que mostraban que los elementos químicos se combinan en proporciones constantes para formar compuestos. En 1811, el físico italiano Amedeo Avogadro propuso el concepto de molécula, la partícula más pequeña de una sustancia gaseosa que puede existir en estado libre y seguir teniendo las mismas propiedades que una cantidad mayor de dicha sustancia. Este concepto no tuvo una aceptación generalizada hasta unos 50 años después, cuando sirvió de base a la teoría cinética de los gases. Esta teoría, desarrollada por Maxwell, el físico austriaco Ludwig Boltzmann y otros, permitió aplicar las leyes de la mecánica y del cálculo probabilístico al comportamiento de las moléculas individuales, lo que llevó a deducciones estadísticas sobre las propiedades del gas en su conjunto.

Un problema importante resuelto de esta forma fue la determinación del rango de velocidades de las moléculas de un gas, y en consecuencia de la energía cinética media de las moléculas. La energía cinética de un cuerpo es ymv2, donde m es la masa del cuerpo y v su velocidad. Uno de los logros de la teoría cinética fue la demostración de que la temperatura —una propiedad termodinámica macroscópica que describe el conjunto del sistema— está directamente relacionada con la energía cinética media de las moléculas. Otro logro consistió en identificar la entropía de un sistema con el logaritmo de la probabilidad estadística de la distribución de energías. Esto llevó a demostrar que el estado de equilibrio termodinámico de mayor probabilidad es también el estado de máxima entropía. Después de su éxito en los gases, la teoría cinética y la mecánica estadística se aplicaron a otros sistemas, algo que continúa haciéndose en la actualidad.

PRIMERAS TEORÍAS ATÓMICAS Y MOLECULARES

La teoría atómica de Dalton y la ley de Avogadro tuvieron una influencia crucial en el desarrollo de la química, además de su importancia para la física.

LEY DE AVOGADRO

La ley de Avogadro, fácil de demostrar a partir de la teoría cinética, afirma que a una presión y temperatura dadas un volumen determinado de un gas siempre contiene el mismo número de moléculas, independientemente del gas de que se trate. Sin embargo, los físicos no lograron determinar con exactitud esa cifra (y por tanto averiguar la masa y tamaño de las moléculas) hasta principios del siglo XX. Después del descubrimiento del electrón, el físico estadounidense Robert Andrews Millikan determinó su carga. Esto permitió finalmente calcular con precisión el número de Avogadro, es decir, el número de partículas (átomos, moléculas, iones o cualquier otra partícula) que hay en un mol de materia.

Además de la masa del átomo interesa conocer su tamaño. A finales del siglo XIX se realizaron diversos intentos para determinar el tamaño del átomo, que sólo tuvieron un éxito parcial. En uno de estos intentos se aplicaron los resultados de la teoría cinética a los gases no ideales, es decir, gases cuyas moléculas no se comportan como puntos sino como esferas de volumen finito. Posteriores experimentos que estudiaban la forma en que los átomos dispersaban rayos X, partículas alfa y otras partículas atómicas y subatómicas permitieron medir con más precisión el tamaño de los átomos, que resultaron tener un diámetro de entre 10-8 y 10-9 cm. Sin embargo, una afirmación precisa sobre el tamaño de un átomo exige una definición explícita de lo que se entiende por tamaño, puesto que la mayoría de los átomos no son exactamente esféricos y pueden existir en diversos estados, con diferentes distancias entre el núcleo y los electrones.

ESPECTROSCOPIA

Uno de los avances más importantes que llevaron a la exploración del interior del átomo y al abandono de las teorías clásicas de la física fue la espectroscopia; otro avance fue el propio descubrimiento de las partículas subatómicas.

Cuando se calienta una sustancia gaseosa ésta emite luz en una serie de frecuencias determinadas; la distribución de estas frecuencias se denomina espectro de emisión. En 1823 el astrónomo y químico británico John Herschel sugirió que las sustancias químicas podían identificarse por su espectro. En los años posteriores, dos alemanes, el químico Robert Wilhelm Bunsen y el físico Gustav Robert Kirchhoff, catalogaron los espectros de numerosas sustancias. El helio se descubrió después de que, en 1868, el astrónomo británico Joseph Norman Lockyer observara una línea espectral desconocida en el espectro solar. Sin embargo, las contribuciones más importantes desde el punto de vista de la teoría atómica se debieron al estudio de los espectros de átomos sencillos, como el del hidrógeno, que presenta pocas líneas espectrales.

Los llamados espectros de líneas (formados por líneas individuales correspondientes a diferentes frecuencias) son causados por sustancias gaseosas en las que, según sabemos hoy, los electrones han sido excitados por calentamiento o por bombardeo con partículas subatómicas. En cambio, cuando se calienta un sólido aparece un espectro continuo que cubre toda la zona visible y penetra en las regiones infrarroja y ultravioleta. La cantidad total de energía emitida por el sólido depende mucho de la temperatura, así como la intensidad relativa de las distintas longitudes de onda. Por ejemplo, si se calienta un trozo de hierro la radiación emitida comienza en la región infrarroja, y no puede verse; después la radiación se desplaza hacia el espectro visible, primero con un brillo rojo y luego blanco, a medida que el máximo del espectro de radiación avanza hacia la mitad de la zona visible. El intento de explicar las características de la radiación de los sólidos con las herramientas de la física teórica de finales del siglo XIX llevaba a la predicción de que, a cualquier temperatura, la cantidad de radiación debía aumentar de forma ilimitada a medida que disminuía la longitud de onda. Este cálculo, en el que no se logró encontrar ningún error, estaba en desacuerdo con los experimentos y además llevaba a una conclusión absurda, la de que un cuerpo con temperatura finita pudiera radiar una cantidad infinita de energía. Estas contradicciones exigían una nueva forma de considerar la radiación e, indirectamente, el átomo.

LA CRISIS DE LA FÍSICA CLÁSICA

Hacia 1880 la física presentaba un panorama de calma: la mayoría de los fenómenos podían explicarse mediante la mecánica de Newton, la teoría electromagnética de Maxwell, la termodinámica y la mecánica estadística de Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas, como la determinación de las propiedades del éter y la explicación de los espectros de emisión y absorción de sólidos y gases. Sin embargo, estos fenómenos contenían las semillas de una revolución cuyo estallido se vio acelerado por una serie de asombrosos descubrimientos realizados en la última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió los rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en 1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899, Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales de la física, unidos a los inquietantes resultados del experimento de Michelson-Morley y al descubrimiento de los rayos catódicos, formados por chorros de electrones, desafiaban a todas las teorías disponibles.

RELATIVIDAD

Para ampliar el ejemplo de velocidad relativa introducido a propósito del experimento de Michelson-Morley se pueden comparar dos situaciones. En una de ellas, una persona A avanza hacia delante con una velocidad v en un tren que se mueve a una velocidad u. La velocidad de A con respeto a un observador B situado en el andén es V = u + v. Si el tren está parado en la estación y A avanza hacia delante con una velocidad v mientras el observador B camina en sentido opuesto con velocidad u, la velocidad relativa de A respecto a B sería exactamente la misma que en el primer caso. En términos más generales, si dos sistemas de referencia se mueven uno respecto del otro a velocidad constante, las observaciones de cualquier fenómeno realizadas por un observador en cualquiera de los sistemas son físicamente equivalentes. Como ya se indicó, el experimento de Michelson-Morley no logró confirmar esta simple suma de velocidades en el caso de un haz de luz: dos observadores, uno de los cuales estaba en reposo y el otro avanzaba hacia una fuente de luz a velocidad u, midieron el mismo valor de la velocidad de la luz, que suele simbolizarse con la letra c.

Einstein incorporó la invariancia de c a su teoría de la relatividad. La teoría también exigió un cuidadoso replanteamiento de los conceptos de espacio y tiempo, y puso de manifiesto la imperfección de las nociones intuitivas sobre los mismos. De la teoría de Einstein se desprende que un reloj perfectamente sincronizado con otro reloj situado en reposo en relación con él se retrasará o adelantará con respecto al segundo reloj si ambos se mueven uno respecto del otro. Igualmente, dos varillas que tengan igual longitud cuando están en reposo tendrán longitudes distintas cuando una se mueva respecto a la otra. Las diferencias sólo son significativas cuando las velocidades relativas son comparables a c. El espacio y el tiempo están estrechamente ligados en un continuo de cuatro dimensiones: las tres dimensiones espaciales habituales y una cuarta dimensión temporal.

“En cualquier caso, ningún objeto material puede tener una velocidad igual o mayor a la velocidad de la luz.”

Dos consecuencias importantes de la teoría de la relatividad son la equivalencia entre masa y energía y el límite máximo a la velocidad de los objetos materiales dado por c. La mecánica relativista describe el movimiento de objetos cuyas velocidades son fracciones apreciables de c, mientras que la mecánica newtoniana sigue siendo útil para las velocidades propias de los movimientos de los objetos macroscópicos en la Tierra. En cualquier caso, ningún objeto material puede tener una velocidad igual o mayor a la velocidad de la luz.

La masa m y la energía E están ligadas por la relación E = mc2

Como c es muy grande, el equivalente energético de la masa es gigantesco. La transformación de masa en energía resulta significativa en las reacciones nucleares, como las que tienen lugar en una central nuclear o en una bomba atómica, y en las estrellas, donde la liberación de cantidades ingentes de energía se ve acompañada de una pérdida significativa de masa.

La teoría original de Einstein, formulada en 1905 y conocida como teoría de la relatividad especial o restringida, se limitaba a sistemas de referencia que se mueven a velocidad constante uno respecto del otro. En 1915, Einstein generalizó su hipótesis y formuló la teoría de la relatividad general, aplicable a sistemas que experimentan una aceleración uno con respecto al otro. Esta extensión demostró que la gravitación era una consecuencia de la geometría del espacio-tiempo, y predijo la desviación de la luz al pasar cerca de un cuerpo de gran masa como una estrella, efecto que se observó por primera vez en 1919. La teoría de la relatividad general, aunque no está tan firmemente establecida como la relatividad restringida, tiene una importancia decisiva para la comprensión de la estructura del Universo y su evolución.

TEORÍA CUÁNTICA

El primero en resolver el dilema planteado por los espectros de emisión de los cuerpos sólidos fue el físico alemán Max Planck. Según la física clásica, todas las moléculas de un sólido pueden vibrar, y la amplitud de sus vibraciones está directamente relacionada con la temperatura. En principio son posibles todas las energías de vibración, y la energía térmica del sólido debería de poder convertirse de forma continua en radiación electromagnética mientras se le suministre energía. Planck realizó una suposición radical al postular que un oscilador molecular sólo puede emitir ondas electromagnéticas en paquetes discretos, que llamó cuantos o fotones. Cada fotón tiene una longitud de onda y una frecuencia características y una energía E que viene dada por E = hu, donde u es la frecuencia de la onda luminosa y h es la denominada constante de Planck. La longitud de onda ? está relacionada con la frecuencia según la ecuación ?u = c, donde c es la velocidad de la luz. Si la frecuencia se expresa en hercios (Hz), o ciclos por segundo (1 Hz = 1 s-1), y la energía en julios, la constante de Planck es extremadamente pequeña, y vale 6,626 × 10-34 julios·segundo. Con su teoría, Planck introdujo una dualidad onda-corpúsculo en la naturaleza de la luz, que durante un siglo había sido considerada como un fenómeno exclusivamente ondulatorio.

RAYOS X

En 1912 el físico alemán Max von Laue y sus colaboradores demostraron que estos rayos extremadamente penetrantes, descubiertos por Roentgen, eran radiación electromagnética de longitud de onda muy corta, es decir, de frecuencia elevada. Se comprobó que el mecanismo de producción de rayos X correspondía a un fenómeno cuántico, y en 1914 el físico británico Henry Gwyn Jeffreys Moseley empleó sus espectrogramas de rayos X para demostrar que el número de protones de un átomo coincide con su número atómico, que indica su posición en la tabla periódica. La teoría fotónica de la radiación electromagnética se reforzó y desarrolló aún más cuando el físico estadounidense Arthur Holly Compton predijo y observó en 1923 el llamado efecto Compton.

FÍSICA DEL ELECTRÓN

En el siglo XIX ya se sospechaba que los portadores de las cargas eléctricas eran partículas extremadamente pequeñas, y los experimentos electroquímicos indicaban que la carga de esas partículas elementales era una cantidad definida e invariante. Los experimentos sobre conducción de electricidad en gases a baja presión llevaron al descubrimiento de dos clases de rayos: los rayos catódicos, procedentes del electrodo negativo de un tubo de descarga, y los rayos positivos o rayos canales, procedentes del electrodo positivo. El experimento realizado por Joseph John Thomson en 1895 midió la relación entre la carga q y la masa m de las partículas de los rayos catódicos. En 1899 Lenard confirmó que esta relación era la misma en las partículas emitidas en el efecto fotoeléctrico. Hacia 1911 Millikan determinó por fin que la carga eléctrica siempre aparece en múltiplos de una unidad básica e, y midió su valor, que es de 1,602 × 10-19 culombios. A partir del valor obtenido para la relación q/m, se determinó que la masa del portador de carga, denominado electrón, es de 9,109 × 10-31 kilogramos.

Posteriormente Thomson y otros demostraron que los rayos positivos también estaban formados por partículas, pero con carga de signo positivo. Estas partículas (en la actualidad se sabe que son iones positivos producidos al eliminar electrones de un átomo neutro) tienen una masa muchísimo mayor que la del electrón. La más pequeña, el ion hidrógeno, está formado por un solo protón (con carga e pero de signo positivo) y tiene una masa de 1,673 × 10-27 kg, unas 1.800 veces mayor que la del electrón. La naturaleza “cuantizada” de la carga eléctrica había quedado firmemente establecida, y al mismo tiempo se habían identificado dos de las partículas subatómicas fundamentales.

MECÁNICA CUÁNTICA

En unos pocos años, aproximadamente entre 1924 y 1930, se desarrolló un nuevo enfoque teórico de la dinámica para explicar el comportamiento subatómico. El nuevo planteamiento, llamado mecánica cuántica, comenzó cuando el físico francés Louis de Broglie sugirió en 1924 que no sólo la radiación electromagnética, sino también la materia podía presentar una dualidad onda-corpúsculo. La longitud de onda de las llamadas ondas de materia asociadas con una partícula viene dada por la ecuación ? = h/mv, donde m es la masa de la partícula y v su velocidad. Las ondas de materia se concebían como ondas piloto que guiaban el movimiento de las partículas, una propiedad que debería llevar a que en condiciones adecuadas se produjera difracción.

Ésta se confirmó en 1927 con los experimentos sobre interacciones entre electrones y cristales realizados por los físicos estadounidenses Clinton Joseph Davisson y Lester Halbert Germer y por el físico británico George Paget Thomson. Posteriormente, los alemanes Werner Heisenberg, Max Born y Ernst Pascual Jordan, y el austriaco Erwin Schrödinger dieron a la idea planteada por De Broglie una forma matemática que podía aplicarse a numerosos fenómenos físicos y a problemas que no podían tratarse con la física clásica. Además de confirmar el postulado de Bohr sobre la cuantización de los niveles de energía de los átomos, la mecánica cuántica hace que en la actualidad podamos comprender los átomos más complejos, y también ha supuesto una importante guía en la física nuclear. Aunque por lo general la mecánica cuántica sólo se necesita en fenómenos microscópicos (la mecánica newtoniana sigue siendo válida para sistemas macroscópicos), ciertos efectos macroscópicos como las propiedades de los sólidos cristalinos sólo pueden explicarse de forma satisfactoria a partir de los principios de la mecánica cuántica.

Desde entonces se han incorporado nuevos conceptos importantes al panorama de la mecánica cuántica, más allá de la idea de Broglie sobre la dualidad onda-corpúsculo de la materia. Uno de estos conceptos es que los electrones deben tener un cierto magnetismo permanente y por tanto un momento angular intrínseco o espín. Después se comprobó que el espín es una propiedad fundamental de casi todas las partículas elementales. En 1925, el físico austriaco Wolfgang Pauli expuso el principio de exclusión, que afirma que en un átomo no puede haber dos electrones con el mismo conjunto de números cuánticos (hacen falta cuatro números cuánticos para especificar completamente el estado de un electrón dentro de un átomo). El principio de exclusión es vital para comprender la estructura de los elementos y de la tabla periódica. En 1927, Heisenberg postuló el principio de incertidumbre, que afirma la existencia de un límite natural a la precisión con la que pueden conocerse simultáneamente determinados pares de magnitudes físicas asociadas a una partícula (por ejemplo, la cantidad de movimiento y la posición).

En 1928 el físico matemático británico Paul Dirac realizó una síntesis de la mecánica cuántica y la relatividad, que le llevó a predecir la existencia del positrón y culminó el desarrollo de la mecánica cuántica.

Las ideas de Bohr desempeñaron un papel muy importante para el desarrollo de un enfoque estadístico en la física moderna. Las relaciones de causa y efecto de la mecánica newtoniana, totalmente deterministas, fueron sustituidas por predicciones de sucesos futuros basadas sólo en probabilidades estadísticas. Las propiedades ondulatorias de la materia implican que, de acuerdo con el principio de incertidumbre, el movimiento de las partículas nunca puede predecirse con una certeza absoluta, incluso aunque se conozcan por completo las fuerzas. Aunque este aspecto estadístico no es detectable en los movimientos macroscópicos, es dominante a escala molecular, atómica y subatómica.

FÍSICA NUCLEAR

El descubrimiento de la radiactividad del mineral de uranio, llevado a cabo en 1896 por Becquerel, también facilitó la comprensión de la estructura atómica. En los años siguientes se comprobó que la radiación de los materiales radiactivos estaba formada por tres tipos de emisiones: los llamados rayos alfa, beta y gamma. Rutherford estableció que los primeros eran núcleos de átomos de helio, y Becquerel demostró que los segundos eran electrones muy rápidos. Los rayos gamma resultaron ser radiación electromagnética de muy alta frecuencia. En 1898, los físicos franceses Marie y Pierre Curie aislaron dos elementos muy radiactivos, el radio y el polonio, a partir del mineral de uranio, con lo que demostraron que las radiaciones pueden identificarse con determinados elementos. En 1903, Rutherford y el químico y físico británico Frederick Soddy demostraron que la emisión de rayos alfa o beta provoca la transmutación del núcleo del elemento emisor en un núcleo de un elemento diferente. Poco después se comprobó que los procesos radiactivos son aleatorios y sólo se pueden estudiar desde un punto de vista estadístico: no existe ningún método para indicar qué núcleo de un átomo de un material radiactivo se desintegrará en un momento dado. Estos avances, además de llevar al modelo atómico de Rutherford y Bohr, también sugerían que los rayos alfa, beta y gamma sólo podían proceder de núcleos de átomos muy pesados. En 1919, Rutherford bombardeó núcleos de nitrógeno con partículas alfa y los convirtió en núcleos de hidrógeno y oxígeno, con lo que logró la primera transmutación artificial de elementos.

Entretanto, el conocimiento de la naturaleza y abundancia de los isótopos iba creciendo, debido en gran medida al desarrollo del espectrómetro de masas. Surgió un modelo atómico en el que el núcleo contenía toda la carga positiva y casi toda la masa del átomo. Los portadores de la carga nuclear fueron identificados como protones, pero sólo podía explicarse la masa del núcleo si existían otras partículas adicionales sin carga (salvo en el caso del hidrógeno, cuyo núcleo está formado sólo por un protón). En 1932, el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra cuya masa es igual a 1,675 × 10-27 kg, algo mayor que la del protón. Los núcleos atómicos resultaron pues estar formados por protones y neutrones —llamados colectivamente nucleones—, y el número atómico del elemento corresponde al número de protones del núcleo. Por otra parte, el número másico, también denominado número isotópico, corresponde a la suma del número de protones y neutrones. Por ejemplo, todos los átomos de oxígeno (cuyo número atómico es 8) tienen ocho protones, pero los tres isótopos de oxígeno 16O, 17O y 18O contienen respectivamente ocho, nueve y diez neutrones en su núcleo.

Las cargas eléctricas positivas se repelen, y puesto que los núcleos atómicos (salvo el del hidrógeno) tienen más de un protón, se desintegrarían a no ser por una fuerza atractiva muy intensa, la llamada interacción nuclear fuerte, que mantiene unidos los nucleones. La energía asociada con esta interacción fuerte es muy grande, millones de veces mayor que las energías características de los electrones en sus órbitas, responsables de los enlaces químicos. Por tanto, una partícula alfa (formada por dos neutrones y dos protones) tendría que superar esta intensa interacción fuerte para escapar de un núcleo radiactivo como el del uranio. El fenómeno fue explicado por los físicos estadounidenses Edward Condon, George Gamow y Ronald Wilfred Gurney, que en 1928 aplicaron la mecánica cuántica al problema de la emisión alfa y demostraron que la naturaleza estadística de los procesos nucleares permitía que las partículas alfa salieran de los núcleos radiactivos aunque su energía media fuera insuficiente para superar la interacción nuclear fuerte. La emisión beta se explicó como resultado de la desintegración de un neutrón del núcleo, que se transforma en un electrón (la partícula beta) que se expulsa rápidamente y en un protón residual. El núcleo resultante tiene un protón más que el núcleo original, por lo que su número atómico, y por tanto su posición en la tabla periódica, aumentan en una unidad. Después de una emisión alfa o beta, el núcleo suele tener un exceso de energía, del que se deshace emitiendo un fotón de rayos gamma.

En todos estos procesos se libera una gran cantidad de energía, según la ecuación de Einstein E = mc2. Al finalizar el proceso, la masa total de los productos es menor que la del núcleo original: esta diferencia de masa corresponde a la energía liberada.

AVANCES DE LA FÍSICA DESDE 1930

La rápida expansión de la física en las últimas décadas ha sido posible gracias a los avances fundamentales del primer tercio del siglo XX, junto con los recientes adelantos tecnológicos, sobre todo en tecnología informática, electrónica, aplicaciones de la energía nuclear y aceleradores de partículas de altas energías.

FÍSICA NUCLEAR

En 1932 el físico estadounidense Harold Clayton Urey descubrió el isótopo del hidrógeno denominado deuterio y lo empleó para obtener agua pesada. El núcleo de deuterio o deuterón (formado por un protón y un neutrón) constituye un excelente proyectil para inducir reacciones nucleares. Los físicos franceses Irène y Frédéric Joliot-Curie produjeron el primer núcleo radiactivo artificial en 1933-1934, con lo que comenzó la producción de radioisótopos para su empleo en arqueología, biología, medicina, química y otras ciencias.

Fermi y numerosos colaboradores emprendieron una serie de experimentos para producir elementos más pesados que el uranio bombardeando éste con neutrones. Tuvieron éxito, y en la actualidad se han creado artificialmente al menos una veintena de estos elementos transuránicos. A medida que continuaba su trabajo se produjo un descubrimiento aún más importante. Irène Joliot-Curie, los físicos alemanes Otto Hahn y Fritz Strassmann, la física austriaca Lise Meitner y el físico británico Otto Robert Frisch comprobaron que algunos núcleos de uranio se dividían en dos partes, fenómeno denominado fisión nuclear. La fisión liberaba una cantidad enorme de energía debida a la pérdida de masa, además de algunos neutrones. Estos resultados sugerían la posibilidad de una reacción en cadena automantenida, algo que lograron Fermi y su grupo en 1942, cuando hicieron funcionar el primer reactor nuclear. Los avances tecnológicos fueron rápidos; la primera bomba atómica se fabricó en 1945 como resultado de un ingente programa de investigación dirigido por el físico estadounidense J. Robert Oppenheimer, y el primer reactor nuclear destinado a la producción de electricidad entró en funcionamiento en Gran Bretaña en 1956, con una potencia de 78 megavatios.

La investigación de la fuente de energía de las estrellas llevó a nuevos avances. El físico estadounidense de origen alemán Hans Bethe demostró que las estrellas obtienen su energía de una serie de reacciones nucleares que tienen lugar a temperaturas de millones de grados. En estas reacciones, cuatro núcleos de hidrógeno se convierten en un núcleo de helio, a la vez que liberan dos positrones y cantidades inmensas de energía. Este proceso de fusión nuclear se adoptó con algunas modificaciones —en gran medida a partir de ideas desarrolladas por el físico estadounidense de origen húngaro Edward Teller— como base de la bomba de fusión, o bomba de hidrógeno. Este arma, que se detonó por primera vez en 1952, era mucho más potente que la bomba de fisión o atómica. En la bomba de hidrógeno, una pequeña bomba de fisión aporta las altas temperaturas necesarias para desencadenar la fusión, también llamada reacción termonuclear.

Gran parte de las investigaciones actuales se dedican a la producción de un dispositivo de fusión controlada, no explosiva, que sería menos radiactivo que un reactor de fisión y proporcionaría una fuente casi ilimitada de energía. En diciembre de 1993 se logró un avance significativo en esa dirección cuando los investigadores de la Universidad de Princeton, en Estados Unidos, usaron el Reactor Experimental de Fusión Tokamak para producir una reacción de fusión controlada que proporcionó durante un breve tiempo una potencia de 5,6 megavatios. Sin embargo el reactor consumió más energía de la que produjo.

FÍSICA DEL ESTADO SÓLIDO

En los sólidos, los átomos están densamente empaquetados, lo que lleva a la existencia de fuerzas de interacción muy intensas y numerosos efectos relacionados con este tipo de fuerzas que no se observan en los gases, donde las moléculas actúan en gran medida de forma independiente. Los efectos de interacción son responsables de las propiedades mecánicas, térmicas, eléctricas, magnéticas y ópticas de los sólidos, un campo que resulta difícil de tratar desde el punto de vista teórico, aunque se han realizado muchos progresos.

Una característica importante de la mayoría de los sólidos es su estructura cristalina, en la que los átomos están distribuidos en posiciones regulares que se repiten de forma geométrica. La distribución específica de los átomos puede deberse a una variada gama de fuerzas. Por ejemplo, algunos sólidos como el cloruro de sodio o sal común se mantienen unidos por enlaces iónicos debidos a la atracción eléctrica entre los iones que componen el material. En otros, como el diamante, los átomos comparten electrones, lo que da lugar a los llamados enlaces covalentes. Las sustancias inertes, como el neón, no presentan ninguno de esos enlaces. Su existencia es el resultado de unas fuerzas de atracción conocidas como fuerzas de van der Waals, así llamadas en honor al físico holandés Johannes Diderik van der Waals. Estas fuerzas aparecen entre moléculas o átomos neutros como resultado de la polarización eléctrica. Los metales, por su parte, se mantienen unidos por lo que se conoce como “gas electrónico”, formado por electrones libres de la capa atómica externa compartidos por todos los átomos del metal y que definen la mayoría de sus propiedades.

Los niveles de energía definidos y discretos permitidos a los electrones de átomos individuales se ensanchan hasta convertirse en bandas de energía cuando los átomos se agrupan densamente en un sólido. La anchura y separación de esas bandas definen muchas de las propiedades del material. Por ejemplo, las llamadas bandas prohibidas, en las que no pueden existir electrones, restringen el movimiento de éstos y hacen que el material sea un buen aislante térmico y eléctrico. Cuando las bandas de energía se solapan, como ocurre en los metales, los electrones pueden moverse con facilidad, lo que hace que el material sea un buen conductor de la electricidad y el calor. Si la banda prohibida es estrecha, algunos de los electrones más rápidos pueden saltar a la banda de energía superior: es lo que ocurre en un semiconductor como el silicio. En ese caso, el espacio entre las bandas de energía puede verse muy afectado por cantidades minúsculas de impurezas, como arsénico. Cuando la impureza provoca el descenso de una banda de energía alta, se dice que es un donante de electrones, y el semiconductor resultante se llama de tipo n. Cuando la impureza provoca el ascenso de una banda de energía baja, como ocurre con el galio, se dice que es un aceptor de electrones. Los vacíos o “huecos” de la estructura electrónica actúan como si fueran cargas positivas móviles, y se dice que el semiconductor es de tipo p. Numerosos dispositivos electrónicos modernos, en particular el transistor, desarrollado por los físicos estadounidenses John Bardeen, Walter Houser Brattain y William Bradford Shockley, están basados en estas propiedades de los semiconductores.

Las propiedades magnéticas de los sólidos se deben a que los electrones actúan como minúsculos dipolos magnéticos. Casi todas las propiedades de los sólidos dependen de la temperatura. Por ejemplo, los materiales ferromagnéticos como el hierro o el níquel pierden su intenso magnetismo residual cuando se los calienta a una temperatura característica denominada punto de Curie. La resistencia eléctrica suele decrecer al disminuir la temperatura, y en algunos materiales denominados superconductores desaparece por completo en las proximidades del cero absoluto. Éste y muchos otros fenómenos observados en los sólidos dependen de la cuantización de la energía, y la mejor forma de describirlos es a través de “partículas” efectivas con nombres como fonón, polarón o magnón.

FÍSICA DEL PLASMA

Un plasma es cualquier sustancia, generalmente un gas, cuyos átomos han perdido uno o más electrones, por lo que ha quedado ionizada. Sin embargo, los electrones perdidos se mantienen en el volumen del gas, que de forma global permanece eléctricamente neutro. La ionización se puede producir mediante la introducción de grandes concentraciones de energía, como el bombardeo con electrones externos rápidos, mediante irradiación con luz láser o mediante calentamiento a temperaturas muy altas. Las partículas cargadas individuales que forman el plasma responden a campos eléctricos y magnéticos, por lo que pueden ser manipuladas y contenidas.

Los plasmas se encuentran en fuentes de luz gaseosas (como una lámpara de neón), en el espacio interestelar, donde el hidrógeno residual es ionizado por la radiación, y en las estrellas, cuyas elevadas temperaturas interiores producen un alto grado de ionización, un proceso estrechamente relacionado con la fusión nuclear que proporciona su energía a las estrellas. Para que los núcleos de hidrógeno se fusionen y formen núcleos más pesados deben tener una velocidad suficientemente alta para superar su repulsión eléctrica mutua; esto implica una temperatura muy elevada (millones de grados). Para producir una fusión controlada hay que generar plasmas y contenerlos magnéticamente. Es un problema importante y complejo que entra en el ámbito de la magnetohidrodinámica.

LÁSER

Un importante avance reciente es el láser, acrónimo en inglés de “amplificación de luz por emisión estimulada de radiación”. En un láser, cuya sustancia activa puede ser un gas, un líquido o un sólido, se excita un gran número de átomos hasta un nivel elevado de energía y se hace que liberen dicha energía simultáneamente, con lo que producen luz coherente en la que todas las ondas están en fase. Esta coherencia permite generar haces de luz muy intensos y de longitud de onda muy definida, que se mantienen enfocados o colimados a lo largo de distancias muy grandes. La luz láser es mucho más intensa que la de cualquier otra fuente. Un láser continuo puede proporcionar cientos de vatios, y un láser pulsado puede generar millones de vatios durante periodos muy cortos. El láser fue desarrollado en las décadas de 1950 y 1960 por el ingeniero e inventor estadounidense Gordon Gould y los físicos estadounidenses Charles Hard Townes, T. H. Maiman, Arthur Schawlow y Alí Javan. En la actualidad constituye un instrumento muy potente para la ciencia y la tecnología, con aplicaciones en comunicación, medicina, navegación, metalurgia, fusión y corte de materiales.

ASTROFÍSICA Y COSMOLOGÍA

Desde la II Guerra Mundial los astrónomos han hecho muchos descubrimientos importantes, como los quásares, los púlsares o la radiación de fondo cósmica. Estos descubrimientos, que no pueden ser explicados totalmente por la física actual, han estimulado el avance de la teoría en campos como la gravitación o la física de partículas elementales. En la actualidad se acepta que toda la materia accesible a nuestra observación estaba originalmente comprimida de forma muy densa en un solo lugar, y explotó entre 10.000 y 20.000 millones de años antes del momento presente en un estallido colosal conocido como Big Bang o Gran Explosión. La explosión dio lugar a un universo que todavía se está expandiendo. Un aspecto enigmático de este universo, recientemente descubierto, es que las galaxias no están distribuidas de modo uniforme. Hay inmensos espacios vacíos rodeados por grupos de galaxias con forma de filamentos. La distribución de esos vacíos y filamentos aporta datos importantes sobre la naturaleza de la materia que surgió de la Gran Explosión e indica que es muy probable que la llamada materia oscura predominase sobre las formas conocidas de materia. Éste es sólo uno de los puntos en los que “la física de lo muy grande” enlaza con “la física de lo muy pequeño”.

CLACIFICACION DE LA FISICA

MECÁNICA

Rama de la física que se ocupa del movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones modernas del movimiento comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la velocidad, la aceleración, la masa y la fuerza. Sin embargo, hasta hace unos 400 años el movimiento se explicaba desde un punto de vista muy distinto. Por ejemplo, los científicos razonaban —siguiendo las ideas del filósofo y científico griego Aristóteles— que una bala de cañón cae porque su posición natural está en el suelo; el Sol, la Luna y las estrellas describen círculos alrededor de la Tierra porque los cuerpos celestes se mueven por naturaleza en círculos perfectos.

El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores de su tiempo y empezó a analizar el movimiento a partir de la distancia recorrida desde un punto de partida y del tiempo transcurrido. Demostró que la velocidad de los objetos que caen aumenta continuamente durante su caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la resistencia del aire (rozamiento). El matemático y físico británico Isaac Newton mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la aceleración. Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el movimiento).

  • ESTADÍSTICA : Rama de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como el diseño de experimentos y la toma de decisiones.

  • CINEMÁTICA: La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus causas. La velocidad (la tasa de variación de la posición) se define como la distancia recorrida dividida entre el intervalo de tiempo. La magnitud de la velocidad se denomina celeridad, y puede medirse en unidades como kilómetros por hora, metros por segundo, La aceleración se define como la tasa de variación de la velocidad: el cambio de la velocidad dividido entre el tiempo en que se produce. Por tanto, la aceleración tiene magnitud, dirección y sentido, y se mide en unidades del tipo metros por segundo cada segundo.

En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el objeto es muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea un punto llamado centro de masas, cuyo movimiento puede considerarse característico de todo el objeto. Si el objeto gira, muchas veces conviene describir su rotación en torno a un eje que pasa por el centro de masas.

Existen varios tipos especiales de movimiento fáciles de describir. En primer lugar, aquél en el que la velocidad es constante. En el caso más sencillo, la velocidad podría ser nula, y la posición no cambiaría en el intervalo de tiempo considerado. Si la velocidad es constante, la velocidad media (o promedio) es igual a la velocidad en cualquier instante determinado. Si el tiempo t se mide con un reloj que se pone en marcha con t = 0, la distancia d recorrida a velocidad constante v será igual al producto de la velocidad por el tiempo:

d = vt

Otro tipo especial de movimiento es aquél en el que se mantiene constante la aceleración. Como la velocidad varía, hay que definir la velocidad instantánea, que es la velocidad en un instante determinado. En el caso de una aceleración a constante, considerando una velocidad inicial nula (v = 0 en t = 0), la velocidad instantánea transcurrido el tiempo t será

v = at

La distancia recorrida durante ese tiempo será

d = yat2

Esta ecuación muestra una característica importante: la distancia depende del cuadrado del tiempo (t2, o “t al cuadrado”, es la forma breve de escribir t × t). Un objeto pesado que cae libremente (sin influencia de la fricción del aire) cerca de la superficie de la Tierra experimenta una aceleración constante. En este caso, la aceleración es aproximadamente de 9,8 m/s cada segundo. Al final del primer segundo, una pelota habría caído 4,9 m y tendría una velocidad de 9,8 m/s. Al final del siguiente segundo, la pelota habría caído 19,6 m y tendría una velocidad de 19,6 m/s.

El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve con celeridad constante pero la aceleración forma siempre un ángulo recto con su velocidad, se desplazará en un círculo. La aceleración está dirigida hacia el centro del círculo y se denomina aceleración normal o centrípeta. En el caso de un objeto que se desplaza a velocidad v en un círculo de radio r, la aceleración centrípeta es a = v2/r. Otro tipo de movimiento sencillo que se observa frecuentemente es el de una pelota que se lanza al aire formando un ángulo con la horizontal. Debido a la gravedad, la pelota experimenta una aceleración constante dirigida hacia abajo que primero reduce la velocidad vertical hacia arriba que tenía al principio y después aumenta su velocidad hacia abajo mientras cae hacia el suelo. Entretanto, la componente horizontal de la velocidad inicial permanece constante (si se prescinde de la resistencia del aire), lo que hace que la pelota se desplace a velocidad constante en dirección horizontal hasta que alcanza el suelo. Las componentes vertical y horizontal del movimiento son independientes, y se pueden analizar por separado. La trayectoria de la pelota resulta ser una parábola.

  • ENERGÍA CINÉTICA: Energía que un objeto posee debido a su movimiento. La energía cinética depende de la masa y la velocidad del objeto según la ecuación

E = (1/2) mv2

Donde m es la masa del objeto y v2 la velocidad del mismo elevada al cuadrado. El valor de E también puede derivarse de la ecuación

E = (ma) d

Donde a es la aceleración de la masa m y d es la distancia a lo largo de la cual se acelera. Las relaciones entre la energía cinética y la energía potencial, y entre los conceptos de fuerza, distancia, aceleración y energía, pueden ilustrarse elevando un objeto y dejándolo caer.

Cuando el objeto se levanta desde una superficie se le aplica una fuerza vertical. Al actuar esa fuerza a lo largo de una distancia, se transfiere energía al objeto. La energía asociada a un objeto situado a determinada altura sobre una superficie se denomina energía potencial. Si se deja caer el objeto, la energía potencial se convierte en energía cinética.

ÓPTICA

Rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido amplio, la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos X hasta las microondas, e incluye la energía radiante que produce la sensación de visión. El estudio de la óptica se divide en dos ramas, la óptica geométrica y la óptica física.

ACÚSTICA

(Ciencia) (Del griego akouein, "oír"), término empleado en ocasiones para la ciencia que se ocupa del sonido en su conjunto. Generalmente suele usarse para referirse a la acústica arquitectónica, la rama especial de esta ciencia que trata de la construcción de zonas cerradas, de forma que se logre una buena audición de las palabras o la música.

La acústica de edificios es un aspecto del estudio del sonido que no se desarrolló hasta una época relativamente reciente. En el siglo I a.C., el arquitecto romano Vitrubio realizó algunas observaciones pertinentes sobre el tema y aventuró hipótesis ingeniosas en relación con la reverberación y la interferencia. Sin embargo, el primero en tratar en profundidad los aspectos científicos de este tema fue el físico estadounidense Joseph Henry, en 1856 y en 1900 su compatriota Wallace Sabine avanzó más en el estudio de la materia.

HIDROMECANICA

  • HIDROSTÁTICA O ESTÁTICA DE FLUIDOS

Una característica fundamental de cualquier fluido en reposo es que la fuerza ejercida sobre cualquier partícula del fluido es la misma en todas direcciones. Si las fuerzas fueran desiguales, la partícula se desplazaría en la dirección de la fuerza resultante. De ello se deduce que la fuerza por unidad de superficie —la presión— que el fluido ejerce contra las paredes del recipiente que lo contiene, sea cual sea su forma, es perpendicular a la pared en cada punto. Si la presión no fuera perpendicular, la fuerza tendría una componente tangencial no equilibrada y el fluido se movería a lo largo de la pared.

Este concepto fue formulado por primera vez en una forma un poco más amplia por el matemático y filósofo francés Blaise Pascal en 1647, y se conoce como principio de Pascal. Dicho principio, que tiene aplicaciones muy importantes en hidráulica, afirma que la presión aplicada sobre un fluido contenido en un recipiente se transmite por igual en todas direcciones y a todas las partes del recipiente, siempre que se puedan despreciar las diferencias de presión debidas al peso del fluido y a la profundidad.

Cuando la gravedad es la única fuerza que actúa sobre un líquido contenido en un recipiente abierto, la presión en cualquier punto del líquido es directamente proporcional al peso de la columna vertical de dicho líquido situada sobre ese punto. La presión es a su vez proporcional a la profundidad del punto con respecto a la superficie, y es independiente del tamaño o forma del recipiente. Así, la presión en el fondo de una tubería vertical llena de agua de 1 cm de diámetro y 15 m de altura es la misma que en el fondo de un lago de 15 m de profundidad. De igual forma, si una tubería de 30 m de longitud se llena de agua y se inclina de modo que la parte superior esté sólo a 15 m en vertical por encima del fondo, el agua ejercerá la misma presión sobre el fondo que en los casos anteriores, aunque la distancia a lo largo de la tubería sea mucho mayor que la altura de la tubería vertical. Veamos otro ejemplo: la masa de una columna de agua dulce de 30 cm de altura y una sección transversal de 6,5 cm2 es de 195 g, y la fuerza ejercida en el fondo será el peso correspondiente a esa masa. Una columna de la misma altura pero con un diámetro 12 veces superior tendrá un volumen 144 veces mayor, y pesará 144 veces más, pero la presión, que es la fuerza por unidad de superficie, seguirá siendo la misma, puesto que la superficie también será 144 veces mayor. La presión en el fondo de una columna de mercurio de la misma altura será 13,6 veces superior, ya que el mercurio tiene una densidad 13,6 veces superior a la del agua.

El segundo principio importante de la estática de fluidos fue descubierto por el matemático y filósofo griego Arquímedes. El principio de Arquímedes afirma que todo cuerpo sumergido en un fluido experimenta una fuerza hacia arriba igual al peso del volumen de fluido desplazado por dicho cuerpo. Esto explica por qué flota un barco muy cargado; el peso del agua desplazada por el barco equivale a la fuerza hacia arriba que mantiene el barco a flote.

El punto sobre el que puede considerarse que actúan todas las fuerzas que producen el efecto de flotación se llama centro de flotación, y corresponde al centro de gravedad del fluido desplazado. El centro de flotación de un cuerpo que flota está situado exactamente encima de su centro de gravedad. Cuanto mayor sea la distancia entre ambos, mayor es la estabilidad del cuerpo.

El principio de Arquímedes permite determinar la densidad de un objeto cuya forma es tan irregular que su volumen no puede medirse directamente. Si el objeto se pesa primero en el aire y luego en el agua, la diferencia de peso será igual al peso del volumen de agua desplazado, y este volumen es igual al volumen del objeto, si éste está totalmente sumergido. Así puede determinarse fácilmente la densidad del objeto (masa dividida por volumen). Si se requiere una precisión muy elevada, también hay que tener en cuenta el peso del aire desplazado para obtener el volumen y la densidad correctos.

  • HIDRODINÁMICA O DINÁMICA DE FLUIDOS: Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la hidrostática, sólo podemos tratar aquí algunos conceptos básicos.

El interés por la dinámica de fluidos se remonta a las aplicaciones más antiguas de los fluidos en ingeniería. Arquímedes realizó una de las primeras contribuciones con la invención, que se le atribuye tradicionalmente, del tornillo sin fin. La acción impulsora del tornillo de Arquímedes es similar a la de la pieza semejante a un sacacorchos que tienen las picadoras de carne manuales. Los romanos desarrollaron otras máquinas y mecanismos hidráulicos; no sólo empleaban el tornillo de Arquímedes para bombear agua en agricultura y minería, sino que también construyeron extensos sistemas de acueductos, algunos de los cuales todavía funcionan. En el siglo I a.C., el arquitecto e ingeniero romano Vitrubio inventó la rueda hidráulica horizontal, con lo que revolucionó la técnica de moler grano.

A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se comprendía la teoría básica, por lo que su desarrollo se vio frenado. Después de Arquímedes pasaron más de 1.800 años antes de que se produjera el siguiente avance científico significativo, debido al matemático y físico italiano Evangelista Torricelli, que inventó el barómetro en 1643 y formuló el teorema de Torricelli, que relaciona la velocidad de salida de un líquido a través de un orificio de un recipiente, con la altura del líquido situado por encima de dicho agujero. El siguiente gran avance en el desarrollo de la mecánica de fluidos tubo que esperar a la formulación de las leyes del movimiento por el matemático y físico inglés Isaac Newton. Estas leyes fueron aplicadas por primera vez a los fluidos por el matemático suizo Leonhard Euler, quien dedujo las ecuaciones básicas para un fluido sin rozamiento (no viscoso).

Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir como estimación para flujos en los que los efectos de la viscosidad son pequeños.

  • HIDRÁULICA: Aplicación de la mecánica de fluidos en ingeniería, para construir dispositivos que funcionan con líquidos, por lo general agua o aceite. La hidráulica resuelve problemas como el flujo de fluidos por conductos o canales abiertos y el diseño de presas de embalse, bombas y turbinas. En otros dispositivos como boquillas, válvulas, surtidores y medidores se encarga del control y utilización de líquidos.

Las dos aplicaciones más importantes de la hidráulica se centran en el diseño de activadores y prensas. Su fundamento es el principio de Pascal, que establece que la presión aplicada en un punto de un fluido se transmite con la misma intensidad a cada punto del mismo. Como la fuerza es igual a la presión multiplicada por la superficie, la fuerza se amplifica mucho si se aplica a un fluido encerrado entre dos pistones de área diferente. Si, por ejemplo, un pistón tiene un área de 1 y el otro de 10, al aplicar una fuerza de 1 al pistón pequeño se ejerce una presión de 1, que tendrá como resultado una fuerza de 10 en el pistón grande. Este fenómeno mecánico se aprovecha en activadores hidráulicos como los utilizados en los frenos de un automóvil, donde una fuerza relativamente pequeña aplicada al pedal se multiplica para transmitir una fuerza grande a la zapata del freno. Los alerones de control de los aviones también se activan con sistemas hidráulicos similares. Los gatos y elevadores hidráulicos se utilizan para levantar vehículos en los talleres y para elevar cargas pesadas en la industria de la construcción. La prensa hidráulica, inventada por el ingeniero británico Joseph Bramah en 1796, se utiliza para dar forma, extrusar y marcar metales y para probar materiales sometidos a grandes presiones.

  • MÁQUINA NEUMÁTICA (ASTRONOMÍA) O ANTLIA,

Constelación del hemisferio austral situada entre las del Centauro y la Brújula, al sur de la Hidra. Contiene varias estrellas dobles muy poco brillantes. Su estrella principal, Alpha Antliae, tiene una magnitud de 4,4 y está a una distancia de la Tierra de 330 años luz. La constelación comprende también algunas galaxias, sólo visibles con instrumentos de observación potentes. Fue descrita en el siglo XVIII por el astrónomo francés Nicolas Louis de La Caille.

TERMOLOGÍA

Parte de la fisica que estudia el calor

ELECTRICIDAD

Categoría de fenómenos físicos originados por la existencia de cargas eléctricas y por la interacción de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas eléctricas sobre las otras cargas situadas en su misma región del espacio; cuando está en movimiento, produce además efectos magnéticos. Los efectos eléctricos y magnéticos dependen de la posición y movimiento relativos de las partículas con carga. En lo que respecta a los efectos eléctricos, estas partículas pueden ser neutras, positivas o negativas. La electricidad se ocupa de las partículas cargadas positivamente, como los protones, que se repelen mutuamente, y de las partículas cargadas negativamente, como los electrones, que también se repelen mutuamente. En cambio, las partículas negativas y positivas se atraen entre sí. Este comportamiento puede resumirse diciendo que las cargas del mismo signo se repelen y las cargas de distinto signo se atraen.

  • ELECTROSTÁTICA: Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza eléctrica uno sobre otro. La carga eléctrica de cada cuerpo puede medirse en culombios. La fuerza entre dos partículas con cargas q1 y q2 puede calcularse a partir de la ley de Coulomb

según la cual la fuerza es proporcional al producto de las cargas dividido entre el cuadrado de la distancia que las separa. La constante de proporcionalidad K depende del medio que rodea a las cargas. La ley se llama así en honor al físico francés Charles de Coulomb.

Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto. Para mover otra partícula cargada de un punto a otro del campo hay que realizar trabajo. La cantidad de energía necesaria para efectuar ese trabajo sobre una partícula de carga unidad se conoce como diferencia de potencial entre ambos puntos. Esta magnitud se mide en voltios. La Tierra, un conductor de gran tamaño que puede suponerse sustancialmente uniforme a efectos eléctricos, suele emplearse como nivel de referencia cero para la energía potencial. Así, se dice que el potencial de un cuerpo cargado positivamente es de tantos voltios por encima del potencial de tierra, y el potencial de un cuerpo cargado negativamente es de tantos voltios por debajo del potencial de tierra.

  • ELECTRODINÁMICA: Rama de la electricidad que estudia las corrientes eléctricas, es decir, las cargas eléctricas en movimiento y, por tanto, su producción, propiedades y aplicaciones.

MAGNETISMO

Uno de los aspectos del electromagnetismo, que es una de las fuerzas fundamentales de la naturaleza. Las fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por ejemplo electrones, lo que indica la estrecha relación entre la electricidad y el magnetismo. El marco que aúna ambas fuerzas se denomina teoría electromagnética. La manifestación más conocida del magnetismo es la fuerza de atracción o repulsión que actúa entre los materiales magnéticos como el hierro. Sin embargo, en toda la materia se pueden observar efectos más sutiles del magnetismo. Recientemente, estos efectos han proporcionado claves importantes para comprender la estructura atómica de la materia.

LA FÍSICA MODERNA

Dos importantes avances producidos durante el primer tercio del siglo XX —la teoría cuántica y la teoría de la relatividad— explicaron estos hallazgos, llevaron a nuevos descubrimientos y cambiaron el modo de comprender la física.

LA FISICA ATOMICA




Descargar
Enviado por:Ale
Idioma: castellano
País: México

Te va a interesar