Química
Historia de la química y física
Química
1. INTRODUCCIÓN , estudio de la composición, estructura y propiedades de las sustancias materiales y de los efectos producidos sobre ellas al añadir o extraer energía en cualquiera de sus formas. Desde los primeros tiempos, los seres humanos han observado la transformación de las sustancias y han especulado sobre sus causas. Siguiendo la historia de esas observaciones y especulaciones, se puede reconstruir la evolución gradual de las ideas y conceptos que han culminado en la química moderna.
Los primeros procesos químicos conocidos fueron realizados por los artesanos de Mesopotamia, Egipto y China. Al principio, los forjadores de esas tierras trabajaban con metales nativos como el oro y el cobre, que a veces se encontraban en la naturaleza en estado puro, pero rápidamente aprendieron a fundir menas . El uso progresivo del cobre, bronce y hierro dio origen a los nombres que los arqueólogos han aplicado a las distintas eras. En esas culturas se inició también una tecnología química primitiva, conforme los tintoreros descubrían métodos para fijar los tintes en los distintos tipos de tejidos y los alfareros aprendían a preparar barnices y más tarde a fabricar vidrio.
La mayoría de esos artesanos trabajaban en los monasterios y palacios haciendo artículos de lujo. En los monasterios especialmente, los monjes tenían tiempo para especular sobre el origen de los cambios que veían en el mundo que los rodeaba. Sus teorías se basaban frecuentemente en la magia, pero también elaboraron ideas astronómicas y matemáticas, que utilizaban en sus intentos de explicar algunos de los cambios que hoy se consideran químicos
7.1. El nacimiento de los métodos cuantitativos
Entre los libros más influyentes que aparecieron en esa época había trabajos prácticos sobre minería y metalurgia. Esos tratados dedicaban mucho espacio a la extracción de los metales valiosos de las menas, trabajo que requería el uso de una balanza o una escala de laboratorio y el desarrollo de métodos cuantitativos . Los especialistas de otras áreas, especialmente de medicina, empezaron a reconocer la necesidad de una mayor precisión. Los médicos, algunos de los cuales eran alquimistas, necesitaban saber el peso o volumen exacto de la dosis que administraban. Así, empezaron a utilizar métodos químicos para preparar medicinas.
Esos métodos fueron promovidos enérgicamente por el excéntrico médico suizo Theophrastus von Hohenheim, conocido como Paracelso. Paracelso pasó la mayor parte de su vida disputando violentamente con los médicos de la época, y en el proceso fundó la ciencia de la iatroquímica, precursora de la farmacología. Él y sus seguidores descubrieron muchos compuestos y reacciones químicas. Modificó la vieja teoría del mercurio-azufre sobre la composición de los metales, añadiendo un tercer componente, la sal, la parte terrestre de todas las sustancias. Su hincapié en el azufre combustible fue importante para el desarrollo posterior de la química. Los iatroquímicos que seguían a Paracelso modificaron parte de sus ideas más extravagantes y combinaron las fórmulas de él con las suyas propias para preparar remedios químicos. A finales del siglo XVI, Andreas Libavius publicó su Alchemia, que organizaba el saber de los iatroquímicos y que se considera a menudo como el primer libro de química.
En la primera mitad del siglo XVII empezaron a estudiar experimentalmente las reacciones químicas, no porque fueran útiles en otras disciplinas, sino más bien por razones propias.
Ésos fueron los fundamentos de la ley de conservación de la masa. Van Helmont demostró que en ciertas reacciones se liberaba un fluido aéreo. A esta sustancia la llamó gas. Así se demostró que existía un nuevo tipo de sustancias con propiedades físicas particulares.
Resurgimiento de la teoría atómica
En el siglo XVI, los experimentos descubrieron cómo crear un vacío, algo que Aristóteles había declarado imposible. Esto atrajo la atención sobre la antigua teoría de Demócrito, que había supuesto que los átomos se movían en un vacío. El filósofo y matemático francés René Descartes y sus seguidores desarrollaron una visión mecánica de la materia en la que el tamaño, la forma y el movimiento de las partículas diminutas explicaban todos los fenómenos observados. La mayoría de los iatroquímicos y filósofos naturales de la época suponían que los gases no tenían propiedades químicas, de aquí que su atención se centrara en su comportamiento físico. Comenzó a desarrollarse una teoría cinético-molecular de los gases. En esta dirección fueron notables los experimentos del químico físico británico Robert Boyle, cuyos estudios sobre la elasticidad condujeron a lo que se conoce como ley de Boyle, una generalización de la relación inversa entre la presión y el volumen de los gases.
Mientras muchos filósofos naturales especulaban sobre las leyes matemáticas, los primeros químicos intentaban utilizar en el laboratorio las teorías químicas para explicar las reacciones reales que observaban. Los iatroquímicos ponían especial atención en el azufre y en las teorías de Paracelso. En la segunda mitad del siglo XVII, el médico, economista y químico alemán Johann Joachim Becher construyó un sistema químico en torno a su principio. Becher anotó que cuando la materia orgánica ardía, parecía que un material volátil salía de la sustancia. Su discípulo Georg Ernst Stahl, hizo de éste el punto central de una teoría que sobrevivió en los círculos químicos durante casi un siglo.
Stahl supuso que cuando algo ardía, su parte combustible era expulsada al aire. A esta parte la llamó flogisto, de la palabra griega flogistós, `inflamable'. La oxidación de los metales era análoga a la combustión y, por tanto, suponía pérdida de flogisto. Las plantas absorbían el flogisto del aire, por lo que eran ricas en él.
Al calentar las escorias de los metales con carbón de leña, se les restituía el flogisto. Así dedujo que la escoria era un elemento y el metal un compuesto. Esta teoría es casi exactamente la contraria al concepto moderno de oxidación-reducción, pero implica la transformación cíclica de una sustancia, y podía explicar algunos de los fenómenos observados. Sin embargo, recientes estudios de la literatura química de la época muestran que la explicación del flogisto no tuvo mucha influencia entre los químicos hasta que fue recuperada por el químico Antoine Laurent de Lavoisier, en el último cuarto del siglo XVIII.
En esa época, otra observación hizo avanzar la comprensión de la química. Al estudiarse cada vez más productos químicos, los químicos observaron que ciertas sustancias combinaban más fácilmente o tenían más afinidad por un determinado producto químico que otras. Se prepararon tablas que mostraban las afinidades relativas al mezclar diferentes productos. El uso de estas tablas hizo posible predecir muchas reacciones químicas antes de experimentarlas en el laboratorio.
Todos esos avances condujeron en el siglo XVIII al descubrimiento de nuevos metales y sus compuestos y reacciones. Comenzaron a desarrollarse métodos analíticos cualitativos y cuantitativos, dando origen a la química analítica. Sin embargo, mientras existiera la creencia de que los gases sólo desempeñaban un papel físico, no podía reconocerse todo el alcance de la química.
El estudio químico de los gases, generalmente llamados `aires', empezó a adquirir importancia después de que el fisiólogo británico Stephen Hales desarrollara la cubeta o cuba neumática para recoger y medir el volumen de los gases liberados en un sistema cerrado; los gases eran recogidos sobre el agua tras ser emitidos al calentar diversos sólidos. La cuba neumática se convirtió en un mecanismo valioso para recoger y estudiar gases no contaminados por el aire ordinario. El estudio de los gases avanzó rápidamente y se alcanzó un nuevo nivel de comprensión de los distintos gases.
La interpretación inicial del papel de los gases en la química se produjo en Edimburgo (Escocia) en 1756, cuando Joseph Black publicó sus estudios sobre las reacciones de los carbonatos de magnesio y de calcio.
Al calentarlos, estos compuestos desprendían un gas y dejaban un residuo de lo que Black llamaba magnesia calcinada o cal. Esta última reaccionaba con el `álcali' (carbonato de sodio) regenerando las sales originales. Así, el gas dióxido de carbono, que Black denominaba aire fijo, tomaba parte en las reacciones químicas. La idea de que un gas no podía entrar en una reacción química fue desechada, y pronto empezaron a reconocerse nuevos gases como sustancias distintas.
En la década siguiente, el físico británico Henry Cavendish aisló el `aire inflamable' (hidrógeno). También introdujo el uso del mercurio en lugar del agua como el líquido sobre el que se recogían los gases, posibilitando la recogida de los gases solubles en agua. Esta variante fue utilizada con frecuencia por el químico y teólogo británico Joseph Priestley, quien recogió y estudió casi una docena de gases nuevos. El descubrimiento más importante de Priestley fue el oxígeno; pronto se dio cuenta de que este gas era el componente del aire ordinario responsable de la combustión, y que hacía posible la respiración animal. Sin embargo, su razonamiento fue que las sustancias combustibles ardían enérgicamente y los metales formaban escorias con más facilidad en este gas porque el gas no contenía flogisto. Por tanto, el gas aceptaba el flogisto presente en el combustible o el metal más fácilmente que el aire ordinario que ya contenía parte de flogisto.
Mientras tanto, la química había hecho grandes progresos en Francia, particularmente en el laboratorio de Lavoisier. A éste le preocupaba el hecho de que los metales ganaban peso al calentarlos en presencia de aire, cuando se suponía que estaban perdiendo flogisto.En 1774, Priestley visitó Francia y le comentó a Lavoisier su descubrimiento del aire deflogistizado. Lavoisier entendió rápidamente el significado de esta sustancia, y este hecho abrió el camino para la revolución química que estableció la química moderna. Lavoisier lo llamó `oxígeno', que significa `generador de ácidos"
EL NACIMIENTO DE LA QUÍMICA MODERNA
Lavoisier demostró con una serie de experimentos brillantes que el aire contiene un 20% de oxígeno y que la combustión es debida a la combinación de una sustancia combustible con oxígeno. Al quemar carbono se produce aire fijo (dióxido de carbono). Por tanto, el flogisto no existe. La teoría del flogisto fue sustituida rápidamente por la visión de que el oxígeno del aire combina con los elementos componentes de la sustancia combustible formando los óxidos de dichos elementos. Lavoisier utilizó la balanza de laboratorio para darle apoyo cuantitativo a su trabajo. Definió los elementos como sustancias que no pueden ser descompuestas por medios químicos, preparando el camino para la aceptación de la ley de conservación de la masa. Sustituyó el sistema antiguo de nombres químicos por la nomenclatura química racional utilizada hoy, y ayudó a fundar el primer periódico químico. Después de morir en la guillotina en 1794, sus colegas continuaron su trabajo estableciendo la química moderna. Un poco más tarde, el químico sueco Jöns Jakob, barón de Berzelius propuso representar los símbolos de los átomos de los elementos por la letra o par de letras iniciales de sus nombres.
LOS SIGLOS XIX Y XX
A principios del siglo XIX, la precisión de la química analítica había mejorado tanto que los químicos podían demostrar que los compuestos simples con los que trabajaban contenían cantidades fijas e invariables de sus elementos constituyentes. Sin embargo, en ciertos casos, con los mismos elementos podía formarse más de un compuesto. Por esa época, el químico y físico francés Joseph Gay-Lussac demostró que los volúmenes de los gases reaccionantes están siempre en la relación de números enteros sencillos, es decir, la ley de las proporciones múltiples. Un paso importante en la explicación de estos hechos fue, en 1803, la teoría atómica química del científico inglés John Dalton.
Dalton supuso que cuando se mezclaban dos elementos, el compuesto resultante contenía un átomo de cada uno. En su sistema, el agua podría tener una fórmula correspondiente a HO. Dalton asignó arbitrariamente al hidrógeno la masa atómica 1 y luego calculó la masa atómica relativa del oxígeno. Aplicando este principio a otros compuestos, calculó las masas atómicas de los elementos conocidos hasta entonces. Su teoría contenía muchos errores, pero la idea era correcta y se podía asignar un valor cuantitativo preciso a la masa de cada átomo.
Física
1.INTRODUCCIÓN , ciencia que se ocupa de los componentes fundamentales del Universo, de las fuerzas que éstos ejercen entre sí y de los efectos de dichas fuerzas. En ocasiones la física moderna incorpora elementos de los tres aspectos mencionados, como ocurre con las leyes de simetría y conservación de la energía, el momento, la carga o la paridad.
La física está estrechamente relacionada con las demás ciencias naturales, y en cierto modo las engloba a todas. La química, por ejemplo, se ocupa de la interacción de los átomos para formar moléculas; gran parte de la geología moderna es en esencia un estudio de la física de la Tierra y se conoce como geofísica; la astronomía trata de la física de las estrellas y del espacio exterior. Incluso los sistemas vivos están constituidos por partículas fundamentales que siguen el mismo tipo de leyes que las partículas más sencillas estudiadas tradicionalmente por los físicos.
El hincapié que la física moderna hace en la interacción entre partículas necesita muchas veces como complemento un enfoque macroscópico que se ocupe de elementos o sistemas de partículas más extensos. Este planteamiento macroscópico es indispensable en la aplicación de la física a numerosas tecnologías modernas. Propiedades como la temperatura, la presión o el volumen de un gas carecen de sentido para un átomo o molécula individual: estos conceptos termodinámicos sólo pueden aplicarse directamente a un sistema muy grande de estas partículas. No obstante, hay un nexo entre los enfoques microscópico y macroscópico: otra rama de la física, conocida como mecánica estadística, explica la forma de relacionar desde un punto de vista estadístico la presión y la temperatura con el movimiento de los átomos y las moléculas .
Hasta principios del siglo XIX, era frecuente que los físicos fueran al mismo tiempo matemáticos, filósofos, químicos, biólogos o ingenieros. En la actualidad el ámbito de la física ha crecido tanto que, con muy pocas excepciones, los físicos modernos tienen que limitar su atención a una o dos ramas de su ciencia. Una vez que se descubren y comprenden los aspectos fundamentales de un nuevo campo, éste pasa a ser de interés para los ingenieros y otros científicos. Por ejemplo, los descubrimientos del siglo XIX en electricidad y magnetismo forman hoy parte del terreno de los ingenieros electrónicos y de comunicaciones; las propiedades de la materia descubiertas a comienzos del siglo XX han encontrado aplicación en la electrónica; los descubrimientos de la física nuclear, muchos de ellos posteriores a 1950, son la base de los trabajos de los ingenieros nucleares.
COMIENZOS DE LA FÍSICA
Aunque las ideas sobre el mundo físico se remontan a la antigüedad, la física no surgió como un campo de estudio bien definido hasta principios del siglo XIX.
Antigüedad
Los chinos, los babilonios, los egipcios y los mayas observaron los movimientos de los planetas y lograron predecir los eclipses, pero no consiguieron encontrar un sistema subyacente que explicara el movimiento planetario. Las especulaciones de los filósofos griegos introdujeron dos ideas fundamentales sobre los componentes del Universo, opuestas entre sí: el atomismo, propuesto por Leucipo en el siglo IV a.C., y la teoría de los elementos, formulada en el siglo anterior. Véase Filosofía occidental.
En Alejandría, el centro científico de la civilización occidental durante el periodo helenístico, hubo notables avances. Allí, el matemático e inventor griego Arquímedes diseñó con palancas y tornillos varios aparatos mecánicos prácticos y midió la densidad de objetos sólidos sumergiéndolos en un líquido. Otros científicos griegos importantes de aquella época fueron el astrónomo Aristarco de Samos, que halló la relación entre las distancias de la Tierra al Sol y de la Tierra a la Luna, el matemático, astrónomo y geógrafo Eratóstenes, que midió la circunferencia de la Tierra y elaboró un catálogo de estrellas, y el astrónomo Hiparco de Nicea, que descubrió la precesión de los equinoccios. En el siglo II d.C. el astrónomo, matemático y geógrafo Tolomeo propuso el sistema que lleva su nombre para explicar el movimiento planetario. En el sistema de Tolomeo, la Tierra está en el centro y el Sol, la Luna y las estrellas giran en torno a ella en órbitas circulares.
Edad media
Durante la edad media se produjeron pocos avances, tanto en la física como en las demás ciencias. Sin embargo, sabios árabes como Averroes o como Ibn al-Nafis, contribuyeron a la conservación de muchos tratados científicos de la Grecia clásica. En general, las grandes universidades medievales fundadas en Europa por las órdenes monásticas a partir del siglo XIII no supusieron un gran avance para la física y otras ciencias experimentales. El filósofo escolástico y teólogo italiano santo Tomás de Aquino, por ejemplo, trató de demostrar que las obras de Platón y Aristóteles eran compatibles con las Sagradas Escrituras. El filósofo escolástico y científico británico Roger Bacon fue uno de los pocos filósofos que defendió el método experimental como auténtica base del conocimiento científico; también investigó en astronomía, química, óptica y diseño de máquinas.
Siglos XVI y XVII
La ciencia moderna surgió tras el renacimiento, en el siglo XVI y comienzos del XVII, cuando cuatro astrónomos destacados lograron interpretar de forma muy satisfactoria el comportamiento de los cuerpos celestes. El astrónomo polaco Nicolás Copérnico propuso un sistema heliocéntrico, en el que los planetas giran alrededor del Sol. Sin embargo, Copérnico estaba convencido de que las órbitas planetarias eran circulares, por lo que su sistema requería unas elaboraciones casi tan complicadas como el sistema de Tolomeo al que pretendía sustituir. El astrónomo danés Tycho Brahe adoptó una fórmula de compromiso entre los sistemas de Copérnico y Tolomeo; según él, los planetas giraban en torno al Sol, mientras que el Sol giraba alrededor de la Tierra. Brahe era un gran observador y realizó una serie de medidas increíblemente precisas. Esto proporcionó a su ayudante Johannes Kepler los datos para atacar al sistema de Tolomeo y enunciar tres leyes que se ajustaban a una teoría heliocéntrica modificada. Galileo, que había oído hablar de la invención del telescopio, construyó uno, y en 1609 pudo confirmar el sistema heliocéntrico observando las fases del planeta Venus. También descubrió las irregularidades en la superficie de la Luna, los cuatro satélites de Júpiter más brillantes, las manchas solares y muchas estrellas de la Vía Láctea. Los intereses de Galileo no se limitaban a la astronomía: empleando planos inclinados y un reloj de agua perfeccionado ya había demostrado que los objetos tardan lo mismo en caer, independientemente de su masa, y que la velocidad de los mismos aumenta de forma uniforme con el tiempo de caída. Los descubrimientos astronómicos de Galileo y sus trabajos sobre mecánica precedieron la obra del matemático y físico británico del siglo XVII Isaac Newton, uno de los científicos más grandes de la historia.
LA FÍSICA A PARTIR DE NEWTON
A partir de 1665, cuando tenía 23 años, Newton desarrolló los principios de la mecánica, formuló la ley de la gravitación universal, separó la luz blanca en sus colores constituyentes e inventó el cálculo diferencial e integral. Las contribuciones de Newton cubrieron una gama muy amplia de fenómenos naturales. Newton también logró explicar el efecto de la Luna sobre las mareas, así como la precesión de los equinoccios.
3.1 El desarrollo de la mecánica
El posterior desarrollo de la física debe mucho a las leyes del movimiento o leyes de Newton , especialmente a la segunda, que afirma que la fuerza necesaria para acelerar un objeto es igual a su masa multiplicada por su aceleración. Si se conocen la posición y velocidad iniciales de un cuerpo, así como la fuerza aplicada, es posible calcular las posiciones y velocidades posteriores aunque la fuerza cambie con el tiempo o la posición; en esos casos es necesario aplicar el cálculo infinitesimal de Newton. La segunda ley del movimiento también contiene otro aspecto importante: todos los cuerpos tienen una propiedad intrínseca, su masa inercial, que influye en su movimiento. Cuanto mayor es esa masa, menor es la aceleración que adquiere cuando se aplica una fuerza determinada sobre el cuerpo. Hoy sabemos que esta ley es válida siempre que el cuerpo no sea extremadamente pequeño, grande o rápido. La tercera ley de Newton, que afirma que “a cada fuerza de acción corresponde una fuerza de reacción igual y opuesta”, podría expresarse en términos modernos como que todas las fuerzas entre partículas se producen en pares de sentido opuesto, aunque no necesariamente situados a lo largo de la línea que une las partículas.
Gravedad
La contribución más específica de Newton a la descripción de las fuerzas de la naturaleza fue la explicación de la fuerza de la gravedad. En la actualidad los científicos saben que sólo hay otras tres fuerzas, además de la gravedad, que originan todas las propiedades y actividades observadas en el Universo: el electromagnetismo, la llamada interacción nuclear fuerte y la interacción nuclear débil entre algunas de las partículas elementales, que explica el fenómeno de la radiactividad. La comprensión del concepto de fuerza se remonta a la ley de la gravitación universal, que reconocía que todas las partículas materiales, y los cuerpos formados por estas partículas, tienen una propiedad denominada masa gravitacional. Esta propiedad hace que dos partículas cualesquiera ejerzan entre sí una fuerza atractiva directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que las separa. Esta fuerza gravitatoria rige el movimiento de los planetas alrededor del Sol y de los objetos en el campo gravitatorio terrestre; también es responsable del colapso gravitacional que, según se cree, constituye el estado final del ciclo vital de las estrellas masivas y es la causa de muchos fenómenos astrofísicos.
Una de las observaciones más importantes de la física es que la masa gravitacional de un cuerpo es igual a su masa inercial, la propiedad que determina el movimiento del cuerpo en respuesta a cualquier fuerza ejercida sobre él . Esta equivalencia, confirmada experimentalmente con gran precisión, lleva implícita el principio de proporcionalidad: cuando un cuerpo tiene una masa gravitacional dos veces mayor que otro, su masa inercial también es dos veces mayor. Esto explica la observación de Galileo de que todos los cuerpos caen con la misma aceleración independientemente de su masa: aunque los cuerpos más pesados experimentan una fuerza gravitatoria mayor, su mayor masa inercial disminuye en un factor igual a la aceleración por unidad de fuerza, por lo que la aceleración total es la misma que en un cuerpo más ligero.
Sin embargo, el significado pleno de esta equivalencia entre las masas gravitacional e inercial no se apreció hasta que Albert Einstein enunció la teoría de la relatividad general. Einstein se dio cuenta de que esta equivalencia tenía una implicación adicional: la equivalencia de un campo gravitatorio y un sistema de referencia acelerado.
La fuerza gravitatoria es la más débil de las cuatro fuerzas de la naturaleza. En el caso de dos protones situados en el núcleo de un átomo, la fuerza electrostática de repulsión es a su vez mucho menor que la interacción nuclear fuerte. El que la gravedad sea la fuerza dominante a escala macroscópica se debe a dos hechos:) según se sabe, sólo existe un tipo de masa, por lo que sólo existe un tipo de fuerza gravitacional, siempre atractiva; esto hace que las fuerzas gravitacionales de las numerosísimas partículas elementales que componen un cuerpo como la Tierra se sumen, con lo que la fuerza total resulta muy grande. ) Las fuerzas gravitacionales actúan a cualquier distancia, disminuyendo según el cuadrado de la separación entre los cuerpos.
En cambio, las cargas eléctricas de las partículas elementales, que originan las fuerzas electrostáticas y electromagnéticas, pueden ser positivas o negativas. Las cargas iguales se repelen y las cargas opuestas se atraen. Los cuerpos formados por muchas partículas tienden a ser eléctricamente neutros, y las fuerzas eléctricas ejercidas por las partículas, aunque tienen un alcance infinito al igual que la fuerza de gravedad, se cancelan mutuamente. Por su parte, las interacciones nucleares, tanto la fuerte como la débil, tienen un alcance extremadamente corto, y apenas son apreciables a distancias mayores de una billonésima de centímetro.
A pesar de su importancia macroscópica, la fuerza de la gravedad es tan débil que un cuerpo tiene que poseer una masa enorme para que su influencia sobre otro cuerpo resulte apreciable. Por eso, la ley de la gravitación universal se dedujo de las observaciones del movimiento de los planetas mucho antes de que pudiera comprobarse de forma experimental. Esto sucedió en 1771, cuando el físico y químico británico Henry Cavendish confirmó la ley utilizando grandes esferas de plomo para atraer pequeñas masas unidas a un péndulo de torsión. A partir de esas medidas, Cavendish también dedujo la masa y la densidad de la Tierra.
Durante los dos siglos posteriores a Newton, aunque la mecánica se analizó, se reformuló y se aplicó a sistemas complejos, no se aportaron nuevas ideas físicas. El matemático suizo Leonhard Euler fue el primero en formular las ecuaciones del movimiento para sólidos rígidos, mientras que Newton sólo se había ocupado de masas que se podían considerar concentradas en un punto. Diferentes físicos matemáticos, entre ellos Joseph Louis Lagrange y William Hamilton, ampliaron la segunda ley de Newton con formulaciones más complejas.
Electricidad y magnetismo
Aunque los antiguos griegos conocían las propiedades electrostáticas del ámbar, y los chinos ya fabricaban imanes con magnetita en el 2700 a.C., los fenómenos eléctricos y magnéticos no empezaron a comprenderse hasta finales del siglo XVIII, cuando comenzaron a realizarse experimentos en estos campos. En 1785, el físico francés Charles de Coulomb confirmó por primera vez que las cargas eléctricas se atraen o se repelen con una intensidad inversamente proporcional al cuadrado de la distancia que las separa . Más tarde el matemático francés Siméon Denis Poisson y Carl Friedrich Gauss desarrollaron una potente teoría para calcular el efecto de un número indeterminado de cargas eléctricas estáticas arbitrariamente distribuidas.
Dos partículas con cargas opuestas se atraen, por lo que tienden a acelerarse una hacia la otra. Si el medio a través del cual se mueven ofrece resistencia, pueden acabar moviéndose con velocidad constante a la vez que el medio se calienta y sufre otras alteraciones. La posibilidad de mantener una fuerza electromotriz capaz de impulsar de forma continuada partículas eléctricamente cargadas llegó con el desarrollo de la pila química en 1800, debido al físico italiano Alessandro Volta. La teoría clásica de un circuito eléctrico simple supone que los dos polos de una pila se mantienen cargados positiva y negativamente debido a las propiedades internas de la misma. Cuando los polos se conectan mediante un conductor, las partículas cargadas negativamente son repelidas por el polo negativo y atraídas por el positivo, con lo que se mueven hacia él y calientan el conductor, ya que ofrece resistencia a dicho movimiento. Al llegar al polo positivo las partículas son obligadas a desplazarse dentro de la pila hasta el polo negativo, en contra de las fuerzas que se oponen a ello según la ley de Coulomb. El físico alemán Georg Simon Ohm descubrió la existencia de una constante de proporcionalidad sencilla entre la corriente que fluye por el circuito y la fuerza electromotriz suministrada por la pila. Esta constante es la resistencia eléctrica del circuito, R. La ley de Ohm, que afirma que la resistencia es igual a la fuerza electromotriz, o tensión, dividida entre la intensidad de corriente, no es una ley fundamental de la física de aplicación universal, sino que describe el comportamiento de una clase limitada de materiales sólidos.
Los conceptos elementales del magnetismo, basados en la existencia de pares de polos opuestos, aparecieron en el siglo XVII y fueron desarrollados en los trabajos de Coulomb. Sin embargo, la primera conexión entre el magnetismo y la electricidad se encontró en los experimentos del físico y químico danés Hans Christian Oersted, que en 1819 descubrió que un cable conductor por el que fluía una corriente eléctrica desviaba una aguja magnética situada en sus proximidades. A la semana de conocer el descubrimiento de Oersted, el científico francés André Marie Ampère demostró experimentalmente que dos cables por los que circula una corriente ejercen una influencia mutua igual a la de los polos de un imán. En 1831, el físico y químico británico Michael Faraday descubrió que podía inducirse el flujo de una corriente eléctrica en un conductor en forma de espira no conectado a una batería, moviendo un imán en sus proximidades o situando cerca otro conductor por el que circulara una corriente variable. La forma más fácil de enunciar la íntima relación entre la electricidad y el magnetismo, perfectamente establecida en la actualidad, es a partir de los conceptos de campo eléctrico y magnético. La intensidad, dirección y sentido del campo en cada punto mide la fuerza que actuaría sobre una carga unidad o una corriente unidad situadas en ese punto. Las cargas eléctricas estacionarias producen campos eléctricos; las corrientes producen campos eléctricos y magnéticos. Un campo eléctrico también puede ser producido por un campo magnético variable, y viceversa. Los campos eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho de tener carga, independientemente de su velocidad; los campos magnéticos sólo ejercen fuerzas sobre partículas cargadas en movimiento.
Estos hallazgos cualitativos fueron expresados en una forma matemática precisa por el físico británico James Clerk Maxwell, que desarrolló las ecuaciones diferenciales en derivadas parciales que llevan su nombre. Las ecuaciones de Maxwell relacionan los cambios espaciales y temporales de los campos eléctrico y magnético en un punto con las densidades de carga y de corriente en dicho punto. En principio, permiten calcular los campos en cualquier momento y lugar a partir del conocimiento de las cargas y corrientes eléctricas. Un resultado inesperado que surgió al resolver las ecuaciones fue la predicción de un nuevo tipo de campo electromagnético producido por cargas eléctricas aceleradas. Este campo se propagaría por el espacio con la velocidad de la luz en forma de onda electromagnética, y su intensidad disminuiría de forma inversamente proporcional al cuadrado de la distancia de la fuente. En 1887, el físico alemán Heinrich Hertz consiguió generar físicamente esas ondas por medios eléctricos, con lo que sentó las bases para la radio, el radar, la televisión y otras formas de telecomunicación..
El comportamiento de los campos eléctrico y magnético en estas ondas es bastante similar al de una cuerda tensa muy larga cuyo extremo se hace oscilar rápidamente hacia arriba y hacia abajo. Cualquier punto de la cuerda se mueve hacia arriba y hacia abajo con la misma frecuencia que la fuente de las ondas situada en el extremo de la cuerda. La velocidad con que se transmite la perturbación a lo largo de la cuerda, o la “orden” de oscilar, se denomina velocidad de onda .Esta velocidad es función de la densidad lineal de la cuerda y de la tensión a la que esté sometida. Una fotografía instantánea de la cuerda después de llevar moviéndose cierto tiempo mostraría que los puntos que presentan el mismo desplazamiento están separados por una distancia conocida como longitud de onda, que es igual a la velocidad de onda dividida entre la frecuencia. En el caso del campo electromagnético, la intensidad del campo eléctrico se puede asociar al movimiento vertical de cada punto de la cuerda, mientras que el campo magnético se comporta del mismo modo pero formando un ángulo recto con el campo eléctrico .La velocidad con que la onda electromagnética se aleja de la fuente es la velocidad de la luz.
Luz
La aparente propagación lineal de la luz se conoce desde la antigüedad, y los griegos creían que la luz estaba formada por un flujo de corpúsculos. Sin embargo, había gran confusión sobre si estos corpúsculos procedían del ojo o del objeto observado. Cualquier teoría satisfactoria de la luz debe explicar su origen y desaparición y sus cambios de velocidad y dirección al atravesar diferentes medios. En el siglo XVII, Newton ofreció respuestas parciales a estas preguntas, basadas en una teoría corpuscular; el científico británico Robert Hooke y el astrónomo, matemático y físico holandés Christiaan Huygens propusieron teorías de tipo ondulatorio. No fue posible realizar ningún experimento cuyo resultado confirmara una u otra teoría hasta que, a principios del siglo XIX, el físico y médico británico Thomas Young demostró el fenómeno de la interferencia en la luz. El físico francés Augustin Jean Fresnel apoyó decisivamente la teoría ondulatoria.
La interferencia puede observarse colocando una rendija estrecha delante de una fuente de luz, situando una doble rendija algo más lejos y observando una pantalla colocada a cierta distancia de la doble rendija. En lugar de aparecer una imagen de las rendijas uniformemente iluminada, se ve una serie de bandas oscuras y claras equidistantes. Para explicar cómo las hipotéticas partículas de luz procedentes de la misma fuente, que llegan a la pantalla a través de las dos rendijas, pueden producir distintas intensidades de luz en diferentes puntos habría que considerar complejas suposiciones adicionales. En cambio, las ondas de luz pueden producir fácilmente un efecto así. Si se supone, como hizo Huygens, que cada una de las dos rendijas actúa como una nueva fuente que emite luz en todas direcciones, los dos trenes de onda que llegan a la pantalla en un mismo punto pueden no estar en fase aunque lo estuvieran al salir de las rendijas. Según la diferencia de recorrido entre ambos trenes en cada punto de la pantalla, puede ocurrir que un desplazamiento “positivo” de uno de ellos coincida con uno “negativo” del otro o que lleguen simultáneamente dos desplazamientos positivos, o negativos, lo que provocará un refuerzo de las intensidades, y por ende una zona brillante. En cada punto brillante, la intensidad de la luz experimenta una variación temporal a medida que las sucesivas ondas en fase van desde el máximo desplazamiento positivo hasta el máximo negativo, pasando por cero, y vuelven de nuevo al máximo desplazamiento positivo. Sin embargo, ni el ojo ni ningún instrumento clásico puede determinar este rápido “parpadeo”. La longitud de onda se puede determinar midiendo la distancia entre ambas rendijas y la separación entre dos franjas brillantes adyacentes en la pantalla.
El astrónomo danés Olaus Roemer fue el primero en medir la velocidad de la luz, en 1676. Roemer observó una aparente variación temporal entre los eclipses sucesivos de los satélites de Júpiter, que atribuyó a los cambios en la distancia entre la Tierra y Júpiter y las consiguientes diferencias en el tiempo empleado por la luz para llegar a la Tierra. Sus medidas coincidían bastante con las observaciones más precisas realizadas en el siglo XIX por el físico francés Hippolyte Fizeau y con los trabajos del físico estadounidense Albert Michelson y sus colaboradores, que se extendieron hasta el siglo XX. En la actualidad, la velocidad de la luz en el vacío se considera que es 299.792,46 km/s. En la materia, la velocidad es menor y varía con la frecuencia: este fenómeno se denomina dispersión.
Los trabajos de Maxwell aportaron resultados importantes para la comprensión de la naturaleza de la luz, al demostrar que su origen es electromagnético: una onda luminosa corresponde a campos eléctricos y magnéticos oscilantes. Sus trabajos predijeron la existencia de luz no visible, y en la actualidad se sabe que las ondas o radiaciones electromagnéticas cubren todo un espectro, que empieza en los rayos gamma. Maxwell también consiguió relacionar la velocidad de la luz en el vacío y en los diferentes medios con otras propiedades del espacio y la materia, de las que dependen los efectos eléctricos y magnéticos. Sin embargo, los descubrimientos de Maxwell no aportaron ningún conocimiento sobre el misterioso mediopor el que se pensaba que se propagaban la luz y las ondas electromagnéticas. El famoso experimento de Michelson-Morley, realizado en 1887 por Michelson y por el químico estadounidense Edward Williams Morley con ayuda de un interferómetro, pretendía medir esta velocidad. Si la Tierra se desplazara a través de un éter estacionario debería observarse una diferencia en el tiempo empleado por la luz para recorrer una distancia determinada según que se desplazase de forma paralela o perpendicular al movimiento de la Tierra. El experimento era lo bastante sensible para detectar una diferencia extremadamente pequeña. Sin embargo, los resultados fueron negativos: esto planteó un dilema para la física que no se resolvió hasta que Einstein formuló su teoría de la relatividad en 1905.
Termodinámica
Una rama de la física que alcanzó pleno desarrollo en el siglo XIX fue la termodinámica. En primer lugar aclaró los conceptos de calor y temperatura, proporcionando definiciones coherentes y demostrando cómo podían relacionarse éstas con los conceptos de trabajo y energía, que hasta entonces tenían un carácter puramente mecánico.
Calor y temperatura
Cuando una persona toca un cuerpo caliente y otro frío experimenta sensaciones diferentes: esto llevó al concepto cualitativo y subjetivo de temperatura. La adición de calor a un cuerpo lleva a un aumento de su temperatura; cuando se ponen en contacto dos cuerpos a temperaturas diferentes, se produce un flujo de calor del más caliente al más frío hasta que se igualan sus temperaturas y se alcanza el equilibrio térmico. Para llegar a una medida de la temperatura, los científicos aprovecharon la observación de que la adición o sustracción de calor produce un cambio en alguna propiedad bien definida del cuerpo. Por ejemplo, la adición de calor a una columna de líquido mantenida a presión constante aumenta la longitud de la columna, mientras que el calentamiento de un gas confinado en un recipiente aumenta su presión. Esto hace que la temperatura pueda medirse a partir de otra propiedad física siempre que se mantengan constantes las otras propiedades relevantes. La relación matemática entre las propiedades físicas relevantes de un cuerpo o sistema y su temperatura se conoce como ecuación de estado.
Hasta bien entrado el siglo XIX se consideraba que el calor era un fluido sin masa, el llamado “calórico”, que estaba contenido en la materia y podía introducirse en un cuerpo o extraerse del mismo. Aunque la teoría del calórico explicaba las cuestiones básicas de termometría y calorimetría, no lograba explicar satisfactoriamente muchas observaciones realizadas a principios del siglo XIX. La primera relación cuantitativa entre el calor y otras formas de energía fue observada en 1798, que el calor producido al taladrar el ánima de un cañón era aproximadamente proporcional al trabajo empleado.
El primer principio de la termodinámica
A mediados del siglo XIX, explicaron la equivalencia entre calor y trabajo. Esta equivalencia significa que la realización de trabajo sobre un sistema puede producir el mismo efecto que la adición de calor. El valor numérico de esta equivalencia, el llamado “equivalente mecánico del calor”, fue determinado en experimentos realizados entre 1840 y 1849.
Con ello quedó establecido que la realización de trabajo sobre un sistema y la adición de calor al mismo son formas equivalentes de transferir energía al sistema. Por tanto, la cantidad de energía añadida como calor o trabajo debe aumentar la energía interna del sistema, que a su vez determina la temperatura. Si la energía interna no varía, la cantidad de trabajo realizado sobre un sistema debe ser igual al calor desprendido por el mismo. Esto constituye el primer principio de la termodinámica, que expresa la conservación de la energía. Esta energía interna sólo pudo relacionarse con la suma de las energías cinéticas de todas las partículas del sistema cuando se comprendió mejor la actividad de los átomos y moléculas dentro de un sistema.
El segundo principio de la termodinámica
El primer principio indica que la energía se conserva en cualquier interacción entre un sistema y su entorno, pero no pone limitaciones a las formas de intercambio de energía térmica y mecánica. El primero en formular el principio de que los intercambios de energía se producen globalmente en una dirección determinada. Cuando la máquina realiza trabajo hay que transferir calor del cuerpo caliente al cuerpo frío; para que ocurra lo contrario hay que realizar trabajo mecánico . Estas ideas, basadas en los conceptos de Carnot, fueron formuladas de forma rigurosa como segundo principio de la termodinámica.. Una de estas formulaciones es que el calor no puede fluir de un cuerpo frío a un cuerpo caliente sin que se realice trabajo.
Del segundo principio se deduce que, en un sistema aislado, las partes internas que se encuentran a temperaturas distintas siempre tienden a igualar sus temperaturas y alcanzar así el equilibrio. Este principio también puede aplicarse a otras propiedades internas inicialmente no uniformes..Por lo tanto, un estado inicial ordenado, con componentes diferenciados, se convierte en un estado mezclado o desordenado. Estas ideas se pueden expresar a partir de una propiedad termodinámica denominada entropía , que mide lo cerca que está un sistema del equilibrio, es decir, del desorden interno perfecto. La entropía de un sistema aislado, y del Universo en su conjunto, sólo puede aumentar, y cuando se alcanza finalmente el equilibrio ya no son posibles cambios internos de ningún tipo. Cuando se aplica al conjunto del Universo, este principio sugiere que la temperatura de todo el cosmos acabará siendo uniforme, con lo que se producirá la llamada “muerte térmica” del Universo.
Sin embargo, la entropía puede disminuirse localmente mediante acciones externas. Esto ocurre en las máquinas y en los organismos vivos. Por otra parte, este aumento local del orden sólo es posible mediante un incremento de la entropía del entorno, donde necesariamente tiene que aumentar el desorden.
Si un proceso fuera reversible espontáneamente la entropía permanecería constante, lo que violaría el segundo principio. Aunque los procesos macroscópicos ,son irreversibles, no ocurre lo mismo con los procesos microscópicos. Por ejemplo, las reacciones químicas entre moléculas individuales no se rigen por el segundo principio de la termodinámica, que sólo es válido para conjuntos macroscópicos.
A partir de la formulación del segundo principio se produjeron otros avances en la termodinámica, cuyas aplicaciones se extendieron más allá de la física y alcanzaron a la química y la ingeniería. La mayor parte de la ingeniería química, toda la ingeniería energética, la tecnología de acondicionamiento de aire y la física de bajas temperaturas son algunos de los campos que deben su base teórica a la termodinámica y a los logros posteriores de científicos .
Teoría cinética y mecánica estadística
El concepto moderno de átomo fue propuesto por primera vez por el químico y físico británico John Dalton en 1808, a partir de sus estudios que mostraban que los elementos químicos se combinan en proporciones constantes para formar compuestos. En 1811, el físico italiano Amedeo Avogadro propuso el concepto de molécula, la partícula más pequeña de una sustancia gaseosa que puede existir en estado libre y seguir teniendo las mismas propiedades que una cantidad mayor de dicha sustancia. Este concepto no tuvo una aceptación generalizada hasta unos 50 años después, cuando sirvió de base a la teoría cinética de los gases. Esta teoría, desarrollada por Maxwell ,permitió aplicar las leyes de la mecánica y del cálculo probabilístico al comportamiento de las moléculas individuales, lo que llevó a deducciones estadísticas sobre las propiedades del gas en su conjunto.
Un problema importante resuelto de esta forma fue la determinación del rango de velocidades de las moléculas de un gas, y en consecuencia de la energía cinética media de las moléculas. La energía cinética de un cuerpo es ymv2, donde m es la masa del cuerpo y v su velocidad. Uno de los logros de la teoría cinética fue la demostración de que la temperatura está directamente relacionada con la energía cinética media de las moléculas. Después de su éxito en los gases, la teoría cinética y la mecánica estadística se aplicaron a otros sistemas, algo que continúa haciéndose en la actualidad.
Descargar
Enviado por: | Musclepanx |
Idioma: | castellano |
País: | España |