Astronomía y Astrología


Universo


COSMOVISIÓN

Cosmología, estudio del Universo en su conjunto, en el que se incluyen teorías sobre su origen, su evolución, su estructura a gran escala y su futuro. Al estudio más específico del origen del Universo y de sus sistemas astronómicos como el Sistema Solar, se le suele llamar cosmogonía.

Primeras teorías cosmológicas

Las teorías cosmológicas más antiguas datan del 4000 a.C., y son las de los pueblos mesopotámicos, que creían que la Tierra era el centro del Universo y que todos los demás cuerpos celestes giraban alrededor de ella. Algunos clásicos como Aristóteles y el astrónomo griego Tolomeo, explicaban que las estrellas se movían de noche porque estaban fijas en esferas cristalinas rotatorias. El astrónomo griego Aristarco de Samos, alrededor del 270 a.C., sostenía que la Tierra gira alrededor del Sol. Sin embargo, debido sobre todo a la autoridad de Aristóteles, el concepto de que la Tierra era el centro del Universo permaneció inamovible hasta 1543, cuando el astrónomo polaco Nicolás Copérnico publicó sus teorías en De revolutionibus orbium caelestium (Sobre las revoluciones de los cuerpos celestes). Copérnico proponía un sistema en el que los planetas giraban en órbitas circulares alrededor del Sol, el cual estaba situado en el centro del Universo. Atribuía el nacimiento y la colocación de las estrellas a la rotación de la Tierra sobre su eje. El astrónomo alemán Johannes Kepler adoptó el sistema copernicano y descubrió que los planetas giran en órbitas elípticas a velocidad variable, de acuerdo con tres leyes bien definidas (conocidas desde entonces como leyes de Kepler). Galileo, uno de los primeros en observar los planetas con un telescopio, también rechazó la idea de Aristóteles de que la Tierra era el centro del Universo y se convirtió en un defensor de la visión copernicana del mundo. El matemático y físico inglés Isaac Newton demostró que las leyes de Kepler sobre el movimiento planetario podían derivarse de las leyes generales del movimiento y de la gravitación que Newton había descubierto, indicando así que estas leyes físicas eran válidas en todo el Universo. Véase Astronomía.

Distancias interestelares

Una idea de la escala de las distancias entre las estrellas fue proporcionada a principios del siglo XIX por el astrónomo alemán Friedrich Wilhelm Bessel. Descubrió que la cercana estrella 61 Cygni estaba unas 600.000 veces más lejos de la Tierra que el Sol. En 1917 el astrónomo estadounidense Harlow Shapley calculó que la galaxia de la Tierra, la Vía Láctea, tiene un diámetro de unos 350.000 años luz; ésta fue la primera indicación del tamaño de nuestra galaxia. Por desgracia, Shapley no consideró la absorción de la luz de las estrellas por partículas de polvo en la Vía Láctea, lo que hace que los objetos parezcan más oscuros y, por tanto, más lejos de lo que están en realidad. El actual valor del diámetro de la parte visible de nuestra galaxia es de unos 30.000 parsecs (100.000 años luz). El astrónomo holandés Jan Hendrik Oort descubrió que el Sol tarda 250.000 millones de años en completar una revolución en torno al centro de nuestra galaxia y de esta forma pudo calcular que la masa de la Vía Láctea es de unas 100.000 millones de veces la masa del Sol.

Hasta comienzos del siglo XX, los astrónomos no conocían con seguridad la naturaleza de lo que describían como nebulosas espirales y elípticas; no podían determinar si estaban dentro o fuera de nuestra galaxia. En 1924 el astrónomo estadounidense Edwin Hubble logró descubrir estrellas individuales en alguno de estos objetos, entre ellos, la famosa Andrómeda. Varias de estas estrellas eran estrellas pulsantes, llamadas variables cefeidas. Midiendo su periodo de pulsación, los astrónomos pueden determinar el brillo intrínseco de estas estrellas. Comparando el brillo aparente de estas cefeidas con el brillo conocido de las cefeidas cercanas, Hubble comprobó que los objetos que estudiaba estaban fuera de la galaxia. Esto significaba que las miles de `nebulosas' espirales y elípticas eran galaxias por derecho propio, externas a la Vía Láctea, y que cada una de ellas contenía cientos de miles de millones de estrellas. Hubble calculó que la distancia a la galaxia Andrómeda era de 900.000 años luz, cifra después corregida a los 2,2 millones de años luz, cuando los astrónomos descubrieron que las cefeidas estaban más lejos de lo que pensaron en un principio.

Ley de Hubble

El astrónomo estadounidense Vesto M. Slipher, que estudió los espectros de las galaxias, ya había observado en 1912 que, excepto en unos pocos sistemas cercanos como la galaxia Andrómeda, las líneas espectrales se habían desplazado hacia longitudes de onda mayores (véase Desplazamiento hacia el rojo). Este desplazamiento en longitud de onda, debido al efecto Doppler, mostraba que la mayoría de las galaxias se alejaban de la Vía Láctea.

En 1929 Hubble comparó las distancias que había calculado para diferentes galaxias con los desplazamientos hacia el rojo fijados por Slipher para las mismas galaxias. Descubrió que cuanto más lejos estaba la galaxia, más alta era su velocidad de recesión. A esta relación se la conoce como la ley de los desplazamientos hacia el rojo o ley de Hubble; determina que la velocidad de una galaxia es proporcional a su distancia. La relación entre la velocidad de recesión de una galaxia y su distancia (la constante de Hubble) se calcula que está entre los 50 y los 100 km/s por megaparsec (1 megaparsec equivale a 1 millón de parsecs).

Como parece que las galaxias retroceden en todas direcciones desde la Vía Láctea, se podría pensar que nuestra galaxia es el centro del Universo. Sin embargo, esto no es así. Imaginemos un globo con puntos uniformemente separados. Al inflar el globo, un observador en un punto de su superficie vería cómo todos los demás puntos se alejan de él, igual que los observadores ven a todas las galaxias retroceder desde la Vía Láctea. La analogía también nos proporciona una explicación sencilla de la ley de Hubble: el Universo se expande como un globo.

Modelos estáticos y de expansión del Universo

En 1917 Albert Einstein propuso un modelo del Universo basado en su nueva teoría de la relatividad general. Consideraba el tiempo como una cuarta dimensión y demostró que la gravitación era equivalente a una curvatura espacio-tiempo cuatridimensional resultante. Su teoría indicaba que el Universo no era estático, sino que debía expandirse o contraerse. La expansión del Universo todavía no había sido descubierta, por lo que Einstein planteó la existencia de una fuerza de repulsión entre las galaxias que compensaba la fuerza gravitatoria de atracción. Esto le llevó a introducir una `constante cosmológica' en sus ecuaciones; el resultado era un universo estático. Sin embargo, desaprovechó la oportunidad de predecir la expansión del Universo, lo que Einstein calificaría como “el mayor error de mi vida”.

El astrónomo holandés Willem de Sitter desarrolló en 1917 modelos no estáticos del Universo. En 1922 lo hizo el matemático ruso Alexander Friedmann y en 1927 el sacerdote belga Georges Lemaître. El universo de De Sitter resolvió las ecuaciones relativistas de Einstein para un universo vacío, de modo que las fuerzas gravitatorias no eran importantes. La solución de Friedmann depende de la densidad de la materia en el Universo y es el modelo de universo generalmente aceptado. Lemaître también dio una solución a la ecuación de Einstein, pero es más conocido por haber introducido la idea del `núcleo primordial'. Afirmaba que las galaxias son fragmentos despedidos por la explosión de este núcleo, dando como resultado la expansión del Universo. Éste fue el comienzo de la teoría de la Gran Explosión sobre el origen del Universo (véase más adelante).

El destino del universo de Friedmann está determinado por la densidad media de la materia en el Universo. Si hay relativamente poca materia, la atracción gravitatoria mutua entre las galaxias disminuirá las velocidades de recesión sólo un poco y el Universo se expandirá indefinidamente. Esto dará como resultado un llamado `universo abierto', infinito en extensión. Sin embargo, si la densidad de la materia está por encima de un valor crítico estimado actualmente en 5 × 10-30 g/cm3, la expansión descenderá hasta detenerse y llegar a la contracción, finalizando en el colapso gravitatorio total del Universo entero. Éste sería un `universo cerrado', finito en extensión. El destino de este universo colapsado es incierto, pero hay una teoría según la cual explotaría de nuevo, originando un nuevo universo en expansión, que se volvería a colapsar, y así hasta el infinito. A este modelo se le llama universo oscilante o pulsante.

La edad del Universo

Si se conoce la tasa de expansión del Universo, se puede calcular su edad determinando el tiempo que se requiere para alcanzar su tamaño actual. Éste será de hecho un límite superior, cuando la expansión actual haya disminuido a causa de la atracción gravitatoria mutua entre las galaxias. Los primeros cálculos de la edad del Universo le concedieron un valor de sólo 2.000 millones de años. Esta edad es bastante menor que la de 5.000 millones de años de la Tierra que se ha deducido de la abundancia de ciertos isótopos radiactivos (véase Datación). Correcciones posteriores en la escala de distancias han suprimido esta discrepancia. Se descubrió, por ejemplo, que hay dos tipos de variables cefeidas, con brillo intrínseco diferente. Esta confusión había ocasionado que Hubble subestimara la distancia a la galaxia Andrómeda. Actualmente, se considera que la edad del Universo está entre los 7.000 y los 20.000 millones de años y de este modo, no se establece conflicto con la edad de la Tierra. Sin embargo, algunas estimaciones chocan con la edad calculada de objetos astronómicos como los cúmulos de estrellas, de forma que el problema de la edad del Universo sigue siendo una cuestión importante para la cosmología actual.

La teoría del universo estacionario

En 1948, los astrónomos británicos Hermann Bondi, Thomas Gold y Fred Hoyle presentaron un modelo completamente distinto de universo, conocido como la teoría del universo estacionario. Consideraban insatisfactoria, desde el punto de vista filosófico, la idea de un repentino comienzo del Universo. Su modelo se derivaba de una extensión del `principio cosmológico', que sostiene teorías anteriores como el modelo de Friedmann. En su forma previa, más restringida, el principio afirmaba que el Universo parece el mismo en su conjunto, en un momento determinado desde cualquier posición. El `principio cosmológico perfecto' de Bondi, Gold y Hoyle añade el postulado de que el Universo parece el mismo siempre. Plantean que la disminución de la densidad del Universo provocada por su expansión se compensa con la creación continua de materia, que se condensa en galaxias que ocupan el lugar de las galaxias que se han separado de la Vía Láctea y así se mantiene la apariencia actual del Universo (es la teoría de creación continua). La teoría del universo estacionario, al menos en esta forma, no la aceptan la mayoría de los cosmólogos, en especial después del descubrimiento aparentemente incompatible de la radiación de fondo de microondas en 1965.

El descubrimiento de quásares también aportó pruebas que contradicen la teoría del universo estacionario. Los quásares son sistemas extragalácticos muy pequeños pero muy luminosos que solamente se encuentran a grandes distancias. Su luz ha tardado en llegar a la Tierra varios cientos de miles de años. Por lo tanto, los quásares son objetos del pasado remoto, lo que indica que hace unos pocos de cientos de miles de años la constitución del Universo fue muy distinta de lo que es hoy en día.

La teoría del Big Bang o de la Gran Explosión

En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó en una explosión gigantesca y que los diversos elementos que hoy se observan se produjeron durante los primeros minutos después de la Gran Explosión (Big Bang), cuando la temperatura extremadamente alta y la densidad del Universo fusionaron partículas subatómicas en los elementos químicos. Cálculos más recientes indican que el hidrógeno y el helio habrían sido los productos primarios de la Gran Explosión, y los elementos más pesados se produjeron más tarde, dentro de las estrellas (véase Nucleosíntesis). Sin embargo, la teoría de Gamow proporciona una base para la comprensión de los primeros estadios del Universo y su posterior evolución. A causa de su elevadísima densidad, la materia existente en los primeros momentos del Universo se expandió con rapidez. Al expandirse, el helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias. Esto explica la expansión del Universo y la base física de la ley de Hubble.

Según se expandía el Universo, la radiación residual de la Gran Explosión continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C). Estos vestigios de radiación de fondo de microondas fueron detectados por los radioastrónomos en 1965, proporcionando así lo que la mayoría de los astrónomos consideran la confirmación de la teoría de la Gran Explosión.

Evolución del Universo

Uno de los problemas sin resolver en el modelo del Universo en expansión es si el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se volverá a contraer).

Un intento de resolver este problema es determinar si la densidad media de la materia en el Universo es mayor que el valor crítico en el modelo de Friedmann. La masa de una galaxia se puede medir observando el movimiento de sus estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de galaxias se puede determinar de forma análoga, midiendo el movimiento de las galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico que indicaría que el Universo está cerrado. La diferencia entre estos dos métodos sugiere la presencia de materia invisible, la llamada materia oscura, dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta que se comprenda el fenómeno de la masa oculta, este método de determinar el destino del Universo será poco convincente.

Como la luz de las galaxias más alejadas ha estado viajando cientos de miles de años, el Universo se observa como aparecía en el pasado lejano. Al utilizar nuevos detectores infrarrojos conocidos como series de gran formato, los astrónomos del Observatorio Mauna Kea, en Hawaii, han registrado cientos de galaxias, las más mortecinas jamás observadas, la mayoría de ellas agrupadas a una distancia de 600.000 años luz. Una anomalía en esta visión del Universo de hace 600.000 años es que, más que una mezcla de tipos galácticos, predomina un tipo: una clase de galaxias pequeñas y compactas que contienen muchas menos estrellas que la Vía Láctea u otras de su clase. Las jóvenes galaxias espirales y elípticas que se observan en la actualidad se pueden haber formado por la fusión de fragmentos galácticos de masa baja, relativamente tarde en la historia del Universo, mucho después de la Gran Explosión, y pueden representar cada uno de los estadios en la evolución del Universo.

Muchos de los trabajos habituales en cosmología teórica se centran en desarrollar una mejor comprensión de los procesos que deben haber dado lugar a la Gran Explosión. La teoría inflacionaria, formulada en la década de 1980, resuelve dificultades importantes en el planteamiento original de Gamow al incorporar avances recientes en la física de las partículas elementales. Estas teorías también han conducido a especulaciones tan osadas como la posibilidad de una infinitud de universos producidos de acuerdo con el modelo inflacionario. Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el paradero de la materia oscura, mientras que una minoría, encabezada por el sueco Hannes Alfvén, premio Nobel de Física, mantienen la idea de que no es la gravedad sino los fenómenos del plasma, la clave para comprender la estructura y la evolución del Universo.

Filosofía,

término derivado del griego, que significa `amor por la sabiduría'. Esta definición clásica convierte a la filosofía en una tensión que nunca concluye, en una búsqueda sin término del verdadero conocimiento de la realidad.

Rasgos de la filosofía

Es posible, sin embargo, ofrecer una descripción de la filosofía como `saber racional totalizante, crítico de segundo grado'. La filosofía es una forma de conocimiento que pretende ofrecer explicaciones de los temas que analiza empleando la razón y los argumentos racionales (a diferencia de la fe o la autoridad). En segundo lugar, la filosofía es un saber de tipo general y totalizante, pues pretende ofrecer respuesta a cuestiones de tipo general y mantiene siempre una perspectiva totalizante sobre las mismas. En tercer lugar, la filosofía es un saber crítico, pues analiza los fundamentos de todo lo que considera y nunca se limita a aceptarlos de forma ingenua. Finalmente, la filosofía es un saber de segundo grado, que emplea los datos y contribuciones de las ciencias, que son siempre un conocimiento de primer grado sobre la realidad.

Carácter interdisciplinar e interrogativo

La filosofía es un saber eminentemente interdisciplinar, ya que emplea las aportaciones de diferentes disciplinas científicas y de distintos tipos de saber, sin limitarse a ninguno de ellos; en este sentido, la filosofía va más allá de las habituales especializaciones del saber científico. Este rasgo es una derivación de su carácter general y crítico. Debe señalarse que en filosofía posee un gran valor la actitud interrogativa, y se ha dicho que en ella son más importantes las preguntas que plantea que aquellas respuestas que pueda ofrecer: tal consideración es consecuencia del carácter crítico que caracteriza a la filosofía.

Filosofía técnica

Aunque suele afirmarse que todo hombre o mujer es un filósofo, la filosofía ha desarrollado a lo largo de su historia un conjunto de conceptos y métodos que conforman una técnica y una sensibilidad conceptual muy determinada; de ahí que sea necesario destacar el carácter técnico que posee gran parte del trabajo filosófico. Es éste un rasgo que no ha hecho sino aumentar en los dos últimos siglos, cuando el análisis filosófico se ha visto enriquecido con un elevado nivel de complejidad, que exige un conocimiento especializado.

Problemas intemporales

Es evidente que muchos de los análisis que se realizan en filosofía mantienen una cierta conexión con la sociedad y la época en la que esos análisis se han realizado. Sin embargo, muchos de los problemas filosóficos poseen un carácter general que sobrepasa el marco histórico y social en el que han surgido. Esto es lo que explica, en cierto modo, el carácter intemporal de algunas de las cuestiones filosóficas más relevantes, como es la pregunta por el ser, el sentido del cambio, el concepto de sujeto, la estructura de la trascendencia o el alcance del conocimiento.

Ramas de la filosofía

Es posible distinguir varias áreas de investigación filosófica: ontología y metafísica (análisis crítico de la estructura de la realidad); teoría del conocimiento, epistemología o gnoseología (análisis del origen, estructura y alcance del conocimiento); lógica (estudio del razonamiento o argumento válido); ética (teoría de la acción humana y de sus valores); estética (teoría de la belleza y del arte); y, por supuesto, la historia de la filosofía, en cuanto ésta no se limita a una exposición de las distintas doctrinas filosóficas, sino que pretende reconstruir críticamente determinadas argumentaciones o sistemas filosóficos. Cabe señalar, asimismo, la existencia de una variedad de análisis filosóficos de determinadas ramas de la ciencia o de la actividad humana, que constituyen áreas especializadas como son la filosofía de la historia, la filosofía de la ciencia, la filosofía del derecho o la filosofía de las ciencias sociales, entre otras.

Filosofía de la ciencia,

Investigación sobre la naturaleza general de la práctica científica. La filosofía de la ciencia se ocupa de saber cómo se desarrollan, evalúan y cambian las teorías científicas, y si la ciencia es capaz de revelar la verdad de las entidades ocultas y los procesos de la naturaleza. Su objeto es tan antiguo y se halla tan extendido como la ciencia misma. Algunos científicos han mostrado un vivo interés por la filosofía de la ciencia y unos pocos, como Galileo, Isaac Newton y Albert Einstein, han hecho importantes contribuciones. Numerosos científicos, sin embargo, se han dado por satisfechos dejando la filosofía de la ciencia a los filósofos, y han preferido seguir 'haciendo ciencia' en vez de dedicar más tiempo a considerar en términos generales cómo 'se hace la ciencia'. Entre los filósofos, la filosofía de la ciencia ha sido siempre un problema central; dentro de la tradición occidental, entre las figuras más importantes anteriores al siglo XX destacan Aristóteles, René Descartes, John Locke, David Hume, Immanuel Kant y John Stuart Mill. Gran parte de la filosofía de la ciencia es indisociable de la epistemología, la teoría del conocimiento, un tema que ha sido considerado por casi todos los filósofos.

El problema de la inducción

Los resultados de la observación y experimentación suministran la evidencia para una teoría científica, pero no pueden demostrar que la teoría es correcta. Hasta la generalización empírica más modesta, por ejemplo que toda agua hierve a la misma temperatura, va más allá de lo que puede ser deducido de la evidencia en sentido estricto. Si las teorías científicas no expresaran más que la evidencia que suele sustentarlas, tendrían poca utilidad. No podrían ser utilizadas para predecir el curso de la naturaleza, y carecerían de poder explicativo.

El vínculo no demostrativo o inductivo entre la evidencia y la teoría plantea uno de los problemas fundamentales de la teoría del conocimiento, el problema de la inducción, dada su formulación clásica por David Hume, el filósofo escocés del siglo XVIII. Hume consideró simples predicciones basadas en observaciones pasadas, por ejemplo, un vaticinio como: el sol saldrá mañana, teniendo en cuenta que se ha observado que siempre salía en el pasado. La vida sería imposible sin anticipar el futuro, pero Hume construyó una argumentación excelente para mostrar que estas inferencias son indefendibles desde presupuestos racionales. Esta conclusión puede parecer increíble, pero la argumentación de Hume tiene todavía que ser contestada de un modo concluyente. Admitía que las deducciones inductivas han sido por lo menos razonablemente fiables hasta ahora, o no estaríamos vivos para considerar el problema, pero afirmaba que sólo podemos tener una razón para continuar confiando en la inducción si tenemos algún motivo para creer que la inducción seguirá siendo fiable en el futuro. Hume demostró entonces que tal razón no es posible. El nudo del problema es que pretender que la inducción será una garantía en el futuro es, en sí misma, una predicción y sólo podría ser justificada de manera inductiva, lo que llevaría a una cuestión de principio. En concreto, mantener que la inducción quizá funcionará en el futuro porque ha resultado útil en el pasado es razonar en círculo, asumiendo la inducción para justificarla. Si esta argumentación escéptica es válida, el conocimiento inductivo parece imposible, y no hay un argumento racional que se pueda plantear para disuadir a alguien que opina, por ejemplo, que es más seguro salir de la habitación por las ventanas que por la puerta.

El problema de la inducción se relaciona de forma directa con la ciencia. Sin una respuesta a la argumentación de Hume, no hay razón para creer en ninguno de los aspectos de una teoría científica que vaya más allá de lo que, en realidad, se ha observado. El asunto no es que las teorías científicas no resulten nunca ciertas por completo: esto es o debería ser una verdad obvia. El tema es más bien que no tenemos ninguna razón para suponer, por ejemplo, que el agua que no hemos sometido a prueba hervirá a la misma temperatura que el agua que hemos probado. Los filósofos han realizado un continuo esfuerzo para resistir a esta conclusión escéptica. Algunos han tratado de demostrar que los modelos científicos para sopesar evidencias y formular inferencias son, de algún modo, racionales por definición; otros, que los éxitos pasados de nuestros sistemas inductivos son susceptibles de emplearse para justificar su uso futuro sin caer en círculos viciosos. Un tercer enfoque sostiene que, aunque no podamos demostrar que la inducción funcionará en el futuro, sí podemos demostrar que lo hará si algún método de predicción lo hace, por lo que es razonable utilizarlo. Mediante teorías más recientes, algunos filósofos han sostenido que la actual fiabilidad de las prácticas inductivas, algo que Hume no niega, basta para proporcionar conocimiento inductivo sin otro requerimiento que el que la fiabilidad esté justificada.

Karl Popper ha aportado una respuesta más radical al problema de la inducción, una solución que constituye la base de su influyente filosofía de la ciencia. De acuerdo con Popper, el razonamiento de Hume de que las inferencias son injustificables desde una perspectiva racional es correcto. Sin embargo, esto no amenaza la racionalidad de la ciencia, cuyas inferencias son, aunque parezca lo contrario, deductivas en exclusiva. La idea central de Popper es que mientras la evidencia nunca implicará que una teoría sea verdadera, puede rebatir la teoría suponiendo que sea falsa. Así, un número de cuervos negros no implica que todos lo cuervos sean negros, pero la presencia de un único cuervo blanco supone que la generalización es falsa. Los científicos pueden, de esta forma, saber que una teoría es falsa, sin recurrir a la inducción. Además, enfrentados a una elección entre dos teorías opuestas, pueden ejercer una preferencia racional si una de las teorías ha sido refutada pero la otra no; entonces es racional preferir una teoría que podría ser verdad respecto a una que se sabe es falsa. La inducción nunca entra en escena, de modo que el argumento de Hume pierde fuerza.

Esta ingeniosa solución al problema de la inducción se enfrenta con numerosas objeciones. Si fuera cierta, los científicos nunca tendrían ningún motivo para creer que alguna de sus teorías o hipótesis son siquiera correctas por aproximación o que alguna de las predicciones extraídas de ellas es verdad, ya que estas apreciaciones sólo podrían ser justificadas por vía inductiva. Además, parece que la posición de Popper ni siquiera permite a los científicos saber que una teoría es falsa, puesto que, según él, la evidencia que podría contradecir una teoría, puede no ser nunca reconocida como correcta. Por desgracia, las inferencias inductivas que los científicos plantean no parecen ni evitables ni justificables.

El problema de la descripción

Aunque la discusión de Hume sobre la justificación de la inducción representa un hito en la historia de la filosofía, sólo ofrece una cruda descripción de cómo, para bien o para mal, los métodos inductivos funcionan en realidad. Mantenía que la inferencia inductiva es sólo un hábito de formación. Al haber visto muchos cuervos negros, de modo tácito aplicamos la regla 'más de lo mismo' y suponemos que el próximo cuervo que encontremos será también negro. Esto, como es evidente, no hace justicia a la práctica inferencial de los científicos, ya que éstos infieren a partir de la observación de entidades de una clase para llegar a la existencia y comportamiento de entidades de una clase muy diferente y a menudo no observable. 'Más de lo mismo' no llevará a los científicos desde lo que se ve en el laboratorio a la existencia de los electrones o los campos electromagnéticos. ¿Cómo comprueban entonces los científicos sus teorías, sopesan la evidencia y establecen inferencias? Este es el problema de la descripción en contraste con el problema de la justificación de Hume.

El problema descriptivo puede parecer fácil de resolver: sólo hay que preguntar a los científicos que describan lo que hacen. Es una ilusión. Los científicos pueden ser eficaces sopesando evidencias, pero no son eficaces ofreciendo una declaración de principios que recoja cómo llegan a ellos. Esto no es más sorprendente que el hecho de que los nativos de habla inglesa sean incapaces de explicar los principios por los que diferencian las oraciones gramaticales de las no gramaticales. Lo más sorprendente es cuán difícil ha sido resolver el problema de la inducción incluso para los filósofos de la ciencia que han dedicado a ello su actividad.

Quizá la forma más corriente de mostrar cómo se comprueban las teorías sea mediante el modelo hipotético-deductivo, según el cual las teorías se comprueban examinando las predicciones que implican. La evidencia que muestra que una predicción es correcta, confirma la teoría; la evidencia incompatible con la predicción, rebate la teoría, y cualquier otra evidencia es irrelevante. Si los científicos tienen una evidencia suficiente que corrobora y una no evidencia que rebate, pueden inferir que la teoría examinada es correcta. Este modelo, aunque es aproximado, parece en principio ser un reflejo razonable de la práctica científica, pero está envuelto en dificultades concretas. La mayoría de éstas demuestran que el modelo hipotético-deductivo es demasiado permisivo, al tratar evidencias irrelevantes como si aportaran certezas materiales. Para mencionar tan sólo un problema, la mayoría de las teorías científicas no implican ninguna consecuencia observable por sí misma, sino sólo al relacionarse en conjunto con otras suposiciones de base. Si no hay alguna clase de restricción sobre las suposiciones admisibles, el modelo permitiría considerar cualquier observación como evidencia para casi cualquier teoría. Esto es un resultado absurdo, pero es difícil en extremo especificar las restricciones apropiadas.

Dadas las dificultades que afronta el modelo hipotético-deductivo, algunos filósofos han reducido sus miras y han intentado dar un modelo mejor de refuerzo inductivo para una serie de casos más limitada. El caso más sencillo es una generalización empírica del tipo 'todos los cuervos son negros'. Aquí parece claro que los cuervos negros apoyan la hipótesis, los cuervos no negros la refutan, y los no cuervos son irrelevantes. Aún así, esta modesta consideración entraña otros problemas. Supongamos que aplicamos el mismo tipo de consideración a la hipótesis un tanto exótica de que todas las cosas no negras no son cuervos. Los no negros no cuervos (flores blancas, por ejemplo) la apoyan, los cuervos no negros la refutan, y los objetos son irrelevantes. El problema surge cuando observamos que esta hipótesis equivale a la hipótesis original del cuervo; decir que todas las cosas no negras son no cuervos es sólo un modo poco usual de decir que todos los cuervos son negros. Entonces ¿cualquier evidencia que apoye una hipótesis apoya la otra? Esto nos deja, sin embargo, con la conclusión bastante extraña de que las flores blancas proporcionan la evidencia de que todos los cuervos son negros. Esta paradoja del cuervo parece un truco lógico, pero ha resultado muy difícil de resolver.

Explicación

Un reciente trabajo sobre el problema de los métodos de descripción inferencial en la ciencia ha tratado de evitar la debilidad del modelo hipotético- deductivo yendo más allá de las relaciones lógicas para responder a la conexión de la evidencia con la teoría. Algunas consideraciones intentan describir cómo la plausibilidad de teorías e hipótesis puede variar conforme se va avanzando en las comprobaciones, y han enlazado esta idea con un cálculo formal de probabilidades. Otras apelan al contenido específico de las hipótesis sometidas a comprobación, en especial las afirmaciones causales que hacen muchas de ellas. En el siglo XIX, John Stuart Mill dio cuenta de las inferencias desde los efectos a las causas que puede ser extendida para aportar un modelo de inferencia científica. Uno de los procedimientos por el que se ha intentado esa expansión ha sido recurriendo al concepto de explicación. La idea básica del modelo de inducción para la mejor explicación es que los científicos infieren desde la evidencia válida a la hipótesis que, de ser correcta, proporcionaría la mejor explicación de esa evidencia.

Si la inferencia para la mejor explicación debe de ser algo más que un eslogan, sin embargo, se requiere alguna consideración independiente de explicación científica. El punto de partida para la mayoría del trabajo filosófico contemporáneo sobre la naturaleza de la explicación científica es el modelo deductivo-nomológico, según el cual una explicación científica es una deducción de una descripción del fenómeno para ser explicada desde un conjunto de premisas que incluye, por lo menos, una ley de la naturaleza. Así, se podría explicar por qué sube el mercurio en un termómetro señalando el ascenso de la subida en la temperatura a partir de una ley que relaciona la temperatura y el volumen de los metales. El tema aquí es saber qué hace que algo sea una ley de la naturaleza, otro de los tópicos centrales de la filosofía de la ciencia. No todas las generalizaciones verdaderas son leyes de la naturaleza. Por ejemplo, la afirmación de que todas las esferas de oro tienen un diámetro de menos de diez millas es una verdad presumible pero no es una ley. Las genuinas leyes de la naturaleza parecen tener un tipo de necesidad de la que carece la afirmación sobre las esferas de oro. Describen no sólo cómo funcionan las cosas en realidad sino cómo, de algún modo, deben funcionar. Sin embargo, está lejos de ser evidente cómo tendría que articularse esta noción de necesidad.

Otra dificultad para el modelo deductivo-nomológico de explicación es que, al igual que el modelo hipotético-deductivo de comprobación, con el cual mantiene una notable similitud estructural, este modelo también es demasiado permisivo. Por ejemplo, el periodo (la duración de una oscilación) de un péndulo determinado puede deducirse de la ley que se refiere al periodo y recorrido de los péndulos en general, junto con el recorrido de ese péndulo determinado. El recorrido del péndulo es considerado de modo habitual como explicativo del periodo. Sin embargo, la deducción puede llevarse a cabo en el sentido opuesto: es posible calcular el recorrido de un péndulo si se conoce su periodo. Pero el periodo no está considerado por lo común como explicativo del recorrido del péndulo. De este modo, mientras que la deducción funciona en ambos sentidos, se considera que la explicación va sólo en un único sentido. Dificultades de esta índole han llevado a algunos filósofos a desarrollar procesos causales de explicación, según los cuales explicamos los acontecimientos aportando información sobre sus procesos causales. Este enfoque es atractivo, pero pide un análisis de causalidad, un proyecto que se enfrenta a muchas de las mismas dificultades que tenía analizar las leyes de la naturaleza. Además, se necesita decir más sobre qué causas de un acontecimiento lo explican. El Big Bang es presumiblemente parte de la historia causal de cada acontecimiento, pero no aporta una explicación adecuada para la mayoría de ellos. Una vez más, hay un problema de permisividad excesiva.

Realismo e instrumentalismo

Uno de los objetivos de la ciencia es salvar los fenómenos, construir teorías que supongan una descripción correcta de los aspectos observables del mundo. De particular importancia es la capacidad para predecir lo que es observable pero todavía no es observado, ya que una predicción precisa hace factible la aplicación de la ciencia a la tecnología. Lo que resulta más controvertido es si la ciencia debe también aspirar a la verdad sobre aquello que no es observable, sólo por comprender el mundo, incluso sin un propósito práctico. Aquellos que pretenden que la ciencia debería, y que así lo hace, ocuparse de revelar la estructura oculta del mundo son conocidos como realistas. Para éstos, las teorías tratan de describir esa estructura. Por oposición, aquellos que dicen que la labor de la ciencia es sólo salvar los fenómenos observables son conocidos como instrumentalistas, ya que para ellos las teorías no son descripciones del mundo invisible sino instrumentos para las predicciones sobre el mundo observable. La disputa entre realistas e instrumentalistas ha sido un tema constante en la historia de la filosofía de la ciencia.

Los científicos realistas no afirman que todo en la ciencia actual es correcto pero, como era de esperar, afirman que las mejores teorías actuales son poco más o menos verdaderas, que la mayoría de las entidades a las que se refieren existen en realidad, y que en la historia de la ciencia las últimas teorías en un campo concreto han estado por lo común más próximas a la verdad que las teorías que sustituían. Para los realistas, el progreso científico consiste sobre todo en generar descripciones cada vez más amplias y exactas de un mundo en su mayor parte invisible.

Algunos instrumentalistas niegan que las teorías puedan describir aspectos no observables del mundo sobre la base de que no se pueden llenar de significado las descripciones de lo que no puede ser observado. Según esta idea, las teorías de alto nivel son ingenios de cálculo sin significado literal: no son más descripciones del mundo que lo que son los circuitos de una calculadora electrónica. Otros instrumentalistas han afirmado que las teorías son descripciones, pero sólo del mundo observable. Hablar de partículas atómicas y campos gravitatorios sólo es en realidad una taquigrafía de descripciones de interpretaciones punteras y un movimiento observable. La versión contemporánea más influyente del instrumentalismo, conocida como empirismo constructivo, adopta una tercera vía. El significado de las teorías tiene que ser creído literalmente. Si una teoría parece contar una historia sobre partículas invisibles, entonces esa es la historia que se cuenta. Los científicos, sin embargo, nunca tienen derecho o necesidad de creer que esas historias son verdad. Todo lo más que puede o necesita ser conocido es que los efectos observables de una teoría —pasada, presente y futura— son verdaderos. La verdad del resto de la teoría es cómo pueda ser: toda la cuestión es que la teoría cuenta una historia que produce sólo predicciones verdaderas acerca de lo que, en principio, pudiera ser observado.

El debate entre realistas e instrumentalistas ha generado argumentos por parte de ambas escuelas. Algunos realistas han montado un razonamiento de no milagro. Realistas e instrumentalistas están de acuerdo en que nuestras mejores teorías en las ciencias físicas han tenido un notable éxito de predicción. El realista mantiene que este éxito sería un milagro si las teorías no fueran por lo menos verdaderas por aproximación. Desde un punto de vista lógico es posible que una historia falsa en su totalidad sobre entidades y procesos no observables pudiera suponer todas esas predicciones verdaderas, pero creer esto es bastante improbable y, por lo tanto, irracional. Planteado el supuesto de que a una persona se le da un mapa muy detallado, cuyo contenido describe con gran detalle el bosque en el que se encuentra, incluso muchos desfiladeros y picos de montañas inaccesibles. Examina el mapa contrastando los datos en diferentes lugares y, en cada caso, lo que ve es justo como lo pinta el mapa. Queda la posibilidad de que el mapa sea incorrecto por completo en las zonas que no ha examinado, pero esto no resulta verosímil. El realista mantiene que la situación es análoga para toda teoría científica que haya sido bien comprobada.

Los instrumentalistas han hecho numerosas objeciones al razonamiento del 'no milagro'. Algunos han afirmado que incurre en la petición de principio, tanto como el argumento considerado con anterioridad, de que la deducción funcionará en el futuro porque ha funcionado en el pasado. Inferir del éxito observado de una teoría científica la verdad de sus afirmaciones sobre los aspectos no observables del mundo es utilizar en concreto el modo de deducción cuya legitimidad niegan los instrumentalistas. Otra objeción es que la verdad de la ciencia actual no es en realidad la mejor explicación de su éxito de observación. Según esta objeción, Popper estaba en lo cierto, al menos, cuando afirmó que la ciencia evoluciona a través de la supresión de las teorías que han fracasado en la prueba de la predicción. No es de extrañar que se piense, por lo tanto, que las teorías que ahora se aceptan han tenido éxito en cuanto a la predicción: si no lo hubieran tenido, ahora no las aceptaríamos. Así, la hipótesis que mantiene que nuestras teorías son ciertas no necesita explicar su éxito de predicción. Por último, algunos instrumentalistas recurren a lo que se conoce como la indeterminación de la teoría por los datos. No importa el grado de validez de la evidencia, sabemos que hay en principio innumerables teorías, incompatibles entre sí pero todas compatibles con esa evidencia. Como mucho, una de esas teorías puede ser verdadera. Tal vez si la objeción resulta válida, es poco probable que la teoría elegida como eficaz sea la verdadera. Desde este punto de vista, lo que sería milagroso no es que las teorías de éxito a las que llegan los científicos sean falsas, sino que sean verdaderas.

Una de los razonamientos recientes más populares de los instrumentalistas es la 'inducción pesimista'. Desde el punto de vista de la ciencia actual, casi todas las teorías complejas con más de cincuenta años pueden ser entendidas como falsas. Esto se oculta a menudo en la historia de la ciencia que presentan los libros de texto de ciencia elementales, pero, por ejemplo, desde el punto de vista de la física contemporánea, Kepler se equivocaba al afirmar que los planetas se mueven en elipses, y Newton al sostener que la masa de un objeto es independiente de su velocidad. Pero si todas las teorías pasadas han sido halladas incorrectas, entonces la única deducción razonable es que todas, o casi todas, las teorías actuales serán consideradas erróneas de aquí a otro medio siglo. En contraste con esta discontinuidad en la historia de las teorías, según el instrumentalismo se ha producido un crecimiento constante y sobre todo acumulativo en el alcance y precisión de sus predicciones observables. Cada vez han llegado a ser mejores salvando los fenómenos, su único cometido apropiado.

Se han planteado varias respuestas a la inducción pesimista. La mayoría de los realistas han aceptado tanto la premisa de que las teorías del pasado han sido falsas y la conclusión de que las teorías actuales serán quizá falsas también. Sin embargo, han insistido en que todo esto es compatible con la afirmación central realista de que las teorías tienden a mejorar las descripciones del mundo respecto a aquéllas a las que reemplazan. Algunos realistas también han acusado a los instrumentalistas de exagerar el grado de discontinuidad en la historia de la ciencia. Se puede cuestionar también la validez de una deducción desde el grado de falsedad pretérito al actual. De acuerdo con los realistas, las teorías actuales han sustituido a sus predecesoras porque ofrecen un mejor tratamiento de la evidencia cada vez más amplio y preciso; por eso está poco claro por qué la debilidad de las viejas teorías debería ir en contra de las que las sucedan.

Objetividad y relativismo

Aunque realistas e instrumentalistas discrepan sobre la capacidad de la ciencia para describir el mundo invisible, casi todos coinciden en que la ciencia es objetiva, porque descansa sobre evidencias objetivas. Aunque algunos resultados experimentales son inevitablemente erróneos, la historia de la evidencia es en gran parte acumulativa, en contraste con la historia de las teorías de alto nivel. En resumen, los científicos sustituyen las teorías pero aumentan los datos. Sin embargo, esta idea de la objetividad y autonomía de la evidencia observacional de las teorías científicas ha sido criticada, sobre todo en los últimos 30 años.

La objetividad de la evidencia ha sido rechazada partiendo de la premisa de que la evidencia científica está, de manera inevitable, contaminada por las teorías científicas. No es sólo que los científicos tiendan a ver lo que quieren ver, sino que la observación científica es sólo posible en el contexto de presuposiciones teóricas concretas. La observación es "teoría cargada". En una versión extrema de esta idea, las teorías no pueden ser probadas, ya que la evidencia siempre presupondrá la misma teoría que se supone tiene que probar. Versiones más moderadas permiten alguna noción de la prueba empírica, pero siguen introduciendo discontinuidades históricas en la evidencia para compararla con las discontinuidades a nivel teórico. Si todavía es posible hacer algún juicio del progreso científico, no puede ser en términos de acumulación de conocimiento, ya se trate de un enfoque teórico o desde el punto de vista de la observación.

Si la naturaleza de la evidencia cambia conforme cambian las teorías científicas, y la evidencia es nuestro único acceso a los hechos empíricos, entonces quizá los hechos también cambien. Este es el relativismo en la ciencia, cuyo representante reciente más influyente es Thomas Kuhn. Al igual que el gran filósofo alemán del siglo XVIII Immanuel Kant, Kuhn mantiene que el mundo que la ciencia investiga debe ser un mundo hasta cierto punto constituido por las ideas de aquellos que lo estudian. Esta noción de la constitución humana del mundo no es fácil de captar. No ocurre lo mismo que en la visión idealista clásica que explica que los objetos físicos concretos sólo son en realidad ideas reales o posibles, implicando que algo es considerado como objeto físico o como un objeto de cierto tipo, por ejemplo una estrella o un planeta, sólo en la medida en la que la gente así los categoriza. Para Kant, la contribución que parte de la idea y lleva a la estructura del mundo es sustancial e inmutable. Consiste en categorías muy generales tales como espacio, tiempo y causalidad. Para Kuhn, la contribución es asimismo sustancial, pero también muy variable, ya que la naturaleza de la contribución viene determinada por las teorías y prácticas concretas de una disciplina científica en un momento determinado. Cuando esas teorías y prácticas cambian, por ejemplo, en la transición desde la mecánica newtoniana a las teorías de Einstein, también cambia la estructura del mundo sobre la que tratan este conjunto de teorías. La imagen de los científicos descubriendo más y más sobre una realidad idea independiente aparece aquí rechazada por completo.

Aunque radical desde el plano metafísico, el concepto de ciencia de Kuhn es conservador desde una perspectiva epistemológica. Para él, las causas del cambio científico son, casi de forma exclusiva, intelectuales y pertenecen a una reducida comunidad de científicos especialistas. Hay, sin embargo, otras opciones actuales de relativismo sobre la ciencia que rechazan esta perspectiva de carácter interno, e insisten en que las principales causas del cambio científico incluyen factores sociales, políticos y culturales que van mucho más allá de los confines del laboratorio. Ya que no hay razón para creer que estos factores variables conducen al descubrimiento de la verdad, esta idea social constructivista de la ciencia es quizás casi más hostil al realismo científico que lo es la posición kuhniana.

Los realistas científicos no han eludido estos desafíos. Algunos han acusado a los relativistas de adoptar lo que viene a ser una posición de autocontradicción. Si, como se afirma, no hay nada que sea verdad, esta afirmación tampoco puede ser entonces verdadera. Los realistas han cuestionado también la filosofía del lenguaje latente detrás de la afirmación de Kuhn de que las sucesivas teorías científicas se refieren a diferentes entidades y fenómenos, manteniendo que el constructivismo social ha exagerado la influencia a largo plazo de los factores no cognitivos sobre la evolución de la ciencia. Pero el debate de si la ciencia es un proceso de descubrimiento o una invención es tan viejo como la historia de la ciencia y la filosofía, y no hay soluciones claras a la vista. Aquí, como en otras partes, los filósofos han tenido mucho más éxito en poner de manifiesto las dificultades que en resolverlas. Por suerte, una valoración de cómo la práctica científica resiste una explicación puede iluminar por sí misma la naturaleza de la ciencia.

Enciclopedistas

Autores de la Encyclopédie, ou dictionnaire raisonné des sciences, des arts et des métiers, par une societé de gens de lettres (Enciclopedia o tratado sistemático de las artes, las ciencias y los oficios), más conocida como Enciclopedia. La obra surgió del modesto proyecto de traducir la Cyclopaedia del inglés Chamber. El editor Le Breton encargó la traducción a Denis Diderot, el cual transformó la idea y junto con Jean-Baptiste Le-Roud d'Alembert y Louis de Jacourt realizaron un inventario de todos los conocimientos de su época. Fue editada por Denis Diderot en París entre 1751 y 1772 y recogía las opiniones más avanzadas de su tiempo en materia de filosofía, política y religión. La publicación de la obra fue suspendida varias veces por prohibiciones del Parlamento y por condenas eclesiásticas. Pero la protección de Madame de Pompadour consiguió que la obra se editara en su totalidad. En ella colaboraron muchos de los grandes escritores del momento, como Montesquieu, Voltaire, Jean Jacques Rousseau y Friedrich Melchior, baron von Grimm.

Método científico

Método de estudio sistemático de la naturaleza que incluye las técnicas de observación, reglas para el razonamiento y la predicción, ideas sobre la experimentación planificada y los modos de comunicar los resultados experimentales y teóricos.

La ciencia suele definirse por la forma de investigar más que por el objeto de investigación, de manera que los procesos científicos son esencialmente iguales en todas las ciencias de la naturaleza; por ello la comunidad científica está de acuerdo en cuanto al lenguaje en que se expresan los problemas científicos, la forma de recoger y analizar datos, el uso de un estilo propio de lógica y la utilización de teorías y modelos. Etapas como realizar observaciones y experimentos, formular hipótesis, extraer resultados y analizarlos e interpretarlos van a ser características de cualquier investigación.

En el método científico la observación consiste en el estudio de un fenómeno que se produce en sus condiciones naturales. La observación debe ser cuidadosa, exhaustiva y exacta.

A partir de la observación surge el planteamiento del problema que se va a estudiar, lo que lleva a emitir alguna hipótesis o suposición provisional de la que se intenta extraer una consecuencia. Existen ciertas pautas que han demostrado ser de utilidad en el establecimiento de las hipótesis y de los resultados que se basan en ellas; estas pautas son: probar primero las hipótesis más simples, no considerar una hipótesis como totalmente cierta y realizar pruebas experimentales independientes antes de aceptar un único resultado experimental importante.

La experimentación consiste en el estudio de un fenómeno, reproducido generalmente en un laboratorio, en las condiciones particulares de estudio que interesan, eliminando o introduciendo aquellas variables que puedan influir en él. Se entiende por variable todo aquello que pueda causar cambios en los resultados de un experimento y se distingue entre variable independiente, dependiente y controlada.

Variable independiente es aquélla que el experimentador modifica a voluntad para averiguar si sus modificaciones provocan o no cambios en las otras variables. Variable dependiente es la que toma valores diferentes en función de las modificaciones que sufre la variable independiente. Variable controlada es la que se mantiene constante durante todo el experimento.

En un experimento siempre existe un control o un testigo, que es una parte del mismo no sometida a modificaciones y que se utiliza para comprobar los cambios que se producen.

Todo experimento debe ser reproducible, es decir, debe estar planteado y descrito de forma que pueda repetirlo cualquier experimentador que disponga del material adecuado.

Los resultados de un experimento pueden describirse mediante tablas, gráficos y ecuaciones de manera que puedan ser analizados con facilidad y permitan encontrar relaciones entre ellos que confirmen o no las hipótesis emitidas.

Una hipótesis confirmada se puede transformar en una ley científica que establezca una relación entre dos o más variables, y al estudiar un conjunto de leyes se pueden hallar algunas regularidades entre ellas que den lugar a unos principios generales con los cuales se constituya una teoría.

Según algunos investigadores, el método científico es el modo de llegar a elaborar teorías, entendiendo éstas como configuración de leyes. Mediante la inducción se obtiene una ley a partir de las observaciones y medidas de los fenómenos naturales, y mediante la deducción se obtienen consecuencias lógicas de una teoría. Por esto, para que una teoría científica sea admisible debe relacionar de manera razonable muchos hechos en apariencia independientes en una estructura mental coherente. Así mismo debe permitir hacer predicciones de nuevas relaciones y fenómenos que se puedan comprobar experimentalmente.Las leyes y las teorías encierran a menudo una pretensión realista que conlleva la noción de modelo; éste es una abstracción mental que se utiliza para poder explicar algunos fenómenos y para reconstruir por aproximación los rasgos del objeto considerado en la investigación.

Tecnología

Término general que se aplica al proceso a través del cual los seres humanos diseñan herramientas y máquinas para incrementar su control y su comprensión del entorno material. El término proviene de las palabras griegas tecné, que significa 'arte' u 'oficio', y logos, 'conocimiento' o 'ciencia', área de estudio; por tanto, la tecnología es el estudio o ciencia de los oficios.

Algunos historiadores científicos argumentan que la tecnología no es sólo una condición esencial para la civilización avanzada y muchas veces industrial, sino que también la velocidad del cambio tecnológico ha desarrollado su propio ímpetu en los últimos siglos. Las innovaciones parecen surgir a un ritmo que se incrementa en progresión geométrica, sin tener en cuenta los límites geográficos ni los sistemas políticos. Estas innovaciones tienden a transformar los sistemas de cultura tradicionales, produciéndose con frecuencia consecuencias sociales inesperadas. Por ello, la tecnología debe concebirse como un proceso creativo y destructivo a la vez.

Ciencia y tecnología

Los significados de los términos ciencia y tecnología han variado significativamente de una generación a otra. Sin embargo, se encuentran más similitudes que diferencias entre ambos términos.

Tanto la ciencia como la tecnología implican un proceso intelectual, ambas se refieren a relaciones causales dentro del mundo material y emplean una metodología experimental que tiene como resultado demostraciones empíricas que pueden verificarse mediante repetición. La ciencia, al menos en teoría, está menos relacionada con el sentido práctico de sus resultados y se refiere más al desarrollo de leyes generales; pero la ciencia práctica y la tecnología están inextricablemente relacionadas entre sí. La interacción variable de las dos puede observarse en el desarrollo histórico de algunos sectores.

En realidad, el concepto de que la ciencia proporciona las ideas para las innovaciones tecnológicas, y que la investigación pura, por tanto, es fundamental para cualquier avance significativo de la civilización industrial tiene mucho de mito. La mayoría de los grandes cambios de la civilización industrial no tuvieron su origen en los laboratorios. Las herramientas y los procesos fundamentales en los campos de la mecánica, la química, la astronomía, la metalurgia y la hidráulica fueron desarrollados antes de que se descubrieran las leyes que los gobernaban. Por ejemplo, la máquina de vapor era de uso común antes de que la ciencia de la termodinámica dilucidara los principios físicos que sostenían sus operaciones. Sin embargo, algunas actividades tecnológicas modernas, como la astronáutica y la energía nuclear, dependen de la ciencia.

En los últimos años se ha desarrollado una distinción radical entre ciencia y tecnología. Con frecuencia los avances científicos soportan una fuerte oposición, pero en los últimos tiempos muchas personas han llegado a temer más a la tecnología que a la ciencia. Para estas personas, la ciencia puede percibirse como una fuente objetiva y serena de las leyes eternas de la naturaleza, mientras que estiman que las manifestaciones de la tecnología son algo fuera de control (véase los apartados de este artículo Logros y beneficios tecnológicos, y Efectos de la tecnología).

La tecnología en la antigüedad y en la edad media

La tecnología ha sido un proceso acumulativo clave en la experiencia humana. Es posible que esto se comprenda mejor en un contexto histórico que traza la evolución de los primeros seres humanos, desde un periodo de herramientas muy simples a las redes complejas a gran escala que influyen en la mayor parte de la vida humana contemporánea. Con el fin de mantener la sencillez del siguiente resumen, se tratan con mayor detalle los desarrollos del mundo industrializado, pero también se incluyen algunos desarrollos de otras culturas.

La tecnología primitiva

Los artefactos humanos más antiguos que se conocen son las hachas manuales de piedra encontradas en África, en el este de Asia y en Europa. Datan, aproximadamente, del 250.000 a.C., y sirven para definir el comienzo de la edad de piedra. Los primeros fabricantes de herramientas fueron grupos nómadas de cazadores que usaban las caras afiladas de la piedra para cortar su comida y fabricar ropa y tiendas. Alrededor del 100.000 a.C., las cuevas de los ancestros homínidos de los hombres modernos (véase Hominización) contenían hachas ovaladas, rascadores, cuchillos y otros instrumentos de piedra que indicaban que el hacha de mano original se había convertido en una herramienta para fabricar otras herramientas. Muchos miembros del reino animal utilizan herramientas, pero esta capacidad para crear herramientas que, a su vez, sirvan para fabricar otras distingue a la especie humana del resto de los seres vivos.

El siguiente gran paso de la tecnología fue el control del fuego. Golpeando piedras contra piritas para producir chispas es posible encender fuego y liberarse de la necesidad de mantener los fuegos obtenidos de fuentes naturales. Además de los beneficios obvios de la luz y el calor, el fuego también se usó para cocer cacharros de arcilla, fabricando recipientes resistentes que podían utilizarse para cocinar cereales y para la infusión y la fermentación.

La tecnología primitiva no estaba centrada solamente en las herramientas prácticas. Se pulverizaron minerales de color para obtener pigmentos, que se aplicaban al cuerpo humano, a utensilios de arcilla, a cestas, ropa y otros objetos. En su búsqueda de pigmentos, las gentes de la antigüedad descubrieron el mineral verde llamado malaquita y el mineral azul denominado azurita. Cuando se golpeaban estas menas, ricas en cobre, no se convertían en polvo, sino que se doblaban; se podían pulir, pero no partir. Por estas cualidades, el cobre en trozos pequeños se introdujo muy pronto en la joyería.

Estos pueblos también aprendieron que, si este material era forjado repetidamente y puesto al fuego, no se partía ni se agrietaba. Este proceso de eliminación de tensiones del metal, llamado recocido, fue introducido por las civilizaciones de la edad de piedra, sobre todo cuando hacia el año 3000 a.C. se descubrió también que la aleación de estaño y cobre producía bronce (véase Edad del bronce). El bronce no es sólo más maleable que el cobre, sino que también proporciona una mejor arista, una cualidad necesaria para objetos como hoces y espadas.

Aunque había depósitos de cobre en Siria y Turquía, en las cabeceras de los ríos Tigris y Éufrates, los mayores depósitos de cobre del mundo antiguo se encontraron en la isla de Creta. Con el desarrollo de barcos capaces de navegar para llegar a este recurso extremadamente valioso, Knósos (en Creta) se convirtió en un rico centro minero durante la edad del bronce.

Desarrollo de la agricultura

Cuando llegó la edad del bronce, las distintas sociedades distribuidas por cada continente habían conseguido ya varios avances tecnológicos. Se desarrollaron arpones con púas, el arco y las flechas, las lámparas de aceite animal y las agujas de hueso para fabricar recipientes y ropa. También se embarcaron en una revolución cultural mayor, el cambio de la caza y la recolección nómada a la práctica sedentaria de la agricultura.

Las primeras comunidades agrícolas surgieron al final de la glaciación más reciente (hacia el año 10.000 a.C.). Sus huellas pueden encontrarse en áreas muy lejanas entre sí, desde el sureste de Asia hasta México. Las más famosas se dieron en Mesopotamia (el Irak actual) en los valles de las riberas fértiles y templadas del Tigris y el Éufrates. El suelo de estas fértiles laderas se trabajaba con facilidad para plantar, y contaba con un gran número de árboles para obtener leña.

Hacia el año 5000 a.C., las comunidades agrícolas se establecieron en muchas partes del mundo, incluidas las áreas conocidas hoy como Siria, Turquía, Líbano, Israel, Jordania, Grecia, y las islas de Creta y Chipre. Las sociedades agrícolas construyeron en estos lugares edificaciones de piedra, usaron la hoz para cosechar los cereales, desarrollaron un arado primitivo y mejoraron sus técnicas en el trabajo con metales. También comenzó el comercio de piedras. Hacia el 4000 a.C., la agricultura se extendió desde estos centros hacia el Oeste al río Danubio en Europa central, hacia el Sur a las costas del Mediterráneo de África (incluido el río Nilo), y hacia el Este hasta el valle del Indo.

El desarrollo de la cuenca del Nilo aportó otros avances tecnológicos. En ese valle, el río se inunda al comienzo de la primavera. Tuvo que desarrollarse un sistema de irrigación y canales para regar los cultivos durante las estaciones de cosecha, cuando la lluvia es insuficiente. La propiedad de la tierra tenía que determinarse cada año mediante un sistema de medición, ya que los marcadores de la propiedad se perdían con frecuencia con las inundaciones. Los valles del Tigris y el Éufrates presentaban otros problemas tecnológicos. Las inundaciones se producían después de la estación de cosecha, por lo que era necesario aprender la técnica de construir diques y barreras para las inundaciones.

Otros descubrimientos primitivos

Para ayudar al transporte eficiente de minerales para la creciente industria del cobre se construyeron carros de dos ruedas (la rueda más antigua databa aproximadamente del año 3500 a.C. en Mesopotamia). Sin embargo, los medios de transporte más utilizados fueron los barcos de juncos y las balsas de madera, que surgieron primero en Mesopotamia y Egipto. Un resultado importante del mercado de la cerámica, los metales y las materias primas fue la creación de una marca o sello, que se usaba para identificar a los creadores o propietarios particulares.

La tecnología también comenzó a manifestar otro de sus efectos, una alteración mayor del entorno por la introducción de nuevas prácticas: por ejemplo, la demanda de leña condujo a la deforestación, y el pastoreo excesivo de ovejas y de ganado vacuno provocó que crecieran menos árboles nuevos en las tierras pobres de la región. Así, la doma de animales, la agricultura de monocultivo, la deforestación y las inundaciones periódicas llevaron a la aparición gradual de áreas desérticas.

El desarrollo de las ciudades

Después del año 4000 a.C. apareció una de las creaciones más complejas de la humanidad: la ciudad. Desde este punto de vista, la tecnología no puede describirse sólo en términos de herramientas simples, avances agrícolas y procesos técnicos como la metalurgia, ya que la ciudad es en sí misma un sistema tecnológico. Éste es un hecho evidente en los primeros símbolos escritos que se usaron para representar una ciudad: un círculo con redes de líneas que indicaban los primeros sistemas de transporte y comunicaciones.

La aparición de la ciudad hizo posible un excedente de alimentos y una abundancia de riqueza material que posibilitó la construcción de templos, tumbas y amurallamientos. La acumulación de metales preciosos, la construcción de murallas defensivas, y el control de los ejércitos y los sacerdotes aseguraron la ascendencia del rey, al que puede denominarse el primer tecnólogo urbano.

Los zigurats de Mesopotamia y las pirámides de Egipto o México simbolizan el poder organizativo y la magnitud tecnológica de los primeros asentamientos urbanos.

La construcción de estas edificaciones y monumentos enormes, el crecimiento del mercado de los productos de metal y el desarrollo de los recursos acuíferos también llevó a una normalización de los sistemas de medida. En Mesopotamia, el codo se convirtió en el patrón de longitud. El tiempo se medía en Egipto con un calendario que dividía el ciclo anual de estaciones en meses y días (véase Arqueoastronomía).

El crecimiento de las ciudades también estimuló una necesidad mayor de escribir. Los egipcios mejoraron la tabla de arcilla, que era difícil de manejar, con la fabricación de un material similar al papel sobre el cual escribían con jeroglíficos. Este material se fabricaba utilizando la planta del papiro. Además, la ciudad provocó una nueva división del trabajo: el sistema de castas. Esta estructura proporcionaba seguridad, estatus social y ocio a la clase intelectual de los escribas, médicos, profesores, ingenieros, magos y adivinadores. Sin embargo, el ejército contaba con los mayores recursos.

El auge del ejército

Las primeras ciudades fueron también construidas dentro de murallas para defenderse; estaban organizadas para la batalla y la conquista. Los centros urbanos de Ur, Nippur, Uruk, Tebas, Heliópolis, Assur, Nínive y Babilonia fueron arsenales de armamento destructivo. El objetivo de una fuerza militar era devastar la ciudad de su enemigo. Ur, en Sumeria, no fue sólo una de las primeras grandes ciudades en alzarse (hacia el 4000 a.C.), sino que también fue una de las primeras destruidas (aproximadamente en el 2000 a.C.). De modo similar, en el valle del Indo, la gran ciudad de Mohenjo-Daro fue fundada sobre el 2500 a.C. y destruida hacia el 1700 a.C. por los ejércitos de carros del norte. El mismo ejemplo se repitió en Perú y en Ecuador hacia el año 1000 a.C. y más tarde en México y Centroamérica.

La tecnología militar del mundo antiguo de desarrolló en tres fases inconexas. En la primera fase, surgió la infantería con sus cascos de piel o de cobre, arcos, lanzas, escudos y espadas. A esta fase le siguió el desarrollo de los carros, que al principio fueron vehículos pesados para el uso de los comandantes. La inclusión posterior de radios en las ruedas para aligerarlas, y un bocado y una brida para el caballo, hizo del carro una máquina de guerra ligera que podía aventajar a la infantería enemiga. La tercera fase se centró en el incremento de la movilidad y la velocidad de la caballería. Los asirios, con su conocimiento del armamento de hierro y sus espléndidos jinetes, dominaron la mayoría del mundo civilizado entre el 1200 y el 612 a.C.

Con la introducción del estribo en Asia, aproximadamente en el siglo II a.C., los jinetes eran capaces de obtener mejor estabilidad en la lucha con espada, e hicieron que los carros de guerra quedaran obsoletos. Las unidades de caballería de ataque rápido, que se observaron primero en Egipto y Persia, se convirtieron en las principales fuerzas militares. Con su aparición surgió la necesidad de mejores transportes y sistemas de comunicación. Los persas fueron los primeros en desarrollar una red de carreteras y estaciones de parada para recorrer su vasto imperio, que se extendía desde el Punjab al mar Mediterráneo.

Tecnología griega y romana

El Imperio persa de Ciro II el Grande fue derrotado y sucedido por el imperio creado por Alejandro Magno (véase Periodo helenístico). Los griegos fueron los primeros en convertirse en una potencia, a través de sus conocimientos en astilleros y comercio, y mediante su colonización de las costas del Mediterráneo. La derrota de los persas se debió en parte al poder naval griego.

Los persas y los griegos también introdujeron una nueva casta dentro de la división del trabajo: la esclavitud. Durante la edad de oro griega, su civilización dependía de los esclavos en todo lo concerniente al trabajo manual. La mayoría de los sabios estaban de acuerdo en que en las sociedades donde se practicaba la esclavitud los problemas de la productividad se resolvían mediante el incremento del número de trabajadores, antes que por los métodos nuevos de producción o nuevas fuentes energéticas. Debido a esto, los conocimientos teóricos y la enseñanza en Grecia (y posteriormente en Roma) estuvieron muy alejados del trabajo físico y de la fabricación.

Esto no quiere decir que los griegos no desarrollaran nuevas ideas tecnológicas. Arquímedes, Herón de Alejandría, Ctesías y Tolomeo escribieron sobre los principios de sifones, poleas, palancas, manivelas, bombas contra incendios, ruedas dentadas, válvulas y turbinas. Algunas contribuciones prácticas importantes de los griegos fueron el reloj de agua de Ctesías, la dioptra (un instrumento de topografía) de Herón de Alejandría y el tornillo hidráulico de Arquímedes. Del mismo modo, Tales de Mileto mejoró la navegación al introducir métodos de triangulación y Anaximandro dio forma al primer mapa del mundo. No obstante, los avances tecnológicos de los griegos no fueron a la par con sus contribuciones al conocimiento teórico.

El Imperio romano que conquistó y sucedió al de los griegos fue similar en este aspecto. Los romanos, sin embargo, fueron grandes tecnólogos en cuanto a la organización y la construcción. Establecieron una civilización urbana que disfrutó del primer periodo largo de paz en la historia de la humanidad. El primer gran cambio que se produjo en este periodo fue en la ingeniería con la construcción de enormes sistemas de obras públicas. Con el uso de cemento resistente al agua y el principio del arco, los ingenieros romanos construyeron 70.800 km de carreteras a través de su vasto imperio. También construyeron numerosos circos, baños públicos y cientos de acueductos, alcantarillas y puentes; asimismo fueron responsables de la introducción del molino de agua y del posterior diseño de ruedas hidráulicas con empuje superior e inferior, que se usaron para moler grano, aserrar madera y cortar mármol. En el ámbito militar, los romanos avanzaron tecnológicamente con la mejora de armas, como la jabalina y la catapulta (véase Artillería).

La edad media

El periodo histórico transcurrido entre la caída de Roma y el renacimiento (aproximadamente del 400 al 1500) se conoce como edad media. En contra de la creencia popular, se produjeron grandes avances tecnológicos en este periodo. Además, las culturas bizantina e islámica que prosperaron en esta época, tuvieron una importante actividad en las áreas de la filosofía natural, el arte, la literatura, la religión, y en particular la cultura islámica aportó numerosas contribuciones científicas, que tendrían gran importancia en el renacimiento europeo. La sociedad medieval se adaptaba fácilmente, y estaba dispuesta a adquirir nuevas ideas y nuevos métodos de producción a partir de cualquier fuente, viniera de las culturas del islam y Bizancio, China, o de los lejanos vikingos.

La guerra y la agricultura

En el área de la guerra, se mejoró la caballería como arma militar, con la invención de la lanza y la silla de montar hacia el siglo IV; se desarrolló también la armadura más pesada, la cría de caballos más grandes y la construcción de castillos. La introducción de la ballesta, y más tarde de la técnica de la pólvora desde China, llevó a la fabricación de pistolas, cañones y morteros (a través del desarrollo de la cámara de explosión), reduciendo de este modo la efectividad de los escudos pesados y de las fortificaciones de piedra.

Una de las máquinas más importantes de la época medieval fue el molino, que no sólo incrementó la cantidad de grano molido y de madera aserrada, sino que también favoreció la formación de molineros expertos en manivelas compuestas, levas y otras técnicas de movimiento de máquinas y combinación de sus partes con otros dispositivos. La rueda de hilado, que se introdujo desde la India en el siglo XIII o XIV, mejoró la producción de hilo y la costura de la ropa y se convirtió en una máquina común en el hogar. El hogar, en sí mismo, también se transformó con la inclusión de una chimenea, que ahorraba la madera cada vez más escasa debido a la expansión agrícola. Hacia el año 1000, los excedentes agrícolas, debidos a varias mejoras en el arado, llevaron a un incremento del comercio y al crecimiento de las ciudades. En éstas se desarrollaron las innovaciones arquitectónicas de muchos reinos, para culminar en grandiosas catedrales góticas de altos muros, posibles gracias a los arbotantes.

El transporte

Las innovaciones en el transporte durante la edad media ampliaron la difusión de la tecnología a través de grandes áreas. Algunos elementos como la herradura, el árbol de varas (para enjaezar de forma efectiva los caballos a los carros) y el coche de caballos aceleraron el transporte de personas y mercancías. Se produjeron también cambios importantes en la tecnología marina. El desarrollo de la quilla, la vela latina triangular para una mayor maniobrabilidad, y de la brújula magnética (en el siglo XIII) hicieron de los barcos veleros las máquinas más complejas de la época. El príncipe Enrique de Portugal creó una escuela para enseñar a los navegantes cómo usar correctamente estas máquinas. Quizás los estudiantes del príncipe Enrique hicieron más de lo que habían hecho las teorías astronómicas de Copérnico, al cambiar la percepción que tenía la humanidad del mundo (véase Navegación).

Otros inventos importantes

Otros dos inventos medievales, el reloj y la imprenta, tuvieron gran influencia en todos los aspectos de la vida humana. La invención de un reloj con péndulo en 1286 hizo posible que la gente no siguiera viviendo en un mundo estructurado diariamente por el curso del Sol, y cada año por el cambio de estaciones. El reloj fue además una ayuda inmensa para la navegación, y la medida precisa del tiempo fue esencial para el desarrollo de la ciencia moderna.

La invención de la imprenta, a su vez, provocó una revolución social que no se ha detenido todavía. Los chinos habían desarrollado tanto el papel como la imprenta antes del siglo II d.C., pero esas innovaciones no alcanzaron demasiada expansión en el mundo occidental hasta mucho más tarde. El pionero de la imprenta, el alemán Johann Gutenberg, solucionó el problema del moldeo de tipos móviles en el año 1450. Una vez desarrollada, la imprenta se difundió rápidamente y comenzó a reemplazar a los textos manuscritos. De este modo, la vida intelectual no continuó siendo dominio de la Iglesia y el Estado, y la lectura y la escritura se convirtieron en necesidades de la existencia urbana.

La tecnología en la edad moderna

Al final de la edad media, los sistemas tecnológicos denominados ciudades hacía mucho que eran la característica principal de la vida occidental. En 1600, Londres y Amsterdam tenían poblaciones superiores a 100.000 habitantes, y París duplicaba esa cantidad. Además, los alemanes, los ingleses, los españoles y los franceses comenzaron a desarrollar imperios mundiales. A principios del siglo XVIII, los recursos de capital y los sistemas bancarios estaban lo suficientemente bien establecidos en Gran Bretaña como para iniciar la inversión en las técnicas de producción en serie que satisfarían algunas de esas aspiraciones de la clase media.

La Revolución Industrial

Comenzó en Inglaterra porque este país tenía los medios técnicos precisos, un fuerte apoyo institucional y una red comercial amplia y variada. Los cambios económicos, incluida una mayor distribución de la riqueza y un aumento del poder de la clase media, la pérdida de importancia de la tierra como fuente fundamental de riqueza y poder, y los negocios oportunistas, contribuyeron a que la Revolución Industrial comenzara en Gran Bretaña. Las primeras fábricas aparecieron en 1740, concentrándose en la producción textil (véase Sistema industrial). En esa época, la mayoría de los ingleses usaban prendas de lana, pero en 100 años las prendas de lana ásperas se vieron desplazadas por el algodón, especialmente tras la invención de la desmotadora de algodón del estadounidense Eli Whitney en 1793. Algunas inventos británicos, como la cardadora y las máquinas de lanzadera volante de John Kay, la máquina de hilar algodón de James Hargreaves y las mejoras en los telares realizadas por Samuel Cromptom fueron integrados con una nueva fuente de potencia: la máquina de vapor, desarrollada en Gran Bretaña por Thomas Newcomen, James Watt y Richard Trevithick, y en Estados Unidos por Oliver Evans. En un periodo de 35 años, desde la década de 1790 hasta la de 1830, se pusieron en marcha en las islas Británicas más de 100.000 telares mecánicos.

Una de las innovaciones más importantes en el proceso de telares fue introducida en Francia en 1801 por Joseph Jacquard. Su telar usaba tarjetas con perforaciones para determinar la ubicación del hilo en la urdimbre. El uso de las tarjetas perforadas inspiró al matemático Charles Babbage para intentar diseñar una máquina calculadora basada en el mismo principio. A pesar de que la máquina no se convirtió nunca en realidad, presagiaba la gran revolución de las computadoras de la última parte del siglo XX.

Nuevas prácticas laborales

La Revolución Industrial condujo a un nuevo modelo de división del trabajo, creando la fábrica moderna, una red tecnológica cuyos trabajadores no necesitan ser artesanos y no tienen que poseer conocimientos específicos. Por ello, la fábrica introdujo un proceso de remuneración impersonal basado en un sistema de salarios. Como resultado de los riesgos financieros asumidos por los sistemas económicos que acompañaban a los desarrollos industriales, la fábrica condujo también a los trabajadores a la amenaza constante del despido.

El sistema de fábricas triunfó después de una gran resistencia por parte de los gremios ingleses y de los artesanos, que veían con claridad la amenaza sobre sus ingresos y forma de vida. En la fabricación de mosquetes, por ejemplo, los armeros lucharon contra el uso de partes intercambiables y la producción en serie de rifles. Sin embargo, el sistema de fábricas se convirtió en una institución básica de la tecnología moderna, y el trabajo de hombres, mujeres y niños se convirtió en otra mera mercancía dentro del proceso productivo. El montaje final de un producto (ya sea una segadora mecánica o una máquina de coser) no es el trabajo de una persona, sino el resultado de un sistema integrado y colectivo. Esta división del trabajo en operaciones, que cada vez se especificaba más, llegó a ser la característica determinante del trabajo en la nueva sociedad industrial, con todas las horas de tedio que esto supone.

Aceleración de las innovaciones

Al aumentar la productividad agrícola y desarrollarse la ciencia médica, la sociedad occidental llegó a tener gran fe en lo positivo del cambio tecnológico, a pesar de sus aspectos menos agradables. Algunas realizaciones de ingeniería como la construcción del canal de Suez, el canal de Panamá y la torre Eiffel (1889) produjeron orgullo y, en gran medida, asombro. El telégrafo y el ferrocarril interconectaron la mayoría de las grandes ciudades. A finales del siglo XIX, la bombilla (foco) inventada por Thomas Alva Edison comenzó a reemplazar a las velas y las lámparas. En treinta años todas las naciones industrializadas generaban potencia eléctrica para el alumbrado y otros sistemas.

Algunos inventos del siglo XIX y XX, como el teléfono, la radio, el automóvil con motor y el aeroplano sirvieron no sólo para mejorar la vida, sino también para aumentar el respeto universal que la sociedad en general sentía por la tecnología. Con el desarrollo de la producción en serie con cadenas de montaje para los automóviles y para aparatos domésticos, y la invención aparentemente ilimitada de más máquinas para todo tipo de tareas, la aceptación de las innovaciones por parte de los países más avanzados, sobre todo en Estados Unidos, se convirtió no sólo en un hecho de la vida diaria, sino en un modo de vida en sí mismo. Las sociedades industriales se transformaron con rapidez gracias al incremento de la movilidad, la comunicación rápida y a una avalancha de información disponible en los medios de comunicación.

La I Guerra Mundial y la Gran Depresión

Forzaron un reajuste de esta rápida explosión tecnológica. El desarrollo de los submarinos, armas, acorazados y armamento químico hizo ver más claramente la cara destructiva del cambio tecnológico. Además, la tasa de desempleados en todo el mundo y los desastres provocados por las instituciones capitalistas en la década de 1930 suscitaron en algunos sectores la crítica más enérgica sobre los beneficios que resultaban del progreso tecnológico.

Con la II Guerra Mundial

LLegó el desarrollo del arma que desde entonces constituye una amenaza general para la vida sobre el planeta: la bomba atómica. El gran programa para fabricar las primeras bombas atómicas durante la guerra, el Proyecto Manhattan, fue el esfuerzo tecnológico más grande y más caro de la historia hasta la fecha. Este programa abrió una época no sólo de armamento de destrucción en masa, sino también de ciencia de alto nivel, con proyectos tecnológicos a gran escala, que a menudo financiaban los gobiernos y se dirigían desde importantes laboratorios científicos. Una tecnología más pacífica surgida de la II Guerra Mundial (el desarrollo de las computadoras, transistores, electrónica y las tendencias hacia la miniaturización) tuvo un efecto mayor sobre la sociedad (véase Microprocesador). Las enormes posibilidades que se ofrecían se fueron convirtiendo rápidamente en realidad; esto trajo consigo la sustitución de la mano de obra por sistemas automatizados y los cambios rápidos y radicales en los métodos y prácticas de trabajo.

Logros y beneficios tecnológicos

Dejando a un lado los efectos negativos, la tecnología hizo que las personas ganaran en control sobre la naturaleza y construyeran una existencia civilizada. Gracias a ello, incrementaron la producción de bienes materiales y de servicios y redujeron la cantidad de trabajo necesario para fabricar una gran serie de cosas. En el mundo industrial avanzado, las máquinas realizan la mayoría del trabajo en la agricultura y en muchas industrias, y los trabajadores producen más bienes que hace un siglo con menos horas de trabajo. Una buena parte de la población de los países industrializados tiene un mejor nivel de vida (mejor alimentación, vestimenta, alojamiento y una variedad de aparatos para el uso doméstico y el ocio). En la actualidad, muchas personas viven más y de forma más sana como resultado de la tecnología.

En el siglo XX los logros tecnológicos fueron insuperables, con un ritmo de desarrollo mucho mayor que en periodos anteriores. La invención del automóvil, la radio, la televisión y teléfono revolucionó el modo de vida y de trabajo de muchos millones de personas. Las dos áreas de mayor avance han sido la tecnología médica, que ha proporcionado los medios para diagnosticar y vencer muchas enfermedades mortales, y la exploración del espacio (véase Astronáutica), donde se ha producido el logro tecnológico más espectacular del siglo: por primera vez los hombres consiguieron abandonar y regresar a la biosfera terrestre.

Efectos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos resultados de la tecnología que también poseen aspectos destructivos y perjudiciales. De la década de 1970 a la de 1980, el número de estos resultados negativos ha aumentado y sus problemas han alcanzado difusión pública. Los observadores señalaron, entre otros peligros, que los tubos de escape de los automóviles estaban contaminando la atmósfera, que los recursos mundiales se estaban usando por encima de sus posibilidades, que pesticidas como el DDT amenazaban la cadena alimenticia, y que los residuos minerales de una gran variedad de recursos industriales estaban contaminando las reservas de agua subterránea. En las últimas décadas, se argumenta que el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen. Véase Lluvia ácida; Contaminación atmosférica; Conservación; Ecología; Capa de ozono; Lluvia radiactiva. Los problemas originados por la tecnología son la consecuencia de la incapacidad de predecir o valorar sus posibles consecuencias negativas. Se seguirán sopesando las ventajas y las desventajas de la tecnología, mientras se aprovechan sus resultados.

Alternativas propuestas

El concepto denominado tecnología apropiada, conveniente o intermedia se acepta como alternativa a los problemas tecnológicos de las naciones industrializadas y, lo que es más importante, como solución al problema del desequilibrio social provocado por la transferencia de tecnologías avanzadas a países en vías de desarrollo. Se dice que el carácter arrollador de la tecnología moderna amenaza a ciertos valores, como la calidad de vida, la libertad de elección, el sentido humano de la medida y la igualdad de oportunidades ante la justicia y la creatividad individual. Los defensores de este punto de vista proponen un sistema de valores en el que las personas reconozcan que los recursos de la Tierra son limitados y que la vida humana debe reestructurarse alrededor del compromiso de controlar el crecimiento de la industria, el tamaño de las ciudades y el uso de la energía. La restauración y la renovación de los recursos naturales son los principales objetivos tecnológicos.

Además se ha argumentado que, como la sociedad moderna ya no vive en la época industrial del siglo XIX y principios del XX (y que la sociedad postindustrial es ya una realidad), las redes complejas posibles gracias a la electrónica avanzada harán obsoletas las instituciones de los gobiernos nacionalistas, las corporaciones multinacionales y las ciudades superpobladas.

La tecnología ha sido siempre un medio importante para crear entornos físicos y humanos nuevos. Sólo durante el siglo XX se hizo necesario preguntar si la tecnología destruiría total o arcialmente la civilización creada por el ser humano.

Perspectivas

A lo largo del siglo XX la tecnología se extendió desde Europa y Estados Unidos a otras naciones importantes como Japón y la antigua Unión Soviética, pero en ningún caso lo hizo a todos los países del mundo. Muchos de los países de los denominados en vías de desarrollo no han experimentado nunca el sistema de fábricas ni otras instituciones de la industrialización, y muchos millones de personas sólo disponen de la tecnología más básica. La introducción de la tecnología occidental ha llevado a menudo a una dependencia demasiado grande de los productos occidentales. Para la población de los países en vías de desarrollo que depende de la agricultura de subsistencia tiene poca relevancia este tipo de tecnologías. En los últimos años, grupos de ayuda occidentales han intentado desarrollar tecnologías apropiadas, usando las técnicas y materiales de los pueblos indígenas.

Internacional

Nombre común de varias asociaciones creadas para unir a las organizaciones socialistas y comunistas de todo el mundo.

La Primera Internacional

En 1864 representantes de los obreros fabriles ingleses y franceses fundaron, en Londres, la Asociación Internacional de Trabajadores, que aspiraba a acabar con el sistema capitalista. Karl Marx, que vivía en Londres por esos años, fue elegido miembro del Consejo General provisional de la Internacional y se convirtió en la figura predominante en el seno de la Internacional, redactó sus estatutos y un discurso inaugural muy cuidado concebido para salvaguardar la unidad de los objetivos.

Sin embargo, desde el principio, los anarquistas de Pierre Joseph Proudhon y Mijaíl Bakunin se opusieron al modelo de Marx de un Estado centralizado dominado por los trabajadores. Bakunin precipitó una crisis en la organización al denunciar la actitud despótica de Marx y hacer un llamamiento para crear una Internacional "antiautoritaria". En el Congreso de la Haya de 1872, Marx salió victorioso y Bakunin fue expulsado de la Internacional. Tras la ruptura entre marxistas y anarquistas, sin embargo, se tomó la decisión de trasladar el Consejo General a los Estados Unidos, donde tuvo una existencia gris hasta que fue formalmente disuelto en 1876. A pesar de que la Primera Internacional provocó inquietud en los círculos políticos de la derecha europea, nunca contó con más de 25.000 miembros.

La Segunda Internacional

En 1889, centenario del comienzo de la Revolución Francesa, se celebraron dos congresos socialistas en París. Uno, inspirado en el Manifiesto Comunista de Marx, creó la que más tarde se conocería como la Segunda Internacional. La nueva organización, una vaga federación de partidos de masas, creó en 1900 un centro de coordinación, la Oficina Internacional Socialista (Bruselas). Hasta la I Guerra Mundial, la Segunda Internacional se reunió nueve veces en intervalos irregulares. En el Congreso de Londres de 1896, fueron expulsados los anarquistas, dejando a los marxistas, "sobre todo a los alemanes", en una posición de liderazgo incontestable. Éstos, a pesar de que seguían proclamando las teorías revolucionarias de Marx, buscaban la reforma dentro del marco legal alemán.

Numerosos marxistas franceses adoptaron el mismo acercamiento. En 1899 el socialista francés Alexandre Millerand aceptó la cartera de Comercio en el gabinete no socialista de René Waldeck-Rousseau. Ese mismo año, el líder socialista alemán Eduard Bernstein publicó su Socialismo Evolutivo, una revisión de la doctrina marxista donde rechazaba la inevitabilidad de la revolución y proponía la colaboración con los partidos no marxistas para alcanzar las metas socialistas. Karl Kautsky, líder de los marxistas ortodoxos alemanes, se opuso a los planteamientos de Bernstein.

Un conflicto paralelo minó los esfuerzos de la Internacional para evitar una guerra en Europa. Comprometidos ideológicamente con la paz y el internacionalismo, los socialistas europeos no podían aceptar la derrota militar de sus propias naciones, dentro de las cuales constituían subculturas reconocidas. Cuando la I Guerra Mundial estalló en 1914, las lealtades nacionales demostraron ser más fuertes que los compromisos de clase y la mayoría de los socialistas respaldó los esfuerzos de guerra de sus respectivos gobiernos. Esto supuso el fin de la Segunda Internacional, a pesar de que hasta 1920 los esfuerzos para revivir la organización no se abandonaron.

La Tercera Internacional

En marzo de 1919, tras la Revolución Rusa, Lenin, el líder bolchevique del nuevo gobierno soviético, organizó otra Internacional, popularmente conocida como la Internacional Comunista, o Komintern, para impulsar la revolución mundial según el modelo comunista ruso. El Congreso Fundacional eligió como presidente a Grígori Zinóviev, uno de los lugartenientes de Lenin, y designó una comisión ejecutiva para asegurar la continuidad entre congresos. El Segundo Congreso, de 1920, adoptó 21 condiciones para el ingreso que reflejaban la insistencia de Lenin en la obediencia total y su desprecio por el socialismo reformista de la Segunda Internacional.

Cuando Lenin murió en 1924, la corriente revolucionaria había retrocedido en Europa y los sueños de una revolución socialista mundial dejaron paso a las ideas más nacionalistas de su sucesor, Iósiv Stalin. Para Stalin, el Komintern era poco más que un medio de proteger su poder absoluto en el interior y de aumentar cada vez más la influencia soviética en el exterior. Los radicales y aparentemente inexplicables cambios en la política del Komintern, especialmente en lo relacionado con la cooperación con los no comunistas, eran dictados por las intrigas intestinas y las estrategias de política exterior de Stalin. Como concesión a sus aliados estadounidenses y británicos durante la II Guerra Mundial, Stalin no dudó en disolver el Komintern en mayo de 1943.

La Cuarta Internacional

La Cuarta Internacional, de menor importancia en comparación, fue fundada en 1938 por Trotski y sus seguidores en la oposición a Stalin. Tras el asesinato de Trotski, en 1940, estuvo controlada por los comunistas belgas, cuyos profundos desacuerdos la llevaron a disgregarse en 1953.

La Oficina de Información Comunista (Kominform)

En octubre de 1947 la Unión de Repúblicas Socialistas Soviéticas (URSS) organizó en Polonia una reunión de los partidos comunistas de nueve países: la URSS, Bulgaria, Checoslovaquia, Hungría, Polonia, Rumania, Yugoslavia, Francia e Italia. En esa cita se creó la Kominform, aparentemente como una agencia de información sobre asuntos comunes, pero en la realidad como un instrumento de la política de Stalin, especialmente en Yugoslavia, donde el líder comunista Tito estaba adoptando líneas de actuación independientes. A pesar de que la sede de la Kominform se instaló inicialmente en Belgrado, la determinación de Tito de mantener la independencia de Yugoslavia provocó la expulsión de su partido en junio de 1948. El 17 de abril de 1956, se disolvió la Kominform como parte de los esfuerzos de Nikita Kruschev para hacer posible una reconciliación soviético-yugoslava.

El fracaso de las Internacionales se debe en gran medida a las inherentes contradicciones entre la teoría de la solidaridad universal de la clase trabajadora y la realidad de la rivalidad nacional dentro del movimiento socialista. Después de la II Guerra Mundial, socialistas y comunistas intentaron identificarse, en la teoría y en la práctica, con las tradiciones y aspiraciones nacionales propias.

Industrialización

En economía, etapas de crecimiento o decrecimiento del peso del sector industrial. El proceso de industrialización describe el periodo transitorio de una sociedad agrícola a una industrial. Por el contrario, la desindustrialización puede definirse como la etapa de crecimiento económico caracterizada por una disminución del peso relativo del sector industrial en términos de producción y empleo.

Industrialización el proceso de industrialización comprende la transición desde una sociedad agrícola a una industrial, acompañada de un crecimiento de la renta per cápita y de la productividad. Para que esto pueda ocurrir, la oferta de productos agrícolas tiene que satisfacer la demanda. Se ha demostrado que, en los primeros estadios de desarrollo de una economía, la demanda de productos agrícolas es elástica (cuando aumentan los ingresos aumenta la demanda de los mismos). Para que el proceso de industrialización sea sostenido y viable es necesario que la creciente petición de productos agrícolas se satisfaga, bien mediante importaciones, bien mediante aumentos en la productividad agrícola nacional. En las primeras etapas del proceso de industrialización, la capacidad para satisfacer la demanda de productos agrícolas mediante un aumento de las importaciones es limitada debido a los efectos que tendría sobre los precios internacionales relativos. Si la demanda de alimentos de importación es elevada, la relación real de intercambio podría cambiar y afectaría de modo negativo al país que está iniciando su proceso de industrialización, hasta el punto que se podría llegar a lo que se conoce como 'crecimiento empobrecedor', una situación en la que la renta real per cápita disminuye porque todos los aumentos de productividad se utilizan en financiar la demanda de productos importados. Por ello, un proceso de industrialización efectivo requiere que aumente la productividad agrícola nacional siendo una condición necesaria para que el crecimiento de la industria moderna sea viable. Aunque se suele admitir que la revolución industrial suele estar precedida por un periodo de protoindustrialización, se considera que los modernos procesos de industrialización se iniciaron durante la experiencia británica del siglo XVIII. Durante los siglos XIX y XX otros países han experimentado procesos semejantes. Durante el siglo XIX la industrialización se produjo en una serie de países del norte de Europa y del norte de América. A finales de ese siglo el proceso industrializador se desarrolló en algunos países del sur de Europa y Japón. Durante el siglo XX, sobre todo a partir de la II Guerra Mundial, algunos países de Oriente han experimentado un proceso similar. En los siguientes apartados se describen tres modelos que reflejan los distintos procesos de industrialización y se analiza su capacidad para explicar la evidencia empírica disponible.

La teoría del despegue (take-off) de Rostow

Walt Whitman Rostow analizó la industrialización británica y la de otros países en los que se produjo con posteridad. Defendía que para que el proceso de industrialización tuviera éxito había que cumplir una serie de requisitos previos: una alta productividad agrícola, la existencia de mercados y cierta estabilidad política que permitiera establecer una legislación favorable. Si estos tres requisitos se cumplían, el proceso se iniciaría con un periodo de despegue (take-off), una etapa de 20 a 30 años en la que se lograría la industrialización acelerada y progresiva del país. Puesto que los países cumplen estos requisitos en distintos momentos históricos, la industrialización de cada uno de ellos se produjo en épocas distintas. En el modelo de Rostow se da por hecho que los países atraviesan las mismas etapas de desarrollo. Gran Bretaña fue el primer país en despegar durante el periodo 1780-1800, seguido por Francia, Alemania y Estados Unidos durante el siglo XIX. Al ser una teoría general, la teoría de la industrialización de Rostow no puede explicar la experiencia propia de los países que analiza. Los últimos estudios sobre la revolución industrial británica sugieren que la teoría del despegue durante el periodo 1780 y 1800 es inexacta, por el contrario, la economía británica experimentó un paulatino proceso de industrialización a lo largo de los siglos XVIII y XIX. La experiencia de las economías europeas continentales también contradice la teoría del despegue. Los procesos de industrialización fueron procesos continuados acaecidos a lo largo de todo el siglo XIX, y aunque el ritmo de desarrollo fue desigual, parece inexacto limitar el proceso de desarrollo a un periodo concreto.

La teoría del atraso relativo de Gerschenkron

Alexander Gerschenkron rechazaba el historicismo del modelo de take-off de Rostow debido a su debilidad teórica y empírica. Para suplir estas deficiencias creó el concepto de atraso relativo, afirmando que el proceso de desarrollo de un país de industrialización tardía diferirá, debido a su atraso, del experimentado por el país más desarrollado; en este sentido, la historia desempeña un papel importante a la hora de determinar el patrón de industrialización. Para Gerschenkron, el país de industrialización tardía tendrá las siguientes características: un rápido e intenso crecimiento de la producción industrial; un predominio de la producción de bienes de capital sobre la producción de bienes de consumo, lo que presiona sobre la demanda de consumo de la población; un predominio de empresas y fábricas de gran tamaño; una dependencia de la tecnología y la financiación exterior; importancia del Estado como promotor del desarrollo industrial; crecimiento de los movimientos ideológicos favorecedores del proceso industrializador y escasa importancia de la agricultura en cuanto al aumento de su productividad y como fuente de demanda de productos industriales.

Sin embargo, los estudios empíricos sobre la industrialización de las economías europeas no responden a este modelo de desarrollo. Por ejemplo, el papel de los bancos para financiar la industria durante el siglo XIX es muy distinto en Francia respecto a Alemania, aunque los dos países podían considerarse, en aquella época, como economías relativamente atrasadas. Por analogía, tampoco ha podido demostrarse el postulado que afirma que el país atrasado experimentará un rápido crecimiento productivo (predominando la producción de bienes de capital que presionan al alza el consumo de la población). Francia, al igual que el Imperio Austro-Húngaro, experimentó una pauta de industrialización estable. No obstante, el planteamiento general de Gerschenkron arroja alguna luz sobre el proceso de industrialización: casi todos los economistas aceptan que las circunstancias históricas determinan el modelo de industrialización. El principal problema radica en establecer las relaciones entre industrialización temprana y tardía.

Modelos de industrialización de recuperación o catching-up

Durante los últimos años, los economistas han intentado explicar los procesos de industrialización tardíos en un marco de análisis en el que se considera que el crecimiento está enfocado a recuperar el tiempo perdido. En este sentido, las nuevas teorías parten del planteamiento de Gerschenkron que subraya los condicionantes históricos que afectan a los países menos industrializados. Los países que inician de modo tardío el proceso de industrialización pueden imitar las tecnologías existentes en los países más desarrollados, lo que les permite alcanzar enseguida un desarrollo económico y recuperar el tiempo perdido logrando las mismas tasas de productividad aparente (productividad por trabajador) que los países más desarrollados.

Esta teoría predice que los niveles de renta per cápita de los países pobres tenderá a converger con las de los países ricos, lo que ha sido contrastado de forma empírica. Destacan dos conclusiones: en primer lugar, existe una fuerte tendencia a converger entre las economías más desarrolladas (agrupados en la OCDE). En segundo lugar, si se analizan los países más pobres la hipótesis es falsa, pues muchos no han logrado recuperar el atraso histórico y converger con los países ricos; la recuperación del atraso no es un proceso de evolución histórica que afecte a todo el mundo.

Para comprender por qué los procesos de recuperación sólo funcionan en las economías desarrolladas Moses Abramovitz creó el concepto de capacidad social. Una condición necesaria para poder alcanzar a las economías más desarrolladas consiste en disponer de una capacidad social mínima: las economías más atrasadas tienen que tener una sociedad capacitada para poder adoptar y asimilar las nuevas tecnologías creadas en los países industrializados. Si no disponen de un capital humano suficiente (debido a una escasa inversión en educación, o por la existencia de sistemas políticos inestables) el proceso de industrialización no podrá despegar. Por lo tanto, es improbable que todos los países puedan alcanzar los mismos niveles de productividad. A partir de aquí, hay que intentar comprender cómo se puede mejorar la capacidad social para que los países pobres puedan aprovechar sus potencialidades y alcanzar el grado de industrialización de las economías más desarrolladas.

Desindustrialización

Si definimos la desindustrialización como el periodo de crecimiento económico en el que el peso relativo del sector industrial en términos de producción y empleo disminuye, no tiene por qué implicar una caída del nivel de empleo o de producción industrial, aunque durante los últimos años algunas economías han padecido este fenómeno. Centrándonos en el proceso de industrialización de Gran Bretaña, quizá el más emblemático desde las perspectivas histórica y económica, podemos distinguir tres etapas: una primera etapa de fuerte industrialización que abarcó el periodo 1700-1850; una segunda etapa de madurez industrial entre 1850 y 1955 y una etapa de desindustrialización iniciada en 1955. Se dan sorprendentes similitudes entre los procesos de industrialización y desindustrialización. Para que se produzca este último es necesario que la demanda de productos industriales (que tiene una alta elasticidad en función de la renta) se cubra. Si la economía no quiere correr el riesgo de tener problemas de balanza de pagos, la demanda debe cubrirse con aumentos de productividad en el sector industrial.

Observaciones empíricas

Se han observado procesos de desindustrialización en los principales países industriales desde la II Guerra Mundial. Es necesario explicar algunos de los aspectos más relevantes de este proceso. Aunque se ha observado cierta desindustrialización en varios países industrializados, el periodo de decrecimiento del peso relativo del empleo y la producción industrial varía mucho según los casos. En el caso británico, resulta interesante en tanto en cuanto el proceso de desindustrialización se produjo mucho antes que en el resto de países industrializados (a mediados de la década de 1950). El ritmo de desindustrialización no ha sido estable. Por ejemplo, el proceso en Gran Bretaña se aceleró durante la década de 1980. El desigual ritmo de desindustrialización nos permite distinguir entre desindustrialización positiva y desindustrialización negativa. Se puede afirmar que si el proceso viene acompañado de aumentos de productividad, crecimiento y pleno empleo, se considera que el proceso es positivo; sin embargo, si viene acompañado de un lento crecimiento de la productividad y de mayor desempleo el proceso será negativo.

Explicaciones de la desindustrialización

Se puede encontrar una teoría general sobre los procesos de desindustrialización en la denominada 'ley de Baumol'. Dada la alta elasticidad en función de la renta de la demanda de productos industriales y de servicios, en las economías industrializadas (en las que el sector agrícola ha perdido importancia relativa), los dos sectores anteriores compiten para poder lograr el factor trabajo que necesitan y que resulta escaso. William Baumol afirmaba que, puesto que el sector servicios experimenta crecimientos de productividad menores respecto al sector industrial, en condiciones de libre mercado los precios relativos aumentarán más en el sector servicios (tanto para el mercado de bienes como para el de trabajo), lo que le permite atraer a los trabajadores del sector industrial.

Esta teoría explica ciertas observaciones empíricas mencionadas antes. Por ejemplo, puesto que Gran Bretaña fue la primera región industrializada, el sector agrícola de su economía tiene una estructura única en el mundo y a finales del siglo XIX era mucho menor que en el resto de las economías industrializadas de la época (incluyendo Francia, Alemania y Estados Unidos). Por lo tanto, la teoría de Baumol predice que las presiones desindustrializadoras aparecerán antes en Gran Bretaña que en el resto del mundo industrializado.

Otro aspecto característico del proceso desindustrializador padecido por Gran Bretaña se refiere al ritmo de decrecimiento relativo de la producción industrial respecto al resto de países. La mayor tasa de desindustrialización de Gran Bretaña puede explicarse de forma parcial debido a los cambios en la especialización productiva internacional. Durante la mayor parte del siglo XIX, la ventaja comparativa de Gran Bretaña permitía que tuviera excedentes en los productos industriales, teniendo déficit en los demás sectores productivos. Esta situación perduró hasta la década de 1950. Sin embargo, a principios de la década de 1980 la situación era radicalmente opuesta. El ritmo de desindustrialización británica durante el periodo 1955-1980 se explica a partir de los cambios estructurales en los procesos productivos y del descubrimiento de petróleo en el mar del Norte en la década de 1970, que permitieron a Gran Bretaña prescindir de sus excedentes industriales para financiar sus déficit en productos no industriales; el cambio estructural se vio acelerado por estos acontecimientos.

La importancia de la evidencia empírica

Hasta ahora hemos analizado la desindustrialización como un proceso económico a largo plazo. Aunque este tipo de análisis permite explicar algunas observaciones empíricas, no explica con detalle algunos de los hechos históricos acontecidos. Tomemos dos ejemplos para ilustrar la complejidad de las actuales pautas de desindustrialización. En primer lugar, aunque el peso relativo del sector industrial en Gran Bretaña se ha mantenido estable entre 1870 y 1913, se puede observar un crecimiento durante el periodo 1920-1955. En segundo lugar, durante la década de 1980, el ritmo de desindustrialización en Gran Bretaña se ha acelerado, en parte debido a las políticas monetarias restrictivas que se emprendieron durante esos años. Esta tendencia también se observa en otros países, como Alemania, Francia y Estados Unidos. Este cambio de tendencias sugiere que algunos acontecimientos (como los cambios de política económica) y algunos procesos a largo plazo (como los descritos por la ley de Baumol) tienen que analizarse de forma conjunta. Por ejemplo, en el caso de Gran Bretaña, durante el periodo 1920-1955, una serie de medidas de política económica mejoraron la eficiencia del sector industrial nacional (entre éstas hay que destacar la devaluación de 1931 y la imposición de aranceles en 1932). Por el contrario, a principios de la década de 1980 la política monetaria restrictiva presionó al alza los tipos de cambio, lo que tuvo efectos perjudiciales sobre la competitividad internacional de la industria británica.

Esta interacción entre política económica y desindustrialización plantea serias dudas sobre la inevitabilidad de las tendencias observadas. El nivel de desindustrialización actual es el resultado de dos procesos históricos independientes: en primer lugar, el cambio estructural a largo plazo debido a la madurez del sector industrial, y en segundo lugar, la discrecionalidad de las decisiones de política económica puede aumentar o disminuir el peso relativo del sector industrial de una economía.

Día de la Tierra,

Celebrado internacionalmente por primera vez el 22 de abril de 1970, para subrayar la necesidad de la conservación de los recursos naturales del mundo. Surgido como un movimiento universitario y celebrado por primera vez el 21 de marzo, el día de la Tierra se ha convertido en un importante acontecimiento educativo e informativo. Los grupos ecologistas lo utilizan como ocasión para evaluar los problemas medioambientales del planeta: la contaminación del aire, agua y suelos, la destrucción de ecosistemas, los cientos de miles de plantas y especies animales diezmadas, y el agotamiento de recursos no renovables. Se insiste en soluciones que permitan eliminar los efectos negativos de las actividades humanas. Estas soluciones incluyen el reciclado de materiales manufacturados, preservación de recursos naturales como el petróleo y la energía, la prohibición de utilizar productos químicos dañinos, el fin de la destrucción de hábitats fundamentales como los bosques húmedos y la protección de especies amenazadas.

Amigos de la Tierra

Organización internacional que lucha por la protección del medio ambiente. Fue fundada en 1971 por los diversos grupos nacionales de Amigos de la Tierra (del inglés, Friends of the Earth, FoE) de Francia, Alemania, Suecia, Reino Unido y Estados Unidos. Su sede central se encuentra en Amsterdam (Países Bajos). El total de sus miembros en 1994 ascendía a 14 millones de personas, pertenecientes a 50 países. Los objetivos declarados de la organización son proteger la Tierra de su deterioro, remediar los daños causados por las actividades humanas, salvaguardar los recursos naturales, promover el desarrollo sostenible y preservar la diversidad étnica, cultural y ecológica del planeta a través de la educación pública, la presión política, la propaganda, las protestas pacíficas, y, en algunas ocasiones, la acción directa. Sus campañas incluyen una creciente concienciación sobre la contaminación del aire y el agua, el daño en la capa de ozono, el cambio climático, el riesgo nuclear, la deforestación y la vida marina en peligro de extinción.

La Tierra y el espacio

Astronáutica

Ciencia e ingeniería de viajes espaciales, tripulados o no. La exploración del espacio o astronáutica es una ciencia interdisciplinaria que se apoya en conocimientos de otros campos, como física, astronomía, matemáticas, química, biología, medicina, electrónica y meteorología.

Las sondas espaciales han aportado una enorme cantidad de datos científicos sobre la naturaleza y origen del Sistema Solar y del Universo (véase Cosmología). Los satélites que giran en la órbita terrestre han contribuido a mejorar las comunicaciones, la predicción del tiempo, la ayuda a la navegación y el reconocimiento de la superficie terrestre para la localización de recursos minerales, además de los usos militares.

La era espacial y la astronáutica práctica arrancan con el lanzamiento del Sputnik 1 por la Unión de Repúblicas Socialistas Soviéticas (URSS) en octubre de 1957, y con el del Explorer 1 por Estados Unidos en enero de 1958. En octubre de 1958 se creó en Estados Unidos la NASA. En las dos décadas siguientes se han llegado a lanzar más de 1.600 naves espaciales de todo tipo, la mayoría de ellas en la órbita terrestre. Sobre la superficie de la Luna han estado doce hombres, regresando después a la Tierra. En el año 1986 había varios miles de objetos girando alrededor de la Tierra, en su mayoría restos de cohetes y equipos de sus fases de lanzamiento, y otros materiales semejantes. Hay unos 300 satélites y sondas espaciales en funcionamiento.

Física del espacio

El límite entre la atmósfera terrestre y el espacio exterior es difuso y no está bien definido. Al disminuir gradualmente la densidad del aire con la altitud, el aire de las capas superiores de la atmósfera es tan tenue que se confunde con el espacio. A 30 km sobre el nivel del mar, la presión barométrica es un octavo de la presión a nivel del mar. A 60 km sobre el nivel del mar, es 1/3.600; a 90 km es 1/400.000. Incluso a una altitud de 200 km hay la suficiente masa atmosférica como para frenar los satélites artificiales, debido a la resistencia aerodinámica, por lo que los satélites de larga vida han de alcanzar órbitas de gran altitud.

La radiación en el espacio

Tradicionalmente se ha asociado el espacio con el vacío. Sin embargo el espacio está ocupado por cantidades pequeñas de gases como el hidrógeno, y pequeñas cantidades de polvo de meteoritos y meteoros (véase Meteoro; Meteorito). El espacio está atravesado por rayos X, radiación ultravioleta, radiación luminosa y rayos infrarrojos procedentes del Sol. En el espacio hay también rayos cósmicos, compuestos principalmente de protones, partículas alfa y núcleos pesados.

Gravitación

La ley de la gravitación universal establece que cada partícula de la materia del Universo atrae a otra partícula con una fuerza directamente proporcional al producto de sus masas, e inversamente proporcional al cuadrado de la distancia que las separa. En consecuencia, la fuerza gravitacional de la Tierra sobre el resto de los cuerpos (incluidas las naves y satélites espaciales) disminuye a medida que se aleja de la Tierra. No obstante, el campo gravitacional se extiende hasta el infinito y la gravedad no desaparece por grande que sea la distancia.

Las fuerzas aerodinámicas generadas por las estructuras de un avión (por ejemplo, las alas), lo mantienen frente a la fuerza de la gravedad, pero un vehículo espacial no puede mantenerse de este modo debido a la ausencia de aire en el espacio. Por ello, las naves deben entrar en órbita para poder permanecer en el espacio. Los aviones que vuelan por la atmósfera terrestre se sirven de propulsores y alas para moverse, pero las naves espaciales no pueden hacerlo por la ausencia de aire. Los vehículos espaciales dependen de los cohetes de reacción para propulsionarse y maniobrar, según las leyes de Newton sobre el movimiento. Cuando una nave dispara un cohete en una determinada dirección, se produce una reacción de movimiento de la nave en sentido contrario.

Seres humanos en el espacio

El espacio es un medio hostil para el ser humano. No contiene aire ni oxígeno, por lo que se hace imposible respirar. Si no se lleva la protección adecuada el vacío del espacio puede matar por descompresión a una persona en pocos segundos. En el espacio la temperatura a la sombra de un planeta puede alcanzar valores cercanos al cero absoluto. En cambio, bajo radiación solar directa, la temperatura es tan elevada que puede alcanzar niveles mortales. Las radiaciones de la energía solar y cósmica del espacio pueden resultar fatales para una persona que no cuente con la protección atmosférica. Las condiciones del ambiente pueden llegar a afectar a los instrumentos de las naves espaciales, por lo que se tienen en cuenta a la hora de diseñarlos y fabricarlos. Se han efectuado numerosos experimentos sobre ingravidez a largo plazo para averiguar sus efectos en las tripulaciones de las naves espaciales (véase Medicina aeroespacial).

Hay varias formas para protegerse de las condiciones ambientales del espacio. Los astronautas van en cabinas cerradas herméticamente, o dentro de trajes espaciales, provistos de aire u oxígeno a presión que reproducen las condiciones de la Tierra. La temperatura y humedad se controlan por aire acondicionado. Las superficies de la nave están diseñadas para regular la cantidad de radiación de calor que absorbe o refleja la nave. Los viajes espaciales están programados para evitar los intensos cinturones de radiación alrededor de la Tierra. En los futuros viajes interplanetarios serán necesarias fuertes protecciones frente a las tormentas de radiación solar. En los viajes de larga duración y en órbitas terrestres prolongadas los efectos de la falta de gravedad pueden reducirse mediante la rotación de la nave, que reproduce la gravedad de forma artificial. Es por ello que las naves espaciales se podrían construir en forma de gran rueda que gira despacio sobre su eje, o como una pesa que rota sobre sí misma.

Historia

La humanidad ha soñado con viajes espaciales miles de años antes de que éstos empezaran a llevarse a cabo. Pruebas de ello las encontramos en los textos babilónicos, alrededor del año 4000 a.C. Dédalo e Ícaro, antiguos mitos griegos, también representan el deseo universal de volar. Ya en el siglo II d.C. el escritor griego Luciano escribió sobre un imaginario viaje a la Luna. A principios del siglo XVII, el astrónomo alemán Johannes Kepler escribió una sátira científica de un viaje a la Luna. El filósofo y escritor francés Voltaire cuenta en su obra Micromegas (1752) los viajes de unos habitantes de Sirio y de Saturno. Y en 1865, el escritor francés Jules Verne describe un viaje espacial en su famosa novela De la Tierra a la Luna. El sueño del vuelo espacial continuó en el siglo XX, especialmente en los escritos del inglés H. G. Wells, que en 1898 publicó La guerra de los mundos y en 1901 Los primeros hombres en la Luna. En los últimos tiempos la ciencia ficción ha desarrollado nuevas fantasías en torno a los vuelos espaciales.

Primeras teorías

Durante siglos, cuando los viajes espaciales eran tan solo una fantasía, los científicos dedicados a la astronomía, química, matemáticas, meteorología y física desarrollaron un concepto del Sistema Solar, del universo estelar, de la atmósfera terrestre y del posible entorno espacial. En los siglos VII y VI a.C. los filósofos griegos Tales de Mileto y Pitágoras se dieron cuenta de que la Tierra era una esfera. En el siglo III a.C. el astrónomo Aristarco de Samos afirmó que la Tierra giraba alrededor del Sol. Hiparco de Nicea, también griego, recogió datos sobre las estrellas y los movimientos de la Luna en el siglo II a.C. Tolomeo de Alejandría, en el siglo II, situó la Tierra en el centro del Sistema Solar, en su concepción cósmica, llamada sistema de Tolomeo.

Descubrimientos científicos

Tuvieron que pasar 1.400 años hasta que el astrónomo polaco Nicolás Copérnico descubrió que los planetas, incluida la Tierra, giraban alrededor del Sol (véase Sistema de Copérnico). Más tarde, en el siglo XVI, el astrónomo danés Tycho Brahe desarrolló las leyes de la rotación de los planetas de Kepler. Galileo, Edmund Halley, William Herschel y James Jeans fueron otros astrónomos que hicieron importantes contribuciones a la astronomía.

Físicos y matemáticos también ayudaron al desarrollo de la astronomía. En 1654, el físico alemán Otto von Guericke demostró que el vacío podía mantenerse, refutando la antigua teoría de que la naturaleza "aborrecía" el vacío. Más tarde, en el siglo XVII, Newton formuló las leyes de la gravitación universal y del movimiento. Las leyes de Newton sobre el movimiento establecieron los principios básicos que regulan la propulsión y el movimiento orbital de las modernas naves espaciales.

A pesar de los grandes descubrimientos de la teoría científica en épocas anteriores, los viajes espaciales sólo fueron posibles en el siglo XX, cuando se desarrollaron los actuales medios de propulsión de naves espaciales con cohetes dirigidos.

Propulsión por cohetes

Las técnicas de propulsión por cohetes se desarrollaron hace mucho tiempo. Antiguamente se usaba pólvora como combustible, de un modo muy parecido a los fuegos artificiales. Se tienen noticias de que en 1232, en China, la ciudad de Kaifeng se defendió de los ataques de los mongoles con la ayuda de cohetes. Desde el renacimiento hay numerosas referencias al uso de cohetes, unas veces real y otras sólo en proyectos, en las batallas que se libraron en Europa. Ya en el año 1804 el ejército británico creó un cuerpo equipado con cohetes que podían alcanzar una distancia de unos 1.830 metros.

En Estados Unidos, un profesor de física de la Universidad de Clark, Robert Goddard, fue el pionero en la propulsión por cohetes. Comenzó experimentando con combustibles líquidos para cohetes en la década de 1920, y realizó su primer lanzamiento con éxito el 16 de marzo de 1926. Durante esa época ya se investigaba en varias partes del mundo sobre cohetes y naves espaciales. Alrededor del año 1890, Herman Ganswindt, un estudiante de derecho de nacionalidad alemana, concibió una nave espacial propulsada con combustible sólido, que demostraba sus avanzados conocimientos sobre el problema de la estabilidad. Konstantin Eduardovich Tsiolkovski, un maestro de escuela ruso, publicó en 1903 Un Cohete al espacio cósmico, en donde proponía el uso de combustibles líquidos para las naves espaciales. En 1923, un matemático y físico alemán llamado Herman Oberth, publicó Die Rakete zu den Planetenräume (Los cohetes en el espacio interplanetario). Este libro tuvo su continuación el Die Erreichbarkeit der Himmelskörper (La posibilidad de llegar a los cuerpos celestes), publicado en 1925 por el arquitecto alemán Walter Hohmann, que contenía los primeros cálculos detallados de las órbitas interplanetarias.

La II Guerra Mundial influyó en el desarrollo de cohetes suborbitales de largo alcance. Estados Unidos, la URSS, Gran Bretaña y Alemania desarrollaron simultáneamente cohetes para usos militares. Los alemanes fueron los que tuvieron más éxito y desarrollaron el V-2 (un cohete de combustible líquido con el que bombardearon Londres) en Peenemünde, un pueblo cerca de la costa báltica. Al acabar la guerra, Estados Unidos conservó algunos V-2 que emplearon para la investigación de los vuelos verticales. Algunos ingenieros alemanes se trasladaron a la URSS al terminar la guerra, pero los expertos en cohetes acabaron en Estados Unidos, estando entre ellos Walter Dornberger y Wernher von Braun (véase Misiles teledirigidos).

Naves espaciales

Los artefactos espaciales no tripulados pueden ser de diversos tamaños, desde unos centímetros hasta varios metros de diámetro, y tener muchas formas diferentes, según el uso para el que estén construidos. Las naves no tripuladas cuentan con equipos de radio para transmitir información a la Tierra y para señalar su posición en el espacio.

Las naves tripuladas han de cumplir con requisitos más complicados debido a las necesidades de la propia tripulación. Están diseñadas con equipos capaces de proveer aire, agua y comida a los tripulantes, equipos de navegación y control, asientos y compartimentos para dormir y equipos de transmisión para enviar y recibir información. Una característica de las naves tripuladas es la pantalla protectora del calor que se produce al penetrar en la atmósfera. Véase Lanzamiento y aterrizaje, más abajo.

Propulsión

Los cohetes que lanzan y propulsionan las naves espaciales se pueden dividir en dos grandes grupos: de combustible sólido, que emplean productos químicos para la combustión, igual que la pólvora, y de combustible líquido que llevan en tanques separados combustibles líquidos y agentes oxidantes. La mayoría de los cohetes lanzados por Estados Unidos tenían varias fases diferentes, cada una de ellas propulsada por su propio combustible. Una vez consumido el combustible, toda la fase se separaba de la nave para quedar flotando en el espacio.

Dado que la tecnología usada para el lanzamiento de naves espaciales está en estrecha relación con los misiles balísticos, desde 1957 hasta 1965 sólo Estados Unidos y la URSS fueron capaces de lanzar satélites. En años posteriores, Francia, Japón, India y China lanzaron satélites terrestres propios, con tecnologías cada vez más sofisticadas. En 1984, los trece países miembros de la Agencia Espacial Europea comenzaron su programa de lanzamientos desde el centro espacial de Kourou, en la Guayana Francesa. Sin embargo Estados Unidos y la URSS siguieron siendo los únicos países con capacidad para lanzar al espacio naves grandes y pesadas, requisito necesario para llevar tripulaciones.

Lanzamiento y aterrizaje

Las naves espaciales se lanzan desde plataformas construidas al efecto, en donde se colocan e inspeccionan cuidadosamente la nave y el cohete propulsor antes del lanzamiento. Las operaciones son supervisadas por ingenieros y técnicos en un puesto de control situado en las inmediaciones. Cuando todo está listo, se encienden los motores del cohete y la nave se eleva hacia el espacio.

El aterrizaje presenta el problema de ralentizar la velocidad de la nave para evitar su destrucción a causa del calor aerodinámico. Los programas estadounidenses Mercury, Géminis y Apolo superaron esta dificultad protegiendo la superficie de la nave con un escudo espacial protector del calor, construido con materiales plásticos, metálicos y cerámicos, que se funden y volatilizan al entrar en la atmósfera, disipando el calor sin daños para la nave y sus tripulantes. El escudo protector del calor diseñado para el momento de entrar en la atmósfera está hecho de chapas de cerámica soldadas individualmente al casco de la nave. Antes de la aparición de la lanzadera espacial que aterriza en una pista (véase Lanzadera espacial, más abajo), las naves estadounidenses tripuladas caían sobre el mar para amortiguar el impacto. Los astronautas y su cápsula eran recogidos enseguida por los helicópteros y eran llevados a bordo de unidades navales que se encontraban a la espera. Por el contrario, los astronautas soviéticos aterrizaban sobre tierra firme en distintas partes de Siberia.

En órbita alrededor de la Tierra

Los satélites que giran en la órbita terrestre pueden hacerlo en círculo o en elipse. Los satélites artificiales en órbita circular se mueven a una velocidad constante. Sin embargo, a mayor altitud se mueven a menor velocidad respecto a la superficie de la Tierra. Cuando mantienen una altura de 35.800 km sobre el ecuador los satélites son geoestacionarios y se mueven en una órbita geoestacionaria, justo a la misma velocidad que la Tierra, manteniéndose en un mismo punto fijo sobre el ecuador. La mayoría de los satélites de comunicaciones están situados en este tipo de órbitas.

En órbitas elípticas la velocidad varía, siendo mayor en el perigeo (altitud mínima) y menor en el apogeo (altitud máxima). Las órbitas elípticas pueden descansar en cualquier plano que pase por el centro de la Tierra. Las órbitas polares descansan en un plano que pasa por los polos norte o sur; esto quiere decir que atraviesa el eje de rotación de la Tierra. Las órbitas ecuatoriales descansan en un plano que atraviesa el ecuador. El ángulo entre el plano orbital y el ecuador se denomina inclinación de la órbita.

La Tierra gira una vez cada 24 horas vista desde un satélite en órbita polar. Los satélites meteorológicos en órbita polar, que llevan cámaras de televisión y de infrarrojos, pueden observar las condiciones meteorológicas de todo el globo, de polo a polo, en un solo día. Las órbitas con otro tipo de inclinación cubren menos parte de la Tierra, y no alcanzan algunas zonas cercanas a los polos.

Mientras un objeto permanezca en órbita en el espacio, seguirá orbitando sin necesidad de propulsión dado que no tiene fuerza de rozamiento que ralentice su velocidad. Si toda o parte de la órbita atraviesa la atmósfera terrestre el objeto perderá velocidad por rozamiento aerodinámico con el aire. Este fenómeno provocará su caída gradual hacia altitudes más bajas, hasta que el objeto entra en la atmósfera y se desintegra como un meteoro.

Programas espaciales no tripulados

Una larga historia de mitos, sueños, novelas, ciencia y tecnología culminó con el lanzamiento del primer satélite artificial a la órbita terrestre, el Sputnik 1, por la URSS el 4 de octubre de 1957.

Primeros satélites artificiales

El Sputnik 1 era una esfera de aluminio de 58 cm de diámetro y pesaba 83 kg. Tardaba 96,2 minutos en dar la vuelta a la Tierra. Describía una órbita elíptica y alcanzaba su apogeo a una altura de 946 km, y su perigeo a 227 km. Contaba con instrumentos que durante 21 días enviaron información a la Tierra sobre radiación cósmica, meteoritos y sobre la densidad y temperatura de las capas superiores de la atmósfera. Al cabo de 57 días el satélite entró en la atmósfera terrestre y se destruyó por efecto del calor debido al rozamiento aerodinámico.

El segundo satélite artificial fue también un vehículo espacial soviético, de nombre Sputnik 2. Fue lanzado el 3 de noviembre de 1957 y llevaba a bordo una perra llamada Laika. Realizó las primeras mediciones biomédicas en el espacio. Este satélite entró en la atmósfera terrestre destruyéndose después de 162 días de vuelo.

Mientras el Sputnik 2 todavía se encontraba en órbita, Estados Unidos lanzó con éxito su primer satélite, el Explorer 1, desde la base de Cabo Cañaveral (llamada Cabo Kennedy entre 1963 y 1973), en Florida, el 31 de enero de 1958. Era una nave cilíndrica de 14 kg, 15 cm de diámetro y 203 cm de longitud, que estuvo transmitiendo mediciones de radiación cósmica y micrometeoritos durante 112 días, y aportó los primeros datos desde un satélite que llevaron al descubrimiento de los cinturones de radiación de Van Allen.

El 17 de marzo de 1958, Estados Unidos lanzó su segundo satélite, el Vanguard 2. Un estudio preciso de las variaciones de su órbita reveló que la Tierra tenía una ligera forma de pera. Utilizando energía solar, el satélite estuvo transmitiendo señales durante más de 6 años. Al Vanguard 2 le siguió el satélite estadounidense Explorer 3, lanzado el 26 de marzo de 1958, y el soviético Sputnik 3, lanzado el 15 de mayo de ese mismo año. Este último, que pesaba 1.327 kg, efectuó mediciones de la radiación solar, la radiación cósmica, los campos magnéticos y otros fenómenos, hasta que dejó su órbita en abril de 1960.

Misiones lunares no tripuladas

Por ser el astro más cercano a la Tierra, la Luna ha sido el objetivo de numerosas misiones espaciales. En 1958 fracasaron las primeras sondas lunares enviadas por Estados Unidos y la URSS. La nave rusa Luna 2, lanzada el 12 de septiembre de 1959, alcanzó la superficie lunar 36 horas más tarde. Desde entonces, ambos países efectuaron lanzamientos a la Luna con resultados diferentes. Las primeras fotografías de la cara oculta de la Luna fueron tomadas por el Luna 3, enviado al espacio por la URSS el 4 de octubre de 1959. Uno de los lanzamientos con éxito más espectaculares fue la misión realizada por el Ranger 7, enviado al espacio por Estados Unidos el 28 de julio de 1964. Antes de alcanzar la superficie de la cara visible de la Luna, llegó a transmitir 4.316 imágenes de la superficie lunar por televisión, desde altitudes entre 1.800 km y 300 m, proporcionando las primeras imágenes detalladas a la humanidad.

El 31 de enero de 1966, la URSS lanzó el Luna 9, que consiguió realizar el primer aterrizaje sobre la Luna, sin ser destruido por el impacto. Le siguió la nave estadounidense Surveyor 1, el 30 de mayo de ese año, que también realizó un aterrizaje suave en la superficie lunar, y envió a la Tierra 11.150 fotografías del satélite.

Además de la información científica recogida, gran parte del interés del programa espacial de Estados Unidos se centraba en desembarcar un hombre en la Luna. Con este propósito, se llevaron a cabo varios vuelos posteriores no tripulados, como los realizados por el Surveyor 3 y Surveyor 5 en 1967. Ambas naves, después de un vuelo de dos días, enviaron a la Tierra un gran número de imágenes de televisión de la superficie lunar. El Surveyor 3 tomó muestras del suelo de la Luna que fueron examinadas por cámaras de televisión. El Surveyor 5 realizó análisis químicos de la superficie lunar, utilizando técnicas de dispersión de partículas alfa; éste fue el primer análisis sobre el terreno de un cuerpo extraterrestre.

Otros satélites lanzados para preparar el alunizaje fueron los del programa Lunar Orbiter. Entre 1966 y 1967, cinco de estos satélites dieron vueltas alrededor de la Luna obteniendo miles de fotografías. Con este material se fueron seleccionando los lugares de alunizaje previstos en el programa Apolo.

Son dignos de mención dos proyectos lunares no tripulados de la URSS. La nave Luna 16 lanzada el 12 de septiembre de 1970, se posó sobre la Luna e introdujo unos 113 g de suelo lunar en un recipiente sellado, que fue lanzado de vuelta a la Tierra y recuperado por los soviéticos. El Luna 17, lanzado el 10 de noviembre de 1970, alunizó suavemente y desplegó un vehículo automático de exploración lunar, el Lunokhod 1, que iba equipado con una cámara de televisión y baterías solares. Durante diez días lunares, este artefacto controlado desde la Tierra recorrió 10,5 km de la superficie lunar, transmitiendo imágenes por televisión y datos científicos. El Luna 21 repitió la experiencia en 1973, colocando en la Luna el vehículo Lunokhod 2.

La sonda Clementine, lanzada por Estados Unidos en febrero de 1994, continuó la exploración lunar. Orbitó la Luna durante tres meses y obtuvo los primeros datos fiables de su topografía utilizando altímetros láser. A partir de unas señales de radar enviadas por la sonda, un grupo de científicos estadounidenses anunció, a finales de 1996, la posible existencia de agua helada en un cráter. En enero de 1998 la sonda Lunar Prospector de la NASA entró en órbita alrededor de la Luna. En marzo de ese mismo año la nave encontró pruebas bastante fiables de la existencia de una cantidad significativa de agua en los polos del satélite. La Lunar Prospector también investigó el campo gravitacional y el campo magnético de la Luna.

Satélites científicos

A medida que los sistemas de despegue de las naves espaciales (propulsadas por cohetes) y los equipos científicos se hicieron más fiables, se fueron desarrollando una gran variedad de satélites. Los científicos trataron de recopilar información y realizar estudios precisos del Sol, otras estrellas, la Tierra y del mismo espacio. La atmósfera que envuelve la Tierra impide obtener tales datos, a excepción de la escasa información que se podía conseguir por medio de globos a gran altitud.

En Estados Unidos se han lanzado numerosos satélites astronómicos. Así, desde 1962 los Observatorios en Órbita Solar (OSO, en inglés) han estudiado la radiación ultravioleta, los rayos X y los rayos gama procedentes del Sol. Satélites pioneros han recogido datos de la radiación cósmica, el viento solar y las características electromagnéticas del espacio. Los Observatorios de Órbita Astronómica (OAO, en inglés) han estudiado la radiación estelar, y los Observatorios de Órbita Geofísica (OGO, en inglés) se han dedicado a conocer las interacciones entre el Sol, la Tierra y el entorno espacial. El Satélite de Astronomía de Infrarrojos (IRAS, en inglés), un proyecto anglo-estadounidense lanzado en 1983, tenía como misión realizar una cartografía del cielo. El telescopio espacial Hubble, fue lanzado al espacio por la lanzadera espacial Discovery en 1990. Los científicos descubrieron que al poco de entrar en funcionamiento, el espejo principal del telescopio espacial estaba dañado. Los astronautas a bordo de la lanzadera espacial Endeavor lograron repararlo en diciembre de 1993. Incluso antes de su reparación, el telescopio pudo transmitir importantes imágenes de fenómenos nunca antes vistos.

Satélites de aplicaciones

Este tipo de satélites no tripulados son también de gran utilidad para los científicos dedicados al estudio de la Tierra. Se pueden clasificar, a grandes rasgos, en tres tipos: medioambientales, de navegación y de comunicaciones.

Los satélites medioambientales observan la Tierra y la atmósfera transmitiendo imágenes con diversos fines. Los satélites meteorológicos envían diariamente datos sobre la temperatura y formación de nubes. Un ejemplo es el Satélite Meteorológico Sincronizado (SMS). Desde una órbita estacionaria manda imágenes de una extensa zona de la Tierra cada 30 minutos. Dos satélites SMS pueden cubrir todo un continente y sus mares adyacentes.

Los satélites estadounidenses Landsat observan la Tierra con ayuda de escáneres ópticos multiespectrales y envían información a las estaciones en Tierra que se procesa en imágenes a color que suministran datos muy valiosos. De esta forma se obtiene información sobre las características del suelo, cantidades de hielo y agua en los mares, contaminación de las aguas costeras, salinidad y plagas de insectos en cosechas y bosques. Incluso pueden detectarse incendios forestales desde los satélites en órbita. Los estudios sobre las fallas y fracturas de la corteza terrestre facilitan a los geólogos la identificación de depósitos y yacimientos de petróleo y minerales. El SPOT (Sistema Probatorio para la Observación de la Tierra), un satélite europeo lanzado en 1985, logra transmitir imágenes de la Tierra con más detalle que los estadounidenses Landsat. Véase también Teledetección.

Los satélites de observación terrestre se utilizan en diversos países para obtener imágenes de interés militar, como explosiones nucleares en la atmósfera y en el espacio, bases de lanzamiento de misiles balísticos, así como movimientos de tropas o barcos. En los años ochenta surgió la polémica cuando los Estados Unidos se propusieron desarrollar un sistema de defensa antibalística accionado con tecnología láser.

Los satélites de navegación proporcionan un punto conocido de observación de la órbita terrestre que ayuda a fijar la posición de barcos y submarinos en unas pocas millas. Se están desarrollando una serie de complejos satélites para usos comerciales y militares.

Estudio de los planetas

Además de la Luna, las naves espaciales han llegado a Marte y Venus, han alcanzado las proximidades de todos los planetas solares, excepto Plutón, y han llevado a cabo estudios sobre los cometas.

Marte

La URSS lanzó al espacio las sondas Mars 2 y Mars 3 en mayo de 1971, destruyéndose ambas por el impacto al caer en Marte, aunque antes consiguieron transmitir algunos datos. En agosto de 1973, la URSS envió los Mars 4, 5, 6 y 7 pero diversos fallos técnicos hicieron fracasar todas las misiones. En 1988 la URSS lanzó las sondas Phobos 1 y 2, que tenían previsto llegar a Fobos, la luna de Marte. La primera se perdió por un fallo humano y la segunda perdió el contacto por radio. La sonda rusa Mars 96, con instrumental científico ruso, europeo y estadounidense, se precipitó al océano Pacífico unas horas después de su lanzamiento en noviembre de 1966.

Dentro del programa de Estados Unidos, fue lanzado el Mariner 9 en mayo de 1971; entró en la órbita de Marte y permaneció en ella desde noviembre de 1971 hasta octubre de 1972, transmitiendo fotografías hasta casi completar el mapa de toda la superficie del planeta. En agosto y septiembre de 1975, los Viking 1 y 2 emprendieron un viaje de once meses de duración. Ambos contaban con sistemas de aterrizaje y estaban equipados con laboratorios químicos y sistemas de detección de vida, dos cámaras de televisión en color, instrumentos de medición atmosférica y sismológica, además de un brazo mecánico accionado desde la Tierra de tres metros de largo. Ambos ingenios estuvieron en funcionamiento durante varios años. En 1992 se lanzó el Mars Observer, que desapareció para los radares antes de entrar en órbita alrededor de Marte. La NASA inició una nueva serie de expediciones al planeta vecino con el lanzamiento de las naves no tripuladas Mars Global Surveyor, en noviembre de 1996, y Mars Pathfinder, en diciembre de ese mismo año. Esta última llegó a la superficie de Marte en Julio de 1997.

Venus

El programa de la URSS para penetrar en la densa atmósfera de Venus, cubierta de nubes, tuvo un gran éxito. El Venera 7 fue lanzado en agosto de 1970, sobreviviendo lo justo para enviar, durante 23 minutos, datos sobre la temperatura. El Venera 8, lanzado en 1972, envió a la Tierra datos sobre la superficie del planeta y análisis de su suelo. En octubre de 1975, el Venera 9 y el Venera 10 se posaron en la superficie, durando una hora y obtuvieron las primeras fotografías de la superficie venusiana. En 1978, el Venera 11 y el Venera 12 soltaron dos sondas que llegaron a Venus el 25 y 21 de diciembre respectivamente. Ambos registraron una presión de 88 atmósferas y una temperatura en superficie de 460 ºC. El 1 y 5 de marzo de 1982, el Venera 13 y el Venera 14 se posaron en Venus, obteniendo imágenes de la superficie del planeta y efectuando análisis de la composición química de la atmósfera y del suelo. El 10 y el 14 de octubre de 1983, el Venera 15 y el Venera16 entraron en la órbita de Venus y emitieron imágenes por radar. En junio de 1985, el Vega 1 y el Vega 2, de camino hacia el cometa Halley, soltaron cuatro sondas en la atmósfera venusiana.

Estados Unidos lanzó el 20 de mayo de 1978 el Pioneer Venus 1, y el 8 de agosto del mismo año el Pioneer Venus II, que portaba cinco sondas atmosféricas, alcanzando ambos Venus el 5 y 9 de diciembre respectivamente. El primero levantó el mapa de casi toda la superficie del planeta, y las sondas del segundo analizaron la composición y movimientos en la atmósfera y su interacción con el viento solar. La sonda Magallanes fue enviada hacia Venus desde una lanzadera espacial en 1989 y empezó a transmitir imágenes por radar de la superficie del planeta en agosto de 1990.

Mercurio

El estudio del planeta más próximo al Sol comenzó con el viaje del Mariner 10, enviado en octubre de 1973 por Estados Unidos, en un viaje por la zona interior del Sistema Solar hacia Mercurio. Pasó cerca de Venus en febrero de 1974, y aprovechó la fuerza de gravedad de este planeta para entrar en la órbita solar. En marzo de ese año llegó a unos 692 km de Mercurio, obteniendo las primeras imágenes de su superficie llena de cráteres, parecida a la lunar. En su segunda aproximación en septiembre, detectó un campo magnético insospechado. En su tercer y último encuentro con el planeta, en marzo de 1975, el Mariner 10 se aproximó a unos 317 km.

Júpiter y Saturno

Las sondas estadounidenses Pioneer 10 y 11 fueron lanzadas en 1972 y 1973, pasaron a salvo por el inexplorado cinturón de asteroides situado en el exterior de la órbita de Marte, y continuaron hacia Júpiter, a donde llegaron en diciembre de 1973 y de 1974. Las dos sondas, con un peso de 258 kg, pasaron a una distancia de 130,4 y 46,7 km del planeta, continuando el Pioneer 10 su viaje hacia el exterior del Sistema Solar por lo que se convirtió en el primer artefacto lanzado al espacio interestelar. Se espera que llegue a la próxima estrella dentro de unos 80.000 años. En septiembre de 1979, la sonda Pioneer 11 llegó a Saturno, preparando el camino al Voyager 1 y al Voyager 2.

Estos últimos, lanzados en 1977, lograron con éxito alcanzar Júpiter en marzo y julio de 1979, y realizaron numerosas mediciones y fotografías. En noviembre de 1980 y en agosto de 1981 sobrevolaron Saturno.

Urano

Después de su paso por Saturno, el Voyager 2 se dirigió a Urano. En enero de 1986 pasó a 80.000 km de distancia de este planeta cubierto de nubes, y descubrió cuatro nuevos anillos, además de diez nuevas lunas. La sonda se acercó aún más a una de las lunas, Miranda, y obtuvo imágenes asombrosas de este helado cuerpo celeste. El Voyager 2 continuó luego su viaje a Neptuno, aproximándose a 5.000 km del planeta en agosto de 1989, y descubrió seis nuevas lunas antes de dejar el Sistema Solar.

Programas espaciales tripulados

Al año de los primeros éxitos con satélites pequeños en 1957 y 1958, tanto la URSS como Estados Unidos comenzaron a desarrollar programas para lanzar seres humanos al espacio. Ambas potencias se sirvieron de perros y chimpancés para experimentar los efectos de la ausencia de gravedad en los seres vivos.

Los programas Vostok y Mercury

La URSS fue la primera en poner un hombre en el espacio, el cosmonauta Yuri A. Gagarin, que completó una órbita terrestre en la nave Vostok 1 el 12 de abril de 1961. En su vuelo, que duró una hora y cuarenta y ocho minutos, alcanzó un apogeo de 327 km y un perigeo de 180 km, aterrizando a salvo en Siberia. En los dos años siguientes se llevaron a cabo cinco nuevos vuelos del programa Vostok. El piloto del Vostok 6 fue Valentina Tereshkova, la primera mujer en el espacio. Lanzada el 16 de junio de 1963, dio 48 vueltas alrededor de la Tierra.

Mientras tanto iba desarrollándose el programa estadounidense Mercury, similar al soviético. El 5 de mayo de 1961, el capitán de corbeta de la Armada de Estados Unidos Alan B. Shepard, se convirtió en el primer estadounidense en el espacio. La nave del programa Mercury, bautizada Freedom 7, describió una trayectoria balística y realizó un vuelo suborbital de 15 minutos de duración. Un vuelo similar tuvo lugar el 21 de julio siguiente, protagonizado por el capitán Grissom de las Fuerzas Aéreas estadounidenses. El 20 de febrero de 1962, el teniente coronel John H. Glenn, del cuerpo de marines, se convirtió en el primer astronauta estadounidense en dar la vuelta a la Tierra, en un vuelo de tres vueltas completas. Entre 1962 y 1963 se llevaron a cabo tres nuevos vuelos más dentro del programa Mercury.

Los programas Voskhod y Gemini

El programa Voskhod era una adaptación del Vostok, modificado para acomodar dos o tres cosmonautas a bordo. El 12 de octubre de 1964, los cosmonautas Vladimir M. Komarov, Borís B. Yegorov y Konstantin P. Feoktistov realizaron un vuelo de 15 órbitas en la nave Voskhod 1. Este fue el único vuelo tripulado en seis años y situó el número de horas de vuelo de los cosmonautas soviéticos en un total de 455. En aquel momento, el total de horas de vuelo de los astronautas estadounidenses sólo llegaba a las 54 horas. El 18 de marzo de 1965, los cosmonautas Pavel I. Belyayev y Alexéi A. Leonov fueron lanzados a bordo del Voskhod 2. En un vuelo de 17 vueltas a la Tierra, Leonov se convirtió en el primer hombre en realizar un paseo espacial, llevando a cabo la primera actividad extravehicular (EVA, siglas en inglés), al salir de la nave unido a ella por medio de un cable.

El programa estadounidense Gemini estaba diseñado para desarrollar una tecnología que permitiera llegar a la Luna. En mayo de 1961, el presidente de Estados Unidos, John F. Kennedy puso en marcha el programa Apolo, con el objetivo de llevar un hombre a la Luna y que pudiera regresar a salvo, "antes del fin de la década". Esta decisión se convirtió en un intenso programa de vuelos espaciales tripulados a gran escala. Las naves Gemini albergaban dos tripulantes y estaban construidas para funcionar largos periodos de tiempo y desarrollar técnicas espaciales en encuentros y ensamblajes con otras naves. Entre 1965 y 1966 se llevaron a cabo diez vuelos dentro de este programa.

Durante el vuelo del Gemini 4, el comandante Edward H. White, de las fuerzas aéreas, se convirtió en el primer astronauta estadounidense en realizar un paseo espacial. Con la ayuda de un sistema autopropulsado de gas a presión, permaneció 21 minutos en el espacio. Mientras las naves Gemini 6 y 7 se hallaban juntas en órbita, en diciembre de 1965, se acercaron a muy pocos metros una de otra. Después de estar orbitando durante 20 horas, mientras el Gemini 6 aterrizó, el Géminis 7 realizó un total de 334 horas en su órbita. Este vuelo de casi 14 días de duración, obtuvo datos e información médica sobre los seres humanos en el espacio, vitales para asegurar el éxito de la misión lunar Apolo, que duraría 10 días. Además, sirvió para poner a prueba la viabilidad de los sistemas de compartimentos de combustible de hidrógeno y oxígeno. En los vuelos de los Gemini 10, 11 y 12 se llevaron a cabo varios encuentros y acoplamientos con vehículos espaciales que habían sido puestos en órbita previamente.

Al finalizar el último vuelo del programa Gemini, los astronautas estadounidenses habían acumulado un total de 2.000 horas de vuelos tripulados en el espacio, aventajando a los soviéticos, y unas 12 horas de tiempo en paseos espaciales (EVA).

Los programas Soyuz y Apolo

El año 1967 fue trágico para ambas potencias espaciales. El 27 de enero, durante una prueba en Tierra de la nave Apolo, en Cabo Kennedy, se inició un fuego en el módulo de control de la tripulación, con tres hombres a bordo. Debido a la atmósfera de oxígeno puro presurizado en el interior de la nave, un incendio repentino rodeó y causó la muerte de los astronautas Grisson, White y Roger B. Chaffee. Como consecuencia de este incidente, el programa Apolo sufrió un retraso de más de un año, mientras el diseño de la nave y los materiales se volvían a revisar.

El 23 de abril de 1967, el cosmonauta Komarov despegó en el primer vuelo tripulado de la nueva nave soviética Soyuz. La nave tenía espacio para tres cosmonautas, además de un compartimento para trabajar y realizar experimentos, accesible a través de una escotilla. Cuando entró en la atmósfera terrestre y desplegó los paracaídas de aterrizaje, las cuerdas de éste se enredaron, provocando la muerte del piloto. El programa soviético se reanudó dos años más tarde.

En octubre de 1968, se lanzó el primer vuelo tripulado del proyecto Apolo mediante el sistema propulsor Saturno 1B. Los astronautas Schirra, R. Walter Cunningham y Donn F. Eisele, dieron 163 vueltas alrededor de la Tierra, comprobando el funcionamiento de los equipos, haciendo fotografías y transmitiendo imágenes de televisión. En diciembre de 1968, el Apolo 8, que llevaba a bordo a los astronautas Borman, Lovell y William A. Anders dio diez vueltas alrededor de la Luna y volvió a la Tierra. El Apolo 9, tripulado por James A. McDivitt, David R. Scott, y Russel L. Schweickart, realizó pruebas de separación, encuentro y acoplamiento del módulo lunar (ML) de aterrizaje, en una misión de 151 vueltas a la Tierra. El vuelo del Apolo 10, que llevaba a bordo al astronauta Stafford, al capitán de corbeta John W. Young y al capitán de fragata Eugene A. Cernan, dio 31 vueltas a la Luna, en preparativos para un posterior alunizaje. Según estaba planeado, Stafford y Cernan se trasladaron desde el módulo de comando del Apolo (MC) al módulo lunar, con el que descendieron hasta una distancia de 16 km de la superficie de la Luna, mientras el astronauta Young pilotaba el módulo de comando. Después, en la fase ascendente, realizaron con éxito las maniobras de aproximación y acoplamiento al módulo de comando, entraron en él y abandonaron el módulo lunar, encendiendo los cohetes para regresar a la Tierra. El programa Apolo estaba ya listo para llevar astronautas a la Luna. Véase Seres humanos en la Luna, más abajo.

Mientras, la URSS lanzó la nave no tripulada Zond en órbita alrededor de la Luna, llevando cámaras y especies biológicas a bordo. El coronel Georgi T. Beregovoi realizó un vuelo, dando 60 vueltas a la Luna con la nave Soyuz 3 en octubre de 1968. Las naves Soyuz 4 y Soyuz 5 completaron en órbita terrestre maniobras de aproximación y acoplamiento en enero de 1969. Con ambas naves acopladas, los cosmonautas Aleksei S. Yeliseyev y el teniente coronel Yevgeny V. Khrunov salieron en un paseo espacial de la Soyuz 5 a la Soyuz 4, pilotada por el coronel Vladimir A. Shatalov. En octubre de 1969, despegaron las naves Soyuz 6, 7 y 8 con un día de diferencia, se encontraron en órbita, pero no llegaron a acoplarse. La Soyuz 9, tripulada por dos cosmonautas, batió el récord de duración de un vuelo, permaneciendo en el espacio casi 18 días, en junio de 1970.

Seres humanos en la Luna

En el año 1969, la humanidad logró realizar el viejo sueño de pisar la Luna. El 16 de julio despegó la histórica nave Apolo 11. Una vez en la órbita lunar, Edwin E. Aldrin y Neil A. Armstrong se trasladaron al módulo lunar. Michael Collins permaneció en la órbita lunar pilotando el módulo de control después de la separación, y apoyando las maniobras del módulo lunar. Este último descendió a la Luna y se posó sobre su superficie el 20 de julio, al borde del Mar de la Tranquilidad. Horas más tarde, Armstrong descendió por una escalerilla con su traje espacial y puso su pie sobre la Luna. Sus primeras palabras fueron "éste es un pequeño paso para un hombre, pero un gran salto para la humanidad". Pronto le siguió Aldrin y ambos astronautas estuvieron caminando más de dos horas por la Luna. Recogieron 21 kg de muestras del suelo, tomaron fotografías y colocaron un artefacto para detectar y medir el viento solar, un reflector de rayos láser y un sismógrafo. Armstrong y Aldrin clavaron en el suelo una bandera de Estados Unidos y hablaron por radio con el presidente Richard M. Nixon en la Casa Blanca. Comprobaron que no era difícil caminar y correr bajo una gravedad seis veces menor que la de la superficie de la Tierra. Millones de personas pudieron seguir en directo la retransmisión vía satélite del acontecimiento. Una vez de vuelta al módulo lunar, los astronautas se quitaron los trajes espaciales y descansaron unas horas antes de despegar. Abandonaron la Luna en vuelo vertical dejando en la superficie lunar la parte inferior del módulo lunar que actuó como plataforma de lanzamiento. Esta plataforma se desechó una vez acoplados el módulo lunar al módulo de comando, al que regresaron los dos astronautas. El regreso del Apolo 11 se realizó sin contratiempos y la nave cayó a las aguas del océano Pacífico en donde fue recuperada, cerca de Hawai, el 24 de julio.

Ante la posibilidad de que organismos lunares contaminaran la tierra, los astronautas se vistieron con trajes de aislamiento biológico antes de salir de la nave y fueron sometidos a una cuarentena de tres semanas. Su salud no se vio afectada.

Apolo 12

El siguiente vuelo a la Luna empezó el 14 de noviembre de 1969, con el lanzamiento del Apolo 12, llevando a bordo a los astronautas Charles Conrad, Richard F. Gordon y Alan L. Bean. Una vez en órbita lunar, Conrad, piloto y comandante, y Bean, piloto del módulo lunar, pasaron a este último. Se posaron al norte de la cadena montañosa Riphaeus, a unos 180 m del lugar donde lo hiciera dos años antes el Suveyor 3.

Los dos astronautas exploraron las inmediaciones, en dos fases de casi cuatro horas cada una. Realizaron pruebas científicas, tomaron fotografías, recogieron muestras de suelo lunar y se llevaron algunos elementos de la sonda Surveyor 3 para examinarlos de regreso a la Tierra. Después de despegar y acoplarse a la nave que pilotaba Gordon, amerizaron con éxito y fueron recogidos el 24 de noviembre. También fueron sometidos a cuarentena.

El Apolo 12 supuso un gran adelanto respecto del Apolo 11, en especial en la precisión del alunizaje, lo que llevó a planear la posibilidad de que el Apolo 13 alunizara en terreno más accidentado.

Apolo 13

El 11 de abril de 1970 fue lanzado al espacio el Apolo 13, llevando a bordo al veterano Lovell, a Fred W. Haise y a John L. Swigert. El vehículo estuvo muy cerca del desastre cuando se averió en vuelo un tanque de oxígeno. Tuvieron que cancelar el alunizaje y, utilizando los sistemas de emergencia, se consiguió traerlos de vuelta a la Tierra, amerizando al sur de la isla Pago Pago, en el sur del océano Pacífico, el 17 de abril.

Apolos 14 y 15

El Apolo 14 retomó la fallida misión de su predecesor y fue lanzado el 31 de enero de 1971, después de efectuar las modificaciones necesarias para evitar fallos como el ocurrido en el Apolo 13. Shepard y Edgar D. Mitchell alunizaron con éxito con el módulo lunar sobre la accidentada zona Fra Mauro, mientras que el astronauta Stuart A. Rossa permanecía en órbita lunar pilotando el módulo de comando. Shepard y Mitchell estuvieron más de nueve horas explorando la zona, en la que se encontraron los fragmentos de roca más antiguos, recogiendo unos 43 kg de muestras geológicas e instalando instrumentos científicos. Regresaron sin problemas a la Tierra el 9 de febrero de 1971.

El Apolo 15 fue lanzado el 26 de julio de 1971, llevando a bordo David R. Scott como comandante, a James B. Irwin como piloto del módulo lunar y a Alfred M. Worden como piloto del módulo de comando. Scott e Irwin pasaron dos días en la Luna y 18 horas fuera del módulo, al borde del Mar Imbrium, próximos a la fisura de Hadley, de 366 m de profundidad, y a la cadena montañosa de los Apeninos, una de las más altas de la Luna. Durante su exploración de la superficie lunar, de 18 horas y 37 minutos de duración, recorrieron más de 28,2 km con un vehículo eléctrico de exploración lunar de cuatro ruedas. Instalaron instrumentos científicos y recogieron unos 91 kg de rocas, entre ellas lo que se pensaba que era una muestra cristalina de la corteza original de la Luna, de una antigüedad de unos 4.600 millones de años. Dejaron una cámara de televisión para retransmitir el despegue de Irwin y Scott, y antes de dejar la órbita lunar soltaron un subsatélite de 35,6 kg, diseñado para transmitir información sobre campos magnéticos, gravitacionales y de alta energía del espacio lunar. Durante su regreso, Worden realizó un paseo espacial de 16 minutos, cuando la nave estaba a 315.400 km de distancia de la Tierra, una distancia récord para los paseos espaciales realizados hasta entonces. Los astronautas de Apolo 15 amerizaron sin problemas el 17 de agosto, a unos 530 km al norte de Hawai, y fue la primera tripulación de vuelta de la Luna que no se sometió a cuarentena.

Apolo 16 y 17

El 16 de abril de 1972, los astronautas Young, Charles Moss Duke y Thomas Kenneth Mattingly partieron hacia la Luna en el Apolo 16, para explorar los altos de Descartes y las planicies de Cayley. Mientras Mattingly permanecía en órbita, los otros dos astronautas se posaron en la zona prevista el 20 de abril. Pasaron 20 horas y 14 minutos en la Luna realizando pruebas, recorriendo unos 26,6 km en el vehículo lunar y recogiendo más de 97 kg de muestras de rocas.

El programa lunar de Estados Unidos culminó con el Apolo 17 que viajó del 6 al 19 de diciembre de 1972. Durante el viaje de 13 días de duración, el veterano astronauta Cernan y el geólogo Harrison H. Smith pasaron 22 horas en la Luna y recorrieron 35 km en el vehículo lunar, explorando la zona del valle de Taurus-Littrow, mientras Ronald E. Evans permanecía en órbita.

Estaciones espaciales

Las primeras naves construidas como estaciones espaciales fueron la Salyut y el Skylab, diseñadas para permanecer largos periodos en la órbita terrestre mientras las tripulaciones iban y venían en otras naves. Esto daba la oportunidad de llevar a cabo numerosos y valiosos experimentos y observaciones astronómicas.

Estaciones soviéticas

La estación soviética Salyut 1, de 18.600 kg, fue lanzada al espacio el 19 de abril de 1971. Tres días después, la nave Soyuz 10, con tres cosmonautas a bordo, se acopló a la estación espacial. Por algún motivo desconocido, los astronautas no entraron en la estación, se desacoplaron y regresaron a la Tierra. En junio, la nave Soyuz 11 se acopló a la estación Salyut 1 y su tripulación de tres hombres entró en ella para realizar un vuelo que alcanzó el récord de 24 días. En ese tiempo llevaron a cabo numerosos experimentos biológicos y estudios sobre recursos de la Tierra. Sin embargo, a su regreso a la Tierra ocurrió una tragedia y los tres cosmonautas soviéticos —Feorgi T. Dobrovolsky, Vladislav N. Volkov y Viktor I. Patsayev— perecieron a causa de una fuga de aire en una válvula. Al no tener puestos los trajes espaciales su muerte fue instantánea. El programa soviético sufrió otro traspiés cuando la Salyut 2, lanzada en abril de 1973, quedó fuera de control y se perdieron partes de ella.

La Unión Soviética continuó su programa con la Salyut 3 (junio de 1974-enero de 1975), la Salyut 4 (diciembre de 1974-febrero de 1977) y la Salyut 5 (junio de 1976-agosto de 1977). La Salyut 6 (septiembre de 1977-julio de 1982) y la Salyut 7 fueron visitadas por numerosas tripulaciones internacionales de países como Cuba, Francia y la India, así como por la primera mujer que realizó un paseo espacial: Svetlana Savitskaya, que participó en el viaje de la nave Soyuz T12, del 17 al 29 de julio de 1984. Uno de los vuelos más importantes del programa Soyuz/Salyut tuvo lugar en 1984, cuando los cosmonautas Leonid Kizim, Vladimir Solovyov y Oleg Atkov pasaron 237 días a bordo de la Salyut 7 antes de regresar a la Tierra; fue el vuelo más largo de la época. La estación Salyut 7, ahora abandonada, permanece actualmente en órbita.

La estación espacial Mir

Construida por los soviéticos como sucesora de la Salyut, fue lanzada el 19 de febrero de 1986. Fue concebida por los soviéticos para ser la primera estación espacial permanentemente ocupada por una tripulación, cuenta con seis terminales de acoplamiento, y tiene capacidad para alojar a dos cosmonautas. En 1987, el coronel Yuri Romanenko pasó 326 días a bordo de la estación, batiendo un nuevo récord de permanencia en el espacio. El 12 de abril de 1987, los soviéticos lograron acoplar con éxito la nave Kvant, un módulo astrofísico de 18.000 kg, con la estación Mir. La Kvant, equipada con cuatro telescopios de rayos X, estaba diseñada para unirse a la estación Mir y observar una supernova que había estallado recientemente en una galaxia cercana, la Gran Nube de Magallanes. Los rayos X del estallido de la estrella, bloqueados por la atmósfera terrestre, no podían detectarse desde la Tierra. Entre 1987 y 1988, los cosmonautas soviéticos Vladimir Titov y Musa Manarov lograron un nuevo récord de permanencia en el espacio con un total de 366 días.

Estaciones estadounidenses

El programa estadounidense Skylab era más extenso y complejo que el de la Unión Soviética. El Skylab, lanzado con las dos primeras fases del cohete Saturno 5, pesaba 88.000 kg, frente a los 18.600 kg de la Salyut. En contraste con los 99 m2 estimados del interior de la estación soviética, el Skylab tenía 357 m2, unas 3,5 veces mayor. El Skylab funcionaba como laboratorio en órbita terrestre. Se utilizó para estudiar astronomía solar, análisis médicos de larga duración de sus tres tripulantes, observaciones multiespectrales de la Tierra y numerosos experimentos tecnológicos y científicos, como el crecimiento metálico-cristalino en ausencia de gravedad.

El Skylab se averió durante su lanzamiento el 25 de mayo de 1973, pero su tripulación, el veterano astronauta Conrad, Joseph P. Kerwin y Paul J, Weitz, lo reparó durante un paseo espacial. El vuelo duró 28 días. Una segunda tripulación pasó 59 días y una tercera 84. El programa Skylab se consideró un éxito. Se emplearon más de 740 horas en la observación del Sol con telescopios, se tomaron más de 175.000 fotografías de este astro y se obtuvieron unos 64 km de cinta con datos, además de 46.000 fotografías de la Tierra. El 11 de julio de 1979, al cumplir con su órbita número 34.981, el Skylab cayó a la Tierra, y sus fragmentos ardiendo se precipitaron sobre zonas habitadas del oeste de Australia y sobre el océano Índico.

El gobierno de Estados Unidos, en cooperación con Rusia, Canadá, Japón y los trece miembros de la Agencia Espacial Europea, está planeando una estación espacial para ser ensamblada en el espacio. Con el nombre de estación Alfa, se proyecta finalizar su construcción hacia el año 2003.

Programas actuales y futuros

A principios de los años ochenta, el Sistema de Transporte Espacial (STS, en inglés), más conocido como la lanzadera espacial, se convirtió en el mayor programa espacial de Estados Unidos. Al surgir problemas con el STS se decidió emplear vehículos de lanzamiento desechables (ELVs, en inglés). Estados Unidos tenía previsto sustituir la lanzadera espacial por una nueva nave, la X-30, en la década de los noventa, pero por dificultades presupuestarias se optó por utilizar una combinación de ELVs y lanzaderas para poner en órbita satélites y naves espaciales.

Lanzadera espacial

La lanzadera es un avión espacial tripulado multiuso, diseñado para despegar y entrar en órbita llevando naves de hasta 3.000 kg con siete tripulantes y pasajeros. La parte superior de la nave tenía una vida estimada de unas 100 misiones y a su regreso a la Tierra podía realizar maniobras de aterrizaje. Su versatilidad y su capacidad para desplegar, rescatar y reparar satélites en órbita, hizo que sus defensores la consideraran un gran adelanto en la exploración del espacio. Sin embargo, otras personas estimaron que la NASA estaba poniendo demasiada confianza en la nave, en detrimento de otras misiones no tripuladas.

La primera misión de la lanzadera espacial, pilotada por John W. Young y Robert Crippen a bordo de la nave Columbia, se inició el 1 de abril de 1981. Se trataba de un vuelo de pruebas en vacío. El quinto vuelo de la lanzadera espacial fue la primera misión real. Los astronautas de la Columbia desplegaron dos satélites de comunicaciones comerciales entre el 11 y 16 de noviembre. Entre los siguientes vuelos dignos de mención están el séptimo, entre cuya tripulación se encontraba la primera mujer astronauta estadounidense, Sally K. Ride; el noveno, entre el 28 de noviembre y el 8 de diciembre de 1983, que transportaba el primer Spacelab de la Agencia Espacial Europea; el undécimo, entre el 7 y el 13 de abril de 1984, durante el cual se rescató un satélite, se reparó y se volvió a desplegar; y el decimocuarto, entre el 8 y el 14 de noviembre de 1984, que rescató dos costosos satélites averiados para traerlos a la Tierra.

A pesar de estos éxitos, la lanzadera se estaba quedando atrasada respecto de los lanzamientos programados, se estaba utilizando cada vez más para pruebas militares y encontraba una fuerte competencia en el programa Ariane de la Agencia Espacial Europea, de vuelos no tripulados. Además, el 28 de enero de 1986 la lanzadera Challenger estalló al minuto de haber despegado, debido a un fallo en una junta en sus cohetes. Murieron siete astronautas: el comandante Francis R. Scobee, el piloto Michael J. Smith, los especialistas de la misión Judith A. Resnik, Ellison S. Onizuka, Ronald E. McNair, Gregory B. Jarvis y Christa McAuliffe. Esta última había sido seleccionada años atrás para ser la primera maestra en el espacio, y la representante civil del programa de la lanzadera. La tragedia paralizó completamente el programa de vuelos hasta que se analizaron y volvieron a diseñar todos los sistemas. Una comisión presidencial encabezada por el ex secretario de estado William Rogers y el veterano astronauta Neil Armstrong culpó del accidente a la NASA y a sus sistemas de mantenimiento del control de calidad.

A consecuencia del desastre del Challenger se volvieron a diseñar las juntas de los cohetes para evitar que se reprodujera el accidente del 28 de enero. La reanudación de los vuelos de la lanzadera tuvo lugar el 29 de septiembre de 1988 con el Discovery, que llevaba cinco astronautas a bordo. En esta misión se puso en órbita el satélite de comunicaciones de la NASA TDRS-3, y se llevaron a cabo numerosos experimentos. El éxito de esta misión animó a Estados Unidos a continuar su programa de vuelos espaciales. En 1990 la lanzadera desplegó el telescopio espacial Hubble, que había costado 1.500 millones de dólares, pero por una avería del sistema óptico no pudo funcionar con la resolución prevista, hasta que fue reparado en 1993.

Perspectivas

Con los contratiempos que supusieron el mal funcionamiento del telescopio espacial Hubble y las fugas en los tanques de combustible de hidrógeno de la lanzadera espacial, el programa espacial de Estados Unidos no parecía poder llegar a cumplir sus objetivos para la década de los noventa. Además de la estación espacial tripulada, uno de esos objetivos era la construcción de la nave X-30, que estaba proyectada para despegar como los aviones convencionales y autopropulsarse hasta llegar a la zona de órbita con potentes estatorreactores. Todavía ha de pasar bastante tiempo antes de abordar otros objetivos más ambiciosos, como el de establecer una base en la Luna y enviar astronautas a explorar el planeta Marte.

1




Descargar
Enviado por:Erika
Idioma: castellano
País: Venezuela

Te va a interesar