Perspectiva histórica y actual tecnológica

Tecnología. Evolución. Televisión. Disco compacto. Radio. Telégrafo. Microondas. Fibra óptica. Automóvil. Avión. Teléfono. Máquina de Vapor

  • Enviado por: Oso
  • Idioma: castellano
  • País: Chile Chile
  • 67 páginas
publicidad
publicidad

Tecnología, término general que se aplica al proceso a través del cual los seres humanos diseñan herramientas y máquinas para incrementar su control y su comprensión del entorno material. El término proviene de las palabras griegas tecné, que significa 'arte' u 'oficio', y logos, 'conocimiento' o 'ciencia', área de estudio; por tanto, la tecnología es el estudio o ciencia de los oficios.

Algunos historiadores científicos argumentan que la tecnología no es sólo una condición esencial para la civilización avanzada y muchas veces industrial, sino que también la velocidad del cambio tecnológico ha desarrollado su propio ímpetu en los últimos siglos. Las innovaciones parecen surgir a un ritmo que se incrementa en progresión geométrica, sin tener en cuenta los límites geográficos ni los sistemas políticos. Estas innovaciones tienden a transformar los sistemas de cultura tradicionales, produciéndose con frecuencia consecuencias sociales inesperadas. Por ello, la tecnología debe concebirse como un proceso creativo y destructivo a la vez.

Ciencia y tecnología

Los significados de los términos ciencia y tecnología han variado significativamente de una generación a otra. Sin embargo, se encuentran más similitudes que diferencias entre ambos términos.

Tanto la ciencia como la tecnología implican un proceso intelectual, ambas se refieren a relaciones causales dentro del mundo material y emplean una metodología experimental que tiene como resultado demostraciones empíricas que pueden verificarse mediante repetición. La ciencia, al menos en teoría, está menos relacionada con el sentido práctico de sus resultados y se refiere más al desarrollo de leyes generales; pero la ciencia práctica y la tecnología están inextricablemente relacionadas entre sí. La interacción variable de las dos puede observarse en el desarrollo histórico de algunos sectores.

En realidad, el concepto de que la ciencia proporciona las ideas para las innovaciones tecnológicas, y que la investigación pura, por tanto, es fundamental para cualquier avance significativo de la civilización industrial tiene mucho de mito. La mayoría de los grandes cambios de la civilización industrial no tuvieron su origen en los laboratorios. Las herramientas y los procesos fundamentales en los campos de la mecánica, la química, la astronomía, la metalurgia y la hidráulica fueron desarrollados antes de que se descubrieran las leyes que los gobernaban. Por ejemplo, la máquina de vapor era de uso común antes de que la ciencia de la termodinámica dilucidara los principios físicos que sostenían sus operaciones. Sin embargo, algunas actividades tecnológicas modernas, como la astronáutica y la energía nuclear, dependen de la ciencia.

En los últimos años se ha desarrollado una distinción radical entre ciencia y tecnología. Con frecuencia los avances científicos soportan una fuerte oposición, pero en los últimos tiempos muchas personas han llegado a temer más a la tecnología que a la ciencia. Para estas personas, la ciencia puede percibirse como una fuente objetiva y serena de las leyes eternas de la naturaleza, mientras que estiman que las manifestaciones de la tecnología son algo fuera de control.

La tecnología en la antigüedad y en la edad media

La tecnología ha sido un proceso acumulativo clave en la experiencia humana. Es posible que esto se comprenda mejor en un contexto histórico que traza la evolución de los primeros seres humanos, desde un periodo de herramientas muy simples a las redes complejas a gran escala que influyen en la mayor parte de la vida humana contemporánea. Con el fin de mantener la sencillez del siguiente resumen, se tratan con mayor detalle los desarrollos del mundo industrializado, pero también se incluyen algunos desarrollos de otras culturas.

La tecnología primitiva

Los artefactos humanos más antiguos que se conocen son las hachas manuales de piedra encontradas en África, en el este de Asia y en Europa. Datan, aproximadamente, del 250.000 a.C., y sirven para definir el comienzo de la edad de piedra. Los primeros fabricantes de herramientas fueron grupos nómadas de cazadores que usaban las caras afiladas de la piedra para cortar su comida y fabricar ropa y tiendas. Alrededor del 100.000 a.C., las cuevas de los ancestros homínidos de los hombres modernos (véase Hominización) contenían hachas ovaladas, rascadores, cuchillos y otros instrumentos de piedra que indicaban que el hacha de mano original se había convertido en una herramienta para fabricar otras herramientas. Muchos miembros del reino animal utilizan herramientas, pero esta capacidad para crear herramientas que, a su vez, sirvan para fabricar otras distingue a la especie humana del resto de los seres vivos.

El siguiente gran paso de la tecnología fue el control del fuego. Golpeando piedras contra piritas para producir chispas es posible encender fuego y liberarse de la necesidad de mantener los fuegos obtenidos de fuentes naturales. Además de los beneficios obvios de la luz y el calor, el fuego también se usó para cocer cacharros de arcilla, fabricando recipientes resistentes que podían utilizarse para cocinar cereales y para la infusión y la fermentación.

La tecnología primitiva no estaba centrada solamente en las herramientas prácticas. Se pulverizaron minerales de color para obtener pigmentos, que se aplicaban al cuerpo humano, a utensilios de arcilla, a cestas, ropa y otros objetos. En su búsqueda de pigmentos, las gentes de la antigüedad descubrieron el mineral verde llamado malaquita y el mineral azul denominado azurita. Cuando se golpeaban estas menas, ricas en cobre, no se convertían en polvo, sino que se doblaban; se podían pulir, pero no partir. Por estas cualidades, el cobre en trozos pequeños se introdujo muy pronto en la joyería.

Estos pueblos también aprendieron que, si este material era forjado repetidamente y puesto al fuego, no se partía ni se agrietaba. Este proceso de eliminación de tensiones del metal, llamado recocido, fue introducido por las civilizaciones de la edad de piedra, sobre todo cuando hacia el año 3000 a.C. se descubrió también que la aleación de estaño y cobre producía bronce. El bronce no es sólo más maleable que el cobre, sino que también proporciona una mejor arista, una cualidad necesaria para objetos como hoces y espadas.

Aunque había depósitos de cobre en Siria y Turquía, en las cabeceras de los ríos Tigris y Éufrates, los mayores depósitos de cobre del mundo antiguo se encontraron en la isla de Creta. Con el desarrollo de barcos capaces de navegar para llegar a este recurso extremadamente valioso, Knósos (en Creta) se convirtió en un rico centro minero durante la edad del bronce.

Desarrollo de la agricultura

Cuando llegó la edad del bronce, las distintas sociedades distribuidas por cada continente habían conseguido ya varios avances tecnológicos. Se desarrollaron arpones con púas, el arco y las flechas, las lámparas de aceite animal y las agujas de hueso para fabricar recipientes y ropa. También se embarcaron en una revolución cultural mayor, el cambio de la caza y la recolección nómada a la práctica sedentaria de la agricultura.

Las primeras comunidades agrícolas surgieron al final de la glaciación más reciente (hacia el año 10.000 a.C.). Sus huellas pueden encontrarse en áreas muy lejanas entre sí, desde el sureste de Asia hasta México. Las más famosas se dieron en Mesopotamia (el Irak actual) en los valles de las riberas fértiles y templadas del Tigris y el Éufrates. El suelo de estas fértiles laderas se trabajaba con facilidad para plantar, y contaba con un gran número de árboles para obtener leña.

Hacia el año 5000 a.C., las comunidades agrícolas se establecieron en muchas partes del mundo, incluidas las áreas conocidas hoy como Siria, Turquía, Líbano, Israel, Jordania, Grecia, y las islas de Creta y Chipre. Las sociedades agrícolas construyeron en estos lugares edificaciones de piedra, usaron la hoz para cosechar los cereales, desarrollaron un arado primitivo y mejoraron sus técnicas en el trabajo con metales. También comenzó el comercio de piedras. Hacia el 4000 a.C., la agricultura se extendió desde estos centros hacia el Oeste al río Danubio en Europa central, hacia el Sur a las costas del Mediterráneo de África (incluido el río Nilo), y hacia el Este hasta el valle del Indo.

El desarrollo de la cuenca del Nilo aportó otros avances tecnológicos. En ese valle, el río se inunda al comienzo de la primavera. Tuvo que desarrollarse un sistema de irrigación y canales para regar los cultivos durante las estaciones de cosecha, cuando la lluvia es insuficiente. La propiedad de la tierra tenía que determinarse cada año mediante un sistema de medición, ya que los marcadores de la propiedad se perdían con frecuencia con las inundaciones. Los valles del Tigris y el Éufrates presentaban otros problemas tecnológicos. Las inundaciones se producían después de la estación de cosecha, por lo que era necesario aprender la técnica de construir diques y barreras para las inundaciones.

Otros descubrimientos primitivos

Para ayudar al transporte eficiente de minerales para la creciente industria del cobre se construyeron carros de dos ruedas (la rueda más antigua databa aproximadamente del año 3500 a.C. en Mesopotamia). Sin embargo, los medios de transporte más utilizados fueron los barcos de juncos y las balsas de madera, que surgieron primero en Mesopotamia y Egipto. Un resultado importante del mercado de la cerámica, los metales y las materias primas fue la creación de una marca o sello, que se usaba para identificar a los creadores o propietarios particulares.

La tecnología también comenzó a manifestar otro de sus efectos, una alteración mayor del entorno por la introducción de nuevas prácticas: por ejemplo, la demanda de leña condujo a la deforestación, y el pastoreo excesivo de ovejas y de ganado vacuno provocó que crecieran menos árboles nuevos en las tierras pobres de la región. Así, la doma de animales, la agricultura de monocultivo, la deforestación y las inundaciones periódicas llevaron a la aparición gradual de áreas desérticas.

El desarrollo de las ciudades

Después del año 4000 a.C. apareció una de las creaciones más complejas de la humanidad: la ciudad. Desde este punto de vista, la tecnología no puede describirse sólo en términos de herramientas simples, avances agrícolas y procesos técnicos como la metalurgia, ya que la ciudad es en sí misma un sistema tecnológico. Éste es un hecho evidente en los primeros símbolos escritos que se usaron para representar una ciudad: un círculo con redes de líneas que indicaban los primeros sistemas de transporte y comunicaciones.

La aparición de la ciudad hizo posible un excedente de alimentos y una abundancia de riqueza material que posibilitó la construcción de templos, tumbas y amurallamientos. La acumulación de metales preciosos, la construcción de murallas defensivas, y el control de los ejércitos y los sacerdotes aseguraron la ascendencia del rey, al que puede denominarse el primer tecnólogo urbano.

Los zigurats de Mesopotamia y las pirámides de Egipto o México simbolizan el poder organizativo y la magnitud tecnológica de los primeros asentamientos urbanos.

La construcción de estas edificaciones y monumentos enormes, el crecimiento del mercado de los productos de metal y el desarrollo de los recursos acuíferos también llevó a una normalización de los sistemas de medida. En Mesopotamia, el codo se convirtió en el patrón de longitud. El tiempo se medía en Egipto con un calendario que dividía el ciclo anual de estaciones en meses y días (véase Arqueoastronomía).

El crecimiento de las ciudades también estimuló una necesidad mayor de escribir. Los egipcios mejoraron la tabla de arcilla, que era difícil de manejar, con la fabricación de un material similar al papel sobre el cual escribían con jeroglíficos. Este material se fabricaba utilizando la planta del papiro. Además, la ciudad provocó una nueva división del trabajo: el sistema de castas. Esta estructura proporcionaba seguridad, estatus social y ocio a la clase intelectual de los escribas, médicos, profesores, ingenieros, magos y adivinadores. Sin embargo, el ejército contaba con los mayores recursos.

El auge del ejército

Las primeras ciudades fueron también construidas dentro de murallas para defenderse; estaban organizadas para la batalla y la conquista. Los centros urbanos de Ur, Nippur, Uruk, Tebas, Heliópolis, Assur, Nínive y Babilonia fueron arsenales de armamento destructivo. El objetivo de una fuerza militar era devastar la ciudad de su enemigo. Ur, en Sumeria, no fue sólo una de las primeras grandes ciudades en alzarse (hacia el 4000 a.C.), sino que también fue una de las primeras destruidas (aproximadamente en el 2000 a.C.). De modo similar, en el valle del Indo, la gran ciudad de Mohenjo-Daro fue fundada sobre el 2500 a.C. y destruida hacia el 1700 a.C. por los ejércitos de carros del norte. El mismo ejemplo se repitió en Perú y en Ecuador hacia el año 1000 a.C. y más tarde en México y Centroamérica.

La tecnología militar del mundo antiguo de desarrolló en tres fases inconexas. En la primera fase, surgió la infantería con sus cascos de piel o de cobre, arcos, lanzas, escudos y espadas. A esta fase le siguió el desarrollo de los carros, que al principio fueron vehículos pesados para el uso de los comandantes. La inclusión posterior de radios en las ruedas para aligerarlas, y un bocado y una brida para el caballo, hizo del carro una máquina de guerra ligera que podía aventajar a la infantería enemiga. La tercera fase se centró en el incremento de la movilidad y la velocidad de la caballería. Los asirios, con su conocimiento del armamento de hierro y sus espléndidos jinetes, dominaron la mayoría del mundo civilizado entre el 1200 y el 612 a.C.

Con la introducción del estribo en Asia, aproximadamente en el siglo II a.C., los jinetes eran capaces de obtener mejor estabilidad en la lucha con espada, e hicieron que los carros de guerra quedaran obsoletos. Las unidades de caballería de ataque rápido, que se observaron primero en Egipto y Persia, se convirtieron en las principales fuerzas militares. Con su aparición surgió la necesidad de mejores transportes y sistemas de comunicación. Los persas fueron los primeros en desarrollar una red de carreteras y estaciones de parada para recorrer su vasto imperio, que se extendía desde el Punjab al mar Mediterráneo.

Tecnología griega y romana

El Imperio persa de Ciro II el Grande fue derrotado y sucedido por el imperio creado por Alejandro Magno (véase Periodo helenístico). Los griegos fueron los primeros en convertirse en una potencia, a través de sus conocimientos en astilleros y comercio, y mediante su colonización de las costas del Mediterráneo. La derrota de los persas se debió en parte al poder naval griego.

Los persas y los griegos también introdujeron una nueva casta dentro de la división del trabajo: la esclavitud. Durante la edad de oro griega, su civilización dependía de los esclavos en todo lo concerniente al trabajo manual. La mayoría de los sabios estaban de acuerdo en que en las sociedades donde se practicaba la esclavitud los problemas de la productividad se resolvían mediante el incremento del número de trabajadores, antes que por los métodos nuevos de producción o nuevas fuentes energéticas. Debido a esto, los conocimientos teóricos y la enseñanza en Grecia (y posteriormente en Roma) estuvieron muy alejados del trabajo físico y de la fabricación.

Esto no quiere decir que los griegos no desarrollaran nuevas ideas tecnológicas. Arquímedes, Herón de Alejandría, Ctesías y Tolomeo escribieron sobre los principios de sifones, poleas, palancas, manivelas, bombas contra incendios, ruedas dentadas, válvulas y turbinas. Algunas contribuciones prácticas importantes de los griegos fueron el reloj de agua de Ctesías, la dioptra (un instrumento de topografía) de Herón de Alejandría y el tornillo hidráulico de Arquímedes. Del mismo modo, Tales de Mileto mejoró la navegación al introducir métodos de triangulación y Anaximandro dio forma al primer mapa del mundo. No obstante, los avances tecnológicos de los griegos no fueron a la par con sus contribuciones al conocimiento teórico.

El Imperio romano que conquistó y sucedió al de los griegos fue similar en este aspecto. Los romanos, sin embargo, fueron grandes tecnólogos en cuanto a la organización y la construcción. Establecieron una civilización urbana que disfrutó del primer periodo largo de paz en la historia de la humanidad. El primer gran cambio que se produjo en este periodo fue en la ingeniería con la construcción de enormes sistemas de obras públicas. Con el uso de cemento resistente al agua y el principio del arco, los ingenieros romanos construyeron 70.800 km de carreteras a través de su vasto imperio. También construyeron numerosos circos, baños públicos y cientos de acueductos, alcantarillas y puentes; asimismo fueron responsables de la introducción del molino de agua y del posterior diseño de ruedas hidráulicas con empuje superior e inferior, que se usaron para moler grano, aserrar madera y cortar mármol. En el ámbito militar, los romanos avanzaron tecnológicamente con la mejora de armas, como la jabalina y la catapulta (véase Artillería).

La edad media

El periodo histórico transcurrido entre la caída de Roma y el renacimiento (aproximadamente del 400 al 1500) se conoce como edad media. En contra de la creencia popular, se produjeron grandes avances tecnológicos en este periodo. Además, las culturas bizantina e islámica que prosperaron en esta época, tuvieron una importante actividad en las áreas de la filosofía natural, el arte, la literatura, la religión, y en particular la cultura islámica aportó numerosas contribuciones científicas, que tendrían gran importancia en el renacimiento europeo. La sociedad medieval se adaptaba fácilmente, y estaba dispuesta a adquirir nuevas ideas y nuevos métodos de producción a partir de cualquier fuente, viniera de las culturas del islam y Bizancio, China, o de los lejanos vikingos.

La guerra y la agricultura

En el área de la guerra, se mejoró la caballería como arma militar, con la invención de la lanza y la silla de montar hacia el siglo IV; se desarrolló también la armadura más pesada, la cría de caballos más grandes y la construcción de castillos. La introducción de la ballesta, y más tarde de la técnica de la pólvora desde China, llevó a la fabricación de pistolas, cañones y morteros (a través del desarrollo de la cámara de explosión), reduciendo de este modo la efectividad de los escudos pesados y de las fortificaciones de piedra.

Una de las máquinas más importantes de la época medieval fue el molino, que no sólo incrementó la cantidad de grano molido y de madera aserrada, sino que también favoreció la formación de molineros expertos en manivelas compuestas, levas y otras técnicas de movimiento de máquinas y combinación de sus partes con otros dispositivos. La rueda de hilado, que se introdujo desde la India en el siglo XIII o XIV, mejoró la producción de hilo y la costura de la ropa y se convirtió en una máquina común en el hogar. El hogar, en sí mismo, también se transformó con la inclusión de una chimenea, que ahorraba la madera cada vez más escasa debido a la expansión agrícola. Hacia el año 1000, los excedentes agrícolas, debidos a varias mejoras en el arado, llevaron a un incremento del comercio y al crecimiento de las ciudades. En éstas se desarrollaron las innovaciones arquitectónicas de muchos reinos, para culminar en grandiosas catedrales góticas de altos muros, posibles gracias a los arbotantes.

El transporte

Las innovaciones en el transporte durante la edad media ampliaron la difusión de la tecnología a través de grandes áreas. Algunos elementos como la herradura, el árbol de varas (para enjaezar de forma efectiva los caballos a los carros) y el coche de caballos aceleraron el transporte de personas y mercancías. Se produjeron también cambios importantes en la tecnología marina. El desarrollo de la quilla, la vela latina triangular para una mayor maniobrabilidad, y de la brújula magnética (en el siglo XIII) hicieron de los barcos veleros las máquinas más complejas de la época. El príncipe Enrique de Portugal creó una escuela para enseñar a los navegantes cómo usar correctamente estas máquinas. Quizás los estudiantes del príncipe Enrique hicieron más de lo que habían hecho las teorías astronómicas de Copérnico, al cambiar la percepción que tenía la humanidad del mundo (véase Navegación).

Otros inventos importantes

Otros dos inventos medievales, el reloj y la imprenta, tuvieron gran influencia en todos los aspectos de la vida humana. La invención de un reloj con péndulo en 1286 hizo posible que la gente no siguiera viviendo en un mundo estructurado diariamente por el curso del Sol, y cada año por el cambio de estaciones. El reloj fue además una ayuda inmensa para la navegación, y la medida precisa del tiempo fue esencial para el desarrollo de la ciencia moderna.

La invención de la imprenta, a su vez, provocó una revolución social que no se ha detenido todavía. Los chinos habían desarrollado tanto el papel como la imprenta antes del siglo II d.C., pero esas innovaciones no alcanzaron demasiada expansión en el mundo occidental hasta mucho más tarde. El pionero de la imprenta, el alemán Johann Gutenberg, solucionó el problema del moldeo de tipos móviles en el año 1450. Una vez desarrollada, la imprenta se difundió rápidamente y comenzó a reemplazar a los textos manuscritos. De este modo, la vida intelectual no continuó siendo dominio de la Iglesia y el Estado, y la lectura y la escritura se convirtieron en necesidades de la existencia urbana.

La tecnología en la edad moderna

Al final de la edad media, los sistemas tecnológicos denominados ciudades hacía mucho que eran la característica principal de la vida occidental. En 1600, Londres y Amsterdam tenían poblaciones superiores a 100.000 habitantes, y París duplicaba esa cantidad. Además, los alemanes, los ingleses, los españoles y los franceses comenzaron a desarrollar imperios mundiales. A principios del siglo XVIII, los recursos de capital y los sistemas bancarios estaban lo suficientemente bien establecidos en Gran Bretaña como para iniciar la inversión en las técnicas de producción en serie que satisfarían algunas de esas aspiraciones de la clase media.

La Revolución Industrial

La Revolución Industrial comenzó en Inglaterra porque este país tenía los medios técnicos precisos, un fuerte apoyo institucional y una red comercial amplia y variada. Los cambios económicos, incluida una mayor distribución de la riqueza y un aumento del poder de la clase media, la pérdida de importancia de la tierra como fuente fundamental de riqueza y poder, y los negocios oportunistas, contribuyeron a que la Revolución Industrial comenzara en Gran Bretaña. Las primeras fábricas aparecieron en 1740, concentrándose en la producción textil (véase Sistema industrial). En esa época, la mayoría de los ingleses usaban prendas de lana, pero en 100 años las prendas de lana ásperas se vieron desplazadas por el algodón, especialmente tras la invención de la desmotadora de algodón del estadounidense Eli Whitney en 1793. Algunas inventos británicos, como la cardadora y las máquinas de lanzadera volante de John Kay, la máquina de hilar algodón de James Hargreaves y las mejoras en los telares realizadas por Samuel Cromptom fueron integrados con una nueva fuente de potencia: la máquina de vapor, desarrollada en Gran Bretaña por Thomas Newcomen, James Watt y Richard Trevithick, y en Estados Unidos por Oliver Evans. En un periodo de 35 años, desde la década de 1790 hasta la de 1830, se pusieron en marcha en las islas Británicas más de 100.000 telares mecánicos.

Una de las innovaciones más importantes en el proceso de telares fue introducida en Francia en 1801 por Joseph Jacquard. Su telar usaba tarjetas con perforaciones para determinar la ubicación del hilo en la urdimbre. El uso de las tarjetas perforadas inspiró al matemático Charles Babbage para intentar diseñar una máquina calculadora basada en el mismo principio. A pesar de que la máquina no se convirtió nunca en realidad, presagiaba la gran revolución de las computadoras de la última parte del siglo XX.

Nuevas prácticas laborales

La Revolución Industrial condujo a un nuevo modelo de división del trabajo, creando la fábrica moderna, una red tecnológica cuyos trabajadores no necesitan ser artesanos y no tienen que poseer conocimientos específicos. Por ello, la fábrica introdujo un proceso de remuneración impersonal basado en un sistema de salarios. Como resultado de los riesgos financieros asumidos por los sistemas económicos que acompañaban a los desarrollos industriales, la fábrica condujo también a los trabajadores a la amenaza constante del despido.

El sistema de fábricas triunfó después de una gran resistencia por parte de los gremios ingleses y de los artesanos, que veían con claridad la amenaza sobre sus ingresos y forma de vida. En la fabricación de mosquetes, por ejemplo, los armeros lucharon contra el uso de partes intercambiables y la producción en serie de rifles. Sin embargo, el sistema de fábricas se convirtió en una institución básica de la tecnología moderna, y el trabajo de hombres, mujeres y niños se convirtió en otra mera mercancía dentro del proceso productivo. El montaje final de un producto (ya sea una segadora mecánica o una máquina de coser) no es el trabajo de una persona, sino el resultado de un sistema integrado y colectivo. Esta división del trabajo en operaciones, que cada vez se especificaba más, llegó a ser la característica determinante del trabajo en la nueva sociedad industrial, con todas las horas de tedio que esto supone.

Aceleración de las innovaciones

Al aumentar la productividad agrícola y desarrollarse la ciencia médica, la sociedad occidental llegó a tener gran fe en lo positivo del cambio tecnológico, a pesar de sus aspectos menos agradables. Algunas realizaciones de ingeniería como la construcción del canal de Suez, el canal de Panamá y la torre Eiffel (1889) produjeron orgullo y, en gran medida, asombro. El telégrafo y el ferrocarril interconectaron la mayoría de las grandes ciudades. A finales del siglo XIX, la bombilla (foco) inventada por Thomas Alva Edison comenzó a reemplazar a las velas y las lámparas. En treinta años todas las naciones industrializadas generaban potencia eléctrica para el alumbrado y otros sistemas.

Algunos inventos del siglo XIX y XX, como el teléfono, la radio, el automóvil con motor y el aeroplano sirvieron no sólo para mejorar la vida, sino también para aumentar el respeto universal que la sociedad en general sentía por la tecnología. Con el desarrollo de la producción en serie con cadenas de montaje para los automóviles y para aparatos domésticos, y la invención aparentemente ilimitada de más máquinas para todo tipo de tareas, la aceptación de las innovaciones por parte de los países más avanzados, sobre todo en Estados Unidos, se convirtió no sólo en un hecho de la vida diaria, sino en un modo de vida en sí mismo. Las sociedades industriales se transformaron con rapidez gracias al incremento de la movilidad, la comunicación rápida y a una avalancha de información disponible en los medios de comunicación.

La I Guerra Mundial y la Gran Depresión forzaron un reajuste de esta rápida explosión tecnológica. El desarrollo de los submarinos, armas, acorazados y armamento químico hizo ver más claramente la cara destructiva del cambio tecnológico. Además, la tasa de desempleados en todo el mundo y los desastres provocados por las instituciones capitalistas en la década de 1930 suscitaron en algunos sectores la crítica más enérgica sobre los beneficios que resultaban del progreso tecnológico.

Con la II Guerra Mundial llegó el desarrollo del arma que desde entonces constituye una amenaza general para la vida sobre el planeta: la bomba atómica. El gran programa para fabricar las primeras bombas atómicas durante la guerra, el Proyecto Manhattan, fue el esfuerzo tecnológico más grande y más caro de la historia hasta la fecha. Este programa abrió una época no sólo de armamento de destrucción en masa, sino también de ciencia de alto nivel, con proyectos tecnológicos a gran escala, que a menudo financiaban los gobiernos y se dirigían desde importantes laboratorios científicos. Una tecnología más pacífica surgida de la II Guerra Mundial (el desarrollo de las computadoras, transistores, electrónica y las tendencias hacia la miniaturización) tuvo un efecto mayor sobre la sociedad (véase Microprocesador). Las enormes posibilidades que se ofrecían se fueron convirtiendo rápidamente en realidad; esto trajo consigo la sustitución de la mano de obra por sistemas automatizados y los cambios rápidos y radicales en los métodos y prácticas de trabajo.

Logros y beneficios tecnológicos

Dejando a un lado los efectos negativos, la tecnología hizo que las personas ganaran en control sobre la naturaleza y construyeran una existencia civilizada. Gracias a ello, incrementaron la producción de bienes materiales y de servicios y redujeron la cantidad de trabajo necesario para fabricar una gran serie de cosas. En el mundo industrial avanzado, las máquinas realizan la mayoría del trabajo en la agricultura y en muchas industrias, y los trabajadores producen más bienes que hace un siglo con menos horas de trabajo. Una buena parte de la población de los países industrializados tiene un mejor nivel de vida (mejor alimentación, vestimenta, alojamiento y una variedad de aparatos para el uso doméstico y el ocio). En la actualidad, muchas personas viven más y de forma más sana como resultado de la tecnología.

En el siglo XX los logros tecnológicos fueron insuperables, con un ritmo de desarrollo mucho mayor que en periodos anteriores. La invención del automóvil, la radio, la televisión y teléfono revolucionó el modo de vida y de trabajo de muchos millones de personas. Las dos áreas de mayor avance han sido la tecnología médica, que ha proporcionado los medios para diagnosticar y vencer muchas enfermedades mortales, y la exploración del espacio (véase Astronáutica), donde se ha producido el logro tecnológico más espectacular del siglo: por primera vez los hombres consiguieron abandonar y regresar a la biosfera terrestre.

Efectos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos resultados de la tecnología que también poseen aspectos destructivos y perjudiciales. De la década de 1970 a la de 1980, el número de estos resultados negativos ha aumentado y sus problemas han alcanzado difusión pública. Los observadores señalaron, entre otros peligros, que los tubos de escape de los automóviles estaban contaminando la atmósfera, que los recursos mundiales se estaban usando por encima de sus posibilidades, que pesticidas como el DDT amenazaban la cadena alimenticia, y que los residuos minerales de una gran variedad de recursos industriales estaban contaminando las reservas de agua subterránea. En las últimas décadas, se argumenta que el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen. Véase Lluvia ácida; Contaminación atmosférica; Conservación; Ecología; Capa de ozono; Lluvia radiactiva. Los problemas originados por la tecnología son la consecuencia de la incapacidad de predecir o valorar sus posibles consecuencias negativas. Se seguirán sopesando las ventajas y las desventajas de la tecnología, mientras se aprovechan sus resultados.

Alternativas propuestas

El concepto denominado tecnología apropiada, conveniente o intermedia se acepta como alternativa a los problemas tecnológicos de las naciones industrializadas y, lo que es más importante, como solución al problema del desequilibrio social provocado por la transferencia de tecnologías avanzadas a países en vías de desarrollo. Se dice que el carácter arrollador de la tecnología moderna amenaza a ciertos valores, como la calidad de vida, la libertad de elección, el sentido humano de la medida y la igualdad de oportunidades ante la justicia y la creatividad individual. Los defensores de este punto de vista proponen un sistema de valores en el que las personas reconozcan que los recursos de la Tierra son limitados y que la vida humana debe reestructurarse alrededor del compromiso de controlar el crecimiento de la industria, el tamaño de las ciudades y el uso de la energía. La restauración y la renovación de los recursos naturales son los principales objetivos tecnológicos.

Además se ha argumentado que, como la sociedad moderna ya no vive en la época industrial del siglo XIX y principios del XX (y que la sociedad postindustrial es ya una realidad), las redes complejas posibles gracias a la electrónica avanzada harán obsoletas las instituciones de los gobiernos nacionalistas, las corporaciones multinacionales y las ciudades superpobladas.

La tecnología ha sido siempre un medio importante para crear entornos físicos y humanos nuevos. Sólo durante el siglo XX se hizo necesario preguntar si la tecnología destruiría total o parcialmente la civilización creada por el ser humano.

Perspectivas

A lo largo del siglo XX la tecnología se extendió desde Europa y Estados Unidos a otras naciones importantes como Japón y la antigua Unión Soviética, pero en ningún caso lo hizo a todos los países del mundo. Muchos de los países de los denominados en vías de desarrollo no han experimentado nunca el sistema de fábricas ni otras instituciones de la industrialización, y muchos millones de personas sólo disponen de la tecnología más básica. La introducción de la tecnología occidental ha llevado a menudo a una dependencia demasiado grande de los productos occidentales. Para la población de los países en vías de desarrollo que depende de la agricultura de subsistencia tiene poca relevancia este tipo de tecnologías. En los últimos años, grupos de ayuda occidentales han intentado desarrollar tecnologías apropiadas, usando las técnicas y materiales de los pueblos indígenas.

Televisión (TV), transmisión instantánea de imágenes, tales como fotos o escenas, fijas o en movimiento, por medios electrónicos a través de líneas de transmisión eléctricas o radiación electromagnética (ondas de radio).

Imágenes de televisión

La fotolitografía corriente se caracteriza por la división de la imagen en una enorme cantidad de puntos pequeños luminosos u oscuros. La transmisión facsímil (fax), sistema de transmisión eléctrica de fotografías, dibujos o elementos impresos, también se basa en esta subdivisión en puntos. En ambos casos, los puntos son tan pequeños y tan numerosos que la imagen aparece al ojo del observador como un todo integrado. Las imágenes de televisión están formadas análogamente por un esquema de elementos tonales que configuran una imagen completa. Sin embargo, a diferencia de los puntos de un grabado o de la transmisión facsímil, que aparecen simultáneamente en la superficie del papel, los diferentes elementos tonales de la imagen de televisión aparecen en la superficie de proyección uno tras otro en una secuencia temporal; forman la imagen porque la persistencia de la visión los combina para formar una imagen completa.

Exploración de imágenes

La subdivisión de una imagen en una secuencia de elementos individuales que más tarde pueden volver a combinarse con el fin de recrear dicha imagen, se efectúa mediante una técnica denominada captación de imágenes. El objetivo va pasando por toda la imagen de forma análoga a como el ojo del lector recorre una página escrita, palabra a palabra y línea a línea. Esa exploración genera una señal eléctrica proporcional a la luminosidad del punto explorado. En el receptor, un segundo dispositivo recrea la imagen del objeto desplazando un punto de luz, modulado por la señal, en sincronismo perfecto con la captación del transmisor.

Hay diferentes medios de exploración, tanto mecánicos como eléctricos, algunos de los cuales se describen en este artículo (véase Historia más adelante). Sin embargo, casi todos los sistemas modernos de televisión utilizan el movimiento de un haz de electrones que recorre la pantalla de los tubos tomavistas o de los tubos receptores. La ventaja de la exploración mediante haz de electrones radica en que puede desplazarse con mayor rapidez y puede explorar una imagen completa en una fracción de segundo.

Un esquema completo de exploración de barrido, como el representado, produce una única imagen estática, análoga a un único fotograma de una película. Al repetir el esquema varias veces por segundo, se registran los cambios de la imagen en movimiento, produciendo para el observador la sensación de movimiento continuo.

Cuanto mayor sea el número de líneas de barrido vertical en una imagen, y cuanto mayor sea el número de elementos registrados en cada línea según se explora de izquierda a derecha, mayor es la definición o capacidad de la imagen para mostrar detalles minúsculos u objetos pequeños. En televisión, la frecuencia de repetición del esquema y el número utilizado de líneas de barrido tiene que ser estándar para un determinado sistema. Para mayor comodidad, estas normas de televisión se fijan para todas las emisoras y receptores de cada país. En Europa y algunas otras partes del mundo se utiliza el sistema PAL (Phase Alternate Line), compuesto por 625 líneas y 25 imágenes por segundo que proporcionan una alta definición, ya que al transmitir cada fotograma como dos campos, se ven unas 50 imágenes por segundo. En Estados Unidos, sin embargo, las emisoras y los fabricantes de receptores adoptaron la norma de 525 líneas horizontales por fotograma y una frecuencia de 30 fotogramas por segundo. El sistema francés SECAM (Color Secuencial de Memoria) tiene 525 líneas con 30 fotogramas por segundo. España también utiliza este sistema. Según se incrementa el número de líneas y elementos se obtienen imágenes de televisión más nítidas.

La señal de televisión

La señal de televisión es una compleja onda electromagnética (véase Electromagnetismo) de variación de tensión o intensidad, compuesta por las siguientes partes: 1) una serie de fluctuaciones correspondientes a las fluctuaciones de la intensidad de luz de los elementos de la imagen a explorar; 2) una serie de impulsos de sincronización que adaptan el receptor a la misma frecuencia de barrido que el transmisor; 3) una serie adicional de los denominados impulsos de borrado, y 4) una señal de frecuencia modulada (FM) que transporta el sonido que acompaña a la imagen. Los tres primeros elementos conforman la señal de vídeo y se describen más adelante.

Las fluctuaciones de intensidad o tensión correspondientes a las variaciones de la intensidad de la luz, suelen llamarse señal de vídeo. Las frecuencias de dicha señal oscilan entre 30 millones y 4 millones de Hz, dependiendo del contenido de la imagen.

Los impulsos de sincronización son picos pequeños de energía eléctrica generados por los correspondientes osciladores en la estación emisora. Estos impulsos controlan la velocidad del barrido horizontal y vertical tanto de la cámara como del receptor. Los impulsos de sincronismo horizontal se producen a intervalos de 0,01 segundos y su duración es prácticamente la misma.

Los impulsos de borrado anulan el haz de electrones en la cámara y en el receptor durante el tiempo empleado por el haz de electrones en volver desde el final de una línea horizontal hasta el principio de la siguiente, así como desde la parte inferior del esquema vertical hasta la parte superior. La sincronización y estructura de estos impulsos resultan extremadamente complejas.

Cámaras de televisión

La cámara de televisión se asemeja a una cámara fotográfica normal por cuanto va equipada con una o varias lentes y un mecanismo de enfoque de la imagen formada por la lente sobre una superficie sensible. Estas superficies forman parte de tubos electrónicos llamados tubos tomavistas, capaces de transformar las variaciones de la intensidad de la luz en variaciones de la carga o corriente eléctrica. El tubo tomavistas original fue el iconoscopio, utilizado durante mucho tiempo para televisar películas. En el caso de escenas con un nivel de luminosidad bajo, como en las salas o habitaciones normalmente iluminadas, se utiliza el orticón de imagen de alta sensibilidad o vidicón.

Iconoscopio

Al igual que el tubo tomavistas, el iconoscopio presenta varios inconvenientes. Uno de los mayores es que exige una iluminación enorme del sujeto para producir una señal útil. Si se están utilizando las cámaras de televisión dentro de un estudio bajo condiciones controladas de luz, este inconveniente no es importante, pero el iconoscopio no se puede utilizar para televisar acontecimientos en condiciones adversas de luz.

Orticón de imágenes

A fin de solventar esta dificultad se han inventado diferentes tubos tomavistas. El más sensible de todos es el orticón de imagen, representado en la figura 2. La sensibilidad de este tubo es tal que es capaz de producir una señal en cualquier condición de luz que resulte aceptable para el ojo humano; a efectos de demostración, el orticón ha llegado a producir señales válidas de televisión en escenas iluminadas únicamente por velas. Otra ventaja del orticón es la de utilizar una pantalla relativamente pequeña que se puede incorporar a cualquier cámara de tamaño medio.

El orticón lleva un mosaico plano de cristal en uno de sus extremos. La cara interior del mosaico va recubierta por una capa continua de un compuesto alcalino intermetálico que constituye una superficie fotoeléctrica sensible. La emisión de electrones por parte de la capa se somete a aceleración y mediante un campo magnético (véase Magnetismo) se enfoca sobre un cristal de muy baja conductividad eléctrica, la llamada placa acumuladora. En frente de la placa hay una pantalla de malla metálica con unos 155.000 orificios por centímetro cuadrado. Detrás de la placa, un anillo concéntrico metálico recubierto en la parte interior del tubo constituye el elemento de desaceleración, y por detrás del anillo hay una capa en el cuello del tubo que actúa de ánodo, es decir, de electrodo con carga negativa. Al final del tubo hay un cañón de electrones que genera un haz de electrones y una estructura denominada multiplicador de electrones.

Los electrones emitidos por la superficie fotosensible inciden en la placa, produciendo la emisión de electrones secundarios en una proporción de varios de ellos por cada electrón que llega a la placa desde la superficie fotosensible. Esta emisión secundaria genera una nube de cargas positivas en la placa que equivale a la imagen luminosa de la superficie fotosensible. En esta imagen de cargas, las zonas luminosas son más positivas y las oscuras menos. Los electrones secundarios son captados por la pantalla de malla. El cristal que se utiliza para la placa es tan fino que las diferentes cargas positivas en la parte exterior pasan a través de la parte interior de la placa, neutralizando las cargas negativas depositadas por el haz de barrido.

Este mecanismo de barrido del tubo está constituido por el cañón de electrones, por el ánodo cilíndrico en el cuello del tubo, que conjuntamente actúan como origen de un haz de electrones, y un juego de bobinas deflectoras (no representadas en la figura 2) colocadas fuera del tubo igual que las bobinas deflectantes del iconoscopio. El haz de barrido se ve frenado, justo antes de incidir en la placa, por la acción del anillo desacelerador de carga negativa y alcanza la placa sin la energía suficiente para neutralizar los electrones secundarios que sobrepasan en número a los electrones del haz. A medida que el haz incide sobre cada una de las partes del patrón de cargas eléctricas positivas en la placa, suelta suficientes electrones como para neutralizar la carga positiva en dicha parte de la placa. Los electrones restantes se reflejan de nuevo hacia el cañón de electrones y su multiplicador asociado. En las áreas con mayor carga positiva, que corresponden a las zonas luminosas de la imagen, se necesitan más electrones para neutralizar la carga, reflejándose menos electrones.

El multiplicador de electrones —que forma un disco alrededor de la abertura a través de la cual `dispara' el cañón de electrones, seguido de varios elementos simétricos detrás del disco— actúa como un elemento amplificador mediante la emisión de electrones secundarios. El primer disco de un orticón de imagen suele estar a un voltaje de 200 V y los elementos posteriores, o dinodos, tienen una tensión positiva mayor. Los electrones que inciden en el disco liberan electrones secundarios que, a su vez, liberan todavía más al pasar de un dinodo a otro. En consecuencia, la señal de la cámara se multiplica al pasar de un elemento al siguiente.

Vidicón

Otro de los tipos de tubo tomavistas utilizado en la transmisión moderna de televisión es el vidicón. La imagen se proyecta sobre una placa fotoconductora, por lo general una capa fina de una sustancia como el trisulfato de antimonio, que presenta una conductividad eléctrica variable que aumenta con la exposición a la luz. Este material fotoconductor se aplica sobre un electrodo conductor transparente que actúa como la placa de señal y tiene carga positiva con respecto a la fuente del haz de electrones. Este haz, enfocado y desviado igual que en el caso del orticón de imagen, deposita una cantidad suficiente de electrones sobre la placa para compensar la carga que ha perdido desde el barrido anterior sobre ese mismo punto. Esta carga es mayor en las zonas iluminadas de la placa que en las oscuras. El desplazamiento de la carga en el generador de la señal, que es igual a la carga depositada por el haz, genera la señal de vídeo en la entrada del amplificador acoplado al tubo.

El plumbicón, variante del vidicón, presenta ciertas características, como la ausencia de retraso (que origina la apariencia borrosa de las imágenes en movimiento en la pantalla) y la proporcionalidad entre la señal de salida y del brillo de la imagen, que lo hacen especialmente adecuado para las cámaras de televisión en color.

El vidicón es un tubo sencillo y compacto de alta sensibilidad. Debido a su reducido diámetro de unos 2,5 cm y longitud, unos 15 cm, se utiliza mucho en televisión de circuito cerrado. Este tipo de televisión se utiliza siempre que no es necesaria la emisión a grandes distancias, por ejemplo, cuando el emisor y el receptor se hallan en un mismo edificio o zona. En estas circunstancias, la cámara puede alimentar directamente a las pantallas próximas a través de conexiones por cable, eliminando los potentes sistemas de emisión. La televisión de circuito cerrado se utiliza en la industria, el comercio y la investigación para llegar a lugares inaccesibles o peligrosos.

Transmisión de televisión

Si se exceptúan los circuitos especiales necesarios para producir los pulsos de sincronización y borrado del barrido y los diferentes equipos especiales que se utilizan para examinar o controlar las señales desde la cámara de televisión, todo el resto del sistema de transmisión de televisión recuerda al de una emisora de radio de AM (véase Radio: Modulación). El equipo de sonido no se diferencia en nada del utilizado en las emisiones de frecuencia modulada, y la señal de sonido a veces se emite desde una antena independiente, constituyendo de hecho una unidad de emisión totalmente independiente.

Canales

Sin embargo, la emisión de televisión presenta una serie de problemas específicos que no existen en las emisiones normales de sonido, siendo el principal el del ancho de banda. Modular una onda electromagnética implica generar una serie de frecuencias denominadas bandas laterales que corresponden a la suma y a la diferencia entre la frecuencia de radio, o portadora, y las frecuencias moduladoras. En las emisiones normales, donde la señal sólo utiliza frecuencias hasta de 10.000 Hz, o 10 kHz, las bandas laterales ocupan poco espacio en el espectro de frecuencias, lo que permite asignar a las distintas emisoras frecuencias de portadora con una diferencia tan pequeña como 10 kHz sin que se produzcan interferencias apreciables. Por el contrario, la gama de frecuencias de una sola señal de televisión es de unos 4 millones de Hz, o 4 MHz, por lo que tales señales ocupan un espacio 400 veces mayor que la gama completa de frecuencias utilizada por una estación de radio en las emisiones AM corrientes.

A fin de disponer de un número suficiente de canales para dar cabida a una serie de emisoras de televisión en una misma zona geográfica, es preciso utilizar frecuencias de transmisión relativamente elevadas para las portadoras de televisión. En Estados Unidos, por ejemplo, el número de canales asignados a las emisiones de televisión asciende a 68. Esta cifra se desglosa en 12 canales en la banda de frecuencias muy elevadas (VHF) y 56 en la banda de las ultraelevadas (UHF).

Emisión de alta frecuencia

La utilización de las altas frecuencias para la emisión de televisión plantea una serie de problemas muy distintos a los de la emisión ordinaria de sonido. El alcance de las señales de radio de baja frecuencia es muy amplio, alcanzando centenares e incluso millares de kilómetros. Las señales de alta frecuencia, por el contrario, poseen un alcance relativamente limitado y a menudo no cubren mucho más de la distancia visible entre estaciones debido a la curvatura de la tierra. Así pues, mientras que la zona de servicio de una emisora normal de radio puede tener un radio muy por encima de los 160 km, la de la emisora de televisión está limitada a unos 56 km, dependiendo de la altura de las antenas emisora y receptora. La cobertura total para un país de cierta extensión requiere muchas más estaciones de televisión que la radiodifusión ordinaria.

Otro de los problemas con los que choca la utilización de altas frecuencias para la emisión de televisión consiste en que a dichas frecuencias, las ondas de radio se comportan casi como ondas luminosas y se reflejan en objetos sólidos, como montañas o edificios. A menudo, alguno de estos reflejos de una emisora se captan en un determinado punto de recepción, originando imágenes múltiples en la pantalla del receptor por haber viajado las señales reflejadas diferentes distancias y por tanto, por haber llegado al receptor en distintos tiempos.

El problema de las señales reflejadas, así como el de la recepción de las señales de televisión a distancias superiores al alcance normal, han quedado resueltos en gran medida merced a la utilización de antenas receptoras especiales con una ganancia muy elevada para amplificar señales débiles. La mayoría son además direccionales, y presentan una gran ganancia para señales que se reciben en una determinada dirección y muy baja para las que inciden en las demás direcciones. La orientación correcta de la antena direccional permite seleccionar una de las señales reflejadas y eliminar las otras, suprimiendo así las imágenes múltiples en un punto concreto.

Televisión por satélite

Además del cable y las estaciones repetidoras terrestres, el satélite artificial constituye otro medio de transmisión de señales a grandes distancias. Un repetidor de microondas en un satélite retransmite la señal a una estación receptora terrestre, que se encarga de distribuirla a nivel local.

Los problemas principales de los satélites de comunicaciones para la transmisión son la distorsión y el debilitamiento de la señal al atravesar la atmósfera. Tratándose además de distancias tan grandes se producen retrasos, que a veces originan ecos. Ciertos satélites repetidores de televisión actualmente en órbita están concebidos para retransmitir señales de una estación comercial a otra. Ciertas personas han instalado en sus hogares antenas parabólicas que captan la misma transmisión, eludiendo a menudo el pago de las tarifas por utilización de la televisión por cable, aunque ya se están efectuando transmisiones codificadas para evitar este fraude.

Receptores de televisión

El elemento más importante del receptor de televisión es el tubo de imágenes o cinescopio, que se encarga de convertir los impulsos eléctricos de la señal de televisión en haces coherentes de electrones que inciden sobre la pantalla final del tubo, produciendo luz así como una imagen continua.

Cinescopios

El cinescopio guarda con el receptor la misma relación que el tubo tomavistas con el emisor de televisión. La estructura real del cinescopio corresponde a la de un tubo de rayos catódicos, que recibe este nombre por generar un haz de electrones que proceden del cátodo, el electrodo negativo.

La figura 3 muestra el funcionamiento de un cinescopio típico. Alojado en la parte más angosta de un tubo en forma de embudo se halla el cañón de electrones, compuesto por un filamento catódico, una rejilla de control y dos ánodos. Los electrones emitidos por el cátodo se enfocan para formar un haz compacto haciéndolos pasar por un pequeño orificio de la rejilla de control, que se mantiene a una tensión negativa respecto del cátodo. Este potencial ligeramente negativo de la rejilla hace que algunos electrones regresen al cátodo, dejando pasar sólo los que tienen una velocidad suficientemente elevada. Los dos ánodos se hallan a un potencial positivo creciente con respecto al cátodo, aplicando una aceleración a los electrones. El efecto del campo eléctrico entre los dos ánodos consiste en enfocar los electrones que atraviesan el tubo de forma que incidan sobre un único punto de la pantalla en la parte ancha del tubo. Por lo general hay la posibilidad de modificar la intensidad relativa del campo para poder centrar exactamente el punto en la pantalla. Una bobina de enfoque magnético suele ser la encargada de realizar la misma función que el campo entre ambos ánodos.

La pantalla

La pantalla está formada por un recubrimiento de la parte interior del tubo con alguno de los muchos tipos de productos químicos conocidos como sustancias fosforescentes, que presentan la propiedad de la luminiscencia al estar sometidos a un bombardeo de un haz de electrones. Cuando el tubo está encendido, el haz de electrones es perceptible en la pantalla en forma de un pequeño punto luminoso.

En el cinescopio representado en la figura 3, el barrido del haz de electrones se consigue mediante dos parejas de placas deflectoras. Si una de las placas tiene carga positiva y la otra negativa, el haz se aparta de la negativa y se acerca a la positiva. La primera pareja de placas del tubo representada en el esquema desplaza el haz hacia arriba y hacia abajo y la segunda pareja lo hace lateralmente. En el receptor se generan los voltajes oscilantes de barrido y se sincronizan perfectamente con los del emisor mediante los impulsos de sincronismo de éste. Así, al sintonizar una emisora en el receptor, el ritmo y secuencia de barrido del cinescopio quedan ajustados automáticamente a los del tubo tomavistas en el emisor. En los cinescopios actuales, la deflexión se consigue mediante los campos magnéticos de dos pares de bobinas que forman un anillo deflector por fuera del tubo. Las corrientes de deflexión provienen de un generador en el receptor, sincronizado con el emisor.

La señal de cámara del emisor se amplifica en el receptor y se aplica a la rejilla de control del cinescopio. Cuando la rejilla se hace negativa por efecto de la señal, la rejilla repele los electrones; y cuando la señal negativa se hace lo suficientemente intensa, no pasa ningún electrón y la pantalla queda a oscuras. Si la rejilla se torna ligeramente negativa, algunos electrones la atraviesan y la pantalla muestra un punto de leve luminosidad que corresponde al gris de la imagen original.

A medida que el potencial de la rejilla se va acercando al del cátodo, la pantalla muestra un punto brillante que corresponde al blanco en la imagen original. La acción concertada del voltaje de exploración y el de la señal de cámara hace que el haz de electrones describa un trazo luminoso en la pantalla que es la reproducción exacta de la escena original. La sustancia fosforescente de la pantalla continúa brillando durante un breve lapso después de haber sido activa por el haz de electrones, de forma que los diferentes puntos se entremezclan formando una imagen continua.

El tamaño del extremo del tubo del cinescopio determina el tamaño de la imagen en la pantalla. Los cinescopios se fabrican con pantallas que tienen una medida en diagonal (desde la esquina inferior izquierda hasta la superior derecha) entre 3,8 y 89 cm. Ya se han construido pantallas de cristal líquido, o LCD, para los televisores. La fabricación de tubos de grandes dimensiones resulta costosa y difícil y además corren mayor riesgo de rotura. Para obtener una imagen muy grande con tubos relativamente pequeños se suele proyectar la imagen sobre pantallas translúcidas u opacas. Estos cinescopios de proyección trabajan con tensiones muy altas para producir imágenes notablemente más luminosas que las que generan los tubos normales.

Circuitos receptores

Los circuitos de los receptores modernos de televisión son a la fuerza muy complejos, pero la idea general de cómo funcionan resulta fácilmente comprensible a la vista de la figura 4. La señal que recibe la antena se sintoniza y se amplifica en la etapa de radiofrecuencia. En la etapa de modulación la señal se mezcla con la salida de un oscilador local en el receptor que genera una frecuencia constante. Esta mezcla, o modulación, produce frecuencias heterodinas correspondientes a la señal de imagen y a la de sonido. Una vez separadas por circuitos filtro que permiten el paso de una banda de frecuencias y rechazan todas las demás, ambas señales se amplifican independientemente. La señal de sonido se amplifica en un amplificador intermedio, se demodula y se vuelve a amplificar de nuevo con un amplificador audio igual que en los receptores ordinarios de FM. En muchos de los receptores modernos, la señal de sonido se separa de la de imagen en una etapa posterior en el amplificador de vídeo.

La señal de vídeo también se amplifica mediante un dispositivo intermedio independiente y a continuación se detecta. Tras someterla a otra amplificación posterior, la señal se divide con circuitos filtro en dos componentes separados. La señal de cámara y los impulsos de borrado pasan directamente a la rejilla del cinescopio para controlar la intensidad del haz de electrones. Los dos conjuntos de impulsos de sincronización se separan por filtrado en los componentes verticales y horizontales y se aplican a los osciladores que generan los voltajes usados para deflectar el haz de electrones. Las salidas de los osciladores vertical y horizontal se amplifican y se conducen al correspondiente conjunto de imanes deflectores del cinescopio a fin de formar el esquema de barrido.

La utilización de válvulas en la televisión comenzó su declive, igual que en el caso de la radio, a finales de los años sesenta. Se sustituyeron por los transistores, circuitos integrados y demás dispositivos electrónicos de estado sólido que son mucho más pequeños y consumen menos potencia.

El receptor doméstico de televisión se ha ido haciendo con los años cada vez más complejo. El televisor moderno ya no es sólo un elemento para sintonizar los programas emitidos. Es una unidad compleja, controlada por software capaz de recibir y visualizar servicios de teletexto y puede descodificar y reproducir emisiones musicales de alta fidelidad. Además, la cantidad de circuitería digital y de software en la televisión moderna (casi tan abundante como en alguna de las naves espaciales de los años ochenta) permite ajustarla y controlarla a gusto del espectador mediante un dispositivo de control remoto. La mayoría de los televisores dispone de conectores para enchufar grabadoras de vídeo y consolas de videojuegos. La idea de que el televisor es algo que se enciende simplemente para verse empieza a quedar bastante anticuada.

Teletexto

El sistema de teletexto visualiza en la pantalla del televisor información impresa y diagramas sencillos. Utiliza algunas de las líneas de reserva disponibles en la señal ordinaria de emisión. El sistema Ceefax de la BBC en el Reino Unido, por ejemplo, aprovecha algunas de las líneas fuera de la pantalla del total de 625 disponibles para transmitir información codificada, incluyendo noticias, información meteorológica, deportes, informes económicos, servicios de citas, recetas culinarias y guías de vacaciones. El descodificador del televisor se encarga de filtrar el teletexto del resto de la información de imágenes y de visualizarla a continuación en pantalla. Una pantalla normal de teletexto resulta bastante pobre comparada con la de las computadoras, ya que está formada por sólo 24 líneas de 40 caracteres.

Televisión en color

La televisión en color entró en funcionamiento en Estados Unidos y otros países en la década de 1950. En México, las primeras transmisiones en color se efectuaron en 1967 y en la década siguiente en España. Más del 90% de los hogares en los países desarrollados disponen actualmente de televisión en color.

Color compatible

La televisión en color se consigue transmitiendo, además de la señal de brillo, o luminancia, necesaria para reproducir la imagen en blanco y negro, otra que recibe el nombre de señal de crominancia, encargada de transportar la información de color. Mientras que la señal de luminancia indica el brillo de los diferentes elementos de la imagen, la de crominancia especifica la tonalidad y saturación de esos mismos elementos. Ambas señales se obtienen mediante las correspondientes combinaciones de tres señales de vídeo, generadas por la cámara de televisión en color, y cada una corresponde a las variaciones de intensidad en la imagen vistas por separado a través de un filtro rojo, verde y azul. Las señales compuestas de luminancia y crominancia se transmiten de la misma forma que la primera en la televisión monocroma. Una vez en el receptor, las tres señales vídeo de color se obtienen a partir de las señales de luminancia y crominancia y dan lugar a los componentes rojo, azul y verde de la imagen, que vistos superpuestos reproducen la escena original en color. El sistema funciona de la siguiente manera.

Formación de las señales de color

La imagen de color pasa a través de la lente de la cámara e incide sobre un espejo dicroico refleja un color y deja pasar todos los demás. El espejo refleja la luz roja y deja pasar la azul y la verde. Un segundo espejo dicroico refleja la luz azul y permite el paso de la verde. Las tres imágenes resultantes, una roja, otra azul y otra verde, se enfocan en la lente de tres tubos tomavistas (orticones de imagen o plumbicones). Delante de cada tubo hay unos filtros de color para asegurar que la respuesta en color de cada canal de la cámara coincide con los colores primarios (rojo, azul y verde) a reproducir. El haz de electrones en cada tubo barre el esquema de imagen y produce una señal de color primario. Las muestras de estas tres señales de color pasan a un sumador electrónico que las combina para producir la señal de brillo, o blanco y negro. Las muestras de señal también entran en otra unidad que las codifica y las combina para generar una señal con la información de tonalidad y saturación. La señal de color se mezcla con la de brillo a fin de formar la señal completa de color que sale al aire.

Receptores de color

El receptor de televisión en color lleva un tubo de imágenes tricolor con tres cañones de electrones, uno para cada color primario, que exploran y activan los puntos fosforescentes en la pantalla del televisor. Estos puntos minúsculos, que pueden sobrepasar el millón, están ordenados en grupos de tres, uno rojo, otro verde y otro azul. Entre los cañones de electrones y la pantalla hay una máscara con diminutas perforaciones dispuestas de forma que el haz de electrones de cada cañón sólo pueda incidir sobre su correspondiente punto fosforescente. El haz que pinta la información roja sólo chocará con las fosforescencias rojas, y lo mismo para los otros colores.

Cuando la señal de color entrante llega a un televisor de color, pasa por un separador que aísla el color del brillo. A continuación se descodifica la información de color. Al volverse a combinar con la información del brillo, se producen diferentes señales de color primario que se aplican al tubo tricolor, recreándose la imagen captada por la cámara de color. Si la señal de color llega a un televisor en blanco y negro, los circuitos del receptor ignoran los datos relativos a tonalidad y saturación y sólo tienen en cuenta la señal de brillo. La norma de televisión en color adoptada en Estados Unidos por el National Television System Committee (NTSC) y que es la usual en América Latina, no ha sido aceptada en otras partes del mundo. Quizá sobre todo por la ausencia de consenso acerca del equilibrio entre calidad y complejidad de la norma a utilizar. En muchas partes de Europa se rechaza la norma NTSC. En consecuencia, existen en el mundo varias normas, cada una de ellas con sus propias características. En el Reino Unido, la norma actual es PAL (Phase Alternate Line, véase Exploración más arriba), mientras que Francia utiliza la norma Color Secuencial de Memoria (SECAM). A grandes rasgos ambas pueden coexistir, pero existe un cierto grado de incompatibilidad en los equipos receptores.

Historia

La historia del desarrollo de la televisión ha sido en esencia la historia de la búsqueda de un dispositivo adecuado para explorar imágenes. El primero fue el llamado disco Nipkow, patentado por el inventor alemán Paul Gottlieb Nipkow en 1884. Era un disco plano y circular que estaba perforado por una serie de pequeños agujeros dispuestos en forma de espiral partiendo desde el centro. Al hacer girar el disco delante del ojo, el agujero más alejado del centro exploraba una franja en la parte más alta de la imagen y así sucesivamente hasta explorar toda la imagen. Sin embargo, debido a su naturaleza mecánica el disco Nipkow no funcionaba eficazmente con tamaños grandes y altas velocidades de giro para conseguir una mejor definición.

Los primeros dispositivos realmente satisfactorios para captar imágenes fueron el iconoscopio, descrito anteriormente, que fue inventado por el físico estadounidense de origen ruso Vladimir Kosma Zworykin en 1923, y el tubo disector de imágenes, inventado por el ingeniero de radio estadounidense Philo Taylor Farnsworth poco tiempo después. En 1926 el ingeniero escocés John Logie Baird inventó un sistema de televisión que incorporaba los rayos infrarrojos para captar imágenes en la oscuridad. Con la llegada de los tubos y los avances en la transmisión radiofónica y los circuitos electrónicos que se produjeron en los años posteriores a la I Guerra Mundial, los sistemas de televisión se convirtieron en una realidad.

Emisión

Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular. Las emisiones con programación se iniciaron en Inglaterra en 1936, y en Estados Unidos el día 30 de abril de 1939, coincidiendo con la inauguración de la Exposición Universal de Nueva York. Las emisiones programadas se interrumpieron durante la II Guerra Mundial, reanudándose cuando terminó.

En España, se fundó Televisión Española (TVE), hoy incluida en el Ente Público Radiotelevisón Española, en 1952 dependiendo del ministerio de Información y Turismo. Después de un periodo de pruebas se empezó a emitir regularmente en 1956, concretamente el 28 de octubre. Hasta 1960 no hubo conexiones con Eurovisión. La televisión en España ha sido un monopolio del Estado hasta 1988. Por mandato constitucional, los medios de comunicación dependientes del Estado se rigen por un estatuto que fija la gestión de los servicios públicos de la radio y la televisión a un ente autónomo que debe garantizar la pluralidad de los grupos sociales y políticos significativos.

A partir de la década de 1970, con la aparición de la televisión en color los televisores experimentaron un crecimiento enorme lo que produjo cambios en el consumo del ocio de los españoles.

A medida que la audiencia televisiva se incrementaba por millones, hubo otros sectores de la industria del ocio que sufrieron drásticos recortes de patrocinio. La industria del cine comenzó su declive con el cierre, de muchos locales.

En México, se habían realizado experimentos en televisión a partir de 1934, pero la puesta en funcionamiento de la primera estación de TV, Canal 5, en la ciudad de México, tuvo lugar en 1946. Al iniciarse la década de 1950 se implantó la televisión comercial y se iniciaron los programas regulares y en 1955 se creó Telesistema mexicano, por la fusión de los tres canales existentes.

Televisa, la empresa privada de televisión más importante de habla hispana, se fundó en 1973 y se ha convertido en uno de los centros emisores y de negocios más grande del mundo, en el campo de la comunicación, ya que además de canales y programas de televisión, desarrolla amplias actividades en radio, prensa y ediciones o espectáculos deportivos.

La televisión ha alcanzado una gran expansión en todo el ámbito latinoamericano. En la actualidad existen más de 300 canales de televisión y una audiencia, según número de aparatos por hogares (más de 60 millones), de más de doscientos millones de personas.

A partir de 1984, la utilización por Televisa del satélite Panamsat para sus transmisiones de alcance mundial, permite que la señal en español cubra la totalidad de los cinco continentes. Hispasat, el satélite español de la década de 1990, cubre también toda Europa y América.

En 1983, en España empezaron a emitir cadenas de televisión privadas TELE 5, Antena 3 y Canal +. En 1986 había 3,8 habitantes por aparato de televisión, en la actualidad ha bajado a 3,1. A finales de los años ochenta, había en Estados Unidos unas 1.360 emisoras de televisión, incluyendo 305 de carácter educativo, y más del 98% de los hogares de dicho país poseía algún televisor semejante al nivel español. Hay más de 8.500 sistemas ofreciendo el servicio de cable, con una cartera de más de 50 millones de abonados. En la actualidad en todo el mundo, la televisión es el pasatiempo nacional más popular; el 91% de los hogares españoles disponen de un televisor en color y el 42%, de un equipo grabador de vídeo. Los ciudadanos españoles invierten, por término medio, unas 3,5 horas diarias delante del televisor, con una audiencia de tres espectadores por aparato.

Durante los años inmediatamente posteriores a la II Guerra Mundial se realizaron diferentes experimentos con distintos sistemas de televisión en algunos países de Europa, incluida Francia y Holanda, pero fue la URSS, que comenzó sus emisiones regulares en Moscú en 1948, el primer país del continente en poner en funcionamiento este servicio público. Cerca del 98% de los hogares en la URSS (3,2 personas por receptor) y en Francia (2,5) posee televisor, siendo el porcentaje de 94 en Italia (3,9) y 93 en los hogares de Alemania actualmente parte de la reunificada República Federal de Alemania (2,7).

Televisión en el espacio

Las cámaras de televisión a bordo de las naves espaciales estadounidenses transmiten a la tierra información espacial hasta ahora inaccesible. Las naves espaciales Mariner, lanzadas por Estados Unidos entre 1965 y 1972, envió miles de fotografías de Marte. Las series Ranger y Surveyor retransmitieron miles de fotografías de la superficie lunar para su análisis y elaboración científica antes del alunizaje tripulado (julio de 1969), al tiempo que millones de personas en todo el mundo pudieron contemplar la emisión en color directamente desde la superficie lunar.

Desde 1960 se han venido utilizando también ampliamente las cámaras de televisión en los satélites meteorológicos en órbita. Las cámaras vidicón preparadas en tierra registran imágenes de las nubes y condiciones meteorológicas durante el día, mientras que las cámaras de infrarrojos captan las imágenes nocturnas. Las imágenes enviadas por los satélites no sólo sirven para predecir el tiempo sino para comprender los sistemas meteorológicos globales. Se han utilizado cámaras vidicón de alta resolución a bordo de los Satélites para la Tecnología de los Recursos Terrestres (ERTS) para realizar estudios de cosechas, así como de recursos minerales y marinos.

Disco compacto o CD, sistema de almacenamiento de información en el que la superficie del disco está recubierta de un material que refleja la luz. La grabación de los datos se realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que sí la reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información. Su capacidad de almacenamiento es de unos 600 Mb de información (equivalente a unos 70 minutos de sonido grabado).

Los principales estándares utilizados para almacenar la información en este tipo de discos son el CD-ROM, CD-R o WORM, CD-DA (véase Grabación de sonido y reproducción), CD-I y PhotoCD.

Radio, sistema de comunicación mediante ondas electromagnéticas que se propagan por el espacio. Debido a sus características variables, se utilizan ondas radiofónicas de diferente longitud para distintos fines; por lo general se identifican mediante su frecuencia. Las ondas más cortas poseen una frecuencia (número de ciclos por segundo) más alta; las ondas más largas tienen una frecuencia más baja (menos ciclos por segundo).

El nombre del pionero alemán de la radio Heinrich Hertz ha servido para bautizar al ciclo por segundo (hercio, Hz). Un kilohercio (kHz) son 1.000 ciclos por segundo, 1 megahercio (MHz) es 1 millón de ciclos por segundo y 1 gigahercio (GHz) 1 billón de ciclos por segundo. Las ondas de radio van desde algunos kilohercios a varios gigahercios. Las ondas de luz visible son mucho más cortas. En el vacío, toda radiación electromagnética se desplaza en forma de ondas a una velocidad uniforme de 300.000 kilómetros por segundo.

Las ondas de radio se utilizan no sólo en la radiodifusión, sino también en la telegrafía inalámbrica, la transmisión por teléfono, la televisión, el radar, los sistemas de navegación y la comunicación espacial. En la atmósfera, las características físicas del aire ocasionan pequeñas variaciones en el movimiento ondulatorio, que originan errores en los sistemas de comunicación radiofónica como el radar. Además, las tormentas o las perturbaciones eléctricas provocan fenómenos anormales en la propagación de las ondas de radio.

Las ondas electromagnéticas dentro de una atmósfera uniforme se desplazan en línea recta, y como la superficie terrestre es prácticamente esférica, la comunicación radiofónica a larga distancia es posible gracias a la reflexión de las ondas de radio en la ionosfera. Las ondas radiofónicas de longitud de onda inferior a unos 10 m, que reciben los nombres de frecuencias muy alta, ultraalta y superalta (VHF, UHF y SHF), no se reflejan en la ionosfera; así, en la práctica, estas ondas muy cortas sólo se captan a distancia visual. Las longitudes de onda inferiores a unos pocos centímetros son absorbidas por las gotas de agua o por las nubes; las inferiores a 1,5 cm pueden quedar absorbidas por el vapor de agua existente en la atmósfera limpia. Los sistemas normales de radiocomunicación constan de dos componentes básicos, el transmisor y el receptor. El primero genera oscilaciones eléctricas con una frecuencia de radio denominada frecuencia portadora. Se puede amplificar la amplitud o la propia frecuencia para variar la onda portadora. Una señal modulada en amplitud se compone de la frecuencia portadora y dos bandas laterales producto de la modulación. La frecuencia modulada (FM) produce más de un par de bandas laterales para cada frecuencia de modulación, gracias a lo cual son posibles las complejas variaciones que se emiten en forma de voz o cualquier otro sonido en la radiodifusión, y en las alteraciones de luz y oscuridad en las emisiones televisivas.

Transmisor

Los componentes fundamentales de un transmisor de radio son un generador de oscilaciones (oscilador) para convertir la corriente eléctrica común en oscilaciones de una determinada frecuencia de radio; los amplificadores para aumentar la intensidad de dichas oscilaciones conservando la frecuencia establecida y un transductor para convertir la información a transmitir en un voltaje eléctrico variable y proporcional a cada valor instantáneo de la intensidad. En el caso de la transmisión de sonido, el transductor es un micrófono; para transmitir imágenes se utiliza como transductor un dispositivo fotoeléctrico.

Otros componentes importantes de un transmisor de radio son el modulador, que aprovecha los voltajes proporcionales para controlar las variaciones en la intensidad de oscilación o la frecuencia instantánea de la portadora, y la antena, que radia una onda portadora igualmente modulada. Cada antena presenta ciertas propiedades direccionales, es decir, radia más energía en unas direcciones que en otras, pero la antena siempre se puede modificar de forma que los patrones de radiación varíen desde un rayo relativamente estrecho hasta una distribución homogénea en todas las direcciones; este último tipo de radiación se usa en la radiodifusión. El método concreto utilizado para diseñar y disponer los diversos componentes depende del efecto buscado. Los criterios principales de una radio en un avión comercial o militar, por ejemplo, son que tenga un peso reducido y que resulte inteligible; el coste es un aspecto secundario y la fidelidad de reproducción carece totalmente de importancia. En una emisora comercial de radio, sin embargo, el tamaño y el peso entrañan poca importancia, el coste debe tenerse en cuenta y la fidelidad resulta fundamental, sobre todo en el caso de emisoras FM; el control estricto de la frecuencia constituye una necesidad crítica. En Estados Unidos, por ejemplo, una emisora comercial típica de 1.000 kHz posee un ancho de banda de 10 kHz, pero este ancho sólo se puede utilizar para modulación; la frecuencia de la portadora propiamente dicha se tiene que mantener exactamente en los 1.000 kHz, ya que una desviación de una centésima del 1% originaría grandes interferencias con emisoras de la misma frecuencia, aunque se hallen distantes.

Osciladores

En una emisora comercial normal, la frecuencia de la portadora se genera mediante un oscilador de cristal de cuarzo rigurosamente controlado. El método básico para controlar frecuencias en la mayoría de las emisoras de radio es mediante circuitos de absorción, o circuitos resonantes, que poseen valores específicos de inductancia y capacitancia (véase Unidades eléctricas; Resonancia) y que, por tanto, favorecen la producción de corrientes alternas de una determinada frecuencia e impiden la circulación de corrientes de frecuencias distintas. De todas formas, cuando la frecuencia debe ser enormemente estable se utiliza un cristal de cuarzo con una frecuencia natural concreta de oscilación eléctrica para estabilizar las oscilaciones. En realidad, éstas se generan a baja potencia en una válvula electrónica y se amplifican en amplificadores de potencia que actúan como retardadores para evitar la interacción del oscilador con otros componentes del transmisor, ya que tal interacción alteraría la frecuencia. El cristal tiene la forma exacta para las dimensiones necesarias a fin de proporcionar la frecuencia deseada, que luego se puede modificar ligeramente agregando un condensador al circuito para conseguir la frecuencia exacta. En un circuito eléctrico bien diseñado, dicho oscilador no varía en más de una centésima del 1% en la frecuencia. Si se monta el cristal al vacío a temperatura constante y se estabilizan los voltajes, se puede conseguir una estabilidad en la frecuencia próxima a una millonésima del 1%.Los osciladores de cristal resultan de máxima utilidad en las gamas denominadas de frecuencia muy baja, baja y media (VLF, LF y MF). Cuando han de generarse frecuencias superiores a los 10 MHz, el oscilador maestro se diseña para que genere una frecuencia intermedia, que luego se va duplicando cuantas veces sea necesario mediante circuitos electrónicos especiales. Si no se precisa un control estricto de la frecuencia, se pueden utilizar circuitos resonantes con válvulas normales a fin de producir oscilaciones de hasta 1.000 MHz, y se emplean los klistrones reflex para generar las frecuencias superiores a los 30.000 MHz. Los klistrones se sustituyen por magnetrones cuando hay que generar cantidades de mayor potencia.

Modulación

La modulación de la portadora para que pueda transportar impulsos se puede efectuar a nivel bajo o alto. En el primer caso, la señal de frecuencia audio del micrófono, con una amplificación pequeña o nula, sirve para modular la salida del oscilador y la frecuencia modulada de la portadora se amplifica antes de conducirla a la antena; en el segundo caso, las oscilaciones de radiofrecuencia y la señal de frecuencia audio se amplifican de forma independiente y la modulación se efectúa justo antes de transmitir las oscilaciones a la antena. La señal se puede superponer a la portadora mediante modulación de frecuencia (FM) o de amplitud (AM). La forma más sencilla de modulación es la codificación, interrumpiendo la onda portadora a intervalos concretos mediante una clave o conmutador para formar los puntos y las rayas de la radiotelegrafía de onda continua. La onda portadora también se puede modular variando la amplitud de la onda según las variaciones de la frecuencia e intensidad de una señal sonora, tal como una nota musical. Esta forma de modulación, AM, se utiliza en muchos servicios de radiotelefonía, incluidas las emisiones normales de radio. La AM también se emplea en la telefonía por onda portadora, en la que la portadora modulada se transmite por cable, y en la transmisión de imágenes estáticas a través de cable o radio. En la FM, la frecuencia de la onda portadora se varía dentro de un rango establecido a un ritmo equivalente a la frecuencia de una señal sonora. Esta forma de modulación, desarrollada en la década de 1930, presenta la ventaja de generar señales relativamente limpias de ruidos e interferencias procedentes de fuentes tales como los sistemas de encendido de los automóviles o las tormentas, que afectan en gran medida a las señales AM. Por tanto, la radiodifusión FM se efectúa en bandas de alta frecuencia (88 a 108 MHz), aptas para señales grandes pero con alcance de recepción limitado.

Las ondas portadoras también se pueden modular variando la fase de la portadora según la amplitud de la señal. La modulación en fase, sin embargo, ha quedado reducida a equipos especializados.

El desarrollo de la técnica de transmisión de ondas continuas en pequeños impulsos de enorme potencia, como en el caso del radar, planteó la posibilidad de otra forma nueva de modulación, la modulación de impulsos en tiempo, en la que el espacio entre los impulsos se modifica de acuerdo con la señal.

La información transportada por una onda modulada se devuelve a su forma original mediante el proceso inverso, denominado demodulación o detección. Las emisiones de ondas de radio a frecuencias bajas y medias van moduladas en amplitud. Para frecuencias más altas se utilizan tanto la AM como la FM; en la televisión comercial de nuestros días, por ejemplo, el sonido va por FM, mientras que las imágenes se transportan por AM. En el rango de las frecuencias superaltas (por encima del rango de las ultraaltas), en el que se pueden utilizar anchos de banda mayores, la imagen también se transmite por FM. En la actualidad, tanto el sonido como las imágenes se pueden enviar de forma digital a dichas frecuencias.

Antenas

La antena del transmisor no necesita estar unida al propio transmisor. La radiodifusión comercial a frecuencias medias exige normalmente una antena muy grande, cuya ubicación óptima es de forma aislada, lejos de cualquier población, mientras que el estudio de radio suele hallarse en medio de la ciudad. La FM, la televisión y demás emisiones con frecuencias muy elevadas exigen antenas muy altas si se pretende conseguir un cierto alcance y no resulta aconsejable colocarlas cerca del estudio de emisión. En todos estos casos las señales se transmiten a través de cables. Las líneas telefónicas normales suelen valer para la mayoría de las emisiones comerciales de radio; si se precisa obtener alta fidelidad o frecuencias muy altas, se utilizan cables coaxiales.

Receptor

Los componentes fundamentales de un receptor de radio son: 1) una antena para recibir las ondas electromagnéticas y convertirlas en oscilaciones eléctricas; 2) amplificadores para aumentar la intensidad de dichas oscilaciones; 3) equipos para la demodulación; 4) un altavoz para convertir los impulsos en ondas sonoras perceptibles por el oído humano (y en televisión, un tubo de imágenes para convertir la señal en ondas luminosas visibles), y 5) en la mayoría de los receptores, unos osciladores para generar ondas de radiofrecuencia que puedan mezclarse con las ondas recibidas.

La señal que llega de la antena, compuesta por una oscilación de la portadora de radiofrecuencia, modulada por una señal de frecuencia audio o vídeo que contiene los impulsos, suele ser muy débil. La sensibilidad de algunos receptores de radio modernos es tan grande que con que la señal de la antena sea capaz de producir una corriente alterna de unos pocos cientos de electrones, la señal se puede detectar y amplificar hasta producir un sonido inteligible por el altavoz. La mayoría de los receptores pueden funcionar aceptablemente con una entrada de algunas millonésimas de voltio. Sin embargo, el aspecto básico en el diseño del receptor es que las señales muy débiles no se convierten en válidas simplemente amplificando, de forma indiscriminada, tanto la señal deseada como los ruidos laterales (véase Ruido más adelante). Así, el cometido principal del diseñador consiste en garantizar la recepción prioritaria de la señal deseada.

Muchos receptores modernos de radio son de tipo superheterodino, en el que un oscilador genera una onda de radiofrecuencia que se mezcla con la onda entrante, produciendo así una onda de frecuencia menor; esta última se denomina frecuencia media. Para sintonizar el receptor a las distintas frecuencias se modifica la frecuencia de las oscilaciones, pero la media siempre permanece fija (en 455 kHz para la mayoría de los receptores de AM y en 10,7 MHz para los de FM). El oscilador se sintoniza modificando la capacidad del condensador en su circuito oscilador; el circuito de la antena se sintoniza de forma similar mediante un condensador.

En todos los receptores hay una o más etapas de amplificación de frecuencia media; además, puede haber una o más etapas de amplificación de radiofrecuencia. En la etapa de frecuencia media se suelen incluir circuitos auxiliares, como el control automático de volumen, que funciona rectificando parte de la salida de un circuito de amplificación y alimentando con ella al elemento de control del mismo circuito o de otro anterior (véase Rectificación). El detector, denominado a menudo segundo detector (el primero es el mezclador), suele ser un simple diodo que actúa de rectificador y produce una señal de frecuencia audio. Las ondas FM se demodulan o detectan mediante circuitos que reciben el nombre de discriminadores o radiodetectores; transforman las variaciones de la frecuencia en diferentes amplitudes de la señal.

Amplificadores

Los amplificadores de radiofrecuencia y de frecuencia media son amplificadores de voltaje, que aumentan el voltaje de la señal. Los receptores de radio pueden tener una o más etapas de amplificación de voltaje de frecuencia audio. Además, la última etapa antes del altavoz tiene que ser de amplificación de potencia. Un receptor de alta fidelidad contiene los circuitos de sintonía y de amplificación de cualquier radio. Como alternativa, una radio de alta fidelidad puede tener un amplificador y un sintonizador independientes.

Las características principales de un buen receptor de radio son una sensibilidad, una selectividad y una fidelidad muy elevadas y un nivel de ruido bajo. La sensibilidad se consigue en primera instancia mediante muchas etapas de amplificación y factores altos de amplificación, pero la amplificación elevada carece de sentido si no se pueden conseguir una fidelidad aceptable y un nivel de ruido bajo. Los receptores más sensibles tienen una etapa de amplificación de radiofrecuencia sintonizada. La selectividad es la capacidad del receptor de captar señales de una emisora y rechazar otras de emisoras diferentes que limitan con frecuencias muy próximas. La selectividad extrema tampoco resulta aconsejable, ya que se precisa un ancho de banda de muchos kilohercios para recibir los componentes de alta frecuencia de las señales de frecuencia audio. Un buen receptor sintonizado a una emisora presenta una respuesta cero a otra emisora que se diferencia en 20 kHz. La selectividad depende sobre todo de los circuitos en la etapa de la frecuencia intermedia.

Sistemas de alta fidelidad

Fidelidad es la uniformidad de respuesta del receptor a diferentes señales de frecuencia audio moduladas en la portadora. La altísima fidelidad, que se traduce en una respuesta plana (idéntica amplificación de todas las frecuencias audio) a través de todo el rango audible desde los 20 Hz hasta los 20 kHz, resulta extremadamente difícil de conseguir. Un sistema de alta fidelidad es tan potente como su componente más débil, y entre éstos no sólo se incluyen todos los circuitos del receptor, sino también el altavoz, las propiedades acústicas del lugar donde se encuentra el altavoz y el transmisor a que está sintonizado el receptor (véase Acústica). La mayoría de las emisoras AM no reproducen con fidelidad los sonidos por debajo de 100 Hz o por encima de 5 kHz; las emisoras FM suelen tener una gama de frecuencias entre 50 Hz y 15 kilohercios.

Distorsión

En las transmisiones de radio a menudo se introduce una forma de distorsión de amplitud al aumentar la intensidad relativa de las frecuencias más altas de audio. En el receptor aparece un factor equivalente de atenuación de alta frecuencia. El efecto conjunto de estas dos formas de distorsión es una reducción del ruido de fondo o estático en el receptor. Muchos receptores van equipados con controles de tono ajustables por el usuario, de forma que la amplificación de las frecuencias altas y bajas se pueda adaptar a gusto del oyente. Otra fuente de distorsión es la modulación transversal, la transferencia de señales de un circuito a otro por culpa de un apantallamiento defectuoso. La distorsión armónica ocasionada por la transferencia no lineal de señales a través de las etapas de amplificación puede reducirse notablemente utilizando circuitería de realimentación negativa, que anula gran parte de la distorsión generada en las etapas de amplificación.

Ruido

El ruido constituye un problema grave en todos los receptores de radio. Hay diferentes tipos de ruido, como el zumbido, un tono constante de baja frecuencia (unas dos octavas por debajo del do), producido generalmente por la frecuencia de la fuente de alimentación de corriente alterna (por lo común 60 Hz) que se superpone a la señal debido a un filtrado o un apantallamiento defectuoso; el siseo, un tono constante de alta frecuencia, y el silbido, un tono limpio de alta frecuencia producido por una oscilación involuntaria de frecuencia audio, o por un golpeteo. Estos ruidos se pueden eliminar mediante un diseño y una construcción adecuados.

Sin embargo, ciertos tipos de ruidos no se pueden eliminar. El más importante en los equipos normales de AM de baja y media frecuencias es el ruido parásito, originado por perturbaciones eléctricas en la atmósfera. El ruido parásito puede proceder del funcionamiento de un equipo eléctrico cercano (como los motores de automóviles o aviones), pero en la mayoría de los casos proviene de los rayos y relámpagos de las tormentas. Las ondas de radio producidas por estas perturbaciones atmosféricas pueden viajar miles de kilómetros sin sufrir apenas atenuación, y, dado que en un radio de algunos miles de kilómetros respecto del receptor de radio siempre hay alguna tormenta, casi siempre aparecen ruidos parásitos.

Los ruidos parásitos afectan a los receptores FM en menor medida, ya que la amplitud de las ondas intermedias está limitada mediante circuitos especiales antes de la discriminación, lo que elimina los efectos de los ruidos parásitos.

Otra fuente primaria de ruido es la agitación térmica de los electrones. En un elemento conductor a temperatura superior al cero absoluto, los electrones se mueven de forma aleatoria. Dado que cualquier movimiento electrónico constituye una corriente eléctrica, la agitación térmica origina ruido al amplificarlo en exceso. Este tipo de ruido se puede evitar si la señal recibida desde la antena es notablemente más potente que la corriente causada por la agitación térmica; en cualquier caso, se puede reducir al mínimo mediante un diseño adecuado. Un receptor teóricamente perfecto a temperatura ordinaria es capaz de recibir la voz de forma inteligible siempre que la potencia de la señal alcance los 4 × 10-18 W; sin embargo, en los receptores normales se precisa una potencia de señal bastante mayor.

Fuente de alimentación

La radio no tiene componentes móviles excepto el altavoz, que vibra algunas milésimas de centímetro, por lo que la única potencia que requiere su funcionamiento es la corriente eléctrica para hacer circular los electrones por los diferentes circuitos. Cuando aparecieron las primeras radios en la década de 1920, la mayoría iban accionadas por pilas. Aunque se siguen utilizando de forma generalizada en los aparatos portátiles, la fuente de alimentación conectada a la red presenta ciertas ventajas, ya que permite al diseñador una mayor libertad a la hora de seleccionar los componentes de los circuitos.

Si la fuente de alimentación de corriente alterna (CA) es de 120 V, ésta se puede alimentar directamente del arrollamiento primario del transformador, obteniéndose en el secundario el voltaje deseado. Esta corriente secundaria debe rectificarse y filtrarse antes de poder ser utilizada, ya que los transistores requieren corriente continua (CC) para su funcionamiento. Las válvulas utilizan CC como corriente anódica; los filamentos se calientan tanto con CC como con CA, pero en este último caso puede originarse algún zumbido.

Las radios de transistores no necesitan una CC tan alta como las válvulas de antes, pero sigue siendo imprescindible el uso de fuentes de alimentación para convertir la corriente continua (CC) de la red comercial en corriente alterna (CA) y para aumentarla o reducirla al valor deseado mediante transformadores. Los aparatos de los aviones o de los automóviles que funcionan con voltajes entre 12 y 14 voltios CC suelen incluir circuitos para convertir el voltaje CC disponible a CA; tras elevarlo o reducirlo hasta el valor deseado, se vuelve a convertir a CC mediante un rectificado. Los aparatos que funcionan con voltajes entre 6 y 24 voltios CC siempre disponen de un elemento para aumentar el voltaje. La llegada de los transistores, los circuitos integrados y demás dispositivos electrónicos de estado sólido, mucho más reducidos y que consumen muy poca potencia, ha suprimido casi totalmente el uso de las válvulas en los equipos de radio, televisión y otras formas de comunicación.

Historia

Aun cuando fueron necesarios muchos descubrimientos en el campo de la electricidad hasta llegar a la radio, su nacimiento data en realidad de 1873, año en el que el físico británico James Clerk Maxwell publicó su teoría sobre las ondas electromagnéticas (véase Radiación electromagnética: Teoría).

Finales del siglo XIX

La teoría de Maxwell se refería sobre todo a las ondas de luz; quince años más tarde, el físico alemán Heinrich Hertz logró generar eléctricamente tales ondas. Suministró una carga eléctrica a un condensador y a continuación le hizo un cortocircuito mediante un arco eléctrico. En la descarga eléctrica resultante, la corriente saltó desde el punto neutro, creando una carga de signo contrario en el condensador, y después continuó saltando de un polo al otro, creando una descarga eléctrica oscilante en forma de chispa. El arco eléctrico radiaba parte de la energía de la chispa en forma de ondas electromagnéticas. Hertz consiguió medir algunas de las propiedades de estas ondas `hercianas', incluyendo su longitud y velocidad.

La idea de utilizar ondas electromagnéticas para la transmisión de mensajes de un punto a otro no era nueva; el heliógrafo, por ejemplo, transmitía mensajes por medio de un haz de rayos luminosos que se podía modular con un obturador para producir señales en forma de los puntos y las rayas del código Morse (véase Samuel F. B. Morse). A tal fin la radio presenta muchas ventajas sobre la luz, aunque no resultasen evidentes a primera vista. Las ondas de radio, por ejemplo, pueden cubrir distancias enormes, a diferencia de las microondas (usadas por Hertz).

Las ondas de radio pueden sufrir grandes atenuaciones y seguir siendo perceptibles, amplificables y detectadas; pero los buenos amplificadores no se hicieron una realidad hasta la aparición de las válvulas electrónicas. Por grandes que fueran los avances de la radiotelegrafía (por ejemplo, en 1901 Marconi desarrolló la comunicación transatlántica), la radiotelefonía nunca habría llegado a ser útil sin los avances de la electrónica. Desde el punto de vista histórico, los desarrollos en el mundo de la radio y en el de la electrónica han ocurrido de forma simultánea.

Para detectar la presencia de la radiación electromagnética, Hertz utilizó un aro parecido a las antenas circulares. En aquella época, el inventor David Edward Hughes había descubierto que un contacto entre una punta metálica y un trozo de carbón no conducía la corriente, pero si hacía circular ondas electromagnéticas por el punto de contacto, éste se hacía conductor. En 1879 Hughes demostró la recepción de señales de radio procedentes de un emisor de chispas alejado un centenar de metros. En dichos experimentos hizo circular una corriente de una célula voltaica a través de una válvula rellena de limaduras de cinc y plata, que se aglomeraban al ser bombardeadas con ondas de radio.

Este principio lo utilizó el físico británico Oliver Joseph Lodge en un dispositivo llamado cohesor para detectar la presencia de ondas de radio. El cohesor, una vez hecho conductor, se podía volver a hacer aislante golpeándolo y haciendo que se separasen las partículas. Aunque era mucho más sensible que la bocina en ausencia de amplificador, el cohesor sólo daba una única respuesta a las ondas de radio de suficiente potencia de diversas intensidades, por lo que servía para la telegrafía, pero no para la telefonía.

El ingeniero electrotécnico e inventor italiano Guglielmo Marconi está considerado universalmente el inventor de la radio. A partir de 1895 fue desarrollando y perfeccionando el cohesor y lo conectó a una forma primitiva de antena, con el extremo conectado a tierra. Además mejoró los osciladores de chispa conectados a antenas rudimentarias. El transmisor se modulaba mediante una clave ordinaria de telégrafo. El cohesor del receptor accionaba un instrumento telegráfico que funcionaba básicamente como amplificador.

En 1896 consiguió transmitir señales desde una distancia de 1,6 km, y registró su primera patente inglesa. En 1897 transmitió señales desde la costa hasta un barco a 29 km en alta mar. Dos años más tarde logró establecer una comunicación comercial entre Inglaterra y Francia capaz de funcionar con independencia del estado del tiempo; a principios de 1901 consiguió enviar señales a más de 322 km de distancia, y a finales de ese mismo año transmitió una carta entera de un lado a otro del océano Atlántico. En 1902 ya se enviaban de forma regular mensajes transatlánticos y en 1905 muchos barcos llevaban equipos de radio para comunicarse con emisoras de costa. Como reconocimiento a sus trabajos en el campo de la telegrafía sin hilos, en 1909 Marconi compartió el Premio Nobel de Física con el físico alemán Karl Ferdinand Braun.

A lo largo de todos estos años se introdujeron diferentes mejoras técnicas. Para la sintonía se utilizaron circuitos resonantes dotados de inductancia y capacitancia. Las antenas se fueron perfeccionando, descubriéndose y aprovechándose sus propiedades direccionales. Se utilizaron los transformadores para aumentar el voltaje enviado a la antena. Se desarrollaron otros detectores para complementar al cohesor y su rudimentario descohesor. Se construyó un detector magnético basado en la propiedad de las ondas magnéticas para desmagnetizar los hilos de acero, un bolómetro que medía el aumento de temperatura de un cable fino cuando lo atravesaban ondas de radio y la denominada válvula de Fleming, precursora de la válvula termoiónica o lámpara de vacío.

Siglo XX

El desarrollo de la válvula electrónica se remonta al descubrimiento que hizo el inventor estadounidense Thomas Alva Edison al comprobar que entre un filamento de una lámpara incandescente y otro electrodo colocado en la misma lámpara fluye una corriente y que además sólo lo hace en un sentido. La válvula de Fleming apenas difería del tubo de Edison. Su desarrollo se debe al físico e ingeniero eléctrico inglés John Ambrose Fleming en 1904 y fue el primer diodo, o válvula de dos elementos, que se utilizó en la radio. El tubo actuaba de detector, rectificador y limitador.

En 1906 se produjo un avance revolucionario, punto de partida de la electrónica, al incorporar el inventor estadounidense Lee de Forest un tercer elemento, la rejilla, entre el filamento y el cátodo de la válvula. El tubo de De Forest, que bautizó con el nombre de `audión' y que actualmente se conoce por triodo (válvula de tres elementos), en principio sólo se utilizó como detector, pero pronto se descubrieron sus propiedades como amplificador y oscilador; en 1915 el desarrollo de la telefonía sin hilos había alcanzado un grado de madurez suficiente como para comunicarse entre Virginia y Hawai (Estados Unidos) y entre Virginia y París (Francia).

Las funciones rectificadoras de los cristales fueron descubiertas en 1912 por el ingeniero eléctrico e inventor estadounidense Greenleaf Whittier Pickard, al poner de manifiesto que los cristales se pueden utilizar como detectores. Este descubrimiento permitió el nacimiento de los receptores con detector de cristal, tan populares en la década de los años veinte. En 1912, el ingeniero eléctrico estadounidense Edwin Howard Armstrong descubrió el circuito reactivo, que permite realimentar una válvula con parte de su propia salida. Éste y otros descubrimientos de Armstrong constituyen la base de muchos circuitos de los equipos modernos de radio.

En 1902, el ingeniero estadounidense Arthur Edwin Kennelly y el físico británico Oliver Heaviside (de forma independiente y casi simultánea) proclamaron la probable existencia de una capa de gas ionizado en la parte alta de la atmósfera que afectaría a la propagación de las ondas de radio. Esta capa, bautizada en principio como la capa de Heaviside o Kennelly-Heaviside, es una de las capas de la ionosfera. Aunque resulta transparente para las longitudes de onda más cortas, desvía o refleja las ondas de longitudes más largas. Gracias a esta reflexión, las ondas de radio se propagan mucho más allá del horizonte.

La propagación de las ondas de radio en la ionosfera se ve seriamente afectada por la hora del día, la estación y la actividad solar. Leves variaciones en la naturaleza y altitud de la ionosfera, que tienen lugar con gran rapidez, pueden afectar la calidad de la recepción a gran distancia. La ionosfera es también la causa de un fenómeno por el cual se recibe una señal en un punto muy distante y no en otro más próximo. Este fenómeno se produce cuando el rayo en tierra ha sido absorbido por obstáculos terrestres y el rayo propagado a través de la ionosfera no se refleja con un ángulo lo suficientemente agudo como para ser recibido a distancias cortas respecto de la antena.

Radio de onda corta

Aun cuando determinadas zonas de las diferentes bandas de radio, onda corta, onda larga, onda media, frecuencia muy alta y frecuencia ultraalta, están asignadas a muy diferentes propósitos, la expresión `radio de onda corta' se refiere generalmente a emisiones de radio en la gama de frecuencia altas (3 a 30 MHz) que cubren grandes distancias, sobre todo en el entorno de las comunicaciones internacionales. Sin embargo, la comunicación mediante microondas a través de un satélite de comunicaciones, proporciona señales de mayor fiabilidad y libres de error (véase Comunicaciones vía satélite).

Por lo general se suele asociar a los radioaficionados con la onda corta, aunque tienen asignadas frecuencias en la banda de onda media, la de muy alta frecuencia y la de ultraalta, así como en la banda de onda corta. Algunas conllevan ciertas restricciones pensadas para que queden a disposición del mayor número posible de usuarios.

Durante la rápida evolución de la radio tras la I Guerra Mundial, los radioaficionados lograron hazañas tan espectaculares como el primer contacto radiofónico (1921) transatlántico. También han prestado una ayuda voluntaria muy valiosa en caso de emergencias con interrupción de las comunicaciones normales. Ciertas organizaciones de radioaficionados han lanzado una serie de satélites aprovechando los lanzamientos normales de Estados Unidos, la antigua Unión Soviética y la Agencia Espacial Europea (ESA). Estos satélites se denominan normalmente Oscar (Orbiting Satellites Carrying Amateur Radio). El primero de ellos, Oscar 1, colocado en órbita en 1961, fue al mismo tiempo el primer satélite no gubernamental; el cuarto, en 1965, proporcionó la primera comunicación directa vía satélite entre Estados Unidos y la Unión Soviética. A principios de la década de 1980 había en todo el mundo más de 1,5 millones de licencias de radioaficionados, incluidos los de la radio de banda ciudadana.

La radio actual

Los enormes avances en el campo de la tecnología de la comunicación radiofónica a partir de la II Guerra Mundial han hecho posible la exploración del espacio (véase Astronáutica), puesta de manifiesto especialmente en las misiones Apolo a la Luna (1969-1972). A bordo de los módulos de mando y lunar se hallaban complejos equipos de transmisión y recepción, parte del compacto sistema de comunicaciones de muy alta frecuencia. El sistema realizaba simultáneamente funciones de voz y de exploración, calculando la distancia entre los dos vehículos mediante la medición del tiempo transcurrido entre la emisión de tonos y la recepción del eco. Las señales de voz de los astronautas también se transmitían simultáneamente a todo el mundo mediante una red de comunicaciones. El sistema de radio celular es una versión en miniatura de las grandes redes radiofónicas.

Telégrafo, sistema de comunicación basado en un equipo eléctrico capaz de emitir y recibir señales según un código de impulsos eléctricos. En un principio, la palabra `telegrafía' se aplicaba a cualquier tipo de comunicación de larga distancia en el que se transmitiesen mensajes mediante signos o sonidos.

El telégrafo Morse

Los primeros equipos eléctricos para transmisión telegráfica fueron inventados por el estadounidense Samuel F. B. Morse en 1836, y al año siguiente por el físico inglés sir Charles Wheatstone en colaboración con el ingeniero sir William F. Cooke. El código básico, llamado código Morse, transmitía mensajes mediante impulsos eléctricos que circulaban por un único cable (véase Código Morse internacional). El aparato de Morse, que emitió el primer telegrama público en 1844, tenía forma de conmutador eléctrico. Mediante la presión de los dedos, permitía el paso de la corriente durante un lapso determinado y a continuación la anulaba. El receptor Morse original disponía de un puntero controlado electromagnéticamente que dibujaba trazos en una cinta de papel que giraba sobre un cilindro. Los trazos tenían una longitud dependiente de la duración de la corriente eléctrica que circulaba por los cables del electroimán y presentaban el aspecto de puntos y rayas.

En el transcurso de los experimentos con dicho instrumento, Morse descubrió que las señales sólo podían transmitirse correctamente a unos 32 km. A distancias mayores, las señales se hacían demasiado débiles para poder registrarlas. Morse y sus colaboradores desarrollaron un aparato de relés que se podía acoplar a la línea telegráfica a unos 32 km de la estación emisora de señales a fin de repetirlas automáticamente y enviarlas otros 32 km más allá. El relé estaba formado por un conmutador accionado por un electroimán. El impulso que llegaba a la bobina del electroimán hacía girar un armazón que cerraba un circuito independiente alimentado por una batería. Este mecanismo lanzaba un impulso potente de corriente a la línea, que a su vez accionaba otros relés hasta alcanzar el receptor. Algunos años después de que Morse hubiera desarrollado su equipo receptor y lo hubiera exhibido de forma satisfactoria, los operadores telegráficos descubrieron que resultaba posible diferenciar entre los puntos y las rayas por el simple sonido, cayendo en desuso el aparato de registro de Morse. Sin embargo, los demás principios básicos del sistema Morse se siguieron utilizando en los circuitos de telegrafía por hilo.

Dado que la telegrafía resultaba demasiado costosa para poder implantarla con carácter universal, se desarrollaron diferentes métodos para enviar varios mensajes simultáneamente por una misma línea. En la telegrafía dúplex, el primer avance de este tipo, se puede transmitir un mensaje simultáneo en ambos sentidos entre dos estaciones. En la telegrafía cuádruplex, inventada en 1874 por Thomas Edison, se transmitían dos mensajes simultáneamente en cada sentido. En 1915 se implantó la telegrafía múltiple que permitía el envío simultáneo de ocho o más mensajes. Ésta y la aparición de las máquinas de teletipo, a mediados de la década de 1920, hicieron que se fuera abandonando progresivamente el sistema telegráfico manual de Morse de claves y que se sustituyera por métodos alámbricos e inalámbricos de transmisión por ondas.

Sistemas automáticos de telégrafo

Existen básicamente dos sistemas de comunicación telegráfica moderna: el sistema de teleimpresión (teletipo) y el sistema de reproducción facsímil, que empezó a quedar anticuado en la década de los años ochenta.

Teleimpresión

En la teleimpresión, el mensaje se recibe en forma de palabras mecanografiadas sobre una hoja de papel. Cada letra del alfabeto viene representada por una de las 31 combinaciones posibles de cinco impulsos electrónicos de igual duración, siendo la secuencia de intervalos utilizados y no utilizados la que determina la letra. El código de impresión de arranque-parada utiliza siete impulsos para cada carácter: el primero indica el comienzo y el séptimo el final de cada letra.

El transmisor o teleimpresor está formado por un teclado de tipo mecanográfico y puede opcionalmente registrar el mensaje sobre cinta antes de transmitirlo. El receptor es en esencia una máquina de escribir sin teclado que imprime el mensaje sobre cinta o en una hoja de papel. La mayoría de las máquinas de tipo arranque-parada son a la vez emisoras y receptoras. Las agencias de noticias siempre fueron usuarios importantes del teletipo y sistemas análogos de comunicaciones. Sin embargo, desde principios de la década de 1990, las asociaciones de prensa y los medios de radiodifusión empezaron a transmitir tanto texto como imágenes por medios electrónicos vía satélite (véase Comunicaciones vía satélite).

Reproducción facsímil

Los sistemas telegráficos por facsímil, capaces de enviar y recibir tanto imágenes como texto, hace tiempo que quedaron arrinconados por el fax.

Elementos portadores del telégrafo

Los impulsos eléctricos que conforman los mensajes telegráficos se pueden transmitir a través de circuitos alámbricos o por medio de ondas de radio.

Cuando Morse inventó el telégrafo, la única forma de transmitir un mensaje de un punto a otro era mediante alambres tendidos directamente entre el equipo emisor y el receptor, independientemente de la distancia entre ambos. El tendido sólo podía transmitir un único mensaje a la vez, obligando además a instalar a intervalos regulares elementos de regeneración y corrección de la señal. Si se utiliza una corriente portadora —es decir, una corriente alterna de cierta frecuencia—, una pareja de cables puede transmitir simultáneamente cientos de mensajes, ya que cada frecuencia de la onda portadora representa un canal de transmisión. Los diferentes canales se mezclan en la estación emisora con la corriente portadora que se envía por los hilos telegráficos. En el extremo receptor se hace pasar la corriente portadora por unos filtros eléctricos, cada uno de los cuales sólo deja pasar una determinada frecuencia hasta el correspondiente equipo receptor. De esta forma se consiguen muchos canales individuales con un único circuito eléctrico.

Transmisión por microondas

La utilización de microondas para la transmisión por radio en el caso de las comunicaciones telegráficas por todo el mundo adquirió gran importancia, igual que el radar, después de la II Guerra Mundial. El primer enlace comercial radiofónico por microondas en el caso de la telegrafía comenzó a operar entre Filadelfia y Nueva York (Estados Unidos) en 1947. Un año más tarde se estableció una red triangular entre Nueva York, la ciudad de Washington y Pittsburgh. El sistema se extendió rápidamente por todo el país gracias sobre todo al uso de la antena de microondas.

La telegrafía por microondas es capaz de transmitir, de forma casi instantánea y en grandes cantidades, comunicaciones de voz, impresas, gráficas, fotográficas y de vídeo. Funciona en la gama de los 4.000 MHz de la banda de comunicación comercial. En este rango se dispone de 40 bandas de voz en ambos sentidos, con unos 800 canales telegráficos. Las señales de radio que se generan en la emisora se transmiten al punto de destino mediante una serie de antenas reflectoras parabólicas, dispuestas sobre torres muy altas. A fin de prevenir el debilitamiento de la señal debido a la distancia y la curvatura de la Tierra, estas antenas de microondas se colocan a intervalos de unos 48 km. Este servicio de transmisión por microondas lo implantó en Estados Unidos la Western Union Telegraph Company. En el caso de las comunicaciones intercontinentales se utilizan satélites artificiales geoestacionarios que actúan como antenas de señales de voz, datos, gráficos y vídeo entre estaciones terrestres.

Servicios telegráficos modernos

En las décadas de 1950 y 1960, las diferentes operadoras comenzaron a comercializar diversos servicios telegráficos de carácter privado y público.

Télex

En 1958 apareció un sistema de intercambio de teleimpresión de llamada directa, denominado télex, que en el plazo de diez años contaba con más de 25.000 abonados. El sistema télex permite a sus abonados enviar mensajes y datos directamente a otros abonados y, a través de redes de operadoras internacionales, a otras muchas partes del mundo. Los abonados de télex también pueden enviar mensajes a los no abonados a través de centros especializados de comunicaciones que hacen llegar los mensajes en forma de telegramas.

Servicio de intercambio por banda ancha

Este servicio, aparecido en 1964, ofrecía a los abonados una serie de canales de radio de alta calidad para la transmisión a gran velocidad de datos en diversos formatos, para facsímil y otros tipos de comunicaciones, voz incluida. Las diferentes mejoras del sistema permitieron alcanzar transmisiones de alta velocidad —hasta 5.000 caracteres por segundo— entre computadoras y máquinas de oficina.

Sistemas privados de cableado

Estos servicios, que se emplean para intercambiar datos a gran velocidad, los contratan las empresas o los organismos públicos con oficinas en muchos lugares del mundo. Funcionan a través de centros automáticos digitales en base a tarjetas perforadas, cintas de papel o magnéticas. El sistema mayor y más avanzado es la Automatic Digital Data Network (AUTODIN), al servicio del Departamento de Defensa de Estados Unidos. Hay otras redes privadas para grandes empresas mercantiles y bancos.

Centros computerizados

Para hacer frente a la demanda de los abonados en cuanto a diversos servicios de telecomunicaciones e información, se han creado centros de `bibliotecas computerizadas' a fin de facilitar el intercambio de datos y la recopilación de información de cualquier tipo posible. Los centros computerizados son accesibles por los abonados a través del sistema télex y líneas telefónicas ordinarias.

Microondas, ondas electromagnéticas de radio situadas entre los rayos infrarrojos (cuya frecuencia es mayor) y las ondas de radio convencionales (véase Radiación electromagnética). Su longitud de onda va aproximadamente desde 1 mm hasta 30 cm. Las microondas se generan con tubos de electrones especiales como el klistrón o el magnetrón, que incorporan resonadores para controlar la frecuencia (véase Electrónica), o con osciladores o dispositivos de estado sólido especiales. Las microondas tienen muchas aplicaciones: radio y televisión, radares, meteorología, comunicaciones vía satélite, medición de distancias, investigación de las propiedades de la materia o cocinado de alimentos.

Los hornos de microondas funcionan excitando las moléculas de agua de los alimentos, lo que hace que vibren y produzcan calor. Las microondas entran a través de aberturas practicadas en la parte superior de la cavidad de cocción, donde un agitador las dispersa de forma homogénea por todo el horno. Las microondas no pueden penetrar en un recipiente de metal para calentar la comida, pero sí atraviesan los recipientes no metálicos.

Las microondas pueden detectarse con un instrumento formado por un rectificador (véase Rectificación) de diodos de silicio conectado a un amplificador y a un dispositivo de registro o una pantalla. La exposición a las microondas es peligrosa cuando se producen densidades elevadas de radiación, como ocurre en los máseres. Pueden provocar quemaduras, cataratas, daños en el sistema nervioso y esterilidad. Todavía no se conocen bien los posibles peligros de la exposición prolongada a microondas de bajo nivel.

Fibra óptica, fibra o varilla de vidrio —u otro material transparente con un índice de refracción alto— que se emplea para transmitir luz. Cuando la luz entra por uno de los extremos de la fibra, se transmite con muy pocas pérdidas incluso aunque la fibra esté curvada.

El principio en que se basa la transmisión de luz por la fibra es la reflexión interna total; la luz que viaja por el centro o núcleo de la fibra incide sobre la superficie externa con un ángulo mayor que el ángulo crítico (véase Óptica), de forma que toda la luz se refleja sin pérdidas hacia el interior de la fibra. Así, la luz puede transmitirse a larga distancia reflejándose miles de veces. Para evitar pérdidas por dispersión de luz debida a impurezas de la superficie de la fibra, el núcleo de la fibra óptica está recubierto por una capa de vidrio con un índice de refracción mucho menor; las reflexiones se producen en la superficie que separa la fibra de vidrio y el recubrimiento.

La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que serían difíciles de iluminar de otro modo, como la cavidad perforada por la turbina de un dentista. También pueden emplearse para transmitir imágenes; en este caso se utilizan haces de varios miles de fibras muy finas, situadas exactamente una al lado de la otra y ópticamente pulidas en sus extremos. Cada punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro extremo, con lo que se reconstruye la imagen, que puede ser observada a través de una lupa. La transmisión de imágenes se utiliza mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser, en sistemas de reproducción mediante facsímil y fotocomposición, en gráficos de ordenador o computadora y en muchas otras aplicaciones.

Las fibras ópticas también se emplean en una amplia variedad de sensores, que van desde termómetros hasta giroscopios. Su potencial de aplicación en este campo casi no tiene límites, porque la luz transmitida a través de las fibras es sensible a numerosos cambios ambientales, entre ellos la presión, las ondas de sonido y la deformación, además del calor y el movimiento. Las fibras pueden resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un cable convencional resultara inútil, impreciso o incluso peligroso. También se han desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar materiales.

La fibra óptica se emplea cada vez más en la comunicación, debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan muchas redes de fibra para comunicación a larga distancia, que proporcionan conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia.

Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local. Al contrario que las comunicaciones de larga distancia, estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra.

Automóvil, cualquier vehículo mecánico autopropulsado diseñado para su uso en carreteras. El término se utiliza en un sentido más restringido para referirse a un vehículo de ese tipo con cuatro ruedas y pensado para transportar menos de ocho personas. Los vehículos para un mayor número de pasajeros se denominan autobuses o autocares, y los dedicados al transporte de mercancías se conocen como camiones. El término vehículo automotor engloba todos los anteriores, así como ciertos vehículos especializados de uso industrial y militar.

Construcción

Los componentes principales de un automóvil son el motor, la transmisión, la suspensión, la dirección y los frenos. Estos elementos complementan el chasis, sobre el que va montada la carrocería.

Motor

El motor proporciona energía mecánica para mover el automóvil. La mayoría de los automóviles utiliza motores de explosión de pistones, aunque a principios de la década de 1970 fueron muy frecuentes los motores rotativos o rotatorios. Los motores de explosión de pistones pueden ser de gasolina o diesel.

Motor de gasolina

Los motores de gasolina pueden ser de dos o cuatro tiempos. Los primeros se utilizan sobre todo en motocicletas ligeras, y apenas se han usado en automóviles. En el motor de cuatro tiempos, en cada ciclo se producen cuatro movimientos de pistón (tiempos), llamados de admisión, de compresión, de explosión o fuerza y de escape o expulsión. En el tiempo de admisión, el pistón absorbe la mezcla de gasolina y aire que entra por la válvula de admisión. En la compresión, las válvulas están cerradas y el pistón se mueve hacia arriba comprimiendo la mezcla. En el tiempo de explosión, la bujía inflama los gases, cuya rápida combustión impulsa el pistón hacia abajo. En el tiempo de escape, el pistón se desplaza hacia arriba evacuando los gases de la combustión a través de la válvula de escape abierta.

El movimiento alternativo de los pistones se convierte en giratorio mediante las bielas y el cigüeñal, que a su vez transmite el movimiento al volante del motor, un disco pesado cuya inercia arrastra al pistón en todos los tiempos, salvo en el de explosión, en el que sucede lo contrario. En los motores de cuatro cilindros, en todo momento hay un cilindro que suministra potencia al hallarse en el tiempo de explosión, lo que proporciona una mayor suavidad y permite utilizar un volante más ligero.

El cigüeñal está conectado mediante engranajes u otros sistemas al llamado árbol de levas, que abre y cierra las válvulas de cada cilindro en el momento oportuno.

A principios de la década de 1970, un fabricante japonés empezó a producir automóviles impulsados por el motor de combustión rotativo (o motor Wankel), inventado por el ingeniero alemán Felix Wankel a principios de la década de 1950. Este motor, en el que la explosión del combustible impulsa un rotor en lugar de un pistón, puede llegar a ser un tercio más ligero que los motores corrientes. Véase Motor de combustión interna.

Carburación

En el carburador se mezcla aire con gasolina pulverizada. La bomba de gasolina impulsa el combustible desde el depósito hasta el carburador, donde se pulveriza mediante un difusor. El pedal del acelerador controla la cantidad de mezcla que pasa a los cilindros, mientras que los diversos dispositivos del carburador regulan automáticamente la riqueza de la mezcla, esto es, la proporción de gasolina con respecto al aire. La conducción a velocidad constante por una carretera plana, por ejemplo, exige una mezcla menos rica en gasolina que la necesaria para subir una cuesta, acelerar o arrancar el motor en tiempo frío. Cuando se necesita una mezcla extremadamente rica, una válvula conocida como estrangulador o ahogador reduce drásticamente la entrada de aire, lo que permite que entren en el cilindro grandes cantidades de gasolina no pulverizada.

Encendido

La mezcla de aire y gasolina vaporizada que entra en el cilindro desde el carburador es comprimida por el primer movimiento hacia arriba del pistón. Esta operación calienta la mezcla, y tanto el aumento de temperatura como la presión elevada favorecen el encendido y la combustión rápida. La ignición se consigue haciendo saltar una chispa entre los dos electrodos de una bujía que atraviesa las paredes del cilindro.

En los automóviles actuales se usan cada vez más sistemas de encendido electrónico. Hasta hace poco, sin embargo, el sistema de encendido más utilizado era el de batería y bobina, en el que la corriente de la batería fluye a través de un enrollado primario (de baja tensión) de la bobina y magnetiza el núcleo de hierro de la misma. Cuando una pieza llamada ruptor o platinos abre dicho circuito, se produce una corriente transitoria de alta frecuencia en el enrollado primario, lo que a su vez induce una corriente transitoria en el secundario con una tensión más elevada, ya que el número de espiras de éste es mayor que el del primario. Esta alta tensión secundaria es necesaria para que salte la chispa entre los electrodos de la bujía. El distribuidor, que conecta el enrollado secundario con las bujías de los cilindros en la secuencia de encendido adecuada, dirige en cada momento la tensión al cilindro correspondiente. El ruptor y el distribuidor están movidos por un mismo eje conectado al árbol de levas, lo que garantiza la sincronización de las chispas.

Motor diesel

Los motores diesel siguen el mismo ciclo de cuatro tiempos explicado en el motor de gasolina, aunque presentan notables diferencias con respecto a éste. En el tiempo de admisión, el motor diesel aspira aire puro, sin mezcla de combustible. En el tiempo de compresión, el aire se comprime mucho más que en el motor de gasolina, con lo que alcanza una temperatura extraordinariamente alta. En el tiempo de explosión no se hace saltar ninguna chispa —los motores diesel carecen de bujías de encendido—, sino que se inyecta el gasoil o gasóleo en el cilindro, donde se inflama instantáneamente al contacto con el aire caliente. Los motores de gasoil no tienen carburador; el acelerador regula la cantidad de gasoil que la bomba de inyección envía a los cilindros.

Los motores diesel son más eficientes y consumen menos combustible que los de gasolina. No obstante, en un principio se utilizaban sólo en camiones debido a su gran peso y a su elevado costo. Además, su capacidad de aceleración era relativamente pequeña. Los avances realizados en los últimos años, en particular la introducción de la turboalimentación, han hecho que se usen cada vez más en automóviles; sin embargo, subsiste cierta polémica por el supuesto efecto cancerígeno de los gases de escape (aunque, por otra parte, la emisión de monóxido de carbono es menor en este tipo de motores).

Lubricación y refrigeración

Los motores necesitan ser lubricados para disminuir el rozamiento o desgaste entre las piezas móviles. El aceite, situado en el cárter, o tapa inferior del motor, salpica directamente las piezas o es impulsado por una bomba a los diferentes puntos.

Además, los motores también necesitan refrigeración. En el momento de la explosión, la temperatura del cilindro es mucho mayor que el punto de fusión del hierro. Si no se refrigeraran, se calentarían tanto que los pistones se bloquearían. Por este motivo los cilindros están dotados de camisas por las que se hace circular agua mediante una bomba impulsada por el cigüeñal. En invierno, el agua suele mezclarse con un anticongelante adecuado, como etanol, metanol o etilenglicol. Para que el agua no hierva, el sistema de refrigeración está dotado de un radiador que tiene diversas formas, pero siempre cumple la misma función: permitir que el agua pase por una gran superficie de tubos que son refrigerados por el aire de la atmósfera con ayuda de un ventilador.

Equipo eléctrico

El equipo eléctrico del automóvil comprende —además del sistema de encendido en el caso de los motores de gasolina— la batería, el alternador, el motor de arranque, el sistema de luces y otros sistemas auxiliares como limpiaparabrisas o aire acondicionado, además del cableado o arnés correspondiente. La batería almacena energía para alimentar los diferentes sistemas eléctricos. Cuando el motor está en marcha, el alternador, movido por el cigüeñal, mantiene el nivel de carga de la batería.

A diferencia de un motor de vapor, un motor de gasolina o diesel debe empezar a girar antes de que pueda producirse la explosión. En los primeros automóviles había que arrancar el motor haciéndolo girar manualmente con una manivela. En la actualidad se usa un motor de arranque eléctrico que recibe corriente de la batería: cuando se activa la llave de contacto (switch), el motor de arranque genera una potencia muy elevada durante periodos de tiempo muy cortos.

Transmisión

La potencia de los cilindros se transmite en primer lugar al volante del motor y posteriormente al embrague (clutch) —que une el motor con los elementos de transmisión—, donde la potencia se transfiere a la caja de cambios o velocidades. En los automóviles de tracción trasera se traslada a través del árbol de transmisión (flecha cardán) hasta el diferencial, que impulsa las ruedas traseras por medio de los palieres o flechas. En los de tracción delantera, que actualmente constituyen la gran mayoría, el diferencial está situado junto al motor, con lo que se elimina la necesidad del árbol de transmisión.

Embrague

Todos los automóviles tienen algún tipo de embrague. En los automóviles europeos suele accionarse mediante un pedal, mientras que en los estadounidenses suele ser automático o semiautomático. Los dos sistemas principales son el embrague de fricción y el embrague hidráulico; el primero, que depende de un contacto directo entre el motor y la transmisión, está formado por el volante del motor, un plato conductor que gira junto a éste y un disco conducido o de clutch situado entre ambos que está unido al eje primario o flecha de mando de la caja de cambios. Cuando el motor está embragado, el plato conductor presiona el disco conducido contra el volante, con lo que el movimiento se transmite a la caja de cambios. Al pisar el pedal del embrague, el volante del motor deja de estar unido al disco conducido.

El embrague hidráulico puede usarse de forma independiente o con el embrague de fricción. En este sistema, la potencia se transmite a través de un fluido aceitoso, sin que entren en contacto partes sólidas. En el embrague hidráulico, un disco de paletas (o impulsor) que está conectado con el volante del motor agita el aceite con suficiente fuerza para hacer girar otro disco similar (rotor) conectado a la transmisión (véase Hidráulica).

Caja de cambios

Los motores desarrollan su máxima potencia a un número determinado de revoluciones. Si el cigüeñal estuviera unido directamente a las ruedas, provocaría que sólo pudiera circularse de forma eficiente a una velocidad determinada. Para solventar este problema se utiliza el cambio de marchas, que es un sistema que modifica las relaciones de velocidad y potencia entre el motor y las ruedas motrices. En los automóviles europeos, el sistema más usado es la caja de cambios convencional, de engranajes desplazables. En los automóviles americanos se utilizan mucho más los sistemas Hydra-Matic y los convertidores de par o torsión.

Una caja de cambios convencional proporciona cuatro o cinco marchas hacia delante y una marcha atrás o reversa. Está formada esencialmente por dos ejes dotados de piñones fijos y desplazables de diferentes tamaños. El eje primario, conectado al motor a través del embrague, impulsa el eje intermedio, uno de cuyos piñones fijos engrana con el piñón desplazable del secundario correspondiente a la marcha seleccionada (salvo si la palanca está en punto muerto: en ese caso el eje secundario no está conectado con el intermedio). Para la marcha atrás hace falta un piñón adicional para cambiar el sentido de giro del eje secundario. En la marcha más alta, el eje primario queda unido directamente al secundario, girando a la misma velocidad. En las marchas más bajas y en la marcha atrás, el eje secundario gira más despacio que el primario. Cuando el eje secundario gira más rápido que el primario, se habla de overdrive o supermarcha, que permite aumentar la velocidad del automóvil sin que el motor exceda del número normal de revoluciones.

La transmisión de tipo Hydra-Matic combina el embrague hidráulico o convertidor de torsión con una caja de cambios semiautomática. Un regulador controlado por la presión ejercida sobre el pedal del acelerador selecciona las marchas a través de un sistema de válvulas distribuidoras de control hidráulico. El cambio Hydra-Matic proporciona dos o tres marchas hacia delante.

Los convertidores de par proporcionan un número ilimitado de relaciones de velocidad entre los ejes primario y secundario sin que se produzca ningún desplazamiento de engranajes. El convertidor de par es un mecanismo hidráulico que utiliza la potencia del motor para mover una bomba que a su vez impulsa chorros de aceite contra las aspas de una turbina conectada a las ruedas motrices.

Diferencial

Cuando el automóvil realiza un giro, las ruedas situadas en el lado interior de la curva realizan un recorrido menor que las del lado opuesto. En el caso de las ruedas motrices, si ambas estuvieran unidas a la transmisión directamente darían el mismo número de vueltas, por lo que la rueda externa patinaría; para evitarlo se utiliza un mecanismo llamado diferencial, que permite que una de las ruedas recorra más espacio que la otra. En el caso de los vehículos con tracción en las cuatro ruedas se utilizan dos diferenciales, uno para las ruedas delanteras y otro para las traseras.

Suspensión, dirección y frenos

La suspensión del automóvil está formada por las ballestas, horquillas rótulas, muelles y amortiguadores, estabilizadores, ruedas y neumáticos. El bastidor del automóvil se puede considerar el cuerpo integrador de la suspensión. Está fijado a los brazos de los ejes mediante ballestas o amortiguadores. En los automóviles modernos, las ruedas delanteras (y muchas veces las traseras) están dotadas de suspensión independiente, con lo que cada rueda puede cambiar de plano sin afectar directamente a la otra. Los estabilizadores son unas barras de acero elástico unidas a los amortiguadores para disminuir el balanceo de la carrocería y mejorar la estabilidad del vehículo.

La dirección se controla mediante un volante montado en una columna inclinada y unido a las ruedas delanteras por diferentes mecanismos. La servodirección, empleada en algunos automóviles, sobre todo los más grandes, es un mecanismo hidráulico que reduce el esfuerzo necesario para mover el volante.

Un automóvil tiene generalmente dos tipos de frenos: el freno de mano, o de emergencia, y el freno de pie o pedal. El freno de emergencia suele actuar sólo sobre las ruedas traseras o sobre el árbol de transmisión. El freno de pie de los automóviles modernos siempre actúa sobre las cuatro ruedas. Los frenos pueden ser de tambor o de disco; en los primeros, una tira convexa de amianto (asbesto) o material similar se fuerza contra el interior de un tambor de acero unido a la rueda; en los segundos, se aprietan unas pastillas (balatas) contra un disco metálico unido a la rueda.

Tendencias actuales

A finales del siglo XX, los automóviles se enfrentan a dos desafíos fundamentales: por un lado, aumentar la seguridad de los ocupantes para reducir así el número de víctimas de los accidentes de tráfico, ya que en los países industrializados constituyen una de las primeras causas de mortalidad en la población no anciana; por otro lado, aumentar su eficiencia para reducir el consumo de recursos y la contaminación atmosférica, de la que son uno de los principales causantes. Véase Efecto invernadero.

En el primer apartado, además de mejorar la protección ofrecida por las carrocerías, se han desarrollado diversos mecanismos de seguridad, como el sistema antibloqueo de frenos (ABS) o las bolsas de aire (airbag). En cuanto al segundo aspecto, la escasez de petróleo y el aumento de los precios del combustible en la década de 1970 alentaron en su día a los ingenieros mecánicos a desarrollar nuevas tecnologías para reducir el consumo de los motores convencionales (por ejemplo, controlando la mezcla aire-combustible mediante microprocesadores o reduciendo el peso de los vehículos) y a acelerar los trabajos en motores alternativos. Para reducir la dependencia del petróleo se ha intentado utilizar combustibles renovables: en algunos países se emplean hidrocarburos de origen vegetal (véase gasohol), y también se ha planteado el uso de hidrógeno, que se obtendría a partir del aire usando, por ejemplo, la energía solar. El hidrógeno es un combustible muy limpio, ya que su combustión produce exclusivamente agua.

Nuevos tipos de motores

Entre las alternativas a los motores de explosión convencionales, los motores eléctricos parecen ser los más prometedores. El motor de turbina continúa sin resultar práctico a escala comercial por sus elevados costes de fabricación y otros problemas; el motor Stirling modernizado presenta todavía obstáculos técnicos, y el motor de vapor, con el que se experimentó en las décadas de 1960 y 1970, demostró ser poco práctico. Por otra parte, el motor rotativo Wankel, cuyo consumo es inherentemente mayor, ha seguido produciéndose en pocas cantidades para aplicaciones de alta potencia.

Los importantes avances en la tecnología de baterías han permitido fabricar automóviles eléctricos capaces de desarrollar velocidades superiores a los 100 km/h con una gran autonomía. Este tipo de vehículos es extremadamente limpio y silencioso, y resulta ideal para el tráfico urbano. Además, como la mayoría de las centrales eléctricas utiliza carbón, el uso masivo de los vehículos eléctricos reduciría la demanda de petróleo. La desventaja de los automóviles eléctricos es su elevado coste actual (que, entre otras razones, es ocasionado por el bajo número de unidades producidas) y la necesidad de crear una infraestructura adecuada para recargar las baterías.

Avión o Aeroplano, aeronave más pesada que el aire, por lo general propulsada por medios mecánicos y sustentada por alas fijas como consecuencia de la acción dinámica de la corriente de aire que incide sobre su superficie (véase Aerodinámica). Otras aeronaves más pesadas que el aire son: el planeador o velero, provisto también de alas fijas y carente de motor; aquéllas en las que se sustituyen las alas por un rotor que gira en el eje vertical (véase Autogiro; Helicóptero), y el ornitóptero, cuyo empuje y sustentación se consigue mediante alas batientes. Se han desarrollado modelos de juguete que vuelan perfectamente, pero los de mayor tamaño no han tenido éxito. Véase también Aviación, para la historia de aparatos más pesados que el aire.

La palabra `aeroplano' sugiere normalmente aparatos que operan desde tierra firme, pero en realidad se aplica a otros tipos de aviones, como los transportados, hidroaviones y anfibios. La principal diferencia de configuración entre estos aparatos está en el tren de aterrizaje. Los aviones transportados están diseñados para despegar y aterrizar desde una instalación móvil, la más común es el portaaviones; para ello disponen de un gancho con el que en el momento de aterrizar se sujetan a un cable que cruza la cubierta del portaaviones y, junto con los frenos del propio avión, permiten una carrera de aterrizaje muy corta. Para despegar se enganchan a una catapulta que en pocos segundos, junto con el motor a máxima potencia, les hacen alcanzar la velocidad de despegue. Los hidroaviones sustituyen las ruedas del tren de aterrizaje por flotadores. El modelo conocido como barca voladora tiene el fuselaje como el casco de un barco y, aparte de sus funciones aerodinámicas e hidrodinámicas, sirve para que flote una vez posado en el agua. Los anfibios van provistos de ruedas y flotadores y en algunos casos de casco, lo que permite operar con la misma efectividad tanto en tierra como en agua. Antes de la II Guerra Mundial los hidroaviones se utilizaron para el transporte militar y para el servicio comercial intercontinental. Por su configuración tenían que volar y amerizar despacio. Como los nuevos aviones volaban y podían aterrizar a mayor velocidad, para ganar eficiencia, los grandes aviones pasaron a operar solamente desde tierra. Los anfibios vuelan y aterrizan aún más despacio por su doble tren de aterrizaje y se usan menos. A veces son muy útiles, sobre todo en zonas como la selva, donde la construcción de una pista de aterrizaje es costosa y difícil de mantener, pero, sin embargo, hay abundantes ríos con aguas profundas y tranquilas. Existen flotadores anfibios para avionetas. Parecen flotadores convencionales y tienen una rueda en el centro. La rueda sobresale muy poco y no crea resistencia en el agua, pero asoma lo suficiente para permitir aterrizar en superficies de tierra o de hierba cortada.

Otros modelos de aviones más pesados que el aire son los VTOL y STOL. La aeronave VTOL (del inglés vertical takeoff and landing, `avión de despegue y aterrizaje vertical') es un avión cuyas características de vuelo son semejantes a las de los demás aviones; adicionalmente tienen la capacidad de despegar y aterrizar en vertical. Hay varias maneras de conseguir el despegue vertical desde tierra; la mayor parte de los diseños utilizan motores reactores giratorios que al comienzo del despegue se colocan en posición vertical, y después, poco a poco, van rotando hasta situarse horizontalmente al adquirir la velocidad necesaria para volar; este sistema requiere mucha potencia de empuje en los motores. Las alas variables y los ventiladores móviles se usan también en este tipo de despegues, pero originan resistencias aerodinámicas muy altas para el vuelo horizontal. Los aviones convertibles combinan los rotores de los helicópteros con las alas fijas de los aviones, y resultan apropiados para vuelos comerciales cortos de despegue vertical. Compiten con los helicópteros, pero vuelan a velocidades mayores.

La aeronave STOL (del inglés, short takeoff and landing) es un avión que despega y aterriza en tan poca distancia que sólo requiere pistas muy cortas. Es más eficiente, en términos de consumo de combustible y potencia de los motores, que la aeronave VTOL, y además es capaz de volar también a mayores velocidades y con más alcance que los helicópteros. Para aeronaves más ligeras que el aire, véase Dirigible; Globo.

Principios del vuelo

Un aeroplano se sustenta en el aire como consecuencia de la diferencia de presión que se origina al incidir la corriente de aire en una superficie aerodinámica como es el ala. En la parte superior la presión es menor que en la inferior (véase Teorema de Bernoulli), y esa diferencia produce un efecto de empuje hacia arriba llamado sustentación. La magnitud del empuje depende de la forma del corte transversal del ala, de su área, de las características de su superficie, de su inclinación respecto al flujo del aire y de la velocidad del mismo.

Sustentación

La sustentación producida en un ala o superficie aerodinámica es directamente proporcional al área total expuesta al flujo de aire y al cuadrado de la velocidad con que ese flujo incide en el ala. También es proporcional, para valores medios, a la inclinación del ángulo de ataque del eje de la superficie de sustentación respecto al de la corriente de aire. Para ángulos superiores a 14 grados, la sustentación cambia con rapidez hasta llegar a la pérdida total cuando, por efecto de esos valores, el aire se mueve produciendo torbellinos en la superficie de las alas. En esta situación se dice que el perfil aerodinámico ha entrado en pérdida.

Cuando un avión está manteniendo la altura, la sustentación producida por las alas y otras partes del fuselaje se equilibra con su peso total. Hasta ciertos límites, cuando aumenta el ángulo de ataque y la velocidad de vuelo se mantiene constante, el avión ascenderá; si, por el contrario, baja el morro del avión, disminuyendo así el ángulo de ataque, perderá sustentación y comenzará a descender. El sistema por el cual sube y baja el morro del avión se llama control de cabeceo.

Durante un vuelo, el piloto altera con frecuencia la velocidad y ángulo de ataque de la aeronave. Estos dos factores a menudo se compensan uno con otro. Por ejemplo, si el piloto desea ganar velocidad y mantener el nivel de vuelo, primero incrementa la potencia del motor, lo que eleva la velocidad; esto a su vez aumenta la sustentación, por lo que para equilibrarla con el peso, bajará poco a poco el morro del avión con el control de cabeceo hasta conseguirlo.

Durante la aproximación para el aterrizaje, el piloto tiene que ir descendiendo y a la vez disminuyendo la velocidad lo más posible; esto produciría una considerable pérdida de sustentación y, en consecuencia, un descenso muy fuerte y un impacto violento en la pista. Para remediarlo hay que lograr sustentación adicional alterando la superficie de las alas, su curvatura efectiva y su ángulo de ataque, mediante mecanismos adicionales como los flaps, alerones sustentadores que se extienden en la parte posterior de las alas, y los slats, en la parte frontal. Ambas superficies se usan para el despegue y aterrizaje, yendo retraídas durante el vuelo de crucero al tener una limitación de velocidad muy reducida, por encima de la cual sufrirían daños estructurales.

Resistencia

Los mismos factores que contribuyen al vuelo producen efectos no deseables, como la resistencia, la fuerza que tiende a retardar el movimiento del avión en el aire. Un tipo de resistencia es la aerodinámica, producida por la fricción que se opone a que los objetos se muevan en el aire. Depende de la forma del objeto y de la rugosidad de su superficie. Se puede reducir mediante perfiles muy aerodinámicos del fuselaje y alas del avión. Hay diseños que incorporan elementos para reducir la fricción, consiguiendo que el aire que fluye en contacto con las alas mantenga el llamado flujo laminar cuando se desliza sobre ellas sin producir torbellinos.

Otro tipo de resistencia, llamada resistencia inducida, es el resultado directo de la sustentación producida por las alas. Se manifiesta en forma de torbellinos o vórtices en la parte posterior de los slats y especialmente del extremo de las alas, y en algunos aviones se coloca una aleta pequeña denominada winglet, que reduce notablemente su efecto.

Se llama resistencia total a la suma de ambas resistencias. La ingeniería aeronáutica trata de conseguir que la relación entre la sustentación y la resistencia total sea lo más alta posible, lo que se obtiene teóricamente al igualar la resistencia aerodinámica con la inducida, pero dicha relación en la práctica está limitada por factores como la velocidad y el peso admisible de la célula del avión. En el avión de transporte subsónico su valor puede llegar a veinte; en los de altas características se duplica ese valor, mientras que el incremento de la resistencia, cuando se vuela a velocidades supersónicas, lo reduce a menos de diez.

Vuelo supersónico

La era de la aviación supersónica comenzó después de la II Guerra Mundial y su desarrollo tuvo que resolver problemas aerodinámicos y técnicos que hicieron los vuelos de experimentación tan peligrosos e inciertos como los de los primeros aviadores. Ni los complejos análisis matemáticos ni los resultados obtenidos en el túnel aerodinámico, donde se experimentaban los prototipos, podían garantizar que las características de un avión en vuelo supersónico fuesen, no ya satisfactorias, sino seguras sin más.

La barrera del sonido

El primer gran problema que encontraron los ingenieros aeronáuticos se conoce popularmente como la barrera del sonido. Se alcanza cuando la aeronave llega a la velocidad del sonido en el aire (unos 1.220 km/h al nivel del mar) conocida como Mach 1. Al obtener esa velocidad, se produce de forma brusca una modificación en la compresibilidad del aire, llamada onda de choque. El resultado de esta distorsión incrementa la resistencia al avance del avión que afecta a la sustentación del ala y a los mandos de vuelo. Por tanto, en los aviones que no estén adecuadamente diseñados, es imposible controlar el vuelo. Véase Número de Mach.

Contaminación acústica

El ruido es un gran problema asociado con los aviones y sobre todo con el vuelo supersónico. El ruido de los motores de los aviones supersónicos es alto y más agudo que el de los subsónicos y constituye una seria molestia para los trabajadores y vecinos de las comunidades próximas a los aeropuertos. Su mayor nivel de ruido se produce cuando la onda de choque originada por un vuelo supersónico impacta el suelo, generando un fragor en forma de explosión. Este efecto se conoce con el nombre de estampido sónico y puede romper los cristales de las ventanas de las casas en zonas muy alejadas del avión que lo ha causado. Los investigadores y los fabricantes intentan reducir tanto el ruido de los motores como el estampido sónico, entre otras cosas porque les obligan las regulaciones de las autoridades aeronáuticas, que van desde prohibir el vuelo de aviones supersónicos sobre áreas pobladas, hasta establecer procedimientos, horarios y trayectorias especiales de despegue y aterrizaje, con el fin de reducir el impacto acústico de cualquier tipo de avión que opera en los aeropuertos.

La barrera del calor

Otro de los problemas asociados con el vuelo supersónico es la alta temperatura que se produce por la fricción del aire con las superficies exteriores del aeroplano. Este problema se conoce con el nombre de barrera del calor. Para contrarrestar las altas temperaturas y presiones que origina la velocidad supersónica, los materiales de la estructura y los de la superficie deben ser más resistentes al calor y a la presión que los utilizados en los aviones subsónicos. El titanio es un ejemplo de material con gran eficiencia ante ambos efectos. La necesidad de volar cada vez a mayor velocidad y altitud, y con más autonomía de vuelo, han propiciado la aparición de nuevos diseños aerodinámicos y de modernos materiales para las estructuras del aparato.

Estructura del avión

Un avión de diseño actual y convencional presenta cuatro componentes: fuselaje, alas, empenaje de cola y tren de aterrizaje.

Fuselaje

En los albores de la aviación, el fuselaje consistía en una estructura abierta que soportaba los otros componentes del avión. La parte inferior de la estructura servía de tren de aterrizaje. Después, la necesidad de aumentar la resistencia y mejorar las prestaciones llevó a desarrollar fuselajes cerrados, afianzados y sujetos por medio de montantes y cables de riostramiento, que mejoraban las condiciones aerodinámicas, proporcionaban protección a los pilotos y pasajeros y conseguían mayor espacio para el equipaje y la carga. Poco tiempo después aparecieron los fuselajes monocasco, una novedad que consistía en integrar en un solo cuerpo la estructura y su recubrimiento. Es el modelo más usado actualmente y permite presurizar el interior para volar a elevadas altitudes.

Alas

Aunque los aviones de un solo plano o ala, conocidos como monoplanos, aparecieron pocos años después del vuelo de los hermanos estadounidenses Wilbur y Orville Wright, los primeros aeroplanos se construían preferentemente con dos alas (biplano) y en ocasiones con tres o con cuatro. Las alas múltiples tienen la ventaja de aumentar la sustentación con una estructura más fuerte, pero el monoplano encuentra menor resistencia al avance. Cuando se desarrolló el ala cantilever, el monoplano se afianzó definitivamente a pesar de que no comenzó su diseño hasta la década de los treinta. El ala cantilever consigue su fijación mediante elementos estructurales internos. Es un ala limpia desde su encastre en el fuselaje hasta su extremo, sin soporte visible alguno y se usa en la mayor parte de los aviones. Las alas reforzadas con puntales y cables aún se siguen utilizando en aviones pequeños y ligeros y en modelos acrobáticos. La estructura de un ala consiste en un armazón de largueros y costillas características cubierto por planchas metálicas unidas y sujetas al mismo por remaches u otros medios.

En los aviones pequeños el recubrimiento puede ser de lona y a veces de contrachapado o de fibra de vidrio impregnada de resina. Los largueros y costillas se extienden desde el fuselaje hasta la punta del plano. Se pueden usar uno o varios largueros, pero el diseño más corriente es el de dos. Las costillas van perpendiculares a ellos y dan al ala su forma exterior. Si el recubrimiento es de planchas metálicas, también participan del esfuerzo que soporta el ala. Este modelo de recubrimiento resistente del plano se usa en los grandes aviones, aunque cada vez se usan más plásticos reforzados, de alta resistencia, tanto en el recubrimiento de algunas partes del ala como en la estructura.

El tamaño y forma de las alas varía mucho con los requerimientos aerodinámicos. Las alas de los aviones supersónicos suelen estar inclinadas hacia atrás, dando al avión el aspecto de una punta de flecha dirigida hacia adelante y muy estilizada. Esta forma permite reducir la brusca variación de compresión cuando el avión se aproxima a la velocidad del sonido. La importancia del ala dentro de la estructura del avión se pone de manifiesto con el desarrollo de las alas volantes, aviones en los que el fuselaje y la cola se han eliminado completamente.

Empenaje de cola

El modelo normal de empenaje de cola consta de dos superficies básicas, la horizontal y la vertical. Cada una tiene secciones fijas para proporcionar estabilidad y móviles para controlar mejor el vuelo. La sección fija de la superficie horizontal se llama estabilizador horizontal y suele estar en la parte frontal, mientras que en la posterior se encuentra la parte móvil llamada timón de profundidad o elevador. Algunas veces toda la superficie se puede mover y el elevador se elimina. La parte fija de la superficie vertical es el estabilizador vertical y la móvil el timón de dirección. Hay diseños que tienen dos superficies verticales y, por tanto, dos timones de dirección. Los empenajes de cola inclinados combinan las funciones de dirección y profundidad en un solo mecanismo. En algunos aviones supersónicos, la superficie horizontal se ha sustituido por dos aletas (canard) situadas a cada lado cerca del morro del avión.

Tren de aterrizaje

El tren de aterrizaje suele ser uno de los mecanismos más complicados de un avión. Entre sus componentes se incluye el amortiguador principal, que es una pata con una estructura muy resistente, en cuya parte inferior y antes del ensamblaje de las ruedas lleva un amortiguador hidráulico para absorber el impacto del aterrizaje. Va sujeto a los largueros del ala o del fuselaje. El mecanismo de accionamiento del tren permite extenderlo y retraerlo al accionar desde la cabina de pilotos la palanca de mando. Por lo general, se actúa con energía hidráulica. Los frenos también suelen ser hidráulicos y provistos de sistema antideslizante. Suelen llevar un mecanismo detector de modo, aire/tierra, que activa o desactiva varios sistemas del avión, según esté volando o en el suelo.

Hay varios tipos de trenes de aterrizaje, el más común es el triciclo. Consta de dos patas principales situadas detrás del centro de gravedad del avión y una tercera más pequeña en el morro. Ciertos aviones muy grandes pueden llevar tres y hasta cuatro patas principales y cuatro ruedas por cada pata. Otro modelo es el convencional con dos patas principales delante del centro de gravedad y una tercera muy pequeña situada en la parte inferior de la cola. El aterrizaje es más fácil con el tren triciclo, ya que permite un mejor frenado al no existir riesgo de golpear con el morro del avión en el suelo. También mejora la maniobrabilidad y visibilidad durante el rodaje por el suelo. Otros tipos de tren de aterrizaje pueden llevar bandas de rodadura tipo oruga para cargas pesadas en campos de aterrizaje no preparados, giratorios para viento cruzado, o una combinación de esquís y ruedas para aterrizar sobre hielo o nieve.

Controles de vuelo

Los componentes necesarios para el control de vuelo de los aviones modernos constan de varios sistemas que se manejan desde la cabina de pilotos mediante una palanca de mando, con o sin volante, los pedales de dirección y un conjunto de instrumentos que proporcionan la información necesaria para su uso.

Mandos de vuelo

La actitud de un aeroplano se define como su orientación relativa al horizonte y a la dirección de su movimiento. Se controla por medio de tres sistemas de mandos de vuelo, cada uno de los cuales actúa en su eje correspondiente moviendo el timón de profundidad, el de dirección o los alerones que se encuentran en la parte posterior de las alas. Todos se accionan desde la cabina de pilotos: el primero con la palanca, el segundo con los pedales, y los alerones con el volante. En los aviones pequeños, que suelen carecer de volante, la palanca que mueve el timón de profundidad, si se inclina a un lado o a otro, mueve también los alerones.

El timón de profundidad permite el movimiento de cabeceo y hace girar al avión sobre el eje transversal. Al tirar hacia atrás de la palanca de mando, se levanta el timón, disminuye su sustentación, baja la cola y, por tanto, sube el morro. Si se mueve la palanca hacia adelante se produce el efecto contrario haciendo picar al avión.

Los alerones están colocados cerca de la punta del ala y hacia el borde posterior, y permiten el movimiento de alabeo y hace girar al avión sobre el eje longitudinal. Si se mueve el volante de mando a la izquierda o se inclina en la misma dirección la palanca cuando no hay volante, el alerón izquierdo se levanta y el derecho baja, produciéndose así una inclinación de las alas hacia la izquierda. Si se mueve el mando a la derecha, se inclinarán hacia ese lado.

Los pedales controlan el movimiento de dirección y hacen girar al avión sobre el eje vertical. En coordinación con los alerones, permiten cambiar el rumbo del avión. Cuando se presiona el pedal derecho, el timón se mueve y hace girar el avión hacia la derecha y si se empuja el pedal izquierdo, el giro será hacia la izquierda; pero hay que inclinar la palanca a la vez y hacia el mismo lado para evitar que el avión derrape. El alabeo es al avión lo que el peralte de una curva al automóvil.

Los aviones llevan un conjunto de mandos secundarios para asegurar un manejo más sencillo y efectivo de las superficies de control. Así, los compensadores se usan en el timón de profundidad, de dirección y de alabeo para ajustar el equilibrio de las superficies aerodinámicas asociadas, por tanto, los pilotos no tienen que realizar mucha fuerza sobre el mando correspondiente. Los flaps y slats aumentan la sustentación para reducir la velocidad de despegue y aterrizaje. Los spoilers, aletas alineadas con la superficie superior de las alas, se pueden extender usándolos como frenos aerodinámicos tanto en vuelo como en el aterrizaje; coordinados con los alerones, se utilizan para mejorar el control de alabeo. Los frenos aerodinámicos van en los planos; son dos o más superficies que, accionadas desde la cabina, se extienden poco a poco hasta llegar a ser perpendiculares a la dirección del vuelo, ayudando a disminuir la velocidad del avión. Todos estos sistemas se pueden controlar de diversas maneras, ya sea eléctrica, mecánica o hidráulicamente. Cuando el control se realiza mediante señales eléctricas, recibe el nombre de fly-by-wire. Si es por medio de señales ópticas, se llama fly-by-light.

Instrumentos

La información necesaria para volar requiere datos de al menos cuatro sistemas: planta de potencia, instrumentos de vuelo, instrumentos de aterrizaje y ayudas a la navegación. Los instrumentos de la planta de potencia indican todos aquellos parámetros que permiten conocer el funcionamiento del motor, y son, entre otros: el tacómetro, que muestra las revoluciones por minuto de cada motor, los indicadores de presión y temperatura de aceite y el medidor de flujo de combustible. Los instrumentos primarios de vuelo dan información de velocidad (anemómetro), dirección (brújula magnética y giróscopo direccional), altitud (altímetros) y actitud (variómetro, bastón, bola y horizonte artificial). Varios de ellos, así como el piloto automático, utilizan datos recibidos de los giróscopos o de las plataformas inerciales, ya sean convencionales o de láser, que suministran información sin ninguna ayuda exterior.

Los instrumentos de aterrizaje necesarios para operar con baja visibilidad son de dos tipos: sistema instrumental de aterrizaje (ILS), que envía señales directas al piloto para asegurar una correcta trayectoria de aproximación, y el control de aproximación de tierra (GCA), que utiliza equipos de radar instalados en tierra para guiar al piloto mediante instrucciones verbales transmitidas por radio durante la maniobra. El ILS se usa en aviación civil y el GCA en la militar, aunque cada vez se extiende más el uso del ILS en ambas. El sistema de luces de aproximación (ALS) proporciona una ayuda visual durante los últimos metros del descenso. Véase también Aeropuerto; Ruta aérea.

Propulsión

Hay dos sistemas de tracción que permiten volar a un aeroplano: la hélice y la propulsión a chorro. La hélice puede ser movida tanto por un motor de combustión interna como por un motor turborreactor. Debido a su diseño, empuja el aire hacia atrás con sus palas, que penetran en el aire como un tornillo. La propulsión a chorro produce el empuje al descargar los gases de escape, producto de la combustión, a una velocidad mucho mayor que la que tenía el aire al entrar en el motor. En modelos especiales se han usado motores cohete para proporcionar empuje adicional, basándose en el mismo principio de acción y reacción. Un motor de aviación tiene que satisfacer un número importante de requerimientos: alta fiabilidad, larga vida, bajo peso, bajo consumo de combustible y baja resistencia al avance. El factor más importante es el de la fiabilidad, ya que afecta de modo directo al primer requisito del transporte aéreo: la seguridad. La vida larga tiene repercusiones económicas interesantes para la aviación comercial. El peso y el bajo consumo son interdependientes, a mayor peso más consumo y más combustible a cargar que a su vez también pesa. La baja resistencia al avance se consigue reduciendo el área frontal, obteniendo con ello menos consumo.

Motores de pistón

El motor de pistón se utiliza en los aviones propulsados por hélice. Puede ser de dos tipos: de cilindros y rotativo. En los primeros, la energía mueve los pistones que trabajan dentro de cilindros colocados en línea, opuestos horizontalmente o en estrella. Para refrigerarlos se usa aire o un líquido refrigerante, y queman como combustible distintos tipos de gasolina. Su ventaja estriba en la fiabilidad y el bajo consumo. El motor rotativo sustituye los cilindros por un mecanismo rotatorio con menor número de piezas móviles, que produce, por tanto, menos vibraciones. Se utiliza para pequeños aeroplanos. El motor turboalimentado consiste en un conjunto de cilindros provisto de una turbina accionada por la energía cinética de los gases de escape. La turbina mueve a su vez un compresor que aumenta la presión de entrada del combustible en la cámara de combustión. Esto compensa en parte la pérdida debida a la altura y permite que el motor opere con suficiente potencia a grandes altitudes. Una variante de esta idea utilizaba la misma energía de los gases de escape por medio de turbinas para aplicar empuje mecánico al cigüeñal. Estos tipos de motores turboalimentados equiparon a los aviones estadounidenses e ingleses durante la II Guerra Mundial.

Motores de reacción

El motor de reacción se basa en el principio de acción y reacción y se divide en tres grupos: el turborreactor, el turbopropulsor y el cohete. En el turborreactor, el aire que entra en el motor pasa a través de un compresor, donde aumenta su presión. En la cámara de combustión se le añade el combustible, que se quema y aumenta la temperatura y el volumen de los gases. Los gases de la combustión pasan por la turbina, que a su vez mueve el compresor de entrada, y salen al exterior a través de la tobera de escape, diseñada para aumentar su velocidad, produciendo así el empuje deseado. Este motor puede alcanzar velocidades supersónicas. El turbopropulsor o turbohélice es un motor de reacción en el que la energía cinética de los gases de escape se usa para mover la hélice. Se instala en aviones de tamaño medio y desarrolla velocidades entre 480 y 640 km/h. Por último, el cohete es el que contiene el comburente y el combustible, y es el que impulsa los proyectiles teledirigidos. También se han usado cohetes con combustible sólido para suministrar empuje adicional durante la carrera de despegue a aviones de hélice con mucha carga. El motor turbofán es una modalidad del de propulsión a chorro en el que parte del flujo de aire, impulsado por los compresores, sale directamente al exterior produciendo empuje igual que una hélice; también se llama de doble flujo y en los motores grandes la potencia así suministrada puede superar a la del flujo primario. Lo utilizan la mayor parte de los grandes aviones comerciales, ya que consume menos combustible, hace menos ruido y es muy fiable; no puede alcanzar velocidades supersónicas, pero se aproxima a ellas. Se desarrollaron algunos otros tipos de motores de reacción, como el pulsorreactor, que impulsaba la bomba volante alemana V-1, o el estatorreactor, que necesita grandes velocidades para arrancar, usándose sólo como motor auxiliar para aviones supersónicos de velocidad superior a Mach 2. Ambos motores tienen un consumo de combustible muy alto.

Aeroplano: tipos y usos

Los aeroplanos se pueden clasificar en tres tipos según su función y el ámbito de operación: comerciales, incluyendo los de transporte de pasajeros y carga, ya sea en líneas regulares o charter, militares, y aeroplanos de la aviación general, que son los no comprendidos en los otros dos. Las particulares características de cada avión están determinadas por la naturaleza de los servicios a realizar. El aumento de la especialización en su uso ha traído como consecuencia una amplia variación en los requerimientos de diseño.

Aeroplanos comerciales

En Europa el avión fue utilizado para transporte de pasajeros en el año 1919, mientras que en Estados Unidos los primeros vuelos de la aviación comercial se dedicaron principalmente al correo. Los vuelos de pasajeros aumentaron en rutas como la de Londres a París, se introdujeron en Estados Unidos a partir de 1927 y crecieron más deprisa gracias a la aparición de aviones seguros y confortables como el Douglas DC-3. Este avión iba propulsado por dos motores de hélice y podía transportar 21 pasajeros a una velocidad de crucero de 300 km/h. Todavía se puede ver volando por los cielos de muchos países. Poco después aparecieron los aviones cuatrimotores, que podían volar aún a mayor velocidad, subir más alto y llegar más lejos. El siguiente paso se dio en 1950, con el Vickers Viscount británico, primer avión impulsado por hélice movida por turbina de gas.

Los aviones para cubrir un servicio se eligen en función de dos factores: el volumen de tráfico y la distancia entre los aeropuertos a los que sirve. La distancia entre aeropuertos se conoce como recorrido y hay un elevado número de aviones que pueden operar entre 400 y 11.000 kilómetros.

Los reactores comerciales de pasajeros se usaron al principio para recorridos de larga distancia. El avión británico De Havilland Comet inició su servicio en 1952, y el Boeing 707 en 1958. También a finales de la década de 1950 apareció el Douglas DC-8 y los Convair 880 y 990. Estos aviones desarrollaban una velocidad de crucero aproximada de 900 km/h y transportaban más de 100 pasajeros.

El Caravelle francés, el De Havilland Trident inglés y el Boeing 727 estadounidense, todos ellos más pequeños y diseñados con los motores en la cola, se construyeron para cubrir líneas de medio recorrido, entre 800 y 2.400 kilómetros. A mediados de la década de 1960 aparecieron birreactores aún más pequeños para operar en trayectos de corto recorrido, como el Boeing 737, el DC-9, el Fokker F-28 y el BAC-111.

El Boeing 747 entró en servicio en el año 1970 y fue el primer avión comercial de fuselaje ancho. Sirve en trayectos de media y larga distancia y alta densidad. Utiliza motores turbofán y vuela en crucero a unos 900 km/h. Normalmente transporta 400 pasajeros, llegando hasta 500 en algunas versiones. El Douglas DC-10 y el Lockheed 1011 Tristar son también grandes aviones con capacidades próximas a los 300 pasajeros. Ambos van empujados por tres motores montados en la cola. Se diseñaron para cubrir trayectos como el de Chicago-Los Ángeles y otros de recorrido similar. El primer DC-10 voló en 1971 y el L-1011 en 1972. Mientras, en Europa, el primer avión birreactor de fuselaje ancho, Airbus A300, realizaba su primer vuelo en el mismo año. Airbus es un consorcio de empresas de distintos países europeos, como España, Francia y Reino Unido entre otros.

El avión supersónico comercial, o SST, constituye la cima en el desarrollo de la tecnología aeronáutica y permite cruzar el Atlántico norte y regresar de nuevo en menos tiempo de lo que un reactor subsónico tarda en hacer uno de los trayectos. El supersónico soviético TU-144, que fue el primero en entrar en servicio en 1975, realizaba vuelos regulares de carga en la URSS. En 1962 los gobiernos del Reino Unido y Francia firmaron un acuerdo para desarrollar y construir el proyecto del avión supersónico Concorde. El primer vuelo de prueba se hizo en 1971 y el certificado de aeronavegabilidad se firmó en 1975. El primer vuelo comercial del avión francés fue de París a Río de Janeiro, con escala en Dakar, y del inglés, de Londres a Bahrein.

En sus inicios, el proyecto SST fue criticado por ser antieconómico y muy ruidoso. A pesar de las objeciones, el servicio a Estados Unidos comenzó el 24 de mayo de 1976, con vuelos simultáneos de Londres y París al aeropuerto internacional Dulles, cerca de la ciudad de Washington, y a Nueva York (22 de noviembre de 1977). Excepto en los países de la antigua URSS, los vuelos SST deben realizarse a velocidades subsónicas cuando pasan por zonas habitadas.

Las pérdidas de explotación del Concorde superaron los 500 millones de libras y dejó de fabricarse en 1979. Los aviones franceses han extendido sus servicios de París a Caracas (Venezuela) y a Dakar (Senegal). A pesar del fracaso comercial del Concorde, los fabricantes y operadores están interesados en una posible segunda generación de aviones supersónicos. Entretanto hay una enorme competencia entre los fabricantes de aviones reactores subsónicos avanzados como los Boeing 757, 767 y 777 y los Airbus A-320, 330 y 340. El A-320 ha sido el primer avión comercial en usar el sistema de control completamente automático fly-by-wire. El avión cuatrimotor de largo recorrido A-340 y el trimotor McDonnell-Douglas MD-11 son los competidores del Boeing 747 mientras el bimotor de fuselaje ancho A-330 y el Boeing 777 concurren en el mercado de alta densidad y medio recorrido, donde ya competían el Boeing 767 y el Airbus A-300/310.

Los aviones de carga han conocido una expansión sin precedentes desde la II Guerra Mundial. Los primeros aeroplanos de carga fueron los Canadair CL-44 y el Armstrong-Whitworth Argosy, a los que siguieron versiones de los grandes aviones de pasajeros modificados para carga, que son los usados actualmente.

Aeroplanos militares

Los aeroplanos militares se pueden dividir en cuatro categorías: combate, carga, enseñanza y observación. En la categoría de combate se incluyen los aviones de caza y los bombarderos, tanto para operaciones en tierra como en mar. Hay numerosos tipos de cada uno de estos modelos. Los cazas se usan a menudo para ataques a baja cota o para interceptaciones aéreas, siendo los más representativos de los que se usan en Europa el McDonnell Douglas F-4 Phantom, el General Dynamics F-16 y el Dassault Mirage, aunque existe un proyecto que los sustituirá por el Eurofigther 2000. El Tornado, de geometría variable, combina las funciones de defensa aérea de largo alcance, ataque y reconocimiento, sustituyendo al antiguo BAC/Dassault Jaguar. El Harrier es un avión con capacidad de despegue y aterrizaje vertical y se usa como apoyo táctico a las operaciones en tierra y como interceptador en la lucha aeronaval. Es un avión subsónico, pero su diseño está preparado para desarrollar un modelo supersónico. Otros aviones comparables usados por Estados unidos son el McDonnell Douglas F-15 Eagle, los cazas aeronavales Grumman F-14 y McDonnell Douglas F-18, y el caza Lockheed F-117, equipado con un sistema electrónico tan sofisticado que le hace prácticamente indetectable por radar. El B-52 Stratofortress, avión subsónico desarrollado en la década de los cincuenta, y el B-1B son los principales bombarderos de largo alcance utilizados por Estados Unidos, mientras el Fairchild A-10 Thunderbolt se usa específicamente para el ataque a los carros blindados.

El más utilizado de los aviones militares cargueros es el cuatrimotor Lockheed C-130 Hércules y el más grande el C-5A de la misma casa constructora, que puede llevar 120 toneladas de carga. Los aviones militares de enseñanza y entrenamiento más famosos han sido el Texan T-6, de hélice, para enseñanza básica, y el reactor T-33, para enseñanza avanzada. Ambos están fuera de servicio, pero han formado miles de pilotos en gran parte de los países occidentales. Un modelo muy especial de avión militar es el Boeing E3 AWACS, que gracias a sus complejos sistemas de detección se ha convertido en un eficaz observatorio aéreo para controlar todo tipo de movimientos y actividades en tierra. Se le distingue con facilidad por la enorme antena en forma de seta que lleva sobre el fuselaje.

Aviación general

Los aviones usados para recreo privado, negocios, usos agrícolas, vuelos de instrucción civil y otros servicios especiales se pueden englobar en el término de aviación general. Hay una enorme variedad de aeroplanos en esta categoría, desde los pequeños ultraligeros de un solo asiento, los de enseñanza con dos, o los más grandes con cuatro, todos con un solo motor de pistón, hasta los más complejos bimotores a reacción, capaces de realizar vuelos transatlánticos a la misma velocidad y altura que los grandes aviones comerciales.

Uno de los campos con más aplicación de la aviación general es la agricultura, donde se utilizan aviones para fumigar o para distribuir fertilizantes y simientes. También se usa para la inspección aérea de oleoductos y tendidos eléctricos, fotografía aérea, cartografía, patrullas forestales y control de la fauna salvaje.

Máquina de vapor, dispositivo mecánico que convierte la energía del vapor de agua en energía mecánica y que tiene varias aplicaciones en propulsión y generación de electricidad. El principio básico de la máquina de vapor es la transformación de la energía calorífica del vapor de agua en energía mecánica, haciendo que el vapor se expanda y se enfríe en un cilindro equipado con un pistón móvil. El vapor utilizado en la generación de energía o para calefacción suele producirse dentro de una caldera. La caldera más simple es un depósito cerrado que contiene agua y que se calienta con una llama hasta que el agua se convierte en vapor saturado. Los sistemas domésticos de calefacción cuentan con una caldera de este tipo, pero las plantas de generación de energía utilizan sistemas de diseño más complejo que cuentan con varios dispositivos auxiliares. La eficiencia de los motores de vapor es baja por lo general, lo que hace que en la mayoría de las aplicaciones de generación de energía se utilicen turbinas de vapor en lugar de máquinas de vapor.

Historia

El primer motor de pistón fue desarrollado por el físico e inventor francés Denis Papin y se utilizó para bombear agua. El motor de Papin, poco más que una curiosidad, era una máquina tosca que aprovechaba el movimiento del aire más que la presión del vapor. La máquina contaba con un único cilindro que servía también como caldera. Se colocaba una pequeña cantidad de agua en la parte inferior del cilindro y se calentaba hasta que producía vapor. La presión del vapor empujaba un pistón acoplado al cilindro, tras lo cual se eliminaba la fuente de calor de la parte inferior. A medida que el cilindro se enfriaba, el vapor se condensaba y la presión del aire en el exterior del pistón lo empujaba de nuevo hacia abajo.

En 1698 el ingeniero inglés Thomas Savery diseñó una máquina que utilizaba dos cámaras de cobre que se llenaban de forma alternativa con vapor producido en una caldera. Esta máquina se utilizó también para bombear agua, igual que la máquina llamada motor atmosférico desarrollada por el inventor británico Thomas Newcomen en 1705. Este dispositivo contaba con un cilindro vertical y un pistón con un contrapeso. El vapor absorbido a baja presión en la parte inferior del cilindro actuaba sobre el contrapeso, moviendo el pistón a la parte superior del cilindro. Cuando el pistón llegaba al final del recorrido, se abría automáticamente una válvula que inyectaba un chorro de agua fría en el interior del cilindro. El agua condensaba el vapor y la presión atmosférica hacía que el pistón descendiera de nuevo a la parte baja del cilindro. Una biela, conectada al eje articulado que unía el pistón con el contrapeso, permitía accionar una bomba. El motor de Newcomen no era muy eficiente, pero era lo bastante práctico como para ser utilizado con frecuencia para extraer agua en minas de carbón.

Durante sus trabajos de mejora de la máquina de Newcomen el ingeniero e inventor escocés James Watt desarrolló una serie de ideas que permitieron la fabricación de la máquina de vapor que hoy conocemos. El primer invento de Watt fue el diseño de un motor que contaba con una cámara separada para la condensación del vapor. Esta máquina, patentada en 1769, redujo los costos de la máquina de Newcomen evitando la pérdida de vapor producida por el calentamiento y enfriamiento cíclicos del cilindro. Watt aisló el cilindro para que permaneciera a la temperatura del vapor. La cámara de condensación separada, refrigerada por aire, contaba con una bomba para hacer un vacío que permitía absorber el vapor del cilindro hacia el condensador. La bomba se utilizaba también para eliminar el agua de la cámara de condensación.

Otro concepto fundamental de las primeras máquinas de Watt era el uso de la presión del vapor en lugar de la presión atmosférica para obtener el movimiento. Watt diseñó también un sistema por el cual los movimientos de vaivén de los pistones movían un volante giratorio. Esto se consiguió al principio con un sistema de engranajes y luego con un cigüeñal, como en los motores modernos. Entre las demás ideas de Watt se encontraba la utilización del principio de acción doble, por el cual el vapor era inyectado a un lado del pistón cada vez para mover éste hacia adelante y hacia atrás. También instaló válvulas de mariposa en sus máquinas para limitar la velocidad, además de reguladores que mantenían de forma automática una velocidad de funcionamiento estable.

El siguiente avance importante en el desarrollo de máquinas de vapor fue la aparición de motores sin condensación prácticos. Si bien Watt conocía el principio de los motores sin condensación, no fue capaz de perfeccionar máquinas de este tipo, quizá porque utilizaba vapor a muy baja presión. A principios del siglo XIX el ingeniero e inventor británico Richard Trevithick y el estadounidense Oliver Evans construyeron motores sin condensación con buenos resultados, utilizando vapor a alta presión. Trevithick utilizó este modelo de máquina de vapor para mover la primera locomotora de tren de todos los tiempos. Tanto Trevithick como Evans desarrollaron también carruajes con motor para carretera.

Por esta época el ingeniero e inventor británico Arthur Woolf desarrolló las primeras máquinas de vapor compuestas. En estas máquinas se utiliza vapor a alta presión en un cilindro y cuando se ha expandido y perdido presión es conducido a otro cilindro donde se expande aún más. Los primeros motores de Woolf eran del tipo de dos fases, pero algunos modelos posteriores de motores compuestos contaban con tres o cuatro fases de expansión. La ventaja de utilizar en combinación dos o tres cilindros es que se pierde menos energía al calentar las paredes de los cilindros, lo que hace que la máquina sea más eficiente.

Máquinas de vapor modernas

El funcionamiento de una máquina de vapor moderna convencional se muestra en las figuras 1a-d, que muestran el ciclo de funcionamiento de una máquina de este tipo. En la figura 1a, cuando el pistón se encuentra en el extremo izquierdo del cilindro, el vapor de agua entra por el cabezal de la válvula y a través del orificio hacia la parte izquierda del cilindro. La posición de la válvula deslizante de corredera permite que el vapor ya utilizado en la parte derecha del pistón escape a través del orificio de expulsión o conducto de salida. El movimiento del pistón acciona un volante, que a su vez mueve una biela que controla la válvula deslizante. Las posiciones relativas del pistón y la válvula deslizante son reguladas por las posiciones relativas de los puntos en que están acoplados el cigüeñal y la biela de la válvula de deslizamiento al volante.

En la segunda posición, que se muestra en la figura 1b, el vapor que se encuentra en la parte izquierda del cilindro se ha expandido y ha desplazado el pistón hacia el punto central del cilindro. Al mismo tiempo, la válvula se ha movido a su posición de cierre de forma que el cilindro queda estanco y no pueden escapar ni el vapor del cilindro ni el de la caja de válvulas.

Según se mueve el pistón hacia la derecha a causa de la presión del vapor en expansión, como se muestra en la figura 1c, la caja de válvulas, que contiene vapor, se conecta al extremo derecho del cilindro. En esta posición la máquina está preparada para iniciar el segundo tiempo del ciclo de doble acción. Por último, en la cuarta posición (figura 1d), la válvula cubre de nuevo los orificios de ambos extremos del cilindro y el pistón se desplaza hacia la izquierda, empujado por la expansión del vapor en la parte derecha del cilindro.

El tipo de válvula que aparece en la figura es la válvula simple de deslizamiento, la base de la mayoría de las válvulas de deslizamiento utilizadas en las máquinas de vapor actuales. Este tipo de válvulas tienen la ventaja de ser reversibles, o sea, que su posición relativa al pistón puede variarse cambiando la porción de la excéntrica que las mueve. Cuando se mueve la excéntrica 180 grados, puede invertirse la dirección de rotación de la máquina.

La válvula de deslizamiento tiene no obstante un buen número de desventajas. Una de las más importantes es la fricción, causada por la presión del vapor en la parte posterior de la válvula. Para evitar el desgaste que causa esta presión, las válvulas de las máquinas de vapor suelen fabricarse en forma de un cilindro que encierra el pistón, con lo que la presión es igual en toda la válvula y se reduce la fricción. El desarrollo de este tipo de válvula se atribuye al inventor y fabricante estadounidense George Henry Corliss. En otros tipos de válvulas, su parte móvil está diseñada de forma que el vapor no presione directamente la parte posterior.

La unión entre el pistón y la válvula que suministra el vapor es muy importante, ya que influye en la potencia y la eficiencia de la máquina. Cambiando el momento del ciclo en que se admite vapor en el cilindro puede modificarse la cantidad de compresión y expansión del cilindro, consiguiéndose así variar la potencia de salida de la máquina. Se han desarrollado varios tipos de mecanismos de distribución que unen el pistón a la válvula, y que no sólo permiten invertir el ciclo sino también un cierto grado de control del tiempo de admisión y corte de entrada del vapor. Los mecanismos de distribución por válvulas son muy importantes en locomotoras de vapor, donde la potencia que se requiere de la máquina cambia con frecuencia. El esfuerzo alcanza su punto máximo cuando la locomotora está arrancando y es menor cuando circula a toda velocidad.

Un componente importante de todos los tipos de máquinas de vapor de vaivén es el volante accionado por el cigüeñal del pistón. El volante, una pieza por lo general pesada de metal fundido, convierte los distintos empujes del vapor del cilindro en un movimiento continuo, debido a su inercia. Esto permite obtener un flujo constante de potencia.

En las máquinas de vapor de un solo cilindro la máquina puede detenerse cuando el pistón se encuentra en uno de los extremos del cilindro. Si el cilindro se encuentra en esta posición, se dice que el motor se encuentra en punto muerto y no puede arrancarse. Para eliminar los puntos muertos, las máquinas cuentan con dos o más cilindros acoplados, dispuestos de tal forma que la máquina puede arrancar con independencia de la posición de los pistones. La manera más simple de acoplar dos cilindros de una máquina es unir los dos cigüeñales con el volante. Para conseguir un equilibrio mayor puede utilizarse una máquina de tres cilindros en la que las manivelas de los cilindros se colocan en ángulos de 120 grados. El acoplamiento de los cilindros no sólo elimina las dificultades de arranque sino que permite diseñar plantas de generación con un funcionamiento más fiable.

Los cilindros de una máquina compuesta, al contrario que el de una de un solo cilindro, pueden mantenerse próximos a una temperatura uniforme, lo que aumenta la eficiencia de la máquina.

Un avance en el diseño de las máquinas de vapor fue la máquina de flujo unidireccional, que utiliza el pistón como válvula y en la que todas las partes del pistón permanecen aproximadamente a la misma temperatura cuando la máquina está en funcionamiento. En estas máquinas el vapor se mueve solamente en una dirección mientras entra en el cilindro, se expande y abandona el cilindro. Este flujo unidireccional se consigue utilizando dos conjuntos de orificios de entrada en cada extremo del cilindro, junto con un único conjunto de orificios de salida en la parte central de la pared del cilindro. La corriente de vapor que entra por los dos conjuntos de orificios de entrada se controla con válvulas separadas. Las ventajas inherentes a este sistema son muy considerables por lo que este tipo de máquina se utiliza en grandes instalaciones, si bien su coste inicial es mucho mayor que el de las máquinas convencionales. Una virtud de la máquina de flujo unidireccional es que permite un uso eficiente del vapor a altas presiones dentro de un único cilindro, en lugar de requerir un cilindro compuesto.

Teléfono, instrumento de comunicación, diseñado para la transmisión de voz y demás sonidos hasta lugares remotos mediante la electricidad, así como para su reproducción. El teléfono contiene un diafragma que vibra al recibir el impacto de ondas de sonido. Las vibraciones (movimiento ondulatorio) se transforman en impulsos eléctricos y se transmiten a un receptor que los vuelve a convertir en sonido.

En el lenguaje coloquial, la palabra `teléfono' también designa todo el sistema al que va conectado un aparato de teléfono; un sistema que permite enviar no sólo voz, sino también datos, imágenes o cualquier otro tipo de información que pueda codificarse y convertirse en energía eléctrica. Esta información viaja entre los distintos puntos conectados a la red. La red telefónica se compone de todas las vías de transmisión entre los equipos de los abonados y de los elementos de conmutación que sirven para seleccionar una determinada ruta o grupo de ellas entre dos abonados.

Evolución

En 1854, el inventor francés Charles Bourseul planteó la posibilidad de utilizar las vibraciones causadas por la voz sobre un disco flexible o diafragma, con el fin de activar y desactivar un circuito eléctrico y producir unas vibraciones similares en un diafragma situado en un lugar remoto, que reproduciría el sonido original. Algunos años más tarde, el físico alemán Johann Philip Reis inventó un instrumento que transmitía notas musicales, pero no era capaz de reproducir la voz humana. En 1877, tras haber descubierto que para transmitir la voz sólo se podía utilizar corriente continua, el inventor estadounidense de origen inglés Alexander Graham Bell construyó el primer teléfono capaz de transmitir y recibir voz humana con toda su calidad y su timbre.

Teléfono magnético de Bell

El conjunto básico del invento de Bell estaba formado por un emisor, un receptor y un único cable de conexión. El emisor y el receptor eran idénticos y contenían un diafragma metálico flexible y un imán con forma de herradura dentro de una bobina. Las ondas sonoras que incidían sobre el diafragma lo hacían vibrar dentro del campo del imán. Esta vibración inducía una corriente eléctrica en la bobina, que variaba según las vibraciones del diafragma. La corriente viajaba por el cable hasta el receptor, donde generaba fluctuaciones de la intensidad del campo magnético de éste (véase Magnetismo), haciendo que su diafragma vibrase y reprodujese el sonido original.

En los receptores de los teléfonos modernos, el imán es plano como una moneda y el campo magnético que actúa sobre el diafragma de hierro es de mayor intensidad y homogeneidad. Los transmisores modernos llevan un diafragma muy fino montado debajo de un rejilla perforada. En el centro del diafragma hay un pequeño receptáculo relleno de gránulos de carbono. Las ondas sonoras que atraviesan la rejilla provocan un vaivén del receptáculo. En el movimiento descendente, los gránulos quedan compactados y producen un aumento de la corriente que circula por el transmisor.

Partes del aparato telefónico

El aparato telefónico consta de un transmisor, un receptor, un dispositivo marcador, una alarma acústica y un circuito supresor de efectos locales. Si se trata de un aparato de dos piezas, el transmisor y el receptor van montados en el auricular, el timbre se halla en la base y el elemento de marcado y el circuito supresor de efectos locales pueden estar en cualquiera de las dos partes, pero, por lo general, van juntos. Los teléfonos más complejos pueden llevar un micrófono y un altavoz en la pieza base, aparte del transmisor y el receptor en el auricular. En los teléfonos portátiles, el cable del auricular se sustituye por un enlace de radio entre el auricular y la base, aunque sigue teniendo un cable para la línea. Los teléfonos celulares suelen ser de una sola pieza, y sus componentes en miniatura permiten combinar la base y el auricular en un elemento manual que se comunica con una estación remota de radio. No precisan línea ni cables para el auricular.

Los teléfonos antiguos usaban un único dispositivo como transmisor y receptor. Sus componentes básicos eran un imán permanente con un cable enrollado que lo convertía en electroimán y un fino diafragma de tela y metal sometido a la fuerza de atracción del imán. La fuerza de la voz, en cuanto ondas de sonido, provocaban un movimiento del diafragma, que a su vez generaba una minúscula corriente alterna en los cables del electroimán. Estos equipos eran capaces de reproducir la voz, aunque tan débilmente que eran poco más que un juguete.

La invención del transmisor telefónico de carbono por Emile Berliner constituye la clave en la aparición del teléfono útil. Consta de unos gránulos de carbono colocados entre unas láminas metálicas denominadas electrodos, una de las cuales es el diafragma, que transmite variaciones de presión a dichos gránulos. Los electrodos conducen la electricidad que circula a través del carbono. Las variaciones de presión originan a su vez una variación de la resistencia eléctrica del carbono. A través de la línea se aplica una corriente continua a los electrodos, y la corriente continua resultante también varía. La fluctuación de dicha corriente a través del transmisor de carbono se traduce en una mayor potencia que la inherente a la onda sonora original. Este efecto se denomina amplificación, y tiene una importancia crucial. Un transmisor electromagnético sólo es capaz de convertir energía, y siempre producirá una energía eléctrica menor que la que contiene una onda sonora.

El equivalente eléctrico del imán permanente es una sustancia plástica denominada electreto. Al igual que un imán permanente produce un campo magnético permanente en el espacio, un electreto genera un campo eléctrico permanente en el espacio. Tal como un conductor eléctrico que se mueve en el seno de un campo magnético induce una corriente, el movimiento de un electrodo dentro de un campo eléctrico puede producir una modificación del voltaje entre un electrodo móvil y otro estacionario en la parte opuesta del electreto. Aunque este efecto se conocía de antiguo, fue sólo una curiosidad de laboratorio hasta la aparición de materiales capaces de conservar una carga electrostática durante años. Los transmisores telefónicos se basan actualmente en este efecto, en vez de en la resistencia sensible a la presión de los gránulos de carbono, ya que se consigue con un micrófono de electretos muy pequeño, ligero y económico. Los micrófonos de electretos se basan en los transistores para la amplificación requerida.

Dado que el transmisor de carbono no resulta práctico a la hora de convertir energía eléctrica en presión sonora, los teléfonos fueron evolucionando hacia receptores separados de los transmisores. Esta disposición permite colocar el transmisor cerca de los labios para recoger el máximo de energía sonora, y el receptor en el auricular, lo cual elimina los molestos ruidos de fondo. El receptor sigue siendo un imán permanente con un arrollamiento de hilo conductor, pero ahora lleva un diafragma de aluminio sujeto a una pieza metálica. Los detalles del diseño han experimentado enormes mejoras, pero el concepto original continúa permitiendo equipos sólidos y eficaces.

La alarma acústica de los teléfonos se suele denominar timbre, referencia al hecho de que durante la mayor parte de la historia de este equipo la función de alarma la proporcionaba un timbre eléctrico. La creación de un sustituto electrónico para el timbre, capaz de generar un sonido agradable a la vez que distintivo a un coste razonable, constituyó una tarea sorprendentemente ardua. Para muchas personas, el sonido del timbre sigue siendo preferible al de un zumbador electrónico. Sin embargo, dado que el timbre mecánico exige un cierto volumen físico para resultar eficaz, la tendencia hacia equipos cada vez menores impone el uso de alarmas electrónicas en la mayoría de los teléfonos. La sustitución progresiva del timbre permitirá asimismo cambiar, en un futuro próximo, el método actual de activación de la alarma —corriente alterna de 90 voltios (V) y 20 hercios (Hz) a la línea— por técnicas de voltajes menores, más compatibles con los teléfonos transistorizados. Algo similar se está produciendo con el esquema de marcado de los teléfonos.

El marcado telefónico ya ha sufrido toda una evolución a lo largo de su historia. Existen dos formas de marcado, el de pulso y el de multifrecuencia o tono.

El disco de marcado tiene un diseño mecánico muy ingenioso; consta de los números 1 al 9 seguidos del 0, colocados en círculo debajo de los agujeros de un disco móvil y perforado. Se coloca el dedo en el agujero correspondiente al número elegido y se hace girar el disco en el sentido de las agujas del reloj hasta alcanzar el tope y a continuación se suelta el disco. Un muelle obliga al disco a volver a su posición inicial y, al mismo tiempo que gira, abre un conmutador eléctrico tantas veces como gire el disco, para marcar el número elegido; en el caso del 0 se efectúan 10 aperturas, ya que es el último número del disco. El resultado es una serie de pulsos de llamada en la corriente eléctrica que circula entre el aparato telefónico y la centralita. Cada pulso tiene una amplitud igual al voltaje suministrado por la pila, generalmente 50 V, y dura unos 45 ms (milisegundos, milésimas de segundo). Los equipos de la centralita cuentan estos pulsos y determinan el número que se desea marcar.

Los pulsos eléctricos producidos por el disco giratorio resultan idóneos para el control de los equipos de conmutación paso-a-paso de las primeras centrales de conmutación automáticas. Sin embargo, el marcado mecánico constituye una de las fuentes principales de costes de mantenimiento, y el proceso de marcado por disco resulta lento, sobre todo en el caso de números largos. La disponibilidad de la amplificación barata y fiable que trajo el transistor aconsejó el diseño de un sistema de marcado basado en la transmisión de unos tonos de potencia bastante pequeña, en vez de los pulsos de marcado de gran potencia. Cada botón de un teclado de multifrecuencia controla el envío de una pareja de tonos. Se utiliza un esquema de codificación `2 de 7' en el que el primer tono corresponde a la fila de una matriz normal de 12 botones y el segundo a la columna (4 filas más 3 columnas necesitan 7 tonos).

Actualmente, la mayoría de los teléfonos llevan botones en vez de disco de marcado. Dado que el sistema de tonos se comercializaba opcionalmente con un coste adicional, en las centrales se siguen recibiendo pulsos o multitonos. Como un usuario que compra un equipo puede disponer de una línea que no admite señales de multifrecuencia, los teléfonos de botones disponen generalmente de un conmutador que permite seleccionar el envío de pulsos o tonos.

Hay un elemento funcional importante del teléfono que resulta invisible para el usuario: el circuito supresor de efectos locales. Las personas controlan el tono de voz al hablar y ajustan en consonancia el volumen, fenómeno que se denomina `efecto local'. En los primeros teléfonos, el receptor y el transmisor del equipo iban conectados directamente entre sí y a la línea. Esto hacía que el usuario oyera su propia voz a través del receptor con mucha más intensidad que cuando no lo tenía pegado a la oreja. El sonido era mucho más fuerte que el normal porque el micrófono de carbono amplifica la energía sonora al mismo tiempo que la convierte de acústica a eléctrica. Además de resultar desagradable, esto obligaba al usuario a hablar con mayor suavidad, dificultando la escucha por parte del receptor.

El circuito supresor original contenía un transformador junto con otros componentes cuyas características dependían de los parámetros eléctricos de la línea telefónica. El receptor y el transmisor iban conectados a diferentes `puertos del circuito' (en este caso, diferentes arrollamientos del transformador), no entre sí. El circuito supresor transfiere energía del transmisor a la línea (aunque parte también a otros componentes), sin que nada pase al receptor. Así se elimina la sensación de que uno grita en su propia oreja.

Circuitos y centrales

La llamada telefónica se inicia en la persona que levanta el auricular y espera el tono de llamada. Esto provoca el cierre de un conmutador eléctrico. El cierre de dicho conmutador activa el flujo de una corriente eléctrica por la línea de la persona que efectúa la llamada, entre la ubicación de ésta y el edificio que alberga la centralita automática, que forma parte del sistema de conmutación. Se trata de una corriente continua que no cambia su sentido de flujo, aun cuando pueda hacerlo su intensidad o amplitud. La central detecta dicha corriente y devuelve un tono de llamada, una combinación concreta de dos notas para que resulte perfectamente detectable, tanto por los equipos como por las personas.

Una vez escuchado el tono de llamada, la persona teclea una serie de números mediante los botones del auricular o del equipo de base. Esta secuencia es exclusiva de otro abonado, la persona a quien se llama. El equipo de conmutación de la central elimina el tono de llamada de la línea tras recibir el primer número y, una vez recibido el último, determina si el número con el que se quiere contactar pertenece a la misma central o a otra diferente. En el primer caso, se aplican una serie de intervalos de corriente de llamada a la línea. La corriente de llamada es corriente alterna de 20 Hz, que fluye en ambos sentidos 20 veces por segundo. El teléfono del usuario tiene una alarma acústica que responde a la corriente de llamada, normalmente mediante un sonido perceptible. Cuando se responde al teléfono levantando el auricular, comienza a circular una corriente continua por su línea que es detectada por la central. Ésta deja de aplicar la corriente de llamada y establece una conexión entre la persona que llama y la llamada, que es la que permite hablar.

En los primeros teléfonos, la corriente estaba generada por una batería. El circuito local tenía, además de la batería y el transmisor, un arrollamiento de transformador, que recibe el nombre de bobina de inducción; el otro arrollamiento, conectado a la línea, elevaba el voltaje de la onda sonora. Las conexiones entre teléfonos eran de tipo manual, a cargo de operadores que trabajaban en centralitas ubicadas en las oficinas centrales de conmutación.

A medida que se fueron desarrollando los sistemas telefónicos, las conexiones manuales empezaron a resultar demasiado lentas y laboriosas. Esto fue el detonante para la construcción de una serie de dispositivos mecánicos y electrónicos que permitiesen las conexiones automáticas (véase Electrónica). Los teléfonos modernos tienen un dispositivo electrónico que transmite una serie de pulsos sucesivos de corriente o varios tonos audibles correspondientes al número marcado. Los equipos electrónicos de la central de conmutación se encargan de traducir automáticamente la señal y de dirigir la llamada a su destino.

La tecnología de estado sólido ha permitido que estas centrales puedan procesar las llamadas a una velocidad de una millonésima de segundo, por lo que se pueden procesar simultáneamente grandes cantidades de llamadas. El circuito de entrada convierte, en primer lugar, la voz de quien llama a impulsos digitales. Estos impulsos se transmiten entonces a través de la red mediante sistemas de alta capacidad, que conectan las diferentes llamadas en base a operaciones matemáticas de conmutación computerizadas. Las instrucciones para el sistema se hallan almacenadas en la memoria de una computadora. El mantenimiento de los equipos se ha simplificado gracias a la duplicidad de los componentes. Cuando se produce algún fallo, entra automáticamente en funcionamiento una unidad de reserva para manejar las llamadas. Gracias a estas técnicas, el sistema puede efectuar llamadas rápidas, tanto locales como a larga distancia, determinando con rapidez la ruta más eficaz.

Actualmente, no existe en Estados Unidos ni en Inglaterra ningún teléfono atendido de forma manual. Todos los abonados son atendidos por centrales automáticas. En este tipo de central, las funciones de los operadores humanos las realizan los equipos de conmutación. Un relé de corriente de línea de un circuito ha sustituido el cuadro de conexión manual de luz de la centralita y un conmutador de cruce hace las funciones de los cables. Dado que ahora es cuando los ordenadores empiezan a estar en condiciones de entender comandos hablados, casi un siglo después de las primeras centrales automáticas, se sigue utilizando el visor para mostrar el número marcado. Los registros de entrada almacenan este número y luego lo transmiten a la central de conmutación, que a su vez activa el conmutador de cruce para completar la llamada o dirigirla a un conmutador de mayor nivel para el tratamiento pertinente.

Telefonía transoceánica

El servicio telefonía transoceánica se implantó comercialmente en 1927, pero el problema de la amplificación frenó el tendido de cables telefónicos hasta 1956, año en que entró en servicio el primer cable telefónico submarino transoceánico del mundo, que conectaba Terranova y Escocia.

Telefonía por onda portadora

Utilizando frecuencias superiores al rango de voz, que va desde los 4.000 hasta varios millones de ciclos por segundo, o hercios, se pueden transmitir simultáneamente hasta 13.200 llamadas telefónicas por una misma conducción. Las técnicas de telefonía por onda portadora también se utilizan para enviar mensajes telefónicos a través de las líneas normales de distribución sin interferir con el servicio ordinario. Debido al crecimiento de tamaño y complejidad de los sistemas, se utilizan los amplificadores de estado sólido, denominados repetidores, para amplificar los mensajes a intervalos regulares.

Cable coaxial

El cable coaxial, que apareció en 1936, utiliza una serie de conductores para soportar un gran número de circuitos. El cable coaxial moderno está fabricado con tubos de cobre de 0,95 cm de diámetro. Cada uno de ellos lleva, justo en el centro del tubo, un hilo fino de cobre sujeto con discos plásticos aislantes separados entre sí unos 2,5 cm. El tubo y el hilo tienen el mismo centro, es decir, son coaxiales. Los tubos de cobre protegen la señal transmitida de posibles interferencias eléctricas y evitan pérdidas de energía por radiación. Un cable, compuesto por 22 tubos coaxiales dispuestos en anillos encastrados en polietileno y plomo, puede transportar simultáneamente 132.000 mensajes.

Fibras ópticas

Los cables coaxiales se están sustituyendo progresivamente por fibras ópticas de vidrio. Los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias. Un cable de fibra puede tener hasta 50 pares de ellas, y cada par soporta hasta 4.000 circuitos de voz. El fundamento de la nueva tecnología de fibras ópticas, el láser, aprovecha la región visible del espectro electromagnético, donde las frecuencias son miles de veces superiores a las de la radio y, por consiguiente, pueden transportar un volumen mucho mayor de información. El diodo emisor de luz (LED), un dispositivo más sencillo, puede resultar adecuado para la mayoría de las funciones de transmisión.

Un cable de fibra óptica, el TAT 8, transporta más del doble de circuitos transatlánticos que los existentes en la década de 1980. Formando parte de un sistema que se extiende desde Nueva Jersey hasta Inglaterra y Francia, puede transmitir hasta 50.000 conversaciones a la vez. Este tipo de cables sirven también de canales para la transmisión a alta velocidad de datos informáticos, siendo más segura que la que proporcionan los satélites de comunicaciones (véase Comunicación vía satélite). Otro avance importante en las telecomunicaciones, el TAT 9, un cable de fibra con mucha mayor capacidad, entró en funcionamiento en 1992 y puede transmitir simultáneamente 75.000 llamadas.

Reemisor de microondas

En este método de transmisión, las ondas de radio que se hallan en la banda de frecuencias muy altas, y que se denominan microondas, se remiten de estación a estación. Dado que la transmisión de microondas exige un camino expedito entre estación emisora y receptora, la distancia media entre estaciones repetidoras es de unos 40 km. Un canal de relé de microondas puede transmitir hasta 600 conversaciones telefónicas.

Telefonía por satélite

En 1969 se completó la primera red telefónica global en base a una serie de satélites en órbitas estacionarias a una distancia de la Tierra de 35.880 km. Estos satélites van alimentados por células de energía solar. Las llamadas transmitidas desde una antena terrestre se amplifican y se retransmiten a estaciones terrestres remotas. La integración de los satélites y los equipos terrestres permite dirigir llamadas entre diferentes continentes con la misma facilidad que entre lugares muy próximos. Gracias a la digitalización de las transmisiones, los satélites de la serie global Intelsat pueden retransmitir simultáneamente hasta 33.000 llamadas, así como diferentes canales de televisión.

Un único satélite no serviría para realizar una llamada, por ejemplo, entre Nueva York y Hong Kong, pero dos sí. Incluso teniendo en cuenta el coste de un satélite, esta vía resulta más barata de instalar y mantener por canal que la ruta equivalente utilizando cables coaxiales tendidos por el fondo del mar. En consecuencia, para grandes distancias se utilizan en todo lo posible los enlaces por satélite.

Sin embargo, los satélites presentan una desventaja importante. Debido a la gran distancia hasta el satélite y la velocidad limitada de las ondas de radio, hay un retraso apreciable en las respuestas habladas. Por eso, muchas llamadas sólo utilizan el satélite en un sentido de la transmisión (por ejemplo, de Nueva York hacia San Francisco) y un enlace terrestre por microondas o cable coaxial en el otro sentido. Un enlace vía satélite para ambos sentidos resultaría irritante para dos personas conversando entre Nueva York y Hong Kong, ya que apenas podrían efectuar interrupciones, cosa muy frecuente en las conversaciones, y además se verían afectadas por el gran retraso (más de un segundo) en la respuesta de la otra persona.

La mayoría de las grandes ciudades están hoy enlazadas por una combinación de conexiones por microondas, cable coaxial, fibra óptica y satélites. La capacidad de cada uno de los sistemas depende de su antigüedad y el territorio cubierto (los cables submarinos están diseñados de forma muy conservadora y tienen menor capacidad que los cables de superficie), pero, en general, se pueden clasificar de la siguiente forma: la digitalización simple a través de un par paralelo proporciona decenas de circuitos por par; la coaxial permite cientos de circuitos por par y miles por cable; las microondas y los satélites dan miles de circuitos por enlace y la fibra óptica permite hasta decenas de miles de circuitos por fibra. La capacidad de cada tipo de sistema ha ido aumentando notablemente desde su aparición debido a la continua mejora de la ingeniería.

Teléfonos y radiodifusión

Los equipos de telefonía de larga distancia pueden transportar programas de radio y televisión a través de grandes distancias hasta muchas estaciones dispersas para su difusión simultánea. En algunos casos, la parte de audio de los programas de televisión se puede transmitir mediante circuitos de cables a frecuencias audio o a las frecuencias de portadora utilizadas para transmitir las conversaciones telefónicas. Las imágenes de televisión se transmiten por medio de cables coaxiales, microondas y circuitos de satélites.

Videoteléfono

El primer videoteléfono de dos vías fue presentado en 1930 por el inventor estadounidense Herbert Eugene Ives en Nueva York. El videoteléfono se puede conectar a una computadora para visualizar informes, diagramas y esquemas en lugares remotos. Permite así mismo celebrar reuniones cara a cara de personas en diferentes ciudades y puede actuar de enlace entre centros de reuniones en el seno de una red de grandes ciudades. Los videoteléfonos ya están disponibles comercialmente y se pueden utilizar en líneas nacionales para llamadas cara a cara. Funciones análogas también existen ya en los ordenadores o computadoras equipadas a tal fin.

Comunicación móvil celular

Los teléfonos celulares, que se utilizan en los automóviles, aviones y trenes de pasajeros, son en esencia unos radioteléfonos de baja potencia. Las llamadas pasan por los transmisores de audio colocados dentro de pequeñas unidades geográficas llamadas células. Dado que las señales de cada célula son demasiado débiles para interferir con las de otras células que operan en las mismas frecuencias, se puede utilizar un número mayor de canales que en la transmisión con radiofrecuencia de alta potencia. La modulación en frecuencia de banda estrecha es el método más común de transmisión y a cada mensaje se le asigna una portadora exclusiva para la célula desde la que se transmite (véase Frecuencia modulada).

Correo de voz

El correo de voz permite grabar los mensajes recibidos para su posterior reproducción en caso de que la llamada no sea atendida. En las versiones más avanzadas de correo de voz, el usuario puede grabar un mensaje que será transmitido más adelante a lo largo del día.

El correo de voz se puede adquirir en la compañía telefónica como un servicio de conmutación o mediante la compra de un contestador automático. Por lo general, es un equipo telefónico ordinario dotado de funciones de grabación, reproducción y detección automática de llamada. Si la llamada entrante se contesta en cualquier teléfono de la línea antes de que suene un número determinado de veces, el contestador no actúa. Sin embargo, cumplido el número de llamadas, el contestador automático procede a descolgar y reproduce un mensaje grabado previamente, informando que el abonado no puede atender la llamada en ese momento e invitando a dejar un mensaje grabado.

El dueño del contestador automático es avisado de la presencia de mensajes grabados mediante una luz o un pitido audible, pudiendo recuperar más tarde el mensaje. La mayoría de los contestadores automáticos y todos los servicios de operadora permiten así mismo al usuario recuperar los mensajes grabados desde un lugar alejado marcando un código determinado cuando haya obtenido respuesta de su equipo.

Tendencias tecnológicas

La sustitución de los cables coaxiales transoceánicos por cables de fibra óptica continúa en la actualidad. Los avances de la tecnología de circuitos integrados y de los semiconductores han permitido diseñar y comercializar teléfonos que no sólo producen calidad de voz de alta fidelidad, sino que ofrecen toda una serie de funciones como números memorizados, desvío de llamadas, espera de llamadas e identificación del número que llama.

4

2