Los inventos de la historia

Tecnología. Imprenta. Teléfono. Radiodifusión. Radio. Cámara. Fotografía. Cine. Televisión

  • Enviado por: Xavi Moreno
  • Idioma: castellano
  • País: España España
  • 74 páginas
publicidad
cursos destacados
3D Studio Max 8 y V-Ray
CEPI-BASE
Este curso tiene como objetivo introducir al alumno (¡tu!) en el mundo del diseño asistido por ordenador en entorno...
Solicita InformaciÓn

Generar Ideas más Originales
Churruca Formación
El estudio y análisis de las experiencias creativas, pone de manifiesto la similitud en los procesos mentales que...
Solicita InformaciÓn

publicidad

Imprenta, nombre utilizado para designar diferentes procesos para reproducir palabras, imágenes o dibujos sobre papel, tejido, metal y otros materiales. Estos procesos, que a veces reciben el nombre de artes gráficas, consisten en esencia en obtener muchas reproducciones idénticas de un original por medios mecánicos, por lo que el libro impreso ha sido bautizado como el primer producto en serie.

La historia de la imprenta, que por su propia naturaleza es la mejor documentada de todas las historias, es prácticamente idéntica a la de la impresión en relieve, o impresión tipográfica (impresión desde una superficie elevada). Históricamente, la mayor parte de la obra impresa se ha producido con este método totalmente mecánico. Sin embargo, las técnicas de impresión modernas cada vez se basan más en los procesos de tipo fotomecánico y químico.

Técnicas antiguas

La utilización de las piedras para sellar quizá sea la forma más antigua conocida de impresión. De uso común en la antigüedad en Babilonia y otros muchos pueblos, como sustituto de la firma y como símbolo religioso, los artefactos estaban formados por sellos y tampones para imprimir sobre arcilla, o por piedras con dibujos tallados o grabados en la superficie. La piedra, engastada a menudo en un anillo, se coloreaba con pigmento o barro y se prensaba contra una superficie elástica y dúctil a fin de conseguir su impresión.

La evolución de la imprenta desde el método sencillo del tampón hasta el proceso de imprimir en prensa parece que se produjo de forma independiente en diferentes épocas y en distintos lugares del mundo. Los libros que se copiaban a mano con tinta aplicada con pluma o pincel constituyen una característica notable de las civilizaciones egipcia, griega y romana. Estos manuscritos también se confeccionaban en los monasterios medievales y tenían gran valor. En la antigua Roma, los editores de libros comerciales lanzaron ediciones de hasta 5.000 ejemplares de ciertos manuscritos coloreados, como los epigramas del poeta romano Marcial. Las tareas de copia corrían a cargo de esclavos ilustrados.

Impresión en Oriente

Ya en el siglo II d.C. los chinos habían desarrollado e implantado con carácter general el arte de imprimir textos. Igual que con muchos inventos, no era del todo novedoso, ya que la impresión de dibujos e imágenes sobre tejidos le sacaba al menos un siglo de ventaja en China a la impresión de palabras.

Dos factores importantes que influyeron favorablemente en el desarrollo de la imprenta en China fueron la invención del papel en 105 d.C. y la difusión de la religión budista en China. Los materiales de escritura comunes del antiguo mundo occidental, el papiro y el pergamino, no resultaban apropiados para imprimir. El papiro era demasiado frágil como superficie de impresión y el pergamino, un tejido fino extraído de la piel de animales recién desollados, resultaba un material caro. El papel, por el contrario, es bastante resistente y económico. La práctica budista de confeccionar copias de las oraciones y los textos sagrados favorecieron los métodos mecánicos de reproducción.

Los primeros ejemplos conocidos de impresión china, producidos antes de 200 d.C., se obtuvieron a base de letras e imágenes talladas en relieve en bloques de madera. En 972 se imprimieron de esta forma los Tripitaka, los escritos sagrados budistas que constan de más de 130.000 páginas. Un inventor chino de esta época pasó de los bloques de madera al concepto de la impresión mediante tipos móviles, es decir, caracteres sueltos dispuestos en fila, igual que en las técnicas actuales. Sin embargo, dado que el idioma chino exige entre 2.000 y 40.000 caracteres diferentes, los antiguos chinos no consideraron útil dicha técnica, y abandonaron el invento. Los tipos móviles, fundidos en moldes, fueron inventados independientemente por los coreanos en el siglo XIV, pero también los consideraron menos útiles que la impresión tradicional a base de bloques.

Impresión en Occidente

La primera fundición de tipos móviles de metal se realizó en Europa hacia mediados del siglo XV; se imprimía sobre papel con una prensa. El invento no parece guardar relación alguna con otros anteriores del Extremo Oriente: ambas técnicas se diferencian mucho en cuanto a los detalles. Mientras que los impresores orientales utilizaban tintas solubles en agua, los occidentales emplearon desde un principio tintas diluidas en aceites. En Oriente, las impresiones se conseguían sencillamente oprimiendo el papel con un trozo de madera contra el bloque entintado. Los primeros impresores occidentales en el valle del Rin utilizaban prensas mecánicas de madera cuyo diseño recordaba el de las prensas de vino. Los impresores orientales que utilizaron tipos móviles los mantenían unidos con barro o con varillas a través de los tipos.

Los impresores occidentales desarrollaron una técnica de fundición de tipos de tal precisión que se mantenían unidos por simple presión aplicada a los extremos del soporte de la página. Con este sistema, cualquier letra que sobresaliera una fracción de milímetro sobre las demás, podía hacer que las letras de su alrededor quedaran sin imprimir. El desarrollo de un método que permitiera fundir letras con dimensiones precisas constituye la contribución principal del invento occidental.

Los fundamentos de la imprenta ya habían sido utilizados por los artesanos textiles europeos para estampar los tejidos, al menos un siglo antes de que se inventase la impresión sobre papel. El arte de la fabricación de papel, que llegó a Occidente durante el siglo XII, se extendió por toda Europa durante los siglos XIII y XIV. Hacia mediados del siglo XV, ya existía papel en grandes cantidades. Durante el renacimiento, el auge de una clase media próspera e ilustrada aumentó la demanda de materiales escritos. La figura de Martín Lutero y de la Reforma, así como las subsiguientes guerras religiosas, dependían en gran medida de la prensa y del flujo continuo de impresos.

Johann Gutenberg, natural de Maguncia (Alemania), está considerado tradicionalmente como el inventor de la imprenta en Occidente. La fecha de dicho invento es el año 1450. Ciertos historiadores holandeses y franceses han atribuido este invento a paisanos suyos, aduciendo abundantes pruebas. Sin embargo, los libros del primer impresor de Maguncia, y en concreto el ejemplar conocido como la Biblia de Gutenberg, sobrepasa con mucho en belleza y maestría a todos los libros que supuestamente le precedieron. El gran logro de Gutenberg contribuyó sin duda de forma decisiva a la aceptación inmediata del libro impreso como sustituto del libro manuscrito. Los libros impresos antes de 1501 se dice que pertenecen a la era de los incunables.

En el periodo comprendido entre 1450 y 1500 se imprimieron más de 6.000 obras diferentes. El número de imprentas aumentó rápidamente durante esos años. En Italia, por ejemplo, la primera imprenta se fundó en Venecia en 1469, y hacia 1500 la ciudad contaba ya con 417 imprentas. En 1476 se imprimió un gramática griega con tipografía totalmente griega en Milán y en Soncino se imprimió una biblia hebrea en 1488. En 1476 William Caxton llevó la imprenta a Inglaterra; en España, Arnaldo de Brocar compuso la Biblia Políglota Complutense en seis tomos entre 1514 y 1517 por iniciativa del Cardenal Cisneros; en 1539 Juan Pablos fundó una imprenta en la Ciudad de México, introduciendo esta técnica en el Nuevo Mundo. Stephen Day, un cerrajero de profesión, llegó a la Bahía de Massachusetts en Nueva Inglaterra en 1628 y colaboró en la fundación de Cambridge Press.

Los impresores del norte de Europa fabricaban sobre todo libros religiosos, como biblias, salterios y misales. Los impresores italianos, en cambio, componían sobre todo libros profanos, por ejemplo, los autores clásicos griegos y romanos redescubiertos recientemente, las historias de los escritores laicos italianos y las obras científicas de los eruditos renacentistas. Una de las primeras aplicaciones importantes de la imprenta fue la publicación de panfletos: en las luchas religiosas y políticas de los siglos XVI y XVII, los panfletos circularon de manera profusa. La producción de estos materiales ocupaba en gran medida a los impresores de la época. Los panfletos tuvieron también una gran difusión en las colonias españolas de América en la segunda mitad del siglo XVIII.

Prensas de imprimir

La máquina que se utiliza para transferir la tinta desde la plancha de impresión a la página impresa se denomina prensa. Las primeras prensas de imprimir, como las del siglo XVI e incluso anteriores, eran de tornillo, pensadas para transmitir una cierta presión al elemento impresor o molde, que se colocaba hacia arriba sobre una superficie plana. El papel, por lo general humedecido, se presionaba contra los tipos con ayuda de la superficie móvil o platina. Las partes superiores de la imprenta frecuentemente iban sujetas al techo y una vez que el molde se había entintado, la platina se iba atornillando hacia abajo contra el mismo. La prensa iba equipada con raíles que permitían expulsar el molde, volviendo a su posición original, de modo que no fuera necesario levantar mucho la platina. Sin embargo, la operación resultaba lenta y trabajosa; estas prensas sólo producían unas 250 impresiones a la hora, y sólo imprimían una cara cada vez.

En el siglo XVII se añadieron muelles a la prensa para ayudar a levantar rápidamente la platina. Hacia 1800 hicieron su aparición las prensas de hierro, y por aquellas mismas fechas se sustituyeron los tornillos por palancas para hacer descender la platina. Las palancas eran bastante complicadas; primero tenían que hacer bajar la platina lo máximo posible, y al final tenían que conseguir el contacto aplicando una presión considerable. Aunque las mejores prensas manuales de la época sólo producían unas 300 impresiones a la hora, las prensas de hierro permitían utilizar moldes mucho más grandes que los de madera, por lo que de cada impresión se podía obtener un número mucho mayor de páginas. La impresión de libros utilizaba cuatro, ocho, dieciséis y más páginas por pliego.

Durante el siglo XIX, las mejoras incluyeron el desarrollo de la prensa accionada por vapor; la prensa de cilindro, que utiliza un rodillo giratorio para prensar el papel contra una superficie plana; la rotativa, en la que tanto el papel como la plancha curva de impresión van montados sobre rodillos y la prensa de doble impresión, que imprime simultáneamente por ambas caras del papel. Los periódicos diarios de gran tirada exigen utilizar varias de estas prensas tirando al mismo tiempo el mismo producto. En 1863 el inventor norteamericano William A. Bullock patentó la primera prensa de periódicos alimentada por bobina, capaz de imprimir los periódicos en rollos en vez de hojas sueltas. En 1871 el impresor Richard March Hoe perfeccionó la prensa de papel continuo; su equipo producía 18.000 periódicos a la hora.

Ilustración de libros

Durante siglos, los dibujantes trabajaban en libros ilustrados a mano; con la llegada de la imprenta, los artistas grababan sus creaciones en madera o metal, lo cual permitía a los impresores renacentistas reproducir en sus imprentas tanto imágenes como textos. Entre los artistas famosos del renacimiento que produjeron ilustraciones para libros se hallan el italiano Andrea Mantegna y los alemanes Alberto Durero y Hans Holbein el Joven. La amplia reproducción de sus trabajos influyó de manera notable el desarrollo del arte renacentista.

Tipos, prensas de acero y máquinas tipográficas

Hasta el siglo XIX se habían ido creando algunas tipografías de gran belleza y se había perfeccionado el oficio de la imprenta. Hacia 1800, sin embargo, los avances en el mundo de la impresión hicieron hincapié en aumentar la velocidad. Charles, tercer conde de Stanhope, introdujo la primera prensa de imprimir construida totalmente de acero. En 1803, los hermanos Henry y Sealy Fourdrinier instalaron en Londres su primera máquina de fabricar papel; producía una bobina de papel continuo capaz de hacer frente a una demanda en constante crecimiento. Más tarde, en 1814 Friedrich König inventó la prensa accionada por vapor, revolucionando toda la industria de la impresión. En 1817, Fco. Xavier Mina, liberal español que organizó una expedición para apoyar la lucha de los patriotas mexicanos por su independencia, llevó a México la primera imprenta de acero, en la que imprimió sus periódicos y proclamas. Se considera la primera imprenta que hubo en el estado de Texas, entonces territorio de Nueva España. En la actualidad se encuentra en el Museo del Estado.

Las grandes ediciones que publicaban aumentaron aún más en 1829 al aparecer los estereotipos, que permiten fabricar duplicados de planchas de impresión ya compuestas. En 1886 los equipos de composición se perfeccionaron, permitiendo reducir drásticamente el tiempo necesario para componer un libro en comparación con las labores manuales. Por último, la fotografía ha venido a contribuir al desarrollo de los modernos procesos de fotomecánica.

En la década de los cincuenta aparecieron las primeras máquinas de fotocomposición, que producían imágenes fotográficas de los tipos en vez de fundirlos en plomo. Estas imágenes se fotografían con una cámara de artes gráficas a fin de producir unos negativos en película que sirven para obtener las planchas litográficas. Los avances en la tecnología de planchas en los años cincuenta y sesenta, junto con la fotocomposición, pusieron fin a un reinado de 500 años de la tipografía como principal proceso de impresión. La composición tipográfica con tipos de fundición prácticamente ha desaparecido, pero el huecograbado sigue utilizándose de forma habitual. La mayoría de las planchas en relieve se fabrican en la actualidad por procesos fotomecánicos directos.

Los ordenadores o computadoras que se utilizan hoy como máquinas de oficina pueden producir imágenes listas para impresión, reduciendo el tiempo y los costes de los principales procesos de imprenta. Las computadoras se utilizan de forma habitual para crear dibujos, definir tipos, digitalizar y retocar imágenes y fundir todos estos elementos en un único trozo de película o directamente sobre la plancha de imprimir.

Teléfono, instrumento de comunicación, diseñado para la transmisión de voz y demás sonidos hasta lugares remotos mediante la electricidad, así como para su reproducción. El teléfono contiene un diafragma que vibra al recibir el impacto de ondas de sonido. Las vibraciones (movimiento ondulatorio) se transforman en impulsos eléctricos y se transmiten a un receptor que los vuelve a convertir en sonido.

En el lenguaje coloquial, la palabra `teléfono' también designa todo el sistema al que va conectado un aparato de teléfono; un sistema que permite enviar no sólo voz, sino también datos, imágenes o cualquier otro tipo de información que pueda codificarse y convertirse en energía eléctrica. Esta información viaja entre los distintos puntos conectados a la red. La red telefónica se compone de todas las vías de transmisión entre los equipos de los abonados y de los elementos de conmutación que sirven para seleccionar una determinada ruta o grupo de ellas entre dos abonados.

Evolución

En 1854, el inventor francés Charles Bourseul planteó la posibilidad de utilizar las vibraciones causadas por la voz sobre un disco flexible o diafragma, con el fin de activar y desactivar un circuito eléctrico y producir unas vibraciones similares en un diafragma situado en un lugar remoto, que reproduciría el sonido original. Algunos años más tarde, el físico alemán Johann Philip Reis inventó un instrumento que transmitía notas musicales, pero no era capaz de reproducir la voz humana. En 1877, tras haber descubierto que para transmitir la voz sólo se podía utilizar corriente continua, el inventor estadounidense de origen inglés Alexander Graham Bell construyó el primer teléfono capaz de transmitir y recibir voz humana con toda su calidad y su timbre.

Teléfono magnético de Bell

El conjunto básico del invento de Bell estaba formado por un emisor, un receptor y un único cable de conexión. El emisor y el receptor eran idénticos y contenían un diafragma metálico flexible y un imán con forma de herradura dentro de una bobina. Las ondas sonoras que incidían sobre el diafragma lo hacían vibrar dentro del campo del imán. Esta vibración inducía una corriente eléctrica en la bobina, que variaba según las vibraciones del diafragma. La corriente viajaba por el cable hasta el receptor, donde generaba fluctuaciones de la intensidad del campo magnético de éste (véase Magnetismo), haciendo que su diafragma vibrase y reprodujese el sonido original.

En los receptores de los teléfonos modernos, el imán es plano como una moneda y el campo magnético que actúa sobre el diafragma de hierro es de mayor intensidad y homogeneidad. Los transmisores modernos llevan un diafragma muy fino montado debajo de un rejilla perforada. En el centro del diafragma hay un pequeño receptáculo relleno de gránulos de carbono. Las ondas sonoras que atraviesan la rejilla provocan un vaivén del receptáculo. En el movimiento descendente, los gránulos quedan compactados y producen un aumento de la corriente que circula por el transmisor.

Partes del aparato telefónico

El aparato telefónico consta de un transmisor, un receptor, un dispositivo marcador, una alarma acústica y un circuito supresor de efectos locales. Si se trata de un aparato de dos piezas, el transmisor y el receptor van montados en el auricular, el timbre se halla en la base y el elemento de marcado y el circuito supresor de efectos locales pueden estar en cualquiera de las dos partes, pero, por lo general, van juntos. Los teléfonos más complejos pueden llevar un micrófono y un altavoz en la pieza base, aparte del transmisor y el receptor en el auricular. En los teléfonos portátiles, el cable del auricular se sustituye por un enlace de radio entre el auricular y la base, aunque sigue teniendo un cable para la línea. Los teléfonos celulares suelen ser de una sola pieza, y sus componentes en miniatura permiten combinar la base y el auricular en un elemento manual que se comunica con una estación remota de radio. No precisan línea ni cables para el auricular.

Los teléfonos antiguos usaban un único dispositivo como transmisor y receptor. Sus componentes básicos eran un imán permanente con un cable enrollado que lo convertía en electroimán y un fino diafragma de tela y metal sometido a la fuerza de atracción del imán. La fuerza de la voz, en cuanto ondas de sonido, provocaban un movimiento del diafragma, que a su vez generaba una minúscula corriente alterna en los cables del electroimán. Estos equipos eran capaces de reproducir la voz, aunque tan débilmente que eran poco más que un juguete.

La invención del transmisor telefónico de carbono por Emile Berliner constituye la clave en la aparición del teléfono útil. Consta de unos gránulos de carbono colocados entre unas láminas metálicas denominadas electrodos, una de las cuales es el diafragma, que transmite variaciones de presión a dichos gránulos. Los electrodos conducen la electricidad que circula a través del carbono. Las variaciones de presión originan a su vez una variación de la resistencia eléctrica del carbono. A través de la línea se aplica una corriente continua a los electrodos, y la corriente continua resultante también varía. La fluctuación de dicha corriente a través del transmisor de carbono se traduce en una mayor potencia que la inherente a la onda sonora original. Este efecto se denomina amplificación, y tiene una importancia crucial. Un transmisor electromagnético sólo es capaz de convertir energía, y siempre producirá una energía eléctrica menor que la que contiene una onda sonora.

El equivalente eléctrico del imán permanente es una sustancia plástica denominada electreto. Al igual que un imán permanente produce un campo magnético permanente en el espacio, un electreto genera un campo eléctrico permanente en el espacio. Tal como un conductor eléctrico que se mueve en el seno de un campo magnético induce una corriente, el movimiento de un electrodo dentro de un campo eléctrico puede producir una modificación del voltaje entre un electrodo móvil y otro estacionario en la parte opuesta del electreto. Aunque este efecto se conocía de antiguo, fue sólo una curiosidad de laboratorio hasta la aparición de materiales capaces de conservar una carga electrostática durante años. Los transmisores telefónicos se basan actualmente en este efecto, en vez de en la resistencia sensible a la presión de los gránulos de carbono, ya que se consigue con un micrófono de electretos muy pequeño, ligero y económico. Los micrófonos de electretos se basan en los transistores para la amplificación requerida.

Dado que el transmisor de carbono no resulta práctico a la hora de convertir energía eléctrica en presión sonora, los teléfonos fueron evolucionando hacia receptores separados de los transmisores. Esta disposición permite colocar el transmisor cerca de los labios para recoger el máximo de energía sonora, y el receptor en el auricular, lo cual elimina los molestos ruidos de fondo. El receptor sigue siendo un imán permanente con un arrollamiento de hilo conductor, pero ahora lleva un diafragma de aluminio sujeto a una pieza metálica. Los detalles del diseño han experimentado enormes mejoras, pero el concepto original continúa permitiendo equipos sólidos y eficaces.

La alarma acústica de los teléfonos se suele denominar timbre, referencia al hecho de que durante la mayor parte de la historia de este equipo la función de alarma la proporcionaba un timbre eléctrico. La creación de un sustituto electrónico para el timbre, capaz de generar un sonido agradable a la vez que distintivo a un coste razonable, constituyó una tarea sorprendentemente ardua. Para muchas personas, el sonido del timbre sigue siendo preferible al de un zumbador electrónico. Sin embargo, dado que el timbre mecánico exige un cierto volumen físico para resultar eficaz, la tendencia hacia equipos cada vez menores impone el uso de alarmas electrónicas en la mayoría de los teléfonos. La sustitución progresiva del timbre permitirá asimismo cambiar, en un futuro próximo, el método actual de activación de la alarma —corriente alterna de 90 voltios (V) y 20 hercios (Hz) a la línea— por técnicas de voltajes menores, más compatibles con los teléfonos transistorizados. Algo similar se está produciendo con el esquema de marcado de los teléfonos.

El marcado telefónico ya ha sufrido toda una evolución a lo largo de su historia. Existen dos formas de marcado, el de pulso y el de multifrecuencia o tono.

El disco de marcado tiene un diseño mecánico muy ingenioso; consta de los números 1 al 9 seguidos del 0, colocados en círculo debajo de los agujeros de un disco móvil y perforado. Se coloca el dedo en el agujero correspondiente al número elegido y se hace girar el disco en el sentido de las agujas del reloj hasta alcanzar el tope y a continuación se suelta el disco. Un muelle obliga al disco a volver a su posición inicial y, al mismo tiempo que gira, abre un conmutador eléctrico tantas veces como gire el disco, para marcar el número elegido; en el caso del 0 se efectúan 10 aperturas, ya que es el último número del disco. El resultado es una serie de pulsos de llamada en la corriente eléctrica que circula entre el aparato telefónico y la centralita. Cada pulso tiene una amplitud igual al voltaje suministrado por la pila, generalmente 50 V, y dura unos 45 ms (milisegundos, milésimas de segundo). Los equipos de la centralita cuentan estos pulsos y determinan el número que se desea marcar.

Los pulsos eléctricos producidos por el disco giratorio resultan idóneos para el control de los equipos de conmutación paso-a-paso de las primeras centrales de conmutación automáticas. Sin embargo, el marcado mecánico constituye una de las fuentes principales de costes de mantenimiento, y el proceso de marcado por disco resulta lento, sobre todo en el caso de números largos. La disponibilidad de la amplificación barata y fiable que trajo el transistor aconsejó el diseño de un sistema de marcado basado en la transmisión de unos tonos de potencia bastante pequeña, en vez de los pulsos de marcado de gran potencia. Cada botón de un teclado de multifrecuencia controla el envío de una pareja de tonos. Se utiliza un esquema de codificación `2 de 7' en el que el primer tono corresponde a la fila de una matriz normal de 12 botones y el segundo a la columna (4 filas más 3 columnas necesitan 7 tonos).

Actualmente, la mayoría de los teléfonos llevan botones en vez de disco de marcado. Dado que el sistema de tonos se comercializaba opcionalmente con un coste adicional, en las centrales se siguen recibiendo pulsos o multitonos. Como un usuario que compra un equipo puede disponer de una línea que no admite señales de multifrecuencia, los teléfonos de botones disponen generalmente de un conmutador que permite seleccionar el envío de pulsos o tonos.

Hay un elemento funcional importante del teléfono que resulta invisible para el usuario: el circuito supresor de efectos locales. Las personas controlan el tono de voz al hablar y ajustan en consonancia el volumen, fenómeno que se denomina `efecto local'. En los primeros teléfonos, el receptor y el transmisor del equipo iban conectados directamente entre sí y a la línea. Esto hacía que el usuario oyera su propia voz a través del receptor con mucha más intensidad que cuando no lo tenía pegado a la oreja. El sonido era mucho más fuerte que el normal porque el micrófono de carbono amplifica la energía sonora al mismo tiempo que la convierte de acústica a eléctrica. Además de resultar desagradable, esto obligaba al usuario a hablar con mayor suavidad, dificultando la escucha por parte del receptor.

El circuito supresor original contenía un transformador junto con otros componentes cuyas características dependían de los parámetros eléctricos de la línea telefónica. El receptor y el transmisor iban conectados a diferentes `puertos del circuito' (en este caso, diferentes arrollamientos del transformador), no entre sí. El circuito supresor transfiere energía del transmisor a la línea (aunque parte también a otros componentes), sin que nada pase al receptor. Así se elimina la sensación de que uno grita en su propia oreja.

Circuitos y centrales

La llamada telefónica se inicia en la persona que levanta el auricular y espera el tono de llamada. Esto provoca el cierre de un conmutador eléctrico. El cierre de dicho conmutador activa el flujo de una corriente eléctrica por la línea de la persona que efectúa la llamada, entre la ubicación de ésta y el edificio que alberga la centralita automática, que forma parte del sistema de conmutación. Se trata de una corriente continua que no cambia su sentido de flujo, aun cuando pueda hacerlo su intensidad o amplitud. La central detecta dicha corriente y devuelve un tono de llamada, una combinación concreta de dos notas para que resulte perfectamente detectable, tanto por los equipos como por las personas.

Una vez escuchado el tono de llamada, la persona teclea una serie de números mediante los botones del auricular o del equipo de base. Esta secuencia es exclusiva de otro abonado, la persona a quien se llama. El equipo de conmutación de la central elimina el tono de llamada de la línea tras recibir el primer número y, una vez recibido el último, determina si el número con el que se quiere contactar pertenece a la misma central o a otra diferente. En el primer caso, se aplican una serie de intervalos de corriente de llamada a la línea. La corriente de llamada es corriente alterna de 20 Hz, que fluye en ambos sentidos 20 veces por segundo. El teléfono del usuario tiene una alarma acústica que responde a la corriente de llamada, normalmente mediante un sonido perceptible. Cuando se responde al teléfono levantando el auricular, comienza a circular una corriente continua por su línea que es detectada por la central. Ésta deja de aplicar la corriente de llamada y establece una conexión entre la persona que llama y la llamada, que es la que permite hablar.

En los primeros teléfonos, la corriente estaba generada por una batería. El circuito local tenía, además de la batería y el transmisor, un arrollamiento de transformador, que recibe el nombre de bobina de inducción; el otro arrollamiento, conectado a la línea, elevaba el voltaje de la onda sonora. Las conexiones entre teléfonos eran de tipo manual, a cargo de operadores que trabajaban en centralitas ubicadas en las oficinas centrales de conmutación.

A medida que se fueron desarrollando los sistemas telefónicos, las conexiones manuales empezaron a resultar demasiado lentas y laboriosas. Esto fue el detonante para la construcción de una serie de dispositivos mecánicos y electrónicos que permitiesen las conexiones automáticas (véase Electrónica). Los teléfonos modernos tienen un dispositivo electrónico que transmite una serie de pulsos sucesivos de corriente o varios tonos audibles correspondientes al número marcado. Los equipos electrónicos de la central de conmutación se encargan de traducir automáticamente la señal y de dirigir la llamada a su destino.

La tecnología de estado sólido ha permitido que estas centrales puedan procesar las llamadas a una velocidad de una millonésima de segundo, por lo que se pueden procesar simultáneamente grandes cantidades de llamadas. El circuito de entrada convierte, en primer lugar, la voz de quien llama a impulsos digitales. Estos impulsos se transmiten entonces a través de la red mediante sistemas de alta capacidad, que conectan las diferentes llamadas en base a operaciones matemáticas de conmutación computerizadas. Las instrucciones para el sistema se hallan almacenadas en la memoria de una computadora. El mantenimiento de los equipos se ha simplificado gracias a la duplicidad de los componentes. Cuando se produce algún fallo, entra automáticamente en funcionamiento una unidad de reserva para manejar las llamadas. Gracias a estas técnicas, el sistema puede efectuar llamadas rápidas, tanto locales como a larga distancia, determinando con rapidez la ruta más eficaz.

Actualmente, no existe en Estados Unidos ni en Inglaterra ningún teléfono atendido de forma manual. Todos los abonados son atendidos por centrales automáticas. En este tipo de central, las funciones de los operadores humanos las realizan los equipos de conmutación. Un relé de corriente de línea de un circuito ha sustituido el cuadro de conexión manual de luz de la centralita y un conmutador de cruce hace las funciones de los cables. Dado que ahora es cuando los ordenadores empiezan a estar en condiciones de entender comandos hablados, casi un siglo después de las primeras centrales automáticas, se sigue utilizando el visor para mostrar el número marcado. Los registros de entrada almacenan este número y luego lo transmiten a la central de conmutación, que a su vez activa el conmutador de cruce para completar la llamada o dirigirla a un conmutador de mayor nivel para el tratamiento pertinente.

Telefonía transoceánica

El servicio telefonía transoceánica se implantó comercialmente en 1927, pero el problema de la amplificación frenó el tendido de cables telefónicos hasta 1956, año en que entró en servicio el primer cable telefónico submarino transoceánico del mundo, que conectaba Terranova y Escocia.

Telefonía por onda portadora

Utilizando frecuencias superiores al rango de voz, que va desde los 4.000 hasta varios millones de ciclos por segundo, o hercios, se pueden transmitir simultáneamente hasta 13.200 llamadas telefónicas por una misma conducción. Las técnicas de telefonía por onda portadora también se utilizan para enviar mensajes telefónicos a través de las líneas normales de distribución sin interferir con el servicio ordinario. Debido al crecimiento de tamaño y complejidad de los sistemas, se utilizan los amplificadores de estado sólido, denominados repetidores, para amplificar los mensajes a intervalos regulares.

Cable coaxial

El cable coaxial, que apareció en 1936, utiliza una serie de conductores para soportar un gran número de circuitos. El cable coaxial moderno está fabricado con tubos de cobre de 0,95 cm de diámetro. Cada uno de ellos lleva, justo en el centro del tubo, un hilo fino de cobre sujeto con discos plásticos aislantes separados entre sí unos 2,5 cm. El tubo y el hilo tienen el mismo centro, es decir, son coaxiales. Los tubos de cobre protegen la señal transmitida de posibles interferencias eléctricas y evitan pérdidas de energía por radiación. Un cable, compuesto por 22 tubos coaxiales dispuestos en anillos encastrados en polietileno y plomo, puede transportar simultáneamente 132.000 mensajes.

Fibras ópticas

Los cables coaxiales se están sustituyendo progresivamente por fibras ópticas de vidrio. Los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias. Un cable de fibra puede tener hasta 50 pares de ellas, y cada par soporta hasta 4.000 circuitos de voz. El fundamento de la nueva tecnología de fibras ópticas, el láser, aprovecha la región visible del espectro electromagnético, donde las frecuencias son miles de veces superiores a las de la radio y, por consiguiente, pueden transportar un volumen mucho mayor de información. El diodo emisor de luz (LED), un dispositivo más sencillo, puede resultar adecuado para la mayoría de las funciones de transmisión.

Un cable de fibra óptica, el TAT 8, transporta más del doble de circuitos transatlánticos que los existentes en la década de 1980. Formando parte de un sistema que se extiende desde Nueva Jersey hasta Inglaterra y Francia, puede transmitir hasta 50.000 conversaciones a la vez. Este tipo de cables sirven también de canales para la transmisión a alta velocidad de datos informáticos, siendo más segura que la que proporcionan los satélites de comunicaciones (véase Comunicación vía satélite). Otro avance importante en las telecomunicaciones, el TAT 9, un cable de fibra con mucha mayor capacidad, entró en funcionamiento en 1992 y puede transmitir simultáneamente 75.000 llamadas.

Reemisor de microondas

En este método de transmisión, las ondas de radio que se hallan en la banda de frecuencias muy altas, y que se denominan microondas, se remiten de estación a estación. Dado que la transmisión de microondas exige un camino expedito entre estación emisora y receptora, la distancia media entre estaciones repetidoras es de unos 40 km. Un canal de relé de microondas puede transmitir hasta 600 conversaciones telefónicas.

Telefonía por satélite

En 1969 se completó la primera red telefónica global en base a una serie de satélites en órbitas estacionarias a una distancia de la Tierra de 35.880 km. Estos satélites van alimentados por células de energía solar. Las llamadas transmitidas desde una antena terrestre se amplifican y se retransmiten a estaciones terrestres remotas. La integración de los satélites y los equipos terrestres permite dirigir llamadas entre diferentes continentes con la misma facilidad que entre lugares muy próximos. Gracias a la digitalización de las transmisiones, los satélites de la serie global Intelsat pueden retransmitir simultáneamente hasta 33.000 llamadas, así como diferentes canales de televisión.

Un único satélite no serviría para realizar una llamada, por ejemplo, entre Nueva York y Hong Kong, pero dos sí. Incluso teniendo en cuenta el coste de un satélite, esta vía resulta más barata de instalar y mantener por canal que la ruta equivalente utilizando cables coaxiales tendidos por el fondo del mar. En consecuencia, para grandes distancias se utilizan en todo lo posible los enlaces por satélite.

Sin embargo, los satélites presentan una desventaja importante. Debido a la gran distancia hasta el satélite y la velocidad limitada de las ondas de radio, hay un retraso apreciable en las respuestas habladas. Por eso, muchas llamadas sólo utilizan el satélite en un sentido de la transmisión (por ejemplo, de Nueva York hacia San Francisco) y un enlace terrestre por microondas o cable coaxial en el otro sentido. Un enlace vía satélite para ambos sentidos resultaría irritante para dos personas conversando entre Nueva York y Hong Kong, ya que apenas podrían efectuar interrupciones, cosa muy frecuente en las conversaciones, y además se verían afectadas por el gran retraso (más de un segundo) en la respuesta de la otra persona.

La mayoría de las grandes ciudades están hoy enlazadas por una combinación de conexiones por microondas, cable coaxial, fibra óptica y satélites. La capacidad de cada uno de los sistemas depende de su antigüedad y el territorio cubierto (los cables submarinos están diseñados de forma muy conservadora y tienen menor capacidad que los cables de superficie), pero, en general, se pueden clasificar de la siguiente forma: la digitalización simple a través de un par paralelo proporciona decenas de circuitos por par; la coaxial permite cientos de circuitos por par y miles por cable; las microondas y los satélites dan miles de circuitos por enlace y la fibra óptica permite hasta decenas de miles de circuitos por fibra. La capacidad de cada tipo de sistema ha ido aumentando notablemente desde su aparición debido a la continua mejora de la ingeniería.

Teléfonos y radiodifusión

Los equipos de telefonía de larga distancia pueden transportar programas de radio y televisión a través de grandes distancias hasta muchas estaciones dispersas para su difusión simultánea. En algunos casos, la parte de audio de los programas de televisión se puede transmitir mediante circuitos de cables a frecuencias audio o a las frecuencias de portadora utilizadas para transmitir las conversaciones telefónicas. Las imágenes de televisión se transmiten por medio de cables coaxiales, microondas y circuitos de satélites.

Videoteléfono

El primer videoteléfono de dos vías fue presentado en 1930 por el inventor estadounidense Herbert Eugene Ives en Nueva York. El videoteléfono se puede conectar a una computadora para visualizar informes, diagramas y esquemas en lugares remotos. Permite así mismo celebrar reuniones cara a cara de personas en diferentes ciudades y puede actuar de enlace entre centros de reuniones en el seno de una red de grandes ciudades. Los videoteléfonos ya están disponibles comercialmente y se pueden utilizar en líneas nacionales para llamadas cara a cara. Funciones análogas también existen ya en los ordenadores o computadoras equipadas a tal fin.

Comunicación móvil celular

Los teléfonos celulares, que se utilizan en los automóviles, aviones y trenes de pasajeros, son en esencia unos radioteléfonos de baja potencia. Las llamadas pasan por los transmisores de audio colocados dentro de pequeñas unidades geográficas llamadas células. Dado que las señales de cada célula son demasiado débiles para interferir con las de otras células que operan en las mismas frecuencias, se puede utilizar un número mayor de canales que en la transmisión con radiofrecuencia de alta potencia. La modulación en frecuencia de banda estrecha es el método más común de transmisión y a cada mensaje se le asigna una portadora exclusiva para la célula desde la que se transmite (véase Frecuencia modulada).

Correo de voz

El correo de voz permite grabar los mensajes recibidos para su posterior reproducción en caso de que la llamada no sea atendida. En las versiones más avanzadas de correo de voz, el usuario puede grabar un mensaje que será transmitido más adelante a lo largo del día.

El correo de voz se puede adquirir en la compañía telefónica como un servicio de conmutación o mediante la compra de un contestador automático. Por lo general, es un equipo telefónico ordinario dotado de funciones de grabación, reproducción y detección automática de llamada. Si la llamada entrante se contesta en cualquier teléfono de la línea antes de que suene un número determinado de veces, el contestador no actúa. Sin embargo, cumplido el número de llamadas, el contestador automático procede a descolgar y reproduce un mensaje grabado previamente, informando que el abonado no puede atender la llamada en ese momento e invitando a dejar un mensaje grabado.

El dueño del contestador automático es avisado de la presencia de mensajes grabados mediante una luz o un pitido audible, pudiendo recuperar más tarde el mensaje. La mayoría de los contestadores automáticos y todos los servicios de operadora permiten así mismo al usuario recuperar los mensajes grabados desde un lugar alejado marcando un código determinado cuando haya obtenido respuesta de su equipo.

Tendencias tecnológicas

La sustitución de los cables coaxiales transoceánicos por cables de fibra óptica continúa en la actualidad. Los avances de la tecnología de circuitos integrados y de los semiconductores han permitido diseñar y comercializar teléfonos que no sólo producen calidad de voz de alta fidelidad, sino que ofrecen toda una serie de funciones como números memorizados, desvío de llamadas, espera de llamadas e identificación del número que llama.

Radio, sistema de comunicación mediante ondas electromagnéticas que se propagan por el espacio. Debido a sus características variables, se utilizan ondas radiofónicas de diferente longitud para distintos fines; por lo general se identifican mediante su frecuencia. Las ondas más cortas poseen una frecuencia (número de ciclos por segundo) más alta; las ondas más largas tienen una frecuencia más baja (menos ciclos por segundo).

El nombre del pionero alemán de la radio Heinrich Hertz ha servido para bautizar al ciclo por segundo (hercio, Hz). Un kilohercio (kHz) son 1.000 ciclos por segundo, 1 megahercio (MHz) es 1 millón de ciclos por segundo y 1 gigahercio (GHz) 1 billón de ciclos por segundo. Las ondas de radio van desde algunos kilohercios a varios gigahercios. Las ondas de luz visible son mucho más cortas. En el vacío, toda radiación electromagnética se desplaza en forma de ondas a una velocidad uniforme de 300.000 kilómetros por segundo.

Las ondas de radio se utilizan no sólo en la radiodifusión, sino también en la telegrafía inalámbrica, la transmisión por teléfono, la televisión, el radar, los sistemas de navegación y la comunicación espacial. En la atmósfera, las características físicas del aire ocasionan pequeñas variaciones en el movimiento ondulatorio, que originan errores en los sistemas de comunicación radiofónica como el radar. Además, las tormentas o las perturbaciones eléctricas provocan fenómenos anormales en la propagación de las ondas de radio.

Las ondas electromagnéticas dentro de una atmósfera uniforme se desplazan en línea recta, y como la superficie terrestre es prácticamente esférica, la comunicación radiofónica a larga distancia es posible gracias a la reflexión de las ondas de radio en la ionosfera. Las ondas radiofónicas de longitud de onda inferior a unos 10 m, que reciben los nombres de frecuencias muy alta, ultraalta y superalta (VHF, UHF y SHF), no se reflejan en la ionosfera; así, en la práctica, estas ondas muy cortas sólo se captan a distancia visual. Las longitudes de onda inferiores a unos pocos centímetros son absorbidas por las gotas de agua o por las nubes; las inferiores a 1,5 cm pueden quedar absorbidas por el vapor de agua existente en la atmósfera limpia.

Los sistemas normales de radiocomunicación constan de dos componentes básicos, el transmisor y el receptor. El primero genera oscilaciones eléctricas con una frecuencia de radio denominada frecuencia portadora. Se puede amplificar la amplitud o la propia frecuencia para variar la onda portadora. Una señal modulada en amplitud se compone de la frecuencia portadora y dos bandas laterales producto de la modulación. La frecuencia modulada (FM) produce más de un par de bandas laterales para cada frecuencia de modulación, gracias a lo cual son posibles las complejas variaciones que se emiten en forma de voz o cualquier otro sonido en la radiodifusión, y en las alteraciones de luz y oscuridad en las emisiones televisivas.

Transmisor

Los componentes fundamentales de un transmisor de radio son un generador de oscilaciones (oscilador) para convertir la corriente eléctrica común en oscilaciones de una determinada frecuencia de radio; los amplificadores para aumentar la intensidad de dichas oscilaciones conservando la frecuencia establecida y un transductor para convertir la información a transmitir en un voltaje eléctrico variable y proporcional a cada valor instantáneo de la intensidad. En el caso de la transmisión de sonido, el transductor es un micrófono; para transmitir imágenes se utiliza como transductor un dispositivo fotoeléctrico.

Otros componentes importantes de un transmisor de radio son el modulador, que aprovecha los voltajes proporcionales para controlar las variaciones en la intensidad de oscilación o la frecuencia instantánea de la portadora, y la antena, que radia una onda portadora igualmente modulada. Cada antena presenta ciertas propiedades direccionales, es decir, radia más energía en unas direcciones que en otras, pero la antena siempre se puede modificar de forma que los patrones de radiación varíen desde un rayo relativamente estrecho hasta una distribución homogénea en todas las direcciones; este último tipo de radiación se usa en la radiodifusión.

El método concreto utilizado para diseñar y disponer los diversos componentes depende del efecto buscado. Los criterios principales de una radio en un avión comercial o militar, por ejemplo, son que tenga un peso reducido y que resulte inteligible; el coste es un aspecto secundario y la fidelidad de reproducción carece totalmente de importancia. En una emisora comercial de radio, sin embargo, el tamaño y el peso entrañan poca importancia, el coste debe tenerse en cuenta y la fidelidad resulta fundamental, sobre todo en el caso de emisoras FM; el control estricto de la frecuencia constituye una necesidad crítica. En Estados Unidos, por ejemplo, una emisora comercial típica de 1.000 kHz posee un ancho de banda de 10 kHz, pero este ancho sólo se puede utilizar para modulación; la frecuencia de la portadora propiamente dicha se tiene que mantener exactamente en los 1.000 kHz, ya que una desviación de una centésima del 1% originaría grandes interferencias con emisoras de la misma frecuencia, aunque se hallen distantes.

Osciladores

En una emisora comercial normal, la frecuencia de la portadora se genera mediante un oscilador de cristal de cuarzo rigurosamente controlado. El método básico para controlar frecuencias en la mayoría de las emisoras de radio es mediante circuitos de absorción, o circuitos resonantes, que poseen valores específicos de inductancia y capacitancia (véase Unidades eléctricas; Resonancia) y que, por tanto, favorecen la producción de corrientes alternas de una determinada frecuencia e impiden la circulación de corrientes de frecuencias distintas. De todas formas, cuando la frecuencia debe ser enormemente estable se utiliza un cristal de cuarzo con una frecuencia natural concreta de oscilación eléctrica para estabilizar las oscilaciones. En realidad, éstas se generan a baja potencia en una válvula electrónica y se amplifican en amplificadores de potencia que actúan como retardadores para evitar la interacción del oscilador con otros componentes del transmisor, ya que tal interacción alteraría la frecuencia. El cristal tiene la forma exacta para las dimensiones necesarias a fin de proporcionar la frecuencia deseada, que luego se puede modificar ligeramente agregando un condensador al circuito para conseguir la frecuencia exacta. En un circuito eléctrico bien diseñado, dicho oscilador no varía en más de una centésima del 1% en la frecuencia. Si se monta el cristal al vacío a temperatura constante y se estabilizan los voltajes, se puede conseguir una estabilidad en la frecuencia próxima a una millonésima del 1%.

Los osciladores de cristal resultan de máxima utilidad en las gamas denominadas de frecuencia muy baja, baja y media (VLF, LF y MF). Cuando han de generarse frecuencias superiores a los 10 MHz, el oscilador maestro se diseña para que genere una frecuencia intermedia, que luego se va duplicando cuantas veces sea necesario mediante circuitos electrónicos especiales. Si no se precisa un control estricto de la frecuencia, se pueden utilizar circuitos resonantes con válvulas normales a fin de producir oscilaciones de hasta 1.000 MHz, y se emplean los klistrones reflex para generar las frecuencias superiores a los 30.000 MHz. Los klistrones se sustituyen por magnetrones cuando hay que generar cantidades de mayor potencia.

Modulación

La modulación de la portadora para que pueda transportar impulsos se puede efectuar a nivel bajo o alto. En el primer caso, la señal de frecuencia audio del micrófono, con una amplificación pequeña o nula, sirve para modular la salida del oscilador y la frecuencia modulada de la portadora se amplifica antes de conducirla a la antena; en el segundo caso, las oscilaciones de radiofrecuencia y la señal de frecuencia audio se amplifican de forma independiente y la modulación se efectúa justo antes de transmitir las oscilaciones a la antena. La señal se puede superponer a la portadora mediante modulación de frecuencia (FM) o de amplitud (AM).

La forma más sencilla de modulación es la codificación, interrumpiendo la onda portadora a intervalos concretos mediante una clave o conmutador para formar los puntos y las rayas de la radiotelegrafía de onda continua.

La onda portadora también se puede modular variando la amplitud de la onda según las variaciones de la frecuencia e intensidad de una señal sonora, tal como una nota musical. Esta forma de modulación, AM, se utiliza en muchos servicios de radiotelefonía, incluidas las emisiones normales de radio. La AM también se emplea en la telefonía por onda portadora, en la que la portadora modulada se transmite por cable, y en la transmisión de imágenes estáticas a través de cable o radio.

En la FM, la frecuencia de la onda portadora se varía dentro de un rango establecido a un ritmo equivalente a la frecuencia de una señal sonora. Esta forma de modulación, desarrollada en la década de 1930, presenta la ventaja de generar señales relativamente limpias de ruidos e interferencias procedentes de fuentes tales como los sistemas de encendido de los automóviles o las tormentas, que afectan en gran medida a las señales AM. Por tanto, la radiodifusión FM se efectúa en bandas de alta frecuencia (88 a 108 MHz), aptas para señales grandes pero con alcance de recepción limitado.

Las ondas portadoras también se pueden modular variando la fase de la portadora según la amplitud de la señal. La modulación en fase, sin embargo, ha quedado reducida a equipos especializados.

El desarrollo de la técnica de transmisión de ondas continuas en pequeños impulsos de enorme potencia, como en el caso del radar, planteó la posibilidad de otra forma nueva de modulación, la modulación de impulsos en tiempo, en la que el espacio entre los impulsos se modifica de acuerdo con la señal.

La información transportada por una onda modulada se devuelve a su forma original mediante el proceso inverso, denominado demodulación o detección. Las emisiones de ondas de radio a frecuencias bajas y medias van moduladas en amplitud. Para frecuencias más altas se utilizan tanto la AM como la FM; en la televisión comercial de nuestros días, por ejemplo, el sonido va por FM, mientras que las imágenes se transportan por AM. En el rango de las frecuencias superaltas (por encima del rango de las ultraaltas), en el que se pueden utilizar anchos de banda mayores, la imagen también se transmite por FM. En la actualidad, tanto el sonido como las imágenes se pueden enviar de forma digital a dichas frecuencias.

Antenas

La antena del transmisor no necesita estar unida al propio transmisor. La radiodifusión comercial a frecuencias medias exige normalmente una antena muy grande, cuya ubicación óptima es de forma aislada, lejos de cualquier población, mientras que el estudio de radio suele hallarse en medio de la ciudad. La FM, la televisión y demás emisiones con frecuencias muy elevadas exigen antenas muy altas si se pretende conseguir un cierto alcance y no resulta aconsejable colocarlas cerca del estudio de emisión. En todos estos casos las señales se transmiten a través de cables. Las líneas telefónicas normales suelen valer para la mayoría de las emisiones comerciales de radio; si se precisa obtener alta fidelidad o frecuencias muy altas, se utilizan cables coaxiales.

Receptor

Los componentes fundamentales de un receptor de radio son: 1) una antena para recibir las ondas electromagnéticas y convertirlas en oscilaciones eléctricas; 2) amplificadores para aumentar la intensidad de dichas oscilaciones; 3) equipos para la demodulación; 4) un altavoz para convertir los impulsos en ondas sonoras perceptibles por el oído humano (y en televisión, un tubo de imágenes para convertir la señal en ondas luminosas visibles), y 5) en la mayoría de los receptores, unos osciladores para generar ondas de radiofrecuencia que puedan mezclarse con las ondas recibidas.

La señal que llega de la antena, compuesta por una oscilación de la portadora de radiofrecuencia, modulada por una señal de frecuencia audio o vídeo que contiene los impulsos, suele ser muy débil. La sensibilidad de algunos receptores de radio modernos es tan grande que con que la señal de la antena sea capaz de producir una corriente alterna de unos pocos cientos de electrones, la señal se puede detectar y amplificar hasta producir un sonido inteligible por el altavoz. La mayoría de los receptores pueden funcionar aceptablemente con una entrada de algunas millonésimas de voltio. Sin embargo, el aspecto básico en el diseño del receptor es que las señales muy débiles no se convierten en válidas simplemente amplificando, de forma indiscriminada, tanto la señal deseada como los ruidos laterales (véase Ruido más adelante). Así, el cometido principal del diseñador consiste en garantizar la recepción prioritaria de la señal deseada.

Muchos receptores modernos de radio son de tipo superheterodino, en el que un oscilador genera una onda de radiofrecuencia que se mezcla con la onda entrante, produciendo así una onda de frecuencia menor; esta última se denomina frecuencia media. Para sintonizar el receptor a las distintas frecuencias se modifica la frecuencia de las oscilaciones, pero la media siempre permanece fija (en 455 kHz para la mayoría de los receptores de AM y en 10,7 MHz para los de FM). El oscilador se sintoniza modificando la capacidad del condensador en su circuito oscilador; el circuito de la antena se sintoniza de forma similar mediante un condensador.

En todos los receptores hay una o más etapas de amplificación de frecuencia media; además, puede haber una o más etapas de amplificación de radiofrecuencia. En la etapa de frecuencia media se suelen incluir circuitos auxiliares, como el control automático de volumen, que funciona rectificando parte de la salida de un circuito de amplificación y alimentando con ella al elemento de control del mismo circuito o de otro anterior (véase Rectificación). El detector, denominado a menudo segundo detector (el primero es el mezclador), suele ser un simple diodo que actúa de rectificador y produce una señal de frecuencia audio. Las ondas FM se demodulan o detectan mediante circuitos que reciben el nombre de discriminadores o radiodetectores; transforman las variaciones de la frecuencia en diferentes amplitudes de la señal.

Amplificadores

Los amplificadores de radiofrecuencia y de frecuencia media son amplificadores de voltaje, que aumentan el voltaje de la señal. Los receptores de radio pueden tener una o más etapas de amplificación de voltaje de frecuencia audio. Además, la última etapa antes del altavoz tiene que ser de amplificación de potencia. Un receptor de alta fidelidad contiene los circuitos de sintonía y de amplificación de cualquier radio. Como alternativa, una radio de alta fidelidad puede tener un amplificador y un sintonizador independientes.

Las características principales de un buen receptor de radio son una sensibilidad, una selectividad y una fidelidad muy elevadas y un nivel de ruido bajo. La sensibilidad se consigue en primera instancia mediante muchas etapas de amplificación y factores altos de amplificación, pero la amplificación elevada carece de sentido si no se pueden conseguir una fidelidad aceptable y un nivel de ruido bajo. Los receptores más sensibles tienen una etapa de amplificación de radiofrecuencia sintonizada. La selectividad es la capacidad del receptor de captar señales de una emisora y rechazar otras de emisoras diferentes que limitan con frecuencias muy próximas. La selectividad extrema tampoco resulta aconsejable, ya que se precisa un ancho de banda de muchos kilohercios para recibir los componentes de alta frecuencia de las señales de frecuencia audio. Un buen receptor sintonizado a una emisora presenta una respuesta cero a otra emisora que se diferencia en 20 kHz. La selectividad depende sobre todo de los circuitos en la etapa de la frecuencia intermedia.

Sistemas de alta fidelidad

Fidelidad es la uniformidad de respuesta del receptor a diferentes señales de frecuencia audio moduladas en la portadora. La altísima fidelidad, que se traduce en una respuesta plana (idéntica amplificación de todas las frecuencias audio) a través de todo el rango audible desde los 20 Hz hasta los 20 kHz, resulta extremadamente difícil de conseguir. Un sistema de alta fidelidad es tan potente como su componente más débil, y entre éstos no sólo se incluyen todos los circuitos del receptor, sino también el altavoz, las propiedades acústicas del lugar donde se encuentra el altavoz y el transmisor a que está sintonizado el receptor (véase Acústica). La mayoría de las emisoras AM no reproducen con fidelidad los sonidos por debajo de 100 Hz o por encima de 5 kHz; las emisoras FM suelen tener una gama de frecuencias entre 50 Hz y 15 kilohercios.

Distorsión

En las transmisiones de radio a menudo se introduce una forma de distorsión de amplitud al aumentar la intensidad relativa de las frecuencias más altas de audio. En el receptor aparece un factor equivalente de atenuación de alta frecuencia. El efecto conjunto de estas dos formas de distorsión es una reducción del ruido de fondo o estático en el receptor. Muchos receptores van equipados con controles de tono ajustables por el usuario, de forma que la amplificación de las frecuencias altas y bajas se pueda adaptar a gusto del oyente. Otra fuente de distorsión es la modulación transversal, la transferencia de señales de un circuito a otro por culpa de un apantallamiento defectuoso. La distorsión armónica ocasionada por la transferencia no lineal de señales a través de las etapas de amplificación puede reducirse notablemente utilizando circuitería de realimentación negativa, que anula gran parte de la distorsión generada en las etapas de amplificación.

Ruido

El ruido constituye un problema grave en todos los receptores de radio. Hay diferentes tipos de ruido, como el zumbido, un tono constante de baja frecuencia (unas dos octavas por debajo del do), producido generalmente por la frecuencia de la fuente de alimentación de corriente alterna (por lo común 60 Hz) que se superpone a la señal debido a un filtrado o un apantallamiento defectuoso; el siseo, un tono constante de alta frecuencia, y el silbido, un tono limpio de alta frecuencia producido por una oscilación involuntaria de frecuencia audio, o por un golpeteo. Estos ruidos se pueden eliminar mediante un diseño y una construcción adecuados.

Sin embargo, ciertos tipos de ruidos no se pueden eliminar. El más importante en los equipos normales de AM de baja y media frecuencias es el ruido parásito, originado por perturbaciones eléctricas en la atmósfera. El ruido parásito puede proceder del funcionamiento de un equipo eléctrico cercano (como los motores de automóviles o aviones), pero en la mayoría de los casos proviene de los rayos y relámpagos de las tormentas. Las ondas de radio producidas por estas perturbaciones atmosféricas pueden viajar miles de kilómetros sin sufrir apenas atenuación, y, dado que en un radio de algunos miles de kilómetros respecto del receptor de radio siempre hay alguna tormenta, casi siempre aparecen ruidos parásitos.

Los ruidos parásitos afectan a los receptores FM en menor medida, ya que la amplitud de las ondas intermedias está limitada mediante circuitos especiales antes de la discriminación, lo que elimina los efectos de los ruidos parásitos.

Otra fuente primaria de ruido es la agitación térmica de los electrones. En un elemento conductor a temperatura superior al cero absoluto, los electrones se mueven de forma aleatoria. Dado que cualquier movimiento electrónico constituye una corriente eléctrica, la agitación térmica origina ruido al amplificarlo en exceso. Este tipo de ruido se puede evitar si la señal recibida desde la antena es notablemente más potente que la corriente causada por la agitación térmica; en cualquier caso, se puede reducir al mínimo mediante un diseño adecuado. Un receptor teóricamente perfecto a temperatura ordinaria es capaz de recibir la voz de forma inteligible siempre que la potencia de la señal alcance los 4 × 10-18 W; sin embargo, en los receptores normales se precisa una potencia de señal bastante mayor.

Fuente de alimentación

La radio no tiene componentes móviles excepto el altavoz, que vibra algunas milésimas de centímetro, por lo que la única potencia que requiere su funcionamiento es la corriente eléctrica para hacer circular los electrones por los diferentes circuitos. Cuando aparecieron las primeras radios en la década de 1920, la mayoría iban accionadas por pilas. Aunque se siguen utilizando de forma generalizada en los aparatos portátiles, la fuente de alimentación conectada a la red presenta ciertas ventajas, ya que permite al diseñador una mayor libertad a la hora de seleccionar los componentes de los circuitos.

Si la fuente de alimentación de corriente alterna (CA) es de 120 V, ésta se puede alimentar directamente del arrollamiento primario del transformador, obteniéndose en el secundario el voltaje deseado. Esta corriente secundaria debe rectificarse y filtrarse antes de poder ser utilizada, ya que los transistores requieren corriente continua (CC) para su funcionamiento. Las válvulas utilizan CC como corriente anódica; los filamentos se calientan tanto con CC como con CA, pero en este último caso puede originarse algún zumbido.

Las radios de transistores no necesitan una CC tan alta como las válvulas de antes, pero sigue siendo imprescindible el uso de fuentes de alimentación para convertir la corriente continua (CC) de la red comercial en corriente alterna (CA) y para aumentarla o reducirla al valor deseado mediante transformadores. Los aparatos de los aviones o de los automóviles que funcionan con voltajes entre 12 y 14 voltios CC suelen incluir circuitos para convertir el voltaje CC disponible a CA; tras elevarlo o reducirlo hasta el valor deseado, se vuelve a convertir a CC mediante un rectificado. Los aparatos que funcionan con voltajes entre 6 y 24 voltios CC siempre disponen de un elemento para aumentar el voltaje. La llegada de los transistores, los circuitos integrados y demás dispositivos electrónicos de estado sólido, mucho más reducidos y que consumen muy poca potencia, ha suprimido casi totalmente el uso de las válvulas en los equipos de radio, televisión y otras formas de comunicación.

Historia

Aun cuando fueron necesarios muchos descubrimientos en el campo de la electricidad hasta llegar a la radio, su nacimiento data en realidad de 1873, año en el que el físico británico James Clerk Maxwell publicó su teoría sobre las ondas electromagnéticas (véase Radiación electromagnética: Teoría).

Finales del siglo XIX

La teoría de Maxwell se refería sobre todo a las ondas de luz; quince años más tarde, el físico alemán Heinrich Hertz logró generar eléctricamente tales ondas. Suministró una carga eléctrica a un condensador y a continuación le hizo un cortocircuito mediante un arco eléctrico. En la descarga eléctrica resultante, la corriente saltó desde el punto neutro, creando una carga de signo contrario en el condensador, y después continuó saltando de un polo al otro, creando una descarga eléctrica oscilante en forma de chispa. El arco eléctrico radiaba parte de la energía de la chispa en forma de ondas electromagnéticas. Hertz consiguió medir algunas de las propiedades de estas ondas `hercianas', incluyendo su longitud y velocidad.

La idea de utilizar ondas electromagnéticas para la transmisión de mensajes de un punto a otro no era nueva; el heliógrafo, por ejemplo, transmitía mensajes por medio de un haz de rayos luminosos que se podía modular con un obturador para producir señales en forma de los puntos y las rayas del código Morse (véase Samuel F. B. Morse). A tal fin la radio presenta muchas ventajas sobre la luz, aunque no resultasen evidentes a primera vista. Las ondas de radio, por ejemplo, pueden cubrir distancias enormes, a diferencia de las microondas (usadas por Hertz).

Las ondas de radio pueden sufrir grandes atenuaciones y seguir siendo perceptibles, amplificables y detectadas; pero los buenos amplificadores no se hicieron una realidad hasta la aparición de las válvulas electrónicas. Por grandes que fueran los avances de la radiotelegrafía (por ejemplo, en 1901 Marconi desarrolló la comunicación transatlántica), la radiotelefonía nunca habría llegado a ser útil sin los avances de la electrónica. Desde el punto de vista histórico, los desarrollos en el mundo de la radio y en el de la electrónica han ocurrido de forma simultánea.

Para detectar la presencia de la radiación electromagnética, Hertz utilizó un aro parecido a las antenas circulares. En aquella época, el inventor David Edward Hughes había descubierto que un contacto entre una punta metálica y un trozo de carbón no conducía la corriente, pero si hacía circular ondas electromagnéticas por el punto de contacto, éste se hacía conductor. En 1879 Hughes demostró la recepción de señales de radio procedentes de un emisor de chispas alejado un centenar de metros. En dichos experimentos hizo circular una corriente de una célula voltaica a través de una válvula rellena de limaduras de cinc y plata, que se aglomeraban al ser bombardeadas con ondas de radio.

Este principio lo utilizó el físico británico Oliver Joseph Lodge en un dispositivo llamado cohesor para detectar la presencia de ondas de radio. El cohesor, una vez hecho conductor, se podía volver a hacer aislante golpeándolo y haciendo que se separasen las partículas. Aunque era mucho más sensible que la bocina en ausencia de amplificador, el cohesor sólo daba una única respuesta a las ondas de radio de suficiente potencia de diversas intensidades, por lo que servía para la telegrafía, pero no para la telefonía.

El ingeniero electrotécnico e inventor italiano Guglielmo Marconi está considerado universalmente el inventor de la radio. A partir de 1895 fue desarrollando y perfeccionando el cohesor y lo conectó a una forma primitiva de antena, con el extremo conectado a tierra. Además mejoró los osciladores de chispa conectados a antenas rudimentarias. El transmisor se modulaba mediante una clave ordinaria de telégrafo. El cohesor del receptor accionaba un instrumento telegráfico que funcionaba básicamente como amplificador.

En 1896 consiguió transmitir señales desde una distancia de 1,6 km, y registró su primera patente inglesa. En 1897 transmitió señales desde la costa hasta un barco a 29 km en alta mar. Dos años más tarde logró establecer una comunicación comercial entre Inglaterra y Francia capaz de funcionar con independencia del estado del tiempo; a principios de 1901 consiguió enviar señales a más de 322 km de distancia, y a finales de ese mismo año transmitió una carta entera de un lado a otro del océano Atlántico. En 1902 ya se enviaban de forma regular mensajes transatlánticos y en 1905 muchos barcos llevaban equipos de radio para comunicarse con emisoras de costa. Como reconocimiento a sus trabajos en el campo de la telegrafía sin hilos, en 1909 Marconi compartió el Premio Nobel de Física con el físico alemán Karl Ferdinand Braun.

A lo largo de todos estos años se introdujeron diferentes mejoras técnicas. Para la sintonía se utilizaron circuitos resonantes dotados de inductancia y capacitancia. Las antenas se fueron perfeccionando, descubriéndose y aprovechándose sus propiedades direccionales. Se utilizaron los transformadores para aumentar el voltaje enviado a la antena. Se desarrollaron otros detectores para complementar al cohesor y su rudimentario descohesor. Se construyó un detector magnético basado en la propiedad de las ondas magnéticas para desmagnetizar los hilos de acero, un bolómetro que medía el aumento de temperatura de un cable fino cuando lo atravesaban ondas de radio y la denominada válvula de Fleming, precursora de la válvula termoiónica o lámpara de vacío.

Siglo XX

El desarrollo de la válvula electrónica se remonta al descubrimiento que hizo el inventor estadounidense Thomas Alva Edison al comprobar que entre un filamento de una lámpara incandescente y otro electrodo colocado en la misma lámpara fluye una corriente y que además sólo lo hace en un sentido. La válvula de Fleming apenas difería del tubo de Edison. Su desarrollo se debe al físico e ingeniero eléctrico inglés John Ambrose Fleming en 1904 y fue el primer diodo, o válvula de dos elementos, que se utilizó en la radio. El tubo actuaba de detector, rectificador y limitador.

En 1906 se produjo un avance revolucionario, punto de partida de la electrónica, al incorporar el inventor estadounidense Lee de Forest un tercer elemento, la rejilla, entre el filamento y el cátodo de la válvula. El tubo de De Forest, que bautizó con el nombre de `audión' y que actualmente se conoce por triodo (válvula de tres elementos), en principio sólo se utilizó como detector, pero pronto se descubrieron sus propiedades como amplificador y oscilador; en 1915 el desarrollo de la telefonía sin hilos había alcanzado un grado de madurez suficiente como para comunicarse entre Virginia y Hawai (Estados Unidos) y entre Virginia y París (Francia).

Las funciones rectificadoras de los cristales fueron descubiertas en 1912 por el ingeniero eléctrico e inventor estadounidense Greenleaf Whittier Pickard, al poner de manifiesto que los cristales se pueden utilizar como detectores. Este descubrimiento permitió el nacimiento de los receptores con detector de cristal, tan populares en la década de los años veinte. En 1912, el ingeniero eléctrico estadounidense Edwin Howard Armstrong descubrió el circuito reactivo, que permite realimentar una válvula con parte de su propia salida. Éste y otros descubrimientos de Armstrong constituyen la base de muchos circuitos de los equipos modernos de radio.

En 1902, el ingeniero estadounidense Arthur Edwin Kennelly y el físico británico Oliver Heaviside (de forma independiente y casi simultánea) proclamaron la probable existencia de una capa de gas ionizado en la parte alta de la atmósfera que afectaría a la propagación de las ondas de radio. Esta capa, bautizada en principio como la capa de Heaviside o Kennelly-Heaviside, es una de las capas de la ionosfera. Aunque resulta transparente para las longitudes de onda más cortas, desvía o refleja las ondas de longitudes más largas. Gracias a esta reflexión, las ondas de radio se propagan mucho más allá del horizonte.

La propagación de las ondas de radio en la ionosfera se ve seriamente afectada por la hora del día, la estación y la actividad solar. Leves variaciones en la naturaleza y altitud de la ionosfera, que tienen lugar con gran rapidez, pueden afectar la calidad de la recepción a gran distancia. La ionosfera es también la causa de un fenómeno por el cual se recibe una señal en un punto muy distante y no en otro más próximo. Este fenómeno se produce cuando el rayo en tierra ha sido absorbido por obstáculos terrestres y el rayo propagado a través de la ionosfera no se refleja con un ángulo lo suficientemente agudo como para ser recibido a distancias cortas respecto de la antena.

Radio de onda corta

Aun cuando determinadas zonas de las diferentes bandas de radio, onda corta, onda larga, onda media, frecuencia muy alta y frecuencia ultraalta, están asignadas a muy diferentes propósitos, la expresión `radio de onda corta' se refiere generalmente a emisiones de radio en la gama de frecuencia altas (3 a 30 MHz) que cubren grandes distancias, sobre todo en el entorno de las comunicaciones internacionales. Sin embargo, la comunicación mediante microondas a través de un satélite de comunicaciones, proporciona señales de mayor fiabilidad y libres de error (véase Comunicaciones vía satélite).

Por lo general se suele asociar a los radioaficionados con la onda corta, aunque tienen asignadas frecuencias en la banda de onda media, la de muy alta frecuencia y la de ultraalta, así como en la banda de onda corta. Algunas conllevan ciertas restricciones pensadas para que queden a disposición del mayor número posible de usuarios.

Durante la rápida evolución de la radio tras la I Guerra Mundial, los radioaficionados lograron hazañas tan espectaculares como el primer contacto radiofónico (1921) transatlántico. También han prestado una ayuda voluntaria muy valiosa en caso de emergencias con interrupción de las comunicaciones normales. Ciertas organizaciones de radioaficionados han lanzado una serie de satélites aprovechando los lanzamientos normales de Estados Unidos, la antigua Unión Soviética y la Agencia Espacial Europea (ESA). Estos satélites se denominan normalmente Oscar (Orbiting Satellites Carrying Amateur Radio). El primero de ellos, Oscar 1, colocado en órbita en 1961, fue al mismo tiempo el primer satélite no gubernamental; el cuarto, en 1965, proporcionó la primera comunicación directa vía satélite entre Estados Unidos y la Unión Soviética. A principios de la década de 1980 había en todo el mundo más de 1,5 millones de licencias de radioaficionados, incluidos los de la radio de banda ciudadana.

La radio actual

Los enormes avances en el campo de la tecnología de la comunicación radiofónica a partir de la II Guerra Mundial han hecho posible la exploración del espacio (véase Astronáutica), puesta de manifiesto especialmente en las misiones Apolo a la Luna (1969-1972). A bordo de los módulos de mando y lunar se hallaban complejos equipos de transmisión y recepción, parte del compacto sistema de comunicaciones de muy alta frecuencia. El sistema realizaba simultáneamente funciones de voz y de exploración, calculando la distancia entre los dos vehículos mediante la medición del tiempo transcurrido entre la emisión de tonos y la recepción del eco. Las señales de voz de los astronautas también se transmitían simultáneamente a todo el mundo mediante una red de comunicaciones. El sistema de radio celular es una versión en miniatura de las grandes redes radiofónicas.

Fotografía, procedimiento por el que se consiguen imágenes permanentes sobre superficies sensibilizadas por medio de la acción fotoquímica de la luz o de otras formas de energía radiante.

En la sociedad actual la fotografía desempeña un papel importante como medio de información, como instrumento de la ciencia y la tecnología, como una forma de arte y una afición popular. Es imprescindible en los negocios, la industria, la publicidad, el periodismo gráfico y en muchas otras actividades. La ciencia, que estudia desde el espacio exterior hasta el mundo de las partículas subatómicas, se apoya en gran medida en la fotografía. En el siglo XIX era del dominio exclusivo de unos pocos profesionales, ya que se requerían grandes cámaras y placas fotográficas de cristal. Sin embargo, durante las primeras décadas del siglo XX, con la introducción de la película y la cámara portátil, se puso al alcance del público en general. En la actualidad, la industria ofrece una gran variedad de cámaras y accesorios para uso de fotógrafos aficionados y profesionales. Esta evolución se ha producido de manera paralela a la de las técnicas y tecnologías del cinematógrafo. Véase Historia de la fotografía.

Principios básicos

La luz es el componente esencial en la fotografía, que en casi todas sus formas se basa en las propiedades fotosensibles de los cristales de haluros de plata, compuestos químicos de plata y halógenos (bromuro, cloruro y yoduro). Cuando la película fotográfica, que consiste en una emulsión (capa fina de gelatina) y una base de acetato transparente de celulosa o de poliéster, se expone a la luz, los cristales de haluros de plata suspendidos en la emulsión experimentan cambios químicos para formar lo que se conoce como imagen latente de la película. Al procesar ésta con una sustancia química llamada revelador, se forman partículas de plata en las zonas expuestas a la luz. Cuanto más intensa sea la exposición, mayor número de partículas se crearán. La imagen que resulta de este proceso se llama negativo porque los valores de los tonos del objeto fotografiado se invierten, es decir, que las zonas de la escena que estaban relativamente oscuras aparecen claras y las que estaban claras aparecen oscuras. Los valores de los tonos del negativo se vuelven a invertir en el proceso de positivado, o con las diapositivas en un segundo proceso de revelado.

La fotografía se basa, por lo tanto, en principios físicos y químicos. Los principios físicos se rigen por la óptica, es decir, la física de la luz. El término genérico luz se refiere a la parte visible del espectro electromagnético, que incluye además ondas de radio, rayos gamma, rayos X, infrarrojos y ultravioletas. El ojo humano solamente percibe una estrecha banda de longitudes de onda, el espectro visible. Este espectro comprende toda la gama de colores. La mayor longitud de onda visible corresponde al rojo y la menor al azul.

Película fotográfica

Las películas fotográficas varían en función de su reacción a las diferentes longitudes de onda de la luz visible. Las primeras películas en blanco y negro eran sólo sensibles a las longitudes de onda más cortas del espectro visible, es decir, a la luz percibida como azul. Más tarde se añadieron tintes de color a la emulsión de la película para conseguir que los haluros de plata fueran sensibles a la luz de otras longitudes de onda. Estos tintes absorben la luz de su propio color. La película ortocromática supuso la primera mejora de la película de sensibilidad azul, ya que incorporaba tintes amarillos a la emulsión, que eran sensibles a todas las longitudes de onda excepto a la roja.

A la película pancromática, que fue el siguiente gran paso, se le añadieron en la emulsión tintes de tonos rojos, por lo que resultó sensible a todas las longitudes de onda visibles. Aunque ligeramente menos sensible a los tonos verdes que la ortocromática, reproduce mejor toda la gama de colores. Por eso, la mayoría de las películas utilizadas por aficionados y profesionales en la actualidad son pancromáticas.

La película de línea y la cromógena son dos variedades adicionales de la de blanco y negro, que tienen unas aplicaciones especiales. La primera se usa básicamente en artes gráficas para la reproducción de originales en línea. Este tipo de película de alto contraste consigue blancos y negros puros, casi sin grises. La película cromógena lleva una emulsión de haluros de plata con copulantes de color (compuestos que reaccionan con el revelador oxidado para producir un colorante). Después del proceso de revelado, la plata sobrante se elimina mediante un baño de blanqueo, que da como resultado una imagen teñida en blanco y negro.

Hay películas especiales, sensibles a longitudes de onda que sobrepasan el espectro visible. La película infrarroja responde tanto a la luz visible como a la parte infrarroja invisible del espectro (ver más adelante Fotografía infrarroja).

La película instantánea, lanzada por la empresa Polaroid a finales de la década de 1940, permitió conseguir fotografías a los pocos segundos o minutos de disparar con cámaras diseñadas con ese fin específico. En la película instantánea, la emulsión y los productos químicos de revelado se combinan en el paquete de película o en la propia foto. La exposición, revelado e impresión se producen dentro de la cámara. Polaroid, primer fabricante de esta película, utiliza una emulsión de haluros de plata convencional. Después de que la película ha sido expuesta y se ha conseguido el negativo, éste pasa entre el papel fotográfico y los productos químicos; entonces, una sustancia gelatinosa transfiere la imagen del negativo al papel y la foto queda lista.

Película de color

La película de color es más compleja que la de blanco y negro; se diseña para reproducir la gama completa de colores, además del blanco, el negro y el gris. La composición de la mayoría de las películas para diapositivas y para negativos de color se basan en el principio del proceso sustractivo del color, en donde los tres colores primarios, amarillo, magenta y cyan (azul verdoso) se combinan para reproducir toda la gama de colores. La película de color consta de tres emulsiones de haluros de plata en un solo soporte. La emulsión superior es sensible exclusivamente a la luz azul. Debajo hay un filtro amarillo que evita el paso de la luz azul, pero que transmite los verdes y los rojos a la segunda emulsión, la cual absorbe el verde pero no el rojo. La emulsión inferior es sensible al rojo.

Cuando la película se expone a la luz, se forman imágenes latentes en blanco y negro en cada una de las tres emulsiones. Durante el procesado, la acción química del revelador crea imágenes en plata metálica, al igual que en el proceso de blanco y negro. El revelador combina los copulantes de color incorporados en cada una de las emulsiones para formar imágenes con el cyan, el magenta y el amarillo. Posteriormente la película se blanquea y deja la imagen negativa en colores primarios. En la película para diapositivas en color, los cristales de haluros de plata no expuestos que no se convierten en átomos de plata metálica durante el revelado inicial, se transforman en imágenes positivas en color durante la segunda fase del revelado. Una vez completada esta fase la película es blanqueada y la imagen queda fijada.

Formatos de película y de cámara

Los diferentes tipos de cámara requieren formas y tamaños de película adecuados. La más utilizada en la actualidad es la cámara de pequeño formato (35 mm) que consigue 12, 20, 24 o 36 fotografías de 24 × 36 mm, en un sólo rollo de película. Ésta se enhebra en un carrete receptor que está dentro del compartimento estanco. La película de 35 mm también puede adquirirse en grandes rollos que se cortan a la medida deseada para cargar el carrete.

El siguiente formato de cámara estándar, de tamaño mediano, utiliza películas de 120 o 220. Con estas cámaras se consiguen imágenes de diversas medidas como 6 × 6 cm, 6 × 7 cm y 6 × 9 cm, según la configuración de la cámara. Las de gran formato utilizan hojas de película. Los formatos estándar de estas cámaras son: 4 × 5, 5 × 7 y 8 × 10 pulgadas. Las cámaras especiales de gran tamaño, de formato de hasta 20 × 24 pulgadas, son de un uso profesional muy limitado.

Velocidad de la película

Las películas se clasifican por su velocidad, además de por su formato. La velocidad de una película se define como el nivel de sensibilidad a la luz de la emulsión y determina el tiempo de exposición necesario para fotografiar un objeto en unas condiciones de luz dadas. El fabricante de la película asigna una clasificación numérica normalizada en la cual los números altos corresponden a las emulsiones rápidas y los bajos a las lentas. Las normas fijadas por la International Standards Organization (ISO) se usan en todo el mundo, aunque algunos fabricantes europeos aún utilizan la norma industrial alemana Deutsche Industrie Norm (DIN). Se adoptó el sistema ISO al combinar el DIN con el ASA (la norma utilizada anteriormente en Estados Unidos). La primera cifra de la clasificación ISO, equivalente a la de la ASA, expresa una medida aritmética de la velocidad de la película, mientras que la segunda cifra, equivalente a la de la DIN, expresa una medida logarítmica.

Las películas lentas se suelen clasificar desde ISO 25/15 hasta ISO 100/21, pero también las hay más lentas. La película rápida de Kodak, de características especiales, tiene una numeración ISO de 3.200. Las películas con ISO de 125/22 a 200/24 se consideran de velocidad media, mientras que las que están por encima de ISO 200/24 se consideran rápidas. En los últimos años, los grandes fabricantes han lanzado películas ultrarrápidas superiores a ISO 400/27. Existen ciertas películas que pueden superar estos límites como si fueran de una sensibilidad superior, lo cual se consigue al prolongar la duración de revelado para compensar la subexposición.

El código DX es una reciente innovación en la tecnología fotográfica. Los carretes de 35 mm con código DX llevan un panel que se corresponde con un código electrónico que indica la sensibilidad ISO y el número de exposiciones de la película. Muchas de las cámaras modernas están equipadas con sensores DX que leen electrónicamente esta información y ajustan automáticamente la exposición.

Las diferencias en la sensibilidad a la luz de la emulsión de la película dependen de varios aditivos químicos. Por ejemplo, los compuestos hipersensibles aumentan la velocidad de la película sin modificar su sensibilidad a los colores. Las películas rápidas también se pueden fabricar con mayor concentración de haluros de plata en la emulsión. Hace poco se ha creado una generación de películas más rápidas y sensibles mediante la alteración de la forma de los cristales. Los cristales de haluros de plata sin relieve ofrecen una superficie más amplia. Las películas que contienen este tipo de cristales, como la Kodacolor de grano T, poseen por tanto mayor sensibilidad a la luz.

El grano de las películas rápidas suele ser más grueso que el de las lentas. En las ampliaciones de gran tamaño el grano puede producir motas. Las fotografías tomadas con película lenta tienen un grano menor al ser ampliadas. Debido al pequeño tamaño de los haluros de plata, las películas lentas poseen generalmente una mayor definición, es decir, ofrecen una imagen más detallada y pueden producir una gama de tonos más amplia que las películas rápidas. Estas últimas se utilizan cuando se pretende obtener imágenes nítidas de objetos en movimiento en detrimento de una gama de tonos más amplia y mayor riqueza de detalles.

Exposición

Cada tipo de película posee un rango o latitud de exposición característico, que indica el margen de error admisible en la exposición de la película que, una vez revelada e impresa, reproduzca el color y los tonos reales de la escena fotografiada.

Los términos sobreexposición y subexposición se utilizan para definir las desviaciones, intencionadas o no, de la exposición ideal. En la película expuesta por más tiempo del adecuado, las zonas que reciben demasiada luz se verán obstruidas por un exceso de plata, perderá contraste y nitidez y aumentará su grano. En cambio, la subexposición origina negativos débiles, en los que no se depositan suficientes cristales de plata para reproducir con detalle las zonas oscuras y de sombras.

Con las películas de latitud estrecha, una exposición adecuada para una zona en sombra es probable que produzca una sobreexposición de las zonas iluminadas adyacentes. Cuanto más amplia es la latitud de una película mejores fotos resultarán, a pesar de la sobre o subexposición.

La película para negativos, tanto de color como en blanco y negro, ofrece, por lo general, suficiente latitud para permitir al fotógrafo un cierto margen de error. La película para diapositivas en color suele tener menos latitud.

La cámara y sus accesorios

Las cámaras fotográficas modernas funcionan con el principio básico de la cámara oscura. La luz, que penetra a través de un diminuto orificio o abertura en el interior de una caja opaca, proyecta una imagen sobre la superficie opuesta a la de la abertura. Si se le añade una lente, la imagen adquiere una mayor nitidez y la película hace posible que esta última se fije. La cámara es el mecanismo a través del cual la película se expone de una manera controlada. Si bien existen diferencias estructurales entre ellas, todas las cámaras modernas se componen de cuatro elementos básicos: el cuerpo, el obturador, el diafragma y el objetivo (véase Lente). Dentro del cuerpo se encuentra una pequeña cavidad hermética a la luz (en latín, camera) donde se aloja la película para su exposición. También en el cuerpo, al otro lado de la película y detrás del objetivo, se hallan el diafragma y el obturador. El objetivo, que se instala en la parte anterior del cuerpo, es en realidad un conjunto de lentes ópticas de cristal. Alojado en un anillo metálico o cilindro, permite al fotógrafo enfocar una imagen sobre la película. El objetivo puede estar fijo o colocado en un soporte móvil. Los objetos situados a diferentes distancias de la cámara pueden enfocarse con precisión al ajustar la distancia entre el objetivo y la película fotográfica.

El diafragma, abertura circular situada detrás del objetivo, funciona en sincronía con el obturador para dejar pasar la luz a la cámara oscura. Esta abertura puede ser fija, como en muchas cámaras para aficionados, o regulable. Los diafragmas regulables consisten en laminillas de metal o de plástico superpuestas, que cuando se separan por completo forman una abertura del mismo diámetro del objetivo, y cuando se cierran dejan un pequeño orificio detrás del centro del objetivo. Entre la máxima abertura y la mínima, la escala de diafragmas se corresponde con una clasificación numérica, llamada f-stops, situada en la cámara o en el objetivo.

El obturador es un dispositivo mecánico, dotado con un muelle, que sólo deja pasar la luz a la cámara durante el intervalo de exposición. La mayoría de las cámaras modernas poseen obturadores de diafragma o de plano focal. Algunas cámaras antiguas para aficionados utilizan el obturador de guillotina, que consiste en una pieza con bisagra que al disparar se abre y expone la película alrededor de 1/30 de segundo.

En el obturador de diafragma, durante el momento de exposición un conjunto de hojas solapadas se separan para descubrir la abertura total del objetivo. El obturador de plano focal consiste en una cortinilla negra con una ranura horizontal de tamaño variable. Al disparar, la cortinilla se mueve con rapidez sobre la película, exponiéndola progresivamente a la luz a medida que la ranura se desplaza.

La mayoría de las cámaras modernas poseen algún sistema de visión o visor para permitir al fotógrafo contemplar a través del objetivo de la cámara la escena u objeto que se desea fotografiar. Las cámaras fotográficas réflex de un solo objetivo poseen esta característica y casi todas las cámaras de uso general están dotadas de algún tipo de sistema de enfoque y de algún mecanismo para desplazar la película.

Control de exposición

Al regular la velocidad del obturador y la abertura del diafragma el fotógrafo consigue la cantidad exacta de luz para asegurar una correcta exposición de la película. La velocidad del obturador y la abertura son directamente proporcionales: si incrementamos la velocidad del obturador en una unidad cambiará un f-stop. Al modificar en un punto la exposición se produce un cambio en la velocidad de obturación y en el diafragma, cuyo resultado será que la cantidad de luz que llegue a la película sea la misma. De esta manera, si se aumenta la velocidad del obturador el diafragma deberá ser aumentado en la misma medida para permitir que idéntica cantidad de luz llegue a la película. Los obturadores rápidos, de 1/125 segundo o menos, pueden captar objetos en movimiento.

Además de regular la intensidad de la luz que llega a la película, la abertura del diafragma se utiliza también para controlar la profundidad de campo, también llamada zona de enfoque, que es la distancia entre el punto más cercano y más lejano del sujeto que aparecen nítidos en una posición determinada del enfoque. Al disminuir la abertura la profundidad de campo crece, y al aumentarla disminuye. Cuando se desea una gran profundidad de campo, es decir, la máxima nitidez de todos los puntos de la escena (desde el primer al último plano), se utiliza una abertura pequeña y una velocidad de obturación más lenta. Como para captar el movimiento se necesita una gran velocidad de obturación, y en compensación una gran abertura, la profundidad de campo se reduce. En muchas cámaras el anillo del objetivo tiene una escala de profundidad de campo que muestra aproximadamente la zona de enfoque que se corresponde con las diferentes aberturas.

Tipos de cámaras

Existe una gran variedad de modelos y tamaños de cámaras. Las primeras cámaras, las estenopeicas, no tenían objetivo. La cantidad de luz se controlaba al cerrar el orificio. La primera cámara de uso general, cámara de cajón, consistía en una caja de madera o de plástico con un objetivo simple y un disparador de guillotina en un extremo y en el otro un soporte para la película. Este tipo de cámara tiene un sencillo visor por el que se ve la totalidad de la zona que va a ser fotografiada. Hay modelos con una o dos aberturas de diafragma y un mecanismo simple de enfoque.

La cámara técnica para uso de profesionales es la más parecida a las primitivas que todavía hoy se utilizan. No obstante, a pesar de las grandes cualidades de esta cámara, la mayor parte de los profesionales y los aficionados utilizan otros modelos más versátiles entre los que destacan la cámara réflex de un solo objetivo (SLR), la réflex de dos objetivos (TLR) y la de visor directo. La mayoría de las SLR y de las de visor directo funcionan con la película de 35 mm, mientras que la mayoría de las TLR y algunas SLR y de visor directo usan la película de formato medio, es decir, de 120 o 220.

Cámaras técnicas

Las cámaras técnicas suelen ser más grandes y pesadas que las de formato medio y pequeño, y se suelen utilizar preferentemente para trabajos de estudio, paisajes y fotografía de obras arquitectónicas. Requieren películas de gran formato para conseguir negativos y diapositivas con mayor detalle y nitidez que las de formato pequeño. Las cámaras técnicas tienen una base metálica o de madera con un carro de regulación por el que se deslizan dos placas metálicas, una en la parte anterior y otra en la posterior, unidas por un fuelle. El objetivo y el obturador se encuentran en la placa frontal, mientras que la posterior o respaldo de la cámara tiene un panel enmarcado de cristal esmerilado donde se sujeta el soporte para la película. La configuración del cuerpo de estas cámaras, al contrario que las de uso general, es ajustable. Los soportes delantero y trasero pueden cambiarse, inclinarse, levantarse o girarse para permitir al fotógrafo conseguir todo tipo de perspectivas y enfoques.

Cámaras de visor directo

Las cámaras de este tipo tienen un visor a través del cual el fotógrafo ve y encuadra la escena o el objeto. El visor no muestra, sin embargo, la escena a través del objetivo, pero se aproxima bastante a lo que se retratará. Esta situación, en la que el punto de mira del objetivo no coincide con el del visor, se denomina paralaje. A mayores distancias el efecto de paralaje es insignificante, a distancias cortas se aprecia más; esto hace que para el fotógrafo sea más difícil encuadrar con acierto.

Cámaras réflex

Las cámaras réflex, tanto la SLR como la TLR, están equipadas con espejos que reflejan en el visor la escena que va a ser fotografiada. La réflex de doble objetivo tiene forma de caja con un visor que consiste en una pantalla horizontal de cristal esmerilado situada en la parte superior de la cámara. Los dos objetivos están montados verticalmente en el frente de la cámara, uno sirve como visor y el otro para formar directamente la imagen en la película. Los objetivos están acoplados, es decir, que al enfocar uno, el otro lo hace automáticamente. La imagen que toma el objetivo superior o visor se refleja en la pantalla de enfoque por medio de un espejo colocado a 45º. El fotógrafo enfoca la cámara y ajusta la composición mientras mira la pantalla. La imagen que se forma en el objetivo inferior queda enfocada en la película situada en la parte trasera de la cámara. Al igual que las cámaras de visor directo, las TLR tienen algún error de paralaje.

La cámara SLR utiliza un solo objetivo, tanto para ver la escena como para hacer la fotografía. Un espejo situado entre el objetivo y la película refleja la imagen formada por el objetivo a través de un prisma de cinco caras y la dirige hacia la pantalla de cristal esmerilado que hay en la parte superior de la cámara. En su momento se abre el disparador y un muelle retira automáticamente el espejo de la trayectoria visual entre la película y el objetivo. Gracias al prisma, la imagen tomada en la película es casi exacta a la que se ve a través del objetivo de la cámara, sin ningún error de paralaje. La mayor parte de las SLR son instrumentos de precisión equipados con obturadores de plano focal. Muchas tienen mecanismos automáticos para el control de exposición y fotómetros incorporados. La mayoría de las SLR modernas poseen obturadores electrónicos y, asimismo, la abertura puede manipularse electrónica o manualmente. Cada vez son más los fabricantes de cámaras que hacen las SLR con enfoque automático, innovación que originariamente era para cámaras de aficionados. La serie Maxxum de Minolta, la EOS de Canon y la F4 de Nikon, unidad para profesionales, poseen enfoque automático y son completamente electrónicas. Una unidad central de proceso (CPU) controla las funciones electrónicas en estas cámaras. La Maxxum 7000i de Minolta utiliza tarjetas de software que cuando se introducen en el interior de la cámara aumentan las posibilidades de la misma.

Las cámaras de enfoque automático llevan componentes electrónicos y una CPU para medir automáticamente la distancia entre la cámara y el objeto y determinar el nivel de exposición ideal. La mayoría de las cámaras de enfoque automático lanzan un haz de luz infrarrojo o unas ondas ultrasónicas que al rebotar en el sujeto determinan la distancia y ajustan el enfoque. Algunas cámaras, como la EOS de Canon y las SLR de Nikon, utilizan sistemas de enfoque automático pasivo, que en vez de emitir ondas o haces luminosos regulan automáticamente el enfoque del objetivo hasta que unos sensores detectan la zona de máximo contraste con una señal rectangular situada en el centro de la pantalla de enfoque.

Comparaciones entre diseños

De los tres tipos de cámaras más utilizadas, la SLR es la más popular tanto entre los aficionados como entre profesionales. Su gran ventaja es que la imagen que se ve por el visor es virtualmente idéntica a la que el objetivo enfoca. Además, la SLR es generalmente rápida, fácil de manejar y puede utilizarse con una mayor variedad de accesorios y objetivos intercambiables que los demás diseños.

La cámara de visor directo, inicialmente utilizada para el periodismo gráfico debido a su tamaño compacto y su fácil manejo (comparado con las enormes y lentas cámaras de 4 × 5 pulgadas empleadas por la generación anterior), ha sido reemplazada en buena parte por las SLR. Este tipo de cámaras de visor directo poseen, sin embargo, un sistema óptico más sencillo, con menos piezas móviles y menos complicadas que las SLR, además de ser más silenciosas y menos pesadas. Por estas razones todavía algunos fotógrafos, sobre todo profesionales, las siguen utilizando. Comparada con las de los otros dos diseños, las TLR poseen un sistema de enfoque relativamente lento. Aunque tienen menos objetivos intercambiables, como las cámaras de visor directo, aún siguen siendo populares. Producen negativos más amplios que la mayoría de las SLR y que las de visor directo, lo que representa una ventaja para conseguir un detalle muy fino en la imagen final. Algunos fabricantes, como Hasselblad, Mamiya, Bronica y Rollei, han combinado las ventajas de la SLR con el formato de película medio, lo que ha reducido el mercado de la TLR.

Algunas cámaras se diseñan para el público en general. Son fáciles de manejar y producen fotos aceptables para el fotógrafo medio. Muchas de las cámaras de aficionados de apuntar y disparar tienen, en la actualidad, una sofisticada tecnología, como enfoque manual y sistemas de control de exposición que simplifican el proceso de hacer fotos, aunque limitan el control del fotógrafo.

Objetivos

El objetivo es una parte de la cámara tan importante como el cuerpo. A los objetivos se les conoce, en términos genéricos, como gran angular, normal y teleobjetivo. Los tres términos se refieren a la distancia focal del objetivo, la cual se suele medir en milímetros. La distancia focal se define como la magnitud que separa el centro de la lente de la imagen que se forma cuando ésta se ajusta al infinito. En la práctica, la distancia focal afecta al campo de visión, al aumento y a la profundidad de campo del objetivo.

Las cámaras que utilizan los profesionales y los aficionados más exigentes están diseñadas para admitir los tres tipos de objetivos intercambiables. En fotografía de 35 mm, un objetivo de longitud focal entre 20 y 35 mm se considera gran angular. Ofrece una mayor profundidad de campo y abarca un campo más amplio o ángulo de visión, pero menor aumento. Los objetivos `ojo de pez' permiten campos de 180 grados o más. El objetivo de ojo de pez de 6 mm de Nikon tiene un campo de visión de 220 grados, que produce una imagen circular en la película, en vez de la normal rectangular o cuadrada. Las lentes de longitud focal de 45 a 55 mm se consideran normales porque producen una imagen muy aproximada a la del ojo humano en lo que respecta a la relación tamaño y perspectiva. Los objetivos de mayor longitud focal, llamados teleobjetivos, estrechan el campo de visión y disminuyen la profundidad de campo mientras que aumentan la imagen. Para una cámara de 35 mm, objetivos con distancia focal de 85 mm o más se consideran teleobjetivos.

El objetivo zoom, un cuarto tipo genérico de lente, está diseñado para tener una longitud focal variable que puede ajustarse continuamente entre dos valores prefijados. Estos objetivos son particularmente adecuados cuando se usan con cámaras réflex de un solo objetivo y permiten un continuo control de la imagen.

Fuentes de luz artificial

En caso de ausencia de luz natural, los fotógrafos utilizan luz artificial para iluminar las escenas tanto en interiores como en exteriores. Las fuentes de luz artificial más utilizadas son el flash electrónico o lámpara estroboscópica, las lámparas de tungsteno y las lámparas halógenas de cuarzo. Otra fuente es la bombilla de flash, lámpara desechable que contiene en su interior oxígeno y un delgado filamento de aleación de magnesio que se dispara una sola vez. En la actualidad ha quedado obsoleta y ha sido reemplazada por los económicos flashes electrónicos.

El flash electrónico (un tipo de estroboscopio) consiste en un tubo de cristal de cuarzo que contiene un gas inerte (un halógeno) a muy baja presión. Cuando a los electrodos sellados a los extremos del tubo se les aplica un alto voltaje, el gas se ioniza y produce un destello de luz de muy corta duración, es decir, un flash. A pesar de que los flashes especiales pueden producir un destello de aproximadamente 1/100.000 de segundo, los normales duran de 1/5.000 a 1/1.000 de segundo. El flash tiene que estar sincronizado con el obturador de la cámara para que el destello de luz cubra toda la escena. La sincronización se lleva a cabo a través de una conexión eléctrica entre la cámara y el flash, que puede ser un soporte montado en la parte superior de la cámara, llamado zapata, o un cable llamado cable de sincronización, que va del enchufe de sincronización de la cámara al flash.

Los flashes automáticos están equipados con sensores, células fotoeléctricas que regulan automáticamente la duración e intensidad del destello para una toma en particular. El sensor, que mide la intensidad del destello al producirse éste, interrumpe la luz cuando se ha conseguido la iluminación adecuada. El flash sincrónico, modelo actual del flash automático, está diseñado para funcionar con una cámara determinada. El circuito electrónico del flash y de la cámara están integrados. El sensor está alojado en el interior de la cámara y mide la cantidad de luz en el plano de la película, lo que permite una medición más exacta de la intensidad del flash.

Los flashes varían en tamaño desde los pequeños incorporados en las cámaras hasta los grandes de estudio. Por lo general, cuanto más grande sea el flash mayor será la intensidad de luz producida. El flash incorporado en la cámara es adecuado para iluminar pequeñas escenas, pero cuando se trata de una escena amplia es preciso un potente equipo de flash de estudio. La lámpara incandescente con filamentos más delgados que los de las bombillas corrientes, proporciona luz continua. Para conseguir un color normal en la fotografía, la lámpara debe usarse con película de tungsteno o con un filtro para equilibrar el color. La luz de cuarzo, de uso corriente en la industria de la televisión debido a la gran intensidad de luz que produce y a la relativa larga duración de sus lámparas comparada con fuentes luminosas de tungsteno, es también popular entre los fotógrafos.

Fotómetros o exposímetros

Los fotógrafos profesionales y los aficionados exigentes utilizan fotómetros para medir la intensidad de la luz en una situación dada y determinar así la combinación adecuada de la velocidad y de la abertura del diafragma. Se utilizan básicamente cuatro tipos de fotómetros: el de luz incidente, el de luz reflejada, el de spot y el de flash, aunque, hablando con propiedad, los fotómetros de spot son un tipo de los de luz reflejada y los de flash pueden serlo tanto de incidente como de reflejada.

Los fotómetros de luz incidente miden la intensidad de luz que ilumina al objeto, la que cae sobre él. Para leer los valores de luz incidente se coloca el fotómetro junto al objeto y se dirige hacia la cámara. Los fotómetros de luz reflejada miden la intensidad luminosa reflejada por el objeto, la que él emite. Para leer este fotómetro se coloca junto a la cámara y se dirige hacia el objeto. La mayoría de los fotómetros de luz incidente pueden también modificarse para su uso como fotómetros de luz reflejada.

Los fotómetros de spot miden la luz reflejada en un área de 1 grado, mientras que los mencionados anteriormente cubren una escala angular mucho más amplia: de 30 a 50 grados para un fotómetro de luz reflejada y de hasta 180 grados para uno de luz incidente. Los exposímetros para flash están diseñados para medir únicamente los destellos de fracción de segundo emitidos por el flash. Los fotómetros combinados están diseñados para medir luz incidente, reflejada y de flash.

Los exposímetros más sencillos poseen una célula fotoeléctrica la cual genera una pequeña cantidad de corriente eléctrica cuando se expone a la luz que acciona una aguja sobre una escala y un dial regulable que indica la velocidad de la película. Cuando el dial coincide con la aguja, el exposímetro muestra las diferentes combinaciones de diafragma y velocidad que producen exposiciones equivalentes, y la cámara podrá ajustarse en consecuencia.

Algunos fotómetros, como elementos sensibles a la luz, están provistos de una célula fotoconductora de sulfuro de cadmio que funciona con una pila de mercurio y es extremadamente sensible incluso en condiciones de luz muy pobres. Una innovación de la década de 1980 fue el uso de diodos de silicio como receptores de luz. Estos exposímetros tienen aún mayor sensibilidad que los de células de sulfuro de cadmio.

Para la fotografía de estudio se suele utilizar un fotómetro especial que mide la temperatura de color. A cada temperatura le corresponde una longitud de onda luminosa diferente que se expresa en kelvins (K) y los diferentes tipos de iluminación tienen su propia temperatura de color. Los medidores de ésta permiten calcular con precisión la luz emitida por los diferentes tipos de lámparas. Esto es fundamental para la fotografía profesional en color realizada en interiores con iluminación artificial, ya que la temperatura de color de las lámparas fluorescentes e incandescentes varía de un fabricante a otro e incluso puede cambiar con el paso del tiempo.

Filtros

Pueden estar hechos de gelatina o de cristal y se colocan delante del objetivo para alterar el color, cambiar el contraste o el brillo, minimizar la neblina o para crear efectos especiales. En la fotografía en blanco y negro se utilizan filtros de color con película pancromática que permite la transmisión del color adecuado mientras impide el paso de los colores que no lo son. Cuando se fotografía un paisaje con un filtro rojo, por ejemplo, parte de la luz azul del cielo se anula y hace que éste parezca más oscuro y, por tanto, se destaquen las nubes. El mismo cielo azul con un filtro amarillo produce un efecto atenuado porque deja pasar mejor la luz azul. El filtro amarillo nº 8 se suele utilizar para fotografiar exteriores en blanco y negro, ya que reproduce el tono azul del cielo de una forma muy parecida a como lo percibe el ojo humano.

Los filtros de conversión, los de color y los correctores se utilizan mucho en fotografía en color. Los de conversión cambian el equilibrio de color de la luz para una película concreta. Las películas de tungsteno, por ejemplo, están diseñadas y equilibradas para la temperatura de color de la luz ámbar de tungsteno. Si se exponen a la luz del día producirán fotos con un tono azulado. El filtro de conversión de la serie 85 soluciona este problema. Por el contrario, la película diurna adecuada para luz natural intensa que tiene una mayor concentración de longitudes de onda azules que la luz de tungsteno, producirá un tono amarillo-ámbar si se expone a la luz de tungsteno. Los filtros de conversión de la serie 80 corrigen este inconveniente.

Los filtros de color se suelen utilizar para hacer pequeños reajustes en el mismo. Los filtros de corrección eliminan los tonos de color que no se desean o añaden un matiz cálido. Los filtros correctores (CC) magenta pueden compensar la luz verdosa de los fluorescentes en las películas de tungsteno o diurnas. Otro tipo de filtro, el polarizador, se utiliza básicamente para reducir reflejos de superficies brillantes y también para aumentar la saturación de color en las fotografías.

Revelado y positivado

La imagen latente de la película se hace visible a través del proceso llamado revelado, que supone la aplicación de ciertas soluciones químicas para transformar la película en un negativo. El proceso por el que un negativo se convierte en una imagen positiva se denomina positivado. La imagen se denomina copia o fotografía en papel. La película se revela al tratarla con un revelador o solución reveladora, un producto químico alcalino reductor. Esta solución reactiva el proceso iniciado por la acción de la luz al exponer la película. Con ello se reducen más los cristales de haluros de plata en los que se ha formado plata, de modo que se produzcan granos gruesos de este metal alrededor de las diminutas partículas que componen la imagen latente.

Mientras las partículas de plata se empiezan a formar, la imagen visible se hace aparente en la película. El grosor y la densidad de la plata depositada en cada zona depende de la cantidad de luz recibida en esa área durante la exposición. Para interrumpir la acción del revelador, la película se sumerge en una solución ligeramente ácida que neutraliza el revelador alcalino. Después del lavado, la imagen negativa queda fijada: los residuos de cristales de haluros de plata son eliminados y las partículas de plata metálicas que quedan se fijan. El compuesto químico que se utiliza para el fijado, normalmente denominado fijador o hipo, suele ser tiosulfato sódico, potásico o amónico. El eliminador del fijador o agente limpiador se utiliza entonces para eliminar cualquier resto de fijador que haya quedado en la película. Ésta debe lavarse muy bien con agua corriente, ya que los residuos del fijador suelen estropear los negativos con el tiempo. Por último, al lavar la película procesada se favorece un secado uniforme y se impide la formación de manchas de agua.

El positivado se puede hacer de dos maneras: por contacto o por ampliación. El primero se utiliza cuando se desean copias exactamente del mismo tamaño que los negativos. Se consigue al poner el lado de emulsión del negativo en contacto con el papel de la copia y colocar ambos bajo una fuente de luz.

En el método de ampliación, el negativo se coloca en una especie de proyector llamado ampliadora. La luz procedente de ésta pasa a través del negativo a una lente que proyecta una imagen del negativo ampliada o reducida sobre el material sensible de positivado. Este proceso permite también al fotógrafo reducir o aumentar la cantidad de luz que reciben zonas concretas de dicho material. Estas técnicas, conocidas como tapado y sombreado, hacen que la copia final sea más clara o más oscura en determinadas zonas.

El material que se usa en el proceso de positivado es un tipo de papel fotográfico con una emulsión similar en composición a la utilizada para película, aunque mucho menos sensible a la luz. Una vez que ha sido expuesta, la copia es revelada y fijada por un procedimiento muy parecido al empleado en el revelado de película. En la copia final, las zonas expuestas a mucha luz reproducen los tonos oscuros, las que no la recibieron reproducen los claros y las que fueron expuestas a una moderada cantidad de luz reproducen los tonos intermedios.

Las copias en color procedentes de negativos en color se hacen tanto por ampliación como por contacto. Las copias procedentes de transparencias de color pueden obtenerse directamente por ampliación utilizando el papel Cibachrome o el RC, como el R-3 de Kodak o el tipo 34 de Fuji. También existe la opción de hacer primero un negativo intermedio o internegativo, que puede positivarse por contacto o por ampliación. Un tercer proceso de positivado en color, llamado procedimiento aditivo (dye-transfer), resulta considerablemente más complejo y en general se utiliza sólo para trabajos profesionales.

Las transparencias de color positivas y los negativos de color se imprimen sobre papeles con emulsiones multicapa que contienen agentes para formar el color. Ejemplos de éstos son el papel de revelado tipo 34 de Fujichrome y el Ektachrome de Kodak, que se utilizan para positivar a partir de transparencias de color. El Agfacolor CN tipo A, el Ektacolor y el Fujicolor se utilizan para positivar a partir de negativos. Estos papeles se revelan en unas soluciones de procedimiento sustractivo sin procesado de inversión. Cuando se realizan copias de este tipo se pueden minimizar los errores en la exposición variando el tiempo de exposición de la copia. El equilibrio de color se controla mediante filtros situados en la cabeza de la ampliadora, entre la fuente de luz y el negativo.

Para obtener copias en color con el procedimiento aditivo (dye-transfer), se prepara un negativo independiente para cada uno de los tres colores: rojo, verde y azul. Estos negativos se obtienen directamente desde el objeto con las cámaras de un solo disparo, técnica en la actualidad algo anticuada, o indirectamente desde la transparencia en color. Los negativos se emplean para conseguir imágenes positivas sobre hojas de gelatina conocidas como matrices. Se obtienen tres matrices positivas: una está impregnada con tinte amarillo, otra con magenta y la tercera con cyan. Después de la inmersión, cada matriz se positiva en un bastidor especial de ampliación, que garantiza su alineación exacta o registro, para formar la imagen a todo color.

Últimos avances tecnológicos

Las nuevas tecnologías están comenzando a suprimir las conexiones existentes entre la fotografía y otros sistemas de reproducción de imágenes. En algunos sistemas nuevos, las emulsiones de haluros de plata se han sustituido por métodos electrónicos que registran información visual. La casa Sony ha creado una cámara de vídeo fija, llamada Mavica, basada en un modelo industrial anterior, la ProMavica. A diferencia de la cámara de vídeo convencional, que utiliza cinta magnética, la Mavica graba la información visual, la luz que reflejan los objetos de la escena fotografiada, sobre un disco blando. Las imágenes se pueden ver en un monitor conectado a la unidad de reproducción de la Mavica. Canon USA también ha entrado en el mercado de la cámara de vídeo fija. Su cámara RC-470 necesita un reproductor de vídeo fijo para poder ser visualizado. Sin embargo, la Xap Shot, que graba 50 imágenes fijas con 300-400 líneas de definición en un disco blando de 5 cm, no precisa de ningún equipo especial. Puede conectarse también al receptor de televisión. Asimismo, se pueden obtener copias en papel utilizando una impresora especial láser.

La digitalización de imágenes fotográficas ha revolucionado la fotografía profesional al crear una especialidad conocida como tratamiento de la imagen. La digitalización de la información visual de una fotografía, es decir, la conversión de aquélla en números binarios con la ayuda de un ordenador, hace posible la manipulación de la imagen fotográfica a través de unos programas especiales. El sistema Scitex, muy común en la industria publicitaria a finales de la década de 1980, permite al operador modificar o borrar elementos de una fotografía: cambiar colores, componer estéticamente imágenes con varias fotos y ajustar el contraste o la nitidez. Otros sistemas, como el Adobe Photoshop, permiten realizar operaciones similares.

La calidad de las imágenes en la pantalla de un ordenador era, hasta hace poco, inferior a la fotográfica. Las impresoras de color no industriales y las láser no alcanzan todavía a reproducir imágenes con la gama de tonos, definición y saturación de las fotografías. Algunos sistemas, sin embargo, como la Presentation Technologies' Montage Slidewriter y el Linotronic, son capaces de reproducir imágenes con calidad de imprenta.

Técnicas especiales

Hacia finales del siglo XIX la fotografía desempeñaba ya un importante papel en la astronomía. A partir de entonces se han desarrollado muchas técnicas fotográficas especiales, que constituyen importantes instrumentos en un buen número de áreas científicas y tecnológicas.

Fotografía y cinematografía ultrarrápidas

La mayoría de las cámaras modernas permiten exposiciones a velocidades de hasta 1/1.000 segundo. Se pueden conseguir tiempos de exposición más breves si se ilumina el objeto con un pequeño destello de luz. En 1931, el ingeniero estadounidense Harold E. Edgerton desarrolló una lámpara estroboscópica electrónica con la que consiguió destellos de 1/500.000 segundo, que le permitía fotografiar la trayectoria de una bala. Mediante una serie de destellos se pueden captar en el mismo fragmento de película las progresivas fases de objetos en movimiento, tales como un pájaro volando. La sincronización del destello del flash y del objeto en movimiento se logra con una célula fotoeléctrica que acciona la lámpara estroboscópica. La célula fotoeléctrica actúa al ser iluminada por el haz de luz, que se interrumpe por el objeto en movimiento tan pronto como éste entra en el campo visual de la cámara.

Más recientemente se han desarrollado obturadores ultrarrápidos electro-ópticos y magneto-ópticos que permiten tiempos de exposición de hasta varios miles de millonésimas de segundo. Ambos obturadores actúan por el hecho de que en algunos materiales el nivel de la luz polarizada es alterado bajo la influencia de un campo magnético o eléctrico. El disparador magneto-óptico consiste en un cilindro de cristal situado en el interior de una bobina. A cada lado del cilindro de cristal hay un filtro de polarización. Ambos filtros están cruzados para que cuando la luz pase a través del primero se polarice y quede interrumpida por el segundo. Si un pequeño impulso eléctrico pasa a través de la bobina, el nivel de polarización de la luz en el cilindro de cristal se alterna y la luz puede pasar a través del sistema.

El obturador electro-óptico, construido de un modo similar, consiste en una célula con dos electrodos llena de nitrobenceno que está situada entre los dos filtros cruzados de polarización. El nivel de polarización dentro del líquido cambia al recibir un pequeño impulso eléctrico en los dos electrodos. Los obturadores electro-ópticos se han utilizado para fotografiar la secuencia de las diferentes fases en la explosión de una bomba atómica. El movimiento a alta velocidad puede estudiarse también con la cinematografía ultrarrápida. Las técnicas convencionales, en las que fotografías individuales fijas son tomadas en una secuencia rápida, permiten un máximo de 500 fotogramas por segundo. Se pueden conseguir hasta un millón de fotos por segundo al mantener la película fija y usar un espejo alternador rápido (de hasta 5.000 revoluciones por segundo), que mueve las imágenes por un orden secuencial. Para frecuencias extremadamente altas, como mil millones de fotos por segundo, se descartan los métodos ópticos tradicionales y se utilizan tubos de rayos catódicos.

Fotografía aérea

Las cámaras especiales, instaladas en aviones sobre soportes antivibraciones, suelen estar equipadas con varias lentes y con grandes cargadores de película. Se utilizan en inspecciones de superficies extensas de terreno para cartografía, en el análisis del crecimiento de las ciudades para su posterior urbanización, en el descubrimiento de restos de antiguas civilizaciones y para observar la Tierra y la distribución de la fauna y de la flora. Las cámaras montadas en los satélites también se utilizan para este tipo de fotografía. La vigilancia y el reconocimiento militar es una aplicación especial de la fotografía aérea. Algunos satélites de reconocimiento están provistos con potentes teleobjetivos que producen imágenes de alta definición con los que pueden observar automóviles e incluso objetos más pequeños. Los métodos fotográficos modernos desde satélites, que hasta hace poco eran utilizados casi exclusivamente con fines militares, de espionaje y meteorológicos, son empleados, cada vez más, por los geólogos para descubrir recursos minerales y por las agencias de noticias con el fin de obtener al instante fotografías sobre sucesos que se producen en cualquier parte del mundo.

Fotografía submarina

Las cámaras submarinas precisan de una caja o carcasa herméticamente cerrada, con una ventana de cristal o de plástico delante del objetivo. Durante las horas diurnas, se pueden tomar fotografías a profundidades de hasta 10 metros. Para tomas más profundas se necesita luz artificial, como la del flash electrónico o focos. La calidad de las fotos depende de la claridad del agua. En aguas turbias o llenas de partículas, que reflejan la luz, éstas impiden hacer fotografías, excepto primeros planos. En este medio, los fotógrafos suelen utilizar objetivos de gran angular para compensar el efecto de aumento que se produce debajo del agua (todo parece estar un 25% más cerca de lo que está en realidad). Esto se debe a que el nivel de refracción en el agua es mayor que en el aire. Captar con una cámara la belleza del mundo acuático es una actividad popular entre los aficionados al submarinismo. Las cámaras especiales submarinas, con carcasas altamente resistentes a la presión, se utilizan también para la exploración marina a grandes profundidades.

Fotografía científica

En la investigación científica, las placas y películas fotográficas se encuentran entre los elementos más importantes para la fotografía, no sólo por su versatilidad, sino también porque la emulsión fotográfica es sensible a los rayos ultravioleta e infrarrojos, a los rayos X y gamma y a las partículas cargadas. La radiactividad, por ejemplo, fue descubierta al ennegrecer accidentalmente la película fotográfica. Muchos instrumentos ópticos, como el microscopio, el telescopio y el espectroscopio, se pueden utilizar para obtener fotos. Otros instrumentos, como los microscopios electrónicos, osciloscopios y terminales de ordenador, están equipados también con mecanismos para tomar fotos o con adaptadores que permiten el empleo de una cámara normal. En los laboratorios se suelen utilizar cámaras Polaroid para obtener imágenes de los resultados de la investigación con rapidez. Una de las actividades más importantes en la investigación sobre la física de partículas es el estudio de miles de fotos tomadas en las cámaras de burbujas de los detectores de partículas con el fin de encontrar interacciones entre ellas. Mediante el uso de películas especiales se puede fotografiar directamente el rastro o la estela de partículas cargadas.

La fotografía que capta imágenes de rayos X, llamada radiografía, se ha convertido en un importante medio de diagnóstico en medicina. La radiografía, que utiliza potentes rayos X o gamma, se emplea también para descubrir defectos estructurales y de soldadura en recipientes de presión, tuberías y piezas mecánicas, en especial aquellas que son esenciales por medidas de seguridad, como las de centrales nucleares, aviones y submarinos. En muchos casos la película, protegida de la luz en un envoltorio estanco, se aplica contra un lado del objeto mientras que éste recibe la radiación desde el otro. La fotografía de los rayos X se utiliza también para estudios estructurales de materiales cristalinos. Con el desarrollo del láser, una técnica llamada fotografía sin lente, la holografía, es capaz de reproducir imágenes en tres dimensiones.

Fotografía astronómica

En ningún otro campo de la ciencia la fotografía ha desempeñado un papel tan importante como en la astronomía. Al colocar una placa fotográfica en el plano focal de un telescopio, los astrónomos pueden obtener imágenes exactas de la situación y brillo de los cuerpos celestes. Comparando fotografías de la misma zona del cielo, tomadas en diferentes momentos, se pueden detectar los movimientos de ciertos cuerpos celestes, como los cometas. Una importante cualidad de la placa fotográfica utilizada en astronomía es su capacidad para captar, mediante exposiciones de larga duración, objetos astronómicos casi imperceptibles que no pueden ser observados visualmente.

En los últimos tiempos se ha mejorado la sensibilidad de la fotografía mediante técnicas que permiten una mayor precisión de la imagen. En un proceso conocido como efecto fotoeléctrico, la luz de las estrellas libera electrones en un fotocátodo situado en el plano focal del telescopio. Los electrones liberados se dirigen hacia una placa fotográfica para formar la imagen. Gracias a ciertas técnicas informáticas se consiguen imágenes más detalladas y exactas procedentes, en ocasiones, de fotografías del espacio exterior borrosas y alejadas. Los ordenadores digitalizan la información fotográfica y después la reproducen con una definición mayor.

Microfilmación

Consiste en reducir las fotos a un tamaño muy pequeño. Una de sus primeras aplicaciones fue la fotografía de cheques de banco en la década de 1920. En la actualidad, esta técnica se utiliza para almacenar información que de otro modo necesitaría mucho espacio. Por ejemplo, los periódicos y las revistas se fotografían en una pequeña película que puede visionarse con proyectores provistos de sistemas que permiten encontrar con rapidez las páginas deseadas. Otra aplicación es la microficha, un tipo de película de 10 × 15 cm en la cual se pueden almacenar hasta 70 fotogramas correspondientes a otras tantas páginas de texto. Cada fotograma puede observarse individualmente en un proyector. Este sistema hace posible almacenar el catálogo total de una biblioteca en un número reducido de microfichas.

Fotografía infrarroja

Las emulsiones fotográficas pueden hacerse sensibles a los rayos infrarrojos de la parte invisible del espectro con tintes especiales. La luz infrarroja atraviesa la neblina atmosférica y permite realizar fotografías claras desde largas distancias o grandes altitudes. Debido a que todos los objetos reflejan la luz infrarroja, pueden ser fotografiados en total oscuridad. Las técnicas de fotografía infrarroja se emplean siempre que tengan que detectarse pequeñas diferencias de temperatura, capacidad de absorción o reflexión de la luz infrarroja. Algunas sustancias, especialmente de tipo orgánico, como los vegetales, reflejan con más potencia la luz infrarroja que otras. Las películas infrarrojas presentan una tendencia a reproducir como blancos los tonos verdes de las hojas, sobre todo si se utiliza un filtro rojo oscuro. La película infrarroja tiene muchas aplicaciones militares y técnicas, como por ejemplo la detección de camuflajes, los cuales aparecen más oscuros en la fotografía que las zonas de alrededor. Este tipo de fotografía también se utiliza para diagnósticos médicos, para descubrir falsificaciones en manuscritos y obras pictóricas, y para el estudio de documentos deteriorados. Se ha empleado, por ejemplo, para descifrar los Manuscritos del Mar Muerto.

Fotografía ultravioleta

Las películas normales son sensibles a la luz ultravioleta. Uno de los métodos para realizar este tipo de fotografía consiste en utilizar una fuente de luz ultravioleta para iluminar al objeto, de forma que el objetivo de la cámara esté provisto de un filtro que permita únicamente el paso de esta luz. Otro método se sirve de la fluorescencia causada por la luz ultravioleta. El filtro del que está provista la cámara absorbe la luz ultravioleta y permite el paso de la fluorescente. Una importante aplicación de este tipo de fotografía es el estudio de documentos falsificados, ya que la luz ultravioleta detecta los rastros de escritura borrada.

Los plásticos y otros productos químicos que reaccionan a la luz ultravioleta sustituyen a la emulsión de haluros de plata de las películas normales en diversos procesos, para producir imágenes fotográficas con la gama ultravioleta del espectro. En uno de estos procesos la superficie de sustancias plásticas expuestas a los rayos ultravioleta se endurece en proporción directa a la exposición, y la eliminación de las zonas no endurecidas hace surgir una imagen fotográfica. En otros procesos se coloca una fina película de productos químicos entre las hojas de plástico. Estos productos químicos emiten burbujas de gas en cantidades proporcionales a la exposición recibida en la zona cuando se les expone a los rayos ultravioletas. Las burbujas crecen y se hacen visibles con la aplicación de calor en las hojas, creando así una transparencia en la que las burbujas de gas forman la imagen. Otro tipo de plástico, al ser calentado, reacciona químicamente con las burbujas de gas, de modo que se obtiene en las hojas de plástico una imagen positiva con manchas. La película fotocromática, creada por la National Cash Register Company, utiliza un tinte sensible a la luz ultravioleta. Se pueden obtener enormes ampliaciones, ya que este tinte no posee estructura granular. Por ejemplo, se pueden conseguir ampliaciones de una película que contenga un libro entero en un espacio del tamaño de un sello o estampilla de correos.

Cine, desarrollo histórico del arte audiovisual conocido como cinematografía.

Orígenes

El cine se desarrolló desde el punto de vista científico antes de que sus posibilidades artísticas o comerciales fueran conocidas y exploradas. Uno de los primeros avances científicos que llevó directamente al desarrollo del cine fueron las observaciones de Peter Mark Roget, secretario de la Real Sociedad de Londres, que en 1824 publicó un importante trabajo científico con el título de Persistencia de la visión en lo que afecta a los objetos en movimiento, en el que establecía que el ojo humano retiene las imágenes durante una fracción de segundo después de que el sujeto deja de tenerlas delante. Este descubrimiento estimuló a varios científicos a investigar para demostrar el principio.

Los primeros experimentos

Tanto en Estados Unidos como en Europa, se animaban imágenes dibujadas a mano como forma de diversión, empleando dispositivos que se hicieron populares en los salones de la clase media. Concretamente, se descubrió que si 16 imágenes de un movimiento que transcurre en un segundo se hacen pasar sucesivamente también en un segundo, la persistencia de la visión las une y hace que se vean como una sola imagen en movimiento.

El zoótropo que ha llegado hasta nuestros días consta de una serie de dibujos impresos en sentido horizontal en bandas de papel colocadas en el interior de un tambor giratorio montado sobre un eje; en la mitad del cilindro, una serie de ranuras verticales, por las cuales se mira, permiten que, al girar el aparato, se perciban las imágenes en movimiento. Un ingenio algo más elaborado era el praxinoscopio, del inventor francés Charles Émile Reynaud, que consistía en un tambor giratorio con un anillo de espejos colocado en el centro y los dibujos colocados en la pared interior del tambor. Según giraba el tambor, los dibujos parecían cobrar vida.

En aquellos mismos años, William Henry Fox Talbot en el Reino Unido y Louis Daguerre en Francia trabajaban en un nuevo descubrimiento que posibilitaría el desarrollo del cinematógrafo: la fotografía, ya que sin este invento previo no existiría el cine. Hacia 1852, las fotografías comenzaron a sustituir a los dibujos en los artilugios para ver imágenes animadas. A medida que la velocidad de las emulsiones fotográficas aumentó, fue posible fotografiar un movimiento real en vez de poses fijas de ese movimiento. En 1877 el fotógrafo angloestadounidense Eadweard Muybridge empleó una batería de 24 cámaras para grabar el ciclo de movimientos del galope de un caballo.

Un paso relevante hacia el desarrollo de la primera cámara de imágenes en movimiento fue el que dio el fisiólogo francés Étienne Jules Marey, cuyo cronofotógrafo portátil (una especie de fusil fotográfico) movía una única banda que permitía obtener doce imágenes en una placa giratoria que completaba su revolución en un segundo. Sin embargo, su tira de película consistía en un papel mojado en aceite que se doblaba y se desgarraba con facilidad. Hacia 1889, los inventores estadounidenses Hannibal Goodwin y George Eastman desarrollaron más tiras de emulsión fotográfica de alta velocidad (que necesitaban poco tiempo para impresionarse) montadas en un celuloide resistente: su innovación eliminó un obstáculo esencial en la experimentación con las imágenes en movimiento.

Thomas Alva Edison y William K. L. Dickson

Hasta 1890, los científicos estaban interesados principalmente en el desarrollo de la fotografía más que en el de la cinematografía. Esto cambió cuando el antiguo inventor, y entonces ya industrial, Thomas Alva Edison construyó el Black Maria, un laboratorio cerca de West Orange (Nueva Jersey), que se convirtió en el lugar donde realizaba sus experimentos sobre imágenes en movimiento y el primer estudio de cine del mundo. Edison está considerado por algunos como el diseñador de la primera máquina de cine, el kinetoscopio, pero en realidad ni fue él el inventor ni el invento era propiamente una cámara de cine. Su ayudante, William K. L. Dickson fue quien hizo en realidad casi todo el trabajo, diseñando el sistema de engranajes, todavía empleado en las cámaras actuales, que permite que la película corra dentro de la cámara, e incluso fue él quien por vez primera logró en 1889 una rudimentaria imagen con sonido. El kinetoscopio, patentado por Edison en 1891, tenía unos 15 metros de película en un bucle interminable que el espectador —individual— tenía que ver a través de una pantalla de aumento. El artefacto, que funcionaba depositando una moneda, no puede considerarse por tanto un espectáculo público, y quedó como una curiosidad de salón que en 1894 se veía en Nueva York, y antes de finalizar ese año, en Londres, Berlín y París.

Los hermanos Lumière

Los experimentos sobre la proyección de imágenes en movimiento visibles para más de un espectador se estaban desarrollando simultáneamente en Estados Unidos y en Europa; en Francia, a pesar de no contar con la gran infraestructura industrial de Edison, los hermanos Louis y Auguste Lumière llegaron al cinematógrafo, invento que era al tiempo cámara, copiadora y proyector, y que es el primer aparato que se puede calificar auténticamente de cine, por lo que la fecha de su presentación pública, el 28 de diciembre de 1895, y el nombre de los inventores son los que han quedado reconocidos universalmente como los iniciadores de la historia del cine. Los hermanos Lumière produjeron además una serie de cortometrajes con gran éxito, de género documental, en los que se mostraban diversos elementos en movimiento: obreros saliendo de una fábrica, olas rompiendo en la orilla del mar y un jardinero regando el césped. Uno de sus cortometrajes más efectistas para demostrar las posibilidades del nuevo invento fue el que mostraba a un tren correo avanzando hacia el espectador, lo que causaba gran impresión en el público asistente. El cine que se producía mientras en el estudio de Edison era más teatral: números circenses, bailarinas y actores dramáticos que actuaban para las cámaras. Pero para entonces el equipamiento elemental ya había sido estandarizado siguiendo el modelo del cinematógrafo de los hermanos Lumière, y las películas se comenzaron a comercializar a escala internacional.

Películas de una bobina

En 1896 el ilusionista francés Georges Méliès demostró que el cine no sólo servía para grabar la realidad, sino que también podía recrearla o falsearla. Con estas imaginativas premisas, hizo una serie de películas que exploraban el potencial narrativo del nuevo medio, dando inicio al cine de una sola bobina. En un estudio en las afueras de París, Méliès rodó el primer gran filme puesto en escena cuya proyección duró cerca de quince minutos: L'Affaire Dreyfus (El caso Dreyfus, 1899) y filmó Cendrillas (Cenicienta, 1900) en 20 escenas. Pero sobre todo a Méliès se le recuerda por sus ingeniosas fantasías como Viaje a la luna (1902) y Alucinaciones del barón de Münchhausen, en las que experimentaba las posibilidades de los trucajes con la cámara de cine. Méliès descubrió que deteniendo la cámara en mitad de una toma y recolocando entonces los elementos de la escena antes de continuar podía, por ejemplo, hacer desaparecer objetos. Del mismo modo, retrocediendo la película unos cuantos centímetros y comenzando la siguiente toma encima de lo ya filmado, lograba superposiciones, exposiciones dobles y disoluciones (fundidos y encadenados, como elemento de transición entre distintas escenas). Sus cortometrajes fueron un éxito inmediato de público y pronto se difundieron por todo el mundo. Aunque hoy en día parecen poco más que curiosidades, son precursores significativos de las técnicas y los estilos de un arte entonces balbuceante.

El estilo documentalista de los hermanos Lumière y las fantasías teatrales de Méliès se fundieron en las ficciones realistas del inventor estadounidense Edwin S. Porter, a quien se le atribuye en ocasiones la paternidad del cine de ficción. Trabajando en el estudio de Edison, Porter produjo la primera película estadounidense interesante, Asalto y robo de un tren, en 1903. Esta película, de 8 minutos, influyó de forma decisiva en el desarrollo del cine porque incluía innovaciones como el montaje de escenas filmadas en diferentes momentos y lugares para componer una unidad narrativa. Al hacer esto, Porter inició el montaje, uno de los fundamentos de la creación cinematográfica, proceso en el que diferentes fragmentos elegidos de las diversas tomas realizadas —o disponibles— se reúnen para conseguir un conjunto coherente.

Asalto y robo de un tren tuvo un gran éxito y contribuyó de forma notable a que el cine se convirtiera en un espectáculo masivo. Las pequeñas salas de cine, conocidas como nickelodeones, se extendieron por Estados Unidos, y el cine comenzó a surgir como industria. La mayoría de las películas, de una sola bobina, de la época eran comedias breves, historias de aventuras o grabaciones de actuaciones de los actores teatrales más famosos del momento.

Las películas mudas

Entre 1909 y 1912 todos los aspectos de la naciente industria estuvieron bajo el control de un trust estadounidense, la MPPC (Motion Pictures Patents Company), formado por los principales productores. Este grupo limitó la duración de las películas a una o dos bobinas y rechazó la petición de los actores de aparecer en los títulos de crédito. El trust fue desmontado con éxito en 1912 por la ley antitrust del gobierno, que permitió a los productores independientes formar sus propias compañías de distribución y exhibición, por lo que pudieron llegar hasta el público estadounidense obras europeas de calidad, como Quo vadis? (1912, de Enrico Guazzoni), de Italia, o La reina Isabel (1912), de Francia, protagonizada por la actriz Sarah Bernhardt.

Cine mudo estadounidense

El ejemplo, sobre todo de Italia, que en 1912 con 717 producciones era el cine más potente del mundo, llevó a los productores estadounidenses a la acción, viéndose obligados a hacer películas más largas, en las que los directores tuvieran también una mayor libertad artística, y los actores figuraran en los títulos de crédito, lo que hizo indefectiblemente que algunos de éstos se convirtieran en los favoritos del público. Como resultado, siguió un periodo de expansión económica y artística en el cine de este país.

D. W. Griffith

El cineasta más influyente del periodo mudo en la naciente industria estadounidense fue el productor y director D. W. Griffith, que en 1908 desarrolló la producción desde los estudios Biograph, en Nueva York, y perfeccionó los elementos que hasta entonces se habían empleado para hacer cine. Dio a los planos un sentido narrativo funcional, comenzándolos sólo cuando había en la acción elementos significativos que mostrar, y terminando en cuanto la acción concluía. También acercó la cámara a los actores para conseguir más fuerza emocional, dando al primer plano un sentido enfático y rompiendo con el tópico, hasta entonces predominante en la industria, de que los espectadores no comprenderían dos ojos o una mano llenando toda la pantalla. Griffith, además de introducir estas novedades en la colocación de la cámara, hizo también evolucionar la puesta en escena, y formó y dirigió su propia compañía de actores hacia un modo de interpretación más naturalista (como por otra parte requerían los planos más cercanos de los intérpretes). En su escuela se formaron futuras estrellas como Mary Pickford, Lillian Gish o Lionel Barrymore. Además, experimentó con cierta libertad con la iluminación, los ángulos de cámara y el uso de filtros sobre los objetivos para conseguir efectos únicos. Griffith también descompuso las escenas en una serie de planos diferentes, midiendo la duración de cada uno de ellos para conseguir una intensidad emocional creciente y un ritmo antes desconocido en el cine. Con ello demostró que la base de la expresión fílmica es el montaje, y que la unidad de montaje es el plano, y no la escena.

En 1913 Griffith completó la que sería la primera de sus obras épicas: Judit de Betulia, película de 4 bobinas que irritó a los ejecutivos de la Biograph por su duración, por lo que no fue distribuida hasta 1914, cuando la producción de los largometrajes era ya algo más común. Mientras tanto, Griffith había dejado la Biograph para incorporarse a la Mutual de Hollywood y había comenzado a trabajar en El nacimiento de una nación (1915), película de 12 bobinas considerada la primera obra maestra del cine. Aunque hoy resulte ridícula por su tono reaccionario en defensa del Ku Klux Klan, en su día emocionó a los espectadores, que llegaron a los cien millones, con la mezcla experta de acción, combate y drama humano. Con los cuantiosos beneficios de esta obra, Griffith emprendió un intento más progresista, y también más atrevido formalmente, de retratar a través de cuatro episodios históricos el fanatismo humano: Intolerancia (1916). Esta obra le supuso, sin embargo, un fracaso comercial y la ruina económica, ya que el montaje final en el que se entremezclaban fragmentos de las cuatro historias que componían la película: La caída de Babilonia, Vida y Pasión de Cristo, La matanza de san Bartolomé y La madre y la ley, sin ningún enlace entre los cuatro episodios, resultaba ya excesivamente complejo.

El traslado a Hollywood

Entre 1915 y 1920 las grandes salas de cine proliferaron por todo el territorio de Estados Unidos, mientras la industria se trasladaba de los alrededores de Nueva York a Hollywood, pequeña localidad californiana junto a Los Ángeles donde los productores independientes, como Thomas Harper Ince, Cecil B. de Mille y Mack Sennett, construyeron sus propios estudios. Ince introdujo el sistema de unidades, en el que la producción de cada película estaba descentralizada —se trabajaba por obra—, con lo que se podían hacer simultáneamente varias películas, cada una de ellas supervisada de principio a fin por un jefe de unidad —un productor ejecutivo— que dependía a su vez del jefe del estudio. Se produjeron así cientos de películas al año como respuesta a la creciente demanda de las salas. La inmensa mayoría eran westerns, comedias de tortazos y resbalones y elegantes melodramas, como el de Cecil B. de Mille Macho y hembra (1919) protagonizado por Gloria Swanson. Ince, por su parte, se especializó en la Guerra Civil estadounidense y el lejano Oeste, sin concesiones al sentimentalismo, en los que destacó el entonces popular vaquero William S. Hart.

Películas cómicas mudas

Mack Sennett llegó a ser entonces el rey de la comicidad, introduciendo en la pantalla el estilo de los espectáculos de variedades, en una serie de imaginativas películas protagonizadas por los famosos Keystone Kops. Su estilo en conjunto era nuevo, ya que fundía elementos del vodevil, el circo, las tiras cómicas y la pantomima teatral, con un sentido del ritmo en el que era un verdadero maestro. Sennett decía que un gag debía plantearse, desarrollarse y completarse en menos de 30 metros de película (que equivalen a menos de un minuto de proyección). Tenía un talento especial para crear una atmósfera en la que el temperamento artístico de cada cómico pudiera brillar. Sennet fue un gran descubridor de talentos; entre los que trabajaron con él destacaron Marie Dressler, Mabel Normand, Fatty Arbuckle, Gloria Swanson, Harold Lloyd, Wallace Beery y un nuevo cómico británico cuyo nombre artístico era Charlie Chaplin.

Chaplin era un cómico genial cuyos trabajos darían brillo a la pantalla. Su sola presencia era suficiente para asegurar el éxito comercial de una película. Fue la primera estrella internacional y una leyenda viva desde su juventud, rompiendo con cada nueva producción los récords de taquilla anteriores. Su personaje del vagabundo Charlot mezclaba de una forma única la comedia sentimental, la sátira social y el patetismo de la naturaleza humana, convirtiéndose en un arquetipo universal. Este personaje fue creciendo a lo largo de sus películas El vagabundo (1915), Vida de perros (1918), El chico (1921) y La quimera del oro (1925). Con la llegada del sonoro, los productores se niegan a estrenar Luces de la ciudad (1931), pero él lo hace por su propia cuenta y vuelve a romper todos los récords de taquilla, éxito que repite con Tiempos modernos (1936), sátira contra la automatización del trabajo, y El gran dictador (1940), primer filme hablado de Chaplin, una oportuna burla de los dictadores de aquella época que le trae, sin embargo, enemistades entre los sectores más reaccionarios del poder estadounidense, obligándole a abandonar el país en la década de 1950, cuando la `caza de brujas' promovida por McCarthy siembra la sospecha y la desconfianza hacia los cineastas progresistas. Mucho antes, en 1919, tras sus primeros éxitos, Chaplin, junto con D. W. Griffith y los dos actores más famosos del momento, Mary Pickford y Douglas Fairbanks, habrá formado la productora United Artists, precursora del star system —aunque en su caso y el de Griffith además de estrellas eran los auténticos creadores y productores—, e iniciadora de la época de oro del cine mudo en Estados Unidos.

Cine mudo latinoamericano

El cinematógrafo fue conocido en la mayoría de las capitales de los países latinoamericanos inmediatamente después de la primera proyección realizada en París por los hermanos Lumière. Sin embargo, en ninguno de ellos surgió una industria propiamente dicha hasta la década de 1940. Desde principios del siglo XX, a través de la distribución y la exhibición, las compañías estadounidenses de cine detentan el control de las pantallas de todo el continente, salvo en el corto periodo de la II Guerra Mundial. Como aliado, México se benefició de este importante mercado cedido por Estados Unidos en detrimento de Argentina y España, el primero neutral y el segundo bajo una dictadura fascista, que vieron decaer sus respectivas industrias cinematográficas. En ese periodo México vio crecer su industria gracias a un mercado seguro de habla castellana. Las producciones por lo general eran comedias y dramas populares, cuando no películas de tendencia socio-folclórica. El cine en México había empezado con Riña de hombres en el zócalo (1897). A partir de esta fecha no se dejaron de producir películas, generalmente noticiarios sobre la independencia y la Revolución Mexicana como El grito de Dolores (1910, de Felipe Jesús del Haro) o Insurrección en México (1911, de los hermanos Alva). En 1917, el gobierno de Venustiano Carranza restringe la difusión del cine documental revolucionario, y ese mismo año se funda la productora Azteca Film, que realiza películas de ficción como La obsesión.

Cine mudo europeo

La producción cinematográfica en el Reino Unido, Italia y los países nórdicos decayó de forma drástica tras el fin de la I Guerra Mundial debido al aumento de los costes de producción y a una incapacidad comercial para competir en un mercado mundial creciente. Sin embargo, en Alemania, en la recién creada Unión Soviética y en Francia, las películas alcanzaron una nueva significación artística, marcando el inicio de un periodo que sería muy influyente en el desarrollo del medio.

Alemania y Austria

El impactante e innovador cine mudo alemán tomó del expresionismo y las técnicas del teatro clásico de la época sus principales fuentes de inspiración, como muestra el ejemplo más conocido de película expresionista de la época, El gabinete del doctor Caligari (1919), de Robert Wiene, en la que los estilizados vestuarios y decorados se utilizaban para contar una terrorífica historia que identifica la autoridad con la demencia y la criminalidad. Una preocupación similar por la estilización formal y por lo sobrenatural en los temas (frente al prosaico realismo del cine estadounidense, que ha predominado como el único estándar debido a su éxito comercial) se evidencia en películas como El Golem (1920), de Paul Wegener y Henrik Galeen, Nosferatu, el vampiro (1922), de F. W. Murnau, y Metrópolis (1927) de Fritz Lang, que trata de una sociedad robótica controlada por un gran poder industrial en la que los obreros están reducidos a la condición de esclavos. Cualquiera de estas películas, y en especial las dos últimas, crearon escuela en el cine comercial estadounidense con su temática, decorados e incluso estilo de realización, como prueba el que los dos directores fueran contratados por la industria de Hollywood para continuar su trabajo en aquel país.

A mediados de la década de 1920, la capacidad técnica del cine alemán sobrepasaba la de cualquier otro en el mundo. Los actores y los directores recibían un apoyo casi ilimitado por parte del Estado, que financió los mayores y mejor equipados estudios del mundo, los de la UFA (Universum Film Aktiengesellschaft), de Berlín. Los estudios introspectivos, expresionistas de la vida de las clases populares, conocidos como `películas de la calle', se caracterizaban por su dignidad, belleza y duración, además de introducir grandes avances en el uso efectivo de la luz, los decorados y la fotografía. Los directores alemanes liberaron a la cámara del trípode y la pusieron sobre ruedas, consiguiendo una movilidad y una gracia que no se habían visto antes. Películas como las de Murnau El último (1924), protagonizada por Emil Jannings, o El espejo de la dicha (1926), de G. W. Pabst, protagonizada por una joven Greta Garbo, fueron aclamadas universalmente por la profundidad de las emociones que comunicaban y sus innovaciones técnicas. Debido a la emigración de los mejores talentos alemanes, austriacos y, en general, centroeuropeos, la producción de las películas decayó rápidamente tras 1925, convirtiéndose en una industria más que intentaba imitar el cine que se hacía en Hollywood.

La Unión Soviética

Entre 1925 y 1930 apareció una serie de grandes películas soviéticas, revolucionarias tanto en su temática como en su fuerza visual y los métodos de realización empleados. La industria del cine soviética fue nacionalizada en 1919 y puesta bajo el control del Comisariado del Pueblo para la Propaganda y la Educación. Las películas de este periodo mostraban la reciente historia soviética con una fuerza, realismo y visión que era la antítesis del espíritu introspectivo alemán. Los dos principales directores soviéticos, Serguéi Mijáilovich Eisenstein y Vsiévolod Ilariónovich Pudovkin, recibieron una fuerte influencia de la obra de Griffith, sobre todo de Intolerancia y su montaje, aspecto del nuevo arte que analizaron en detalle, formularon teorías, depuraron y aplicaron hasta conseguir los más brillantes logros en este campo de la historia del cine, con la concatenación rápida de tomas separadas de gran fuerza visual capaces de dejar una fuerte impresión en el espectador.

El empleo más espectacular de estas técnicas se puede apreciar en la obra de Eisenstein El acorazado Potemkín (1925), en la que se relata el motín de los marineros de un barco de guerra, hartos de recibir rancho podrido, y la cálida recepción que las gentes de Odesa dan a los rebeldes. En la célebre secuencia de las escaleras de Odesa, Eisenstein lleva hasta el clímax los disparos de los soldados zaristas sobre la muchedumbre con una serie de escenas rápidas, simultáneas, montadas de forma alternativa, combinando la descripción general de la escena con detalles significativos, como el descenso del cochecito de un niño que rueda por unas interminables escaleras al haber sido alcanzada su madre, o la imagen de una abuela tiroteada, o un estudiante retrocediendo horrorizado mientras las tropas avanzan sobre el pueblo con la bayoneta calada. El resultado final crea una emoción única, integrando toda la serie de sucesos simultáneos.

El fin de San Petersburgo (1927), de Pudovkin, y Octubre (1928), de Eisenstein, también conocida como Diez días que estremecieron al mundo, conmemoran el décimo aniversario de la revolución bolchevique desde distintos puntos de vista. Pudovkin narró la historia del individuo como un héroe, una personificación de las masas. Para Eisenstein, por su parte, las masas por sí mismas son el héroe protagonista. Ambos cineastas —y sus respectivos operadores, Golovna y Tissé— eran además excelentes escritores y teóricos del cine, que analizaron su propio trabajo y el de otros autores enriqueciendo un creciente corpus de crítica y teoría del cine que se publicó en todo el mundo.

España

En España los pioneros del nuevo arte empiezan a producir películas en 1896. Eduardo Jimeno realiza Salida de la misa de doce del Pilar de Zaragoza (1897), al puro estilo de los hermanos Lumière. En Barcelona, Fructuoso Gelabert realiza e interpreta Riña de café (1897), la primera película española con argumento. El hotel fantástico (1905), realizada por Segundo de Chomón, incorpora sobreimpresiones y otros trucos que había utilizado en Francia Georges Méliès. Las productoras más importantes de la época del cine mudo son Hispano Films, Films Barcelona e Iris Films. Por lo general producían películas basadas en acartonados dramas teatrales. El gobierno desdeña las posibilidades del cine y ya en 1913 dicta la primera orden de censura. La zarzuela, que suministra temas cinematográficos en la década de 1920, se convierte en todo un subgénero con títulos como La revoltosa (1924) y Gigantes y cabezudos (1925), ambas de Florián Rey. Su mayor éxito lo consiguió con La aldea maldita (1929). Con la llegada del cine sonoro Benito Perojo realiza La verbena de la Paloma (1935); y durante los años de la Segunda República es el director más afamado y cosmopolita, pues también trabajó como guionista, actor y productor en Berlín, París y Hollywood. La película más importante de la etapa del cine mudo fue Las Hurdes, tierra sin pan (1932), de Luis Buñuel.

Francia

Solamente en Francia la industria cinematográfica tenía el vigor necesario como para sobrevivir durante la etapa que siguió a la I Guerra Mundial sin el apoyo del gobierno. Trabajando en pequeños estudios, alquilados para cada película, un grupo de diferentes artistas desarrolló un cine tanto de vanguardia como tradicional con un mínimo de interferencias por parte de los productores ejecutivos. El escritor, director y editor de revistas de cine Louis Delluc fue un defensor ardiente del cine francés, que se rodeó de creadores como Abel Gance, René Clair, Jean Epstein o Germaine Dulac. Fue un grupo del que dependería mucho la supervivencia del cine francés. La obra de Delluc Fiebre (1921) era un retrato impresionista de la vida de las clases populares, mientras que Un sombrero de paja en Italia (1927), de Clair, es una deliciosa e imaginativa comedia basada en una farsa popular del siglo XIX, y Napoleón (1927), de Abel Gance, es una obra monumental e innovadora en cuanto a la técnica: empleaba tres pantallas sobre las que se proyectaban docenas de imágenes simultáneas.

Una de las producciones francesas más destacadas de la década de 1920 es La pasión de Juana de Arco (1928), del danés Carl Theodor Dreyer, que, trabajando con un reparto y un equipo técnico internacionales, mezcló lo mejor del cine escandinavo, alemán y soviético para hacer un cine con un estilo propio, fluido y lleno de encanto, en el que forma y contenido se fundían para conseguir una reverencia operística por el resultado final. Además, la interpretación de Renée Falconetti como Juana de Arco está considerada como uno de los mejores ejemplos de interpretación cinematográfica muda. Esta película, junto con Amanecer (1927), película estadounidense de Murnau, cierran el periodo más brillante del cine mudo que daría paso al advenimiento del sonoro.

La madurez del cine mudo

En los años posteriores a la I Guerra Mundial, la industria cinematográfica se convirtió en uno de los sectores principales de la industria estadounidense, generando millones de dólares de beneficios a los productores que tenían éxito. Las películas de este país se internacionalizaron y dominaron el mercado mundial. Los autores europeos más destacados fueron contratados por los estudios y sus técnicas se asimilaron en Hollywood, que las adaptó a sus fines comerciales. El star system floreció, y las películas utilizaron a las grandes estrellas, entre otras a Rodolfo Valentino, John Barrymore, Greta Garbo, Clara Bow y Norma Shearer, como principal atractivo para el público. El periodo se caracterizó también por el intento de regular los valores morales del cine a través de un código de censura interna, creado por la propia industria de Hollywood en 1930 (el código Hays, bautizado así por dirigirlo el político y moralista Will Hays). Este tipo de instrumentos de control político moral persistieron hasta 1968 en Estados Unidos.

En los años veinte las películas estadounidenses comenzaron a tener una sofisticación y una suavidad de estilo que sintetizaba lo que se había aprendido de la experiencia. Los majestuosos westerns románticos, como El caballo de hierro (1924), de John Ford, mostraban la economía y maestría narrativas que marcarían la trayectoria de los directores clásicos Frank Capra, William Wyler o George Stevens. Mientras, Cecil B. de Mille trataba de enmascarar el erotismo de sus primeras comedias sexuales, como El señorito Primavera (1921), tras la fachada bíblica de espectáculos como Los diez mandamientos (1923) o El rey de reyes (1927) en los que de hecho aparecían orgías y escenas de baño con el menor pretexto.

Dos de los directores más populares de la época, Ernst Lubitsch y Erich von Stroheim, alemán el primero y austriaco el segundo, revelaron sus sofisticados y diferentes comportamientos en la pantalla con sus primeras obras en Hollywood. El primero abandonó los espectáculos que había dirigido en su país para hacer comedias ligeras, románticas, caracterizadas por la sencillez de sus decorados, elegancia de su técnica y encanto personal. En Los peligros del flirt (1924) o La locura del charlestón (1926) manejó con tanta habilidad el tema sexual que lograba al mismo tiempo mostrarlo plenamente y resultar aceptable para los censores. El trabajo de Von Stroheim, por su parte, más duro y más europeo en su tono, es de una riqueza extravagante e incluso en ocasiones melancólico, como en Esposas frívolas (1922), en la que contrasta la inocencia estadounidense con la decadencia europea. Su obra maestra sobre la codicia en la sociedad estadounidense, Avaricia (1923), fue reducida por los ejecutivos del estudio de diez a dos horas. La mayoría de lo cortado entonces se ha perdido, pero incluso en su forma abreviada es considerada como una de las obras maestras del realismo cinematográfico.

Las películas cómicas conocieron una época dorada en los años veinte. A Chaplin se unieron otros dos cómicos, Harold Lloyd y Buster Keaton, a la cabeza del género, ambos continuadores de la tradición de las películas cómicas de payasadas, de una sola bobina. Durante este periodo, cada uno de estos cómicos dispuso del tiempo y del apoyo económico necesarios para desarrollar su estilo personal. Keaton nunca sonreía, y en películas como El moderno Sherlock Holmes (1924), dirigida por él, hizo contrastar su gesto impasible con los gags visuales basados en sus increíbles facultades físicas. Harold Lloyd era un cómico temerario que jugaba a menudo con la ley de la gravedad desde grandes alturas. Encarnaba al chico ingenuo típicamente estadounidense, como en El estudiante novato (1925), de Sam Taylor y Fred Newmeyer, en el que interpreta al personaje débil que demuestra su valentía.

El documental en la época del cine mudo

Las primeras películas eran documentales, ya que se limitaban a mostrar hechos que ocurrían en la calle: el terremoto de San Francisco en 1906, el vuelo de los hermanos Wright en Francia en 1908 o la erupción del volcán Etna en Sicilia en 1910 fueron sucesos filmados por cámaras de cine que se incorporaban a alguno de los noticiarios Pathé, que continuaron produciéndose hasta cerca de la década de 1950. Sin embargo, una vez que las películas de ficción se hicieron populares, las de hechos reales fueron casi totalmente abandonadas hasta la aparición del documentalista Robert Flaherty a comienzos de la década de 1920.

Su obra Nanuk el esquimal (1922), estudio de la vida de ese pueblo, poseía un alto grado de acercamiento a la intimidad de los personajes, con los que establecía un contacto cálido y que el cine documental mostraba por primera vez. Aunque su trabajo posterior, especialmente Moana (1926), terminada por el cineasta de ficción Murnau, y Hombres de Arán (1934) fueran criticadas por lo que tenían de ficción, son obras maestras del género, para el que consiguió el interés del gran público. El documental llegó después a su cenit en Gran Bretaña.

El cine sonoro

En 1926 la productora Warner Brothers introdujo el primer sistema sonoro eficaz, conocido como Vitaphone, consistente en la grabación de las bandas sonoras musicales y los textos hablados en grandes discos que se sincronizaban con la acción de la pantalla. En 1927, la Warner lanzó El cantor de jazz, de Alan Crosland, la primera película sonora, protagonizada por el showman de origen ruso Al Jolson, que alcanzó un éxito inmediato e inesperado entre el público. Su eslogan, sacado del texto de la película “aún no has oído nada”, señaló el final de la era muda. Hacia 1931 el sistema Vitaphone había sido superado por el Movietone, que grababa el sonido directamente en la película, en un banda lateral. Este proceso, inventado por Lee de Forest, se convirtió en el estándar. El cine sonoro pasó a ser un fenómeno internacional de la noche a la mañana.

Las primeras películas habladas

La transición del cine mudo al sonoro fue tan rápida que muchas películas distribuidas entre 1928 y 1929, que habían comenzado su proceso de producción como mudas, fueron sonorizadas después para adecuarse a una demanda apremiante. Los dueños de las salas se apresuraron también a convertirlas en salas aptas para el sonoro, mientras se rodaban películas en las que el sonoro se exhibía como novedad, adaptando obras literarias e introduciendo extraños efectos sonoros a la primera oportunidad. El público pronto se cansó de los diálogos monótonos y de las situaciones estáticas de estas películas, en las que un grupo de actores se situaba cerca de un micrófono fijo.

Tales problemas se solucionaron en los inicios de la década de 1930, cuando en varios países un grupo de directores de cine tuvieron la imaginación necesaria para usar el nuevo medio de forma más creativa, liberando el micrófono de su estatismo para restablecer un sentido fluido del cine y descubrir las ventajas de la postsincronización (el doblaje, los efectos sala y la sonorización en general que sigue al montaje), que permitía la manipulación del sonido y de la música una vez rodada y montada la película. En Hollywood, Lubitsch y King Vidor experimentaron con el rodaje de largas secuencias sin sonido, añadiéndolo posteriormente para resaltar la acción. Lubitsch lo hizo suavemente, con la música, en El desfile del amor (1929), y Vidor con el sonido ambiente para crear una atmósfera natural en Aleluya (1929), un musical realista interpretado íntegramente por actores afroamericanos cuya acción transcurre en el sur de Estados Unidos. Los directores comenzaban a aprender a crear efectos con el sonido que partía de objetos no visibles en la pantalla, dándose cuenta de que si el espectador oía un tictac era innecesario mostrar el reloj.

Los guionistas Ben Hecht, Dudley Nichols y Robert Riskin comenzaron a inventarse diálogos especialmente elaborados para la pantalla, a los que se despojaba de todo lo que no fuera esencial para que sirvieran a la acción en vez de estorbarla. El estilo periodístico rapidísimo que Hecht preparó para Un gran reportaje (1931), de Lewis Milestone, contrasta con las ingeniosas réplicas que escribiría para la obra de Lubitsch Una mujer para dos (1933). Nichols, por su parte, destacó por sus diálogos claros, sin ambigüedades, en películas como María Estuardo (1936), de John Ford. Riskin se hizo famoso por sus personajes familiares en las películas de Frank Capra, entre ellas Sucedió una noche (1934), protagonizada por Claudette Colbert y Clark Gable.

Películas de gángsters y musicales

Las películas de gángsters y musicales dominarían la pantalla a comienzos de 1930. El éxito de Hampa dorada (1930), de Mervyn Le Roy, hizo una estrella de Edward G. Robinson. Películas como El enemigo público número 1 (1934), de W. S. Van Dyke, o Scarface, el terror del hampa (1932), de Howard Hawks, dieron dinamismo, vigor y realismo a la pantalla, como los musicales y las comedias estrafalarias que parecían mostrar una actitud inconformista ante la vida. El éxito del musical de la Warner La calle 42 (1933), de Lloyd Bacon y Busby Berkeley, inició una tendencia a producir películas de baile, con coreografías magistrales de Berkeley. Éstas darían paso a musicales más intimistas, como los de Fred Astaire y Ginger Rogers, como Sombrero de copa (1935), de Mark Sandrich, y Swing time (1936), de George Stevens. Los cómicos populares, como W. C. Fields, los Hermanos Marx, Mae West y Stan Laurel y Oliver Hardy (el Gordo y el Flaco), crearon al tiempo mundos cómicos distintos y personales con los que el público de cada uno de ellos se identificaba. Por entonces, gran parte de la violencia y la carga sexual de las primeras películas de gángsters y de las comedias musicales fue reducida por la influencia de la Legión Católica para la Decencia y la creciente fuerza de las leyes de la censura de 1934.

Las estrellas

La mayoría de los directores de los años treinta se ocuparon sobre todo de proporcionar en sus películas medios para el lucimiento de las estrellas más famosas, como Katharine Hepburn, Bette Davis, Humphrey Bogart, Joan Crawford y Clark Gable, cuyas personalidades se presentaban a la opinión pública como una extensión de los personajes que interpretaban. La moda de llevar al cine novelas de éxito (y en concreto novelones románticos), en realidad siempre presente en la industria de Hollywood, alcanzó su punto máximo en la década de 1930, con las superproducciones de Historia de dos ciudades (1935), de Jack Conway, La buena tierra (1937), de Sidney Franklin, Cumbres borrascosas (1939), de William Wyler, y uno de los grandes hitos de la historia del cine, Lo que el viento se llevó (1939), de Victor Fleming.

Películas fantásticas

La tendencia a evadirse de una realidad no demasiado halagüeña se acentuó en aquellos años. Un ciclo de películas de terror clásico, entre las que se incluyen Drácula (1931), de Tod Browning, El doctor Frankenstein (1931), de James Whale, y La momia (1932), de Karl Freund, salió de los estudios de la Universal, y generó una serie de secuelas e imitaciones a lo largo de toda la década. Una película que cosechó un éxito rotundo de taquilla fue King Kong (1933), de Merian C. Cooper. En el género fantástico también destacó El mago de Oz (1939), de Victor Fleming, musical infantil basado en el libro de L. Frank Baum, protagonizado por Judy Garland, que se convertiría en la primera artista musical de la década de 1940.

El cine artístico

La producción de películas fantásticas de Hollywood se intentó compensar durante los años treinta con películas más serias y realistas, europeas en su mayor parte, como la alemana El ángel azul (1930), de Josef von Sternberg, que dio a conocer a Marlene Dietrich, o la francesa La gran ilusión (1937), de Jean Renoir, considerada una de las grandes películas antibélicas de la historia del cine. Un cineasta estadounidense procedente de la radio, el escritor-director-actor Orson Welles, sorprendió desde su primera obra con sus nuevos encuadres, objetivos angulares y efectos de sonido, entre otras innovaciones, que ampliaron considerablemente el lenguaje cinematográfico. Aunque nunca llegó a adaptarse a la industria de Hollywood, y pocas veces encontró respaldo financiero para sus proyectos, sus películas Ciudadano Kane (1941) y El cuarto mandamiento (1942) tuvieron una influencia capital en la obra de los cineastas posteriores de Hollywood y del mundo entero.

La producción europea

La producción del centro y del este de Europa fue esporádica en el periodo previo a la II Guerra Mundial, reduciéndose en Alemania a películas de propaganda nazi como el documental Triumph des Willens (Triunfo de la voluntad, 1934), de Leni Riefenstahl, celebración de la concentración anual del partido nacionalsocialista alemán en la ciudad de Nuremberg. En la Unión Soviética, el documental se centró en recreaciones de ópera y ballets demasiado estáticas y elaboradas, con la excepción de dos excelentes películas de Eisenstein por su montaje y por sus innovaciones visuales: Alejandro Nevski (1938) e Iván el Terrible (1944-1948). En Francia, sin embargo, el cine alcanzó uno de sus mejores momentos con el realismo poético de Marcel Carné y las películas de Jean Renoir. Jean Vigo insufló de una enorme fuerza poética a la imagen con ejemplos como Cero en conducta (1933) o L'Atalante (1934). A pesar de la caótica industria francesa, especialmente durante la guerra, la actividad creadora no cesó y Marcel Carné, incluso durante la ocupación nazi, realizaría la obra maestra Les enfants du paradis (Los niños del paraíso, 1945), de más de tres horas de duración, empleando cientos de extras en una alegoría teatral estilizada del amor y la muerte.

El documental británico

Aparte de los primeros trabajos del director Alfred Hitchcock, que empezó a hacer largometrajes en Hollywood en 1939, y el trabajo durante la posguerra del director Carol Reed, con obras como Larga es la noche (1946), la contribución más peculiar del cine británico en las décadas de 1930 y 1940 fue la escuela documentalista dirigida por John Grierson, que acuñó el término documental, definiéndolo como “el tratamiento creativo de la realidad”, para diferenciarlo de los noticiarios y de las películas de viajes. Como resultado del apoyo estatal, se rodaron Song of Ceylon (Canción de Ceilán, 1934), Housing problems (Problemas de la vivienda, 1935) o Night Mail (Correo nocturno, 1936), con las que el género maduró, estableciendo una relación más cercana con el público mediante la inclusión de entrevistas y recreaciones dramatizadas de hechos, en un estilo precursor de los actuales docudramas televisivos.

El documental estadounidense

Las películas de Grierson influyeron de forma importante en los documentales rodados en Estados Unidos, especialmente en los de Pare Lorentz, cuyas películas El arado que rompe los llanos (1936) y El río (1937) eran reflexiones profundas y poéticas sobre las relaciones de la gente y su tierra. Ambos documentales, junto con La ciudad (1939), técnicamente fascinante sobre la planificación urbanística de Williard van Dyke, fueron unánimemente aclamadas en su presentación en la Exposición Universal de Nueva York de 1939. Durante la guerra, los cineastas estadounidenses combinaron el estilo documental con formas de ficción para producir reconstrucciones de historias reales en películas de suspense, como La casa de la calle 92 (1945), de Henry Hathaway, una historia antinazi de espionaje basada en grabaciones del FBI. El movimiento documentalista también influiría en Hollywood, sobre todo en la realización de películas más realistas, del género bélico, como También somos seres humanos (1945, William A. Wellman), una cruda visión del corresponsal de guerra Ernie Pyle y su relación con los soldados en el frente.

Desarrollo del cine en color

Los experimentos con película de color habían comenzado ya en 1906, pero sólo se había usado como curiosidad. Los sistemas ensayados, como el Technicolor de dos colores, fueron decepcionantes y fracasaban en el intento de entusiasmar al público. Pero hacia 1933 el Technicolor se había perfeccionado, con un sistema de tres colores comercializable, empleado por vez primera en la película La feria de la vanidad (1935), de Rouben Mamoulian, adaptación de la novela de William Makepeace Thackeray. La popularidad del color aumentó, y durante los años cuarenta se empleó sobre todo en una serie de musicales clásicos de la MGM (Metro Goldwyn Mayer), entre los que destaca Easter Parade (Desfile de Pascua, 1948), de Charles Walters. En la década de 1950 el uso del color se generalizó tanto que prácticamente el blanco y negro quedó relegado para películas de bajo presupuesto que buscaban un realismo sereno, como Marty (1955) de Delbert Mann, sobre las aspiraciones de un carnicero del Bronx, o El hombre del brazo de oro (1955), de Otto Preminger, en la que se contaba la historia de un drogadicto. A partir de los años sesenta, el blanco y negro quedó para crear efectos especiales en películas como Psicosis (1960) de Hitchcock, o La última película (1971), de Peter Bogdanovich. Más recientemente, lo hemos podido ver casi siempre en películas con pretensiones artísticas, como El hombre elefante (1980), de David Lynch, Toro salvaje (1980), de Martin Scorsese, La ley de la calle (1983), de Francis Ford Coppola, o Zelig (1983), de Woody Allen.

El cine comercial después de la II Guerra Mundial

En la posguerra, la llegada de la televisión supuso un desafío a la industria del cine que aún hoy perdura, cayendo la audiencia de unos 85 millones de espectadores anuales en Estados Unidos durante la guerra a apenas 45 millones a finales de la década de 1950. La industria respondió ofreciendo más espectáculo, que se concretó en el mayor tamaño de las pantallas.

El formato panorámico

En 1953, la Twentieth Century Fox estrenó su película bíblica La túnica sagrada, de Henry Koster, en un sistema nuevo denominado CinemaScope, que inició la revolución de los formatos panorámicos. En una sucesión rápida, todos los estudios lanzaron sus sistemas panorámicos, tales como el Vistavisión, Todd-AO, Panavisión, SuperScope y Technirama. De todos ellos sólo el Todd-AO y el Panavisión sobrevivirían, ya que suponían el uso de una sola cámara, un solo proyector y película estándar de 35 mm, adaptándose más fácilmente a todos los sistemas; su éxito cambió definitivamente la forma de las pantallas de cine. Musicales a todo color, en pantallas anchas y plagados de estrellas, como Ha nacido una estrella (1954), de George Cukor, u Oklahoma (1955), de Fred Zinnemann, superproducciones históricas como Ben-Hur (1959), de William Wyler, y películas de aventuras como Rebelión a bordo (1962), de Lewis Milestone, o Doctor Zhivago (1965), de David Lean, llenarían las pantallas de cine.

Cine tridimensional

Durante un breve periodo, a comienzos de la década de 1950, una novedad conocida como 3D apareció en el mercado. Consistía en la superposición de dos imágenes distintas de la misma escena, cada una tomada con un filtro de color distinto y desde un ángulo ligeramente diferente, que, vistas a través de unas gafas en las que cada ojo llevaba un filtro de color equivalente a los usados durante el rodaje, reproducía la visión estereoscópica, dando impresión de relieve. Pero lo engorroso de tener que utilizar gafas para ver las películas, la falta de nitidez en la imagen y la escasa calidad de las películas con que se lanzó, dieron al traste con la viabilidad comercial del sistema. Tras una moda pasajera, con éxitos relativos como el de Los crímenes del museo de cera (1953), de André de Toth, la novedad ya no fue tal y las películas en 3D se dejaron de producir, distribuyéndose las que ya estaban terminadas en este sistema como películas convencionales.

El declive del sistema de los grandes estudios

A pesar del éxito de los espectaculares formatos panorámicos, la popularidad y la influencia de Hollywood decayó entre las décadas de 1950 y 1960. Los estudios se desprendieron de las salas de exhibición y de otras empresas asociadas y vendieron películas en un mercado más abierto y más competitivo. El star system, en el que los estudios habían invertido millones de dólares, se acababa. Los intérpretes, libres para actuar con independencia de los grandes estudios, exigieron impresionantes sueldos y un porcentaje de los ingresos de sus películas. Hacia 1959, la producción estadounidense había decrecido hasta 250 películas al año, lo que representaba la mitad de la producción realizada durante la guerra. Las películas europeas y asiáticas (japonesas, principalmente), aunque confinadas a las salas de arte y ensayo, se convirtieron en algo corriente para el espectador estadounidense. En 1946, había menos de una docena de salas de arte y ensayo en todo el país, mientras que en 1960 sobrepasaban el millar. Comenzaron a proliferar por todo el mundo los festivales de cine, en los que se mostraba el trabajo de directores cuya obra antes de 1950 era muy poco conocida fuera de sus países de origen.

Renacimiento del cine italiano

A finales de la década de 1940 el cine italiano experimentó un renacimiento con la aparición del neorrealismo, un movimiento cinematográfico que captó la atención mundial y dio a conocer al gran público a varios de los principales directores italianos. El movimiento se caracterizaba por películas de un realismo intenso, casi sobrecargado, rodadas en localizaciones naturales y con actores no profesionales. Este movimiento fue iniciado por Roberto Rossellini con Roma, ciudad abierta (1945), que lograba transmitir una profundidad de emociones nuevas para el público en la descripción de la ocupación nazi de Roma y la resistencia del pueblo italiano. También las películas del actor-director Vittorio de Sica, especialmente Ladrón de bicicletas (1948), rodada por entero en las calles de Milán, reflejaba la dura realidad de la posguerra italiana, y consiguió fama internacional. Otros cineastas formados en el neorrealismo consiguieron también renombre internacional imponiendo su propio estilo. Pier Paolo Pasolini rodó El evangelio según San Mateo (1964), entre otras, siguiendo la tradición neorrealista pura, mientras que Federico Fellini, que había participado en los inicios del movimiento (de hecho, era el guionista de Roma, ciudad abierta), le dio un estilo más poético, como muestra La strada (1954), ensayo sobre la soledad mostrada a través de las figuras de dos cómicos ambulantes, o la sátira de la decadente clase alta italiana de La dolce vita (1960), para llegar en fases posteriores de su obra a la fantasía más personal de Fellini, ocho y medio (1963) o Giulietta de los espíritus (1965). También uno de los más polémicos directores de la década de 1960, Michelangelo Antonioni, emergió del movimiento neorrealista, como se puede percibir en Crónica de un amor (1950), La aventura (1960) o El desierto rojo (1964). Tanto en esta película de Antonioni, como en Giulietta de los espíritus de Fellini, se pone de manifiesto el dominio del color por parte de estos dos directores, que habían rodado hasta entonces en blanco y negro. También procedía del neorrealismo Luchino Visconti, que en sus inicios alternó los montajes teatrales y operísticos con obras totalmente neorrealistas, como Bellísima (1951). Tras este brillante inicio en la posguerra, el cine italiano ha continuado demostrando gran capacidad creativa con una generación de cineastas comprometidos política y socialmente, entre los que, aparte del propio Pasolini, hay que citar a Bernardo Bertolucci, con El conformista (1971), Novecento (1976), una de las obras maestras del cine, o La estrategia de la araña (1970), adaptación de un relato del escritor argentino Jorge Luis Borges; y a Ettore Scola, autor de Una mujer y tres hombres (1974), Feos, sucios y malos (1975), Una jornada particular (1977), La sala de baile (1983), Macarroni (1985) o ¿Qué hora es? (1989).

Películas británicas

Un lugar en la cumbre (1959), de Jack Clayton, marcó el inicio de una serie de películas realistas cuyos argumentos analizaban los problemas de la clase trabajadora inglesa, al igual que como Un sabor a miel (1961), de Tony Richardson, o Sábado noche, domingo mañana (1960), de Karel Reisz, coincidentes con un enorme interés en Estados Unidos por la moda y la cultura británicas. El grupo The Beatles protagonizó dos películas, ¡Qué noche la de aquel día! (1964) y Help! (1965), ambas de Richard Lester, mientras los actores y actrices británicos e irlandeses, como Julie Christie, Albert Finney, Glenda Jackson, Richard Harris, Peter O'Toole, Alec Guinness o Vanessa Redgrave se hicieron muy populares. En este sentido, el cine británico ha venido siendo un punto intermedio entre la industria comercial de Hollywood y el cine europeo de calidad, como muestra alguna producción británica de directores italianos, por ejemplo Blow Up (Deseo en una mañana de verano, 1966), el mayor éxito comercial de Antonioni, adaptación de un relato del argentino Julio Cortázar. El director inglés John Schlesinger rodó en Nueva York Cowboy de medianoche (1969), un mordaz relato de la decadencia del sueño americano. Estas dos películas, por ejemplo, se distribuyeron en Estados Unidos superando los circuitos de las salas de arte y ensayo, llegando al gran público con enorme éxito.

Cine español

La aparición del cine sonoro provoca desorientación en la industria cinematográfica española, que, incapaz de adaptarse con rapidez a los adelantos técnicos, queda por un tiempo paralizada. Se produce una importante emigración a Hollywood. Entre esos profesionales figuraban Benito Perojo, Jardiel Poncela, Edgar Neville y otros. En 1934 se crean los estudios Cinematográfica Española y Americana (CEA), fundados por varios dramaturgos. En esa misma fecha se produce Agua en el suelo, de Eusebio Fernández Ardavín. También en esos años se crea la distribuidora Compañía Industrial Film Española Sociedad Anónima (CIFESA), que después se convertiría también en productora. Durante la dictadura del Francisco Franco se creó la Junta Superior de Censura Cinematográfica, que obligaba a quienes quisieran realizar una película a presentar previamente el guión y después la película, pues ésta debía ajustarse a “la exaltación de los valores raciales y la enseñanza de nuestros principios morales y políticos”.

No obstante, durante esta etapa se realizó un puñado de excelentes películas, como Esa pareja feliz, de Juan Antonio Bardem y Luis García Berlanga, y Surcos, de Nieves Conde, ambas de 1951. En esos años en el cine español se deja sentir la influencia del neorrealismo italiano. Títulos de esa etapa son Bienvenido Mr. Marshall (1952) y El verdugo (1963), ambas de Luis García Berlanga, y Muerte de un ciclista (1955), de Juan Antonio Bardem. En los años sesenta aparece el llamado nuevo cine español, con realizadores como Carlos Saura, que dirige La caza (1965). Otros directores de esta etapa son Mario Camus, Basilio Martín Patino, Miguel Picazo y el actor y director Fernando Fernán Gómez. La década de 1970 se caracterizó por las comedias populares comerciales, todo un subgénero bautizado como `destape'. Luis Buñuel vuelve a España para rodar Tristana (1970) y Víctor Erice realiza El espíritu de la colmena (1973). Una vez reinstaurada la monarquía, el cine se liberaliza y toca temas que en el franquismo estaban prohibidos. En esta etapa el cine español ha cosechado importantes galardones internacionales, como los oscars ganados por Volver a empezar (1982), de José Luis Garci, y Belle Époque (1992), de Fernando Trueba. Uno de los directores españoles que ha obtenido mayor reconocimiento internacional en la década de 1990 es Pedro Almodóvar.

Cine latinoamericano

Los dos países latinoamericanos que poseen una industria cinematográfica más sólida y con mayor tradición son México y Argentina. Véase Cine latinoamericano.

México

En 1920 se crean en México los estudios Camus y, ocho años más tarde, Cándida Beltrán, pionera de las realizadoras mexicanas, dirige El secreto de la abuela. Más fuerte que el deber (1930), de Rafael J. Sevilla, inaugura formalmente el cine sonoro mexicano, con técnicos que se habían formado en Hollywood. En 1931 Eisenstein rueda su inacabada ¡Que viva México! Fernando de Fuentes realiza dos obras fundamentales llenas de madurez cinematográfica: El compadre Mendoza (1933) y el relato épico de la Revolución Mexicana Vámonos con Pancho Villa (1935). En 1940 se consagra Mario Moreno, Cantinflas, con la película Ahí está el detalle, de Juan Bustillo Oro. En esta década se producen películas cuya calidad sería reconocida en todo el mundo, como María Candelaria (1943), de Emilio Fernández; Doña Bárbara (1943), de Fernando de Fuentes, o Distinto amanecer (1943), de Julio Bracho. Es también la década de los grandes actores mexicanos, como Dolores del Río, María Félix, Pedro Armendáriz y Jorge Negrete. En 1942 se crea el Banco Cinematográfico como aval para la producción de películas, pero sólo beneficia a las productoras más fuertes como Grovas, Filmex, Films Mundiales y Posa Films (de Cantinflas). En 1944 se fundan los estudios Churubusco, de donde saldrá la abundante producción mexicana de películas de todos los géneros que invadirá el resto de países latinoamericanos. Juan Orol cultivó un peculiar cine negro mexicano con películas como Misterios del hampa (1944). En 1950 se producen 122 películas, el año más fructífero. Aquel año Luis Buñuel realiza su obra maestra mexicana Los olvidados, premiada en el Festival de Cannes, sobre los jóvenes marginados de las grandes ciudades.

Desde la Dirección General de Cinematografía se da impulso a producciones como Tarahumara (1964), de Luis Alcoriza, que es un nuevo acercamiento a los indígenas marginados. La actriz mexicana Silvia Pinal protagoniza Viridiana (1961), otra obra maestra de Luis Buñuel, rodada en España. El cine mexicano aborda la historia del país desde nuevos enfoques con películas como Emiliano Zapata (1970), de Felipe Cazals, y Reed, México insurgente (1972), de Paul Leduc, o emprende búsquedas en el lenguaje cinematográfico con La hora de los niños (1969), de Arturo Ripstein. Cuando todo apunta a un renacimiento del cine mexicano, al reanudarse además la entrega de los premios Ariel, en la década siguiente la crisis de esa cinematografía se hace evidente. En 1983 los estudios Churubusco son alquilados para películas extranjeras. Aunque directores como Arturo Ripstein, Felipe Cazals, Paul Leduc y otros continúan realizando producciones independientes en la década de 1990, no se ven signos claros de fortalecimiento del cine mexicano como industria capaz de competir con otras cinematografías. Véase Cine mexicano.

Argentina

En Argentina, el otro país latinoamericano con tradición cinematográfica, el panorama es similar. Su industria se remonta a 1915, año en que se realizó Nobleza gaucha, de Humberto Cairo, el mayor éxito del cine mudo argentino. En 1917 debuta en el cine Carlos Gardel con Flor de durazno. En la década de 1930 se construyen los estudios Liminton y Argentina Sono Film. Proliferan las película con temas de tango, como Los muchachos de antes no usaban gomina, de Manuel Romero, que ganan el mercado latinoamericano. En 1942 se alcanza la mayor producción de películas, con un total de 57 títulos, entre ellos La guerra gaucha, de Lucas Demare. Pero en estos años se hace evidente el boicoteo de Estados Unidos con la escasez de película virgen. La industria argentina del cine pierde el mercado latinoamericano en beneficio de las producciones mexicanas. Aunque el gobierno promulga un decreto de exhibición obligatoria de películas nacionales, la crisis continúa y se agrava con las guerras intestinas entre las principales productoras. A finales de la década de 1940 se cierran varios estudios. A partir de entonces, el cine argentino recibe subvenciones, pero la pérdida de los mercados exteriores pesa demasiado. En 1950 se construyen los estudios Alex, pero para entonces muchas productoras habían quebrado.

En 1955 fue invitado Emilio Fernández, el gran director mexicano, para realizar La Tierra del Fuego se apaga. En los años sesenta apareció lo que se llamó nuevo cine argentino, con películas como Alias Gardelito (1961), de Lautaro Murúa. El gran cineasta argentino Torre Nilsson realiza una nueva versión de Martín Fierro en 1968. En la década de 1970 hay un leve repunte de la industria argentina del cine encarnada por producciones independientes y con temáticas distintas a las tradicionales de tangos y gauchos, como La fidelidad (1970), de Juan José Jusid, con el actor Héctor Alterio, que después ha trabajado en el cine español; La Patagonia rebelde (1974), de Héctor Olivera; La Raulito (1975), de Lautaro Murúa; La parte del león (1978), de Adolfo Aristarain, que dirigiría también Tiempo de revancha (1981), con el actor Federico Luppi; Momentos (1980), de María Luisa Bemberg, y El arreglo (1983), de Fernando Ayala. Después de un periodo de cierto estancamiento, en los últimos años el cine argentino ha experimentado un renacer con autores como Eliseo Subiela (No te mueras sin decirme a dónde vas, 1995). Véase Cine argentino.

El cine japonés

En 1951, el director de cine japonés Akira Kurosawa, con Rashomon, ganó el gran premio del Festival Internacional de Cine de Venecia, dando a conocer el potente cine de su país al público occidental, después de años en que maestros japoneses del cine, como Ozu Yasujiro, hubieran sido la fuente de inspiración para los cineastas occidentales (de hecho, el propio Kurosawa fue plagiado por la industria de Hollywood en dos ocasiones, con Los siete samurais (1954), de la que los estadounidenses hacen Los siete magníficos, de John Sturges, seis años después, y con Mercenario (1961), de la que parte Sergio Leone para hacer sus spaghetti-western). Las películas de Mizoguchi y de Kinugasa eran dramas hermosamente producidos con una fotografía bella y caracterizada por un original empleo del color. Cuentos de la Luna pálida de agosto (1953), de Mizoguchi, sobre leyendas japonesas del siglo XVI, y La puerta del infierno (1954), de Kinugasa, sobre un cuento medieval de honor familiar, destacaron como trabajos de una gran madurez artística, profundidad filosófica e impacto visual. Sin embargo, del cine japonés, pese a su calidad y solidez industrial, han llegado a Occidente pocas obras, exceptuando las de Kurosawa, como Trono de sangre (1957), adaptación del Macbeth de Shakespeare, Dersu Uzala (1975), Kagemusha. La sombra del guerrero (1980), Ram (1985) o Los sueños de Akira Kurosawa (1990); las de Shoehi Imamura, como La balada de Narayama (1983); o las de Nagisa Oshima, como El imperio de los sentidos (1976). Véase Cine japonés.

El cine indio

En la India, donde la industria se ha dedicado al mercado interno, con una fuerte producción en cantidad pero con unos niveles de calidad dudosa, también se produjeron en los años cincuenta obras que atrajeron la atención internacional —especialmente de su antigua metrópolis, el Reino Unido—, destacando el realizador Satyajit Ray, con Pather Panchali (Canción de la carretera, 1955), Aparajito (1956) y Apur Sansar (El mundo de Apu, 1959).

Ingmar Bergman

Uno de los directores más originales del panorama internacional de posguerra fue el sueco Ingmar Bergman, que dio a sus películas un aire filosófico muy valorado por los espectadores con inquietudes intelectuales. Por el tratamiento de los grandes problemas que aquejan al hombre: la soledad humana, los conflictos religiosos y las obsesiones sexuales, se convirtió en el principal director sueco y en un creador esencial en la historia del cine. En El séptimo sello (1956) analiza los misterios de la muerte y la moralidad a través de la historia de un caballero medieval que juega una partida de ajedrez con la muerte. En Fresas salvajes (1957), que interpreta el también cineasta Victor Sjöström, crea una serie de flashbacks poéticos rememorando la vida de un viejo profesor. Las películas de Bergman examinan el amor y otras cuestiones clave de la existencia humana; en ellas analiza con mucha habilidad las relaciones y los caracteres de diferentes personajes, todos ellos vívidamente reflejados. En Persona (1966), Secretos de un matrimonio (1973), Gritos y susurros (1972) y Sonata de otoño (1978), las relaciones de amor-odio entre los distintos personajes se entremezclan con las temáticas religiosas y filosóficas que envuelven sus vidas. La carrera de Bergman se ha extendido a lo largo de tres décadas con obras de gran valor, y un estilo visual extraordinario al que acompañan una energía y una inteligencia únicas.

Luis Buñuel

Otra de las figuras imprescindibles en la historia del cine universal es la del español Luis Buñuel, cuya carrera cinematográfica ha transcurrido en su mayor parte en México y Francia, debido a los problemas que tuvo con la dictadura del general Franco tras la Guerra Civil española. De joven era ya un autor de vanguardia; rodó junto al pintor surrealista Salvador Dalí el cortometraje Un perro andaluz (1929) y el mediometraje La edad de oro (1930). Son obras irreverentes con una enorme capacidad para irritar a las autoridades (no sólo españolas, sino también francesas) civiles y eclesiásticas por la fuerza de sus imágenes surrealistas. Buñuel llegó a alcanzar renombre internacional en la década de 1960 por su retrato despiadado de personajes incapaces de asumir su propia esencia humana, como se muestra en Viridiana (1961), rodada y prohibida en España, que obtuvo la Palma de Oro en Cannes. En esta obra, Buñuel muestra las conexiones entre el fetichismo sexual y la simbología religiosa, haciendo lo mismo en Diario de una camarera (1964), rodada en Francia; Bella de día (1966) y Tristana (1970), realizada también en España. Sus películas, a veces de un realismo crudo, son también irónicas e ingeniosas cuando muestran el mundo civilizado de la burguesía occidental, como en El ángel exterminador (1962), en la que un grupo de gente de la alta sociedad debe convivir durante días encerrados en una habitación de la que no pueden salir (pese a que no haya impedimento físico alguno para hacerlo), o en El discreto encanto de la burguesía (1972), Oscar de Hollywood a la mejor película de habla no inglesa. La idea de Buñuel de que la persona busca negar su naturaleza animal creando códigos de civilización y modos de comportamiento ritualizados hasta lo ridículo es demostrada durante toda su obra a través de la subversión —o la perversión— del orden moral establecido, situación que deja a los personajes indefensos e incómodos ante su propio absurdo.

La nouvelle vague francesa

Francia continuó dominando el mercado mundial del cine artístico en las décadas de los años 1950 y 1960, produciendo cineastas muy independientes que experimentaron diversos modos de expresión. Así, Jacques Tati hizo comedias muy personales, reviviendo la pantomima ligera con Las vacaciones de Monsieur Hulot (1953) o Mi tío (1958), entre otras. Con menos éxito comercial, pero con el aprecio de los críticos (que eran los cineastas de su propio grupo), se situaron los directores de la llamada nouvelle vague, inspirados entre otros por Robert Bresson, con Diario de un cura de campaña (1950), películas introspectivas y sobrias, con una fotografía sencilla y producidas con muy bajos presupuestos, en las que se muestra un punto de vista agudo y minucioso del mundo, a través de planos medios constantes, lo que les confiere un aire literario o teatral. Además de esta influencia francesa, los jóvenes de la nouvelle vague se inspiraron en el cine comercial estadounidense de Howard Hawks, Alfred Hitchcock y John Ford, partiendo de su experiencia como espectadores y críticos cinematográficos agrupados en la revista Cahiers du Cinéma, desde la que expusieron su teoría de quién es el verdadero autor: en el cine es solamente el director, cuya personalidad queda grabada en la película a pesar de las presiones de los estudios o las influencias exteriores de cualquier otro tipo.

Los primeros representantes de esta corriente, François Truffaut, Jean-Luc Godard y Alain Resnais, hicieron películas sobre la vida contemporánea francesa entre 1958 y 1959, apoyados por los espectadores de su generación y por una industria insegura en lo financiero, deseosa de que alguien se atreviera a hacer películas comercialmente rentables de bajo presupuesto de producción. Truffaut, admirador de Hitchcock, se dedicó a hacer películas realistas de tono autobiográfico. Así surgieron Los cuatrocientos golpes (1959), El amor a los veinte años (1962), Besos robados (1968), serie que la crítica aprecia y que se continúa con Domicilio conyugal (1970) y L'amour en fuite (El amor en fuga, 1978). En ellas, como en Jules y Jim (1961) y en Disparad al pianista (1960) trata de la libertad en una sociedad restrictiva. Además Truffaut hizo otras películas, menos en la línea de la nouvelle vague, como El pequeño salvaje (1970) o Farenheit 451 (1966). Las películas de Resnais, en especial Hirosima, mi amor (1959) y El año pasado en Marienbad (1961), son paradigmas del cine intimista, en el que se trata de que la voz y las imágenes reflejen con su distanciamiento la lucha —que constituye la vida— entre la distancia emocional y las relaciones con los otros, lucha en la que la distancia suele salir vencedora. Empleando abstracciones estilísticas e intelectuales, y técnicas de montaje distorsionadoras de forma deliberada, Resnais plantea preguntas sobre la cualidad y las consecuencias del tiempo y la memoria, y su relación con las emociones humanas.

El más experimental de los directores del movimiento fue Jean-Luc Godard, cuya primera película, Al final de la escapada (1959), protagonizada por Jean-Paul Belmondo, es un hermoso homenaje a las películas de gángsters estadounidenses, pero desde una perspectiva europea. Los asuntos tratados por este director han sido de lo más variopintos, desde una serie de retratos más o menos autobiográficos de su entonces esposa, como Vivir su vida (1962), hasta la comedia sexual y política de Masculin-féminin (1966), pasando por experimentaciones con el tiempo y el espacio, moviendo la cámara con libertad y permitiendo a sus actores la improvisación a voluntad. En Week-end (1967) hace un amargo estudio de la sociedad contemporánea a través de las peripecias de las víctimas de un accidente de automóvil, que vagan por las autopistas, discutiendo sobre la vida, sobre su propia vida, con personajes literarios y de cine que se cruzan en su camino, conectando pasado, presente y futuro. Después de ésta sus películas se volvieron menos accesibles para el gran público, politizándose decididamente, como en Todo va bien (1972), protagonizada por Jane Fonda, aunque posteriormente ha rodado algunas películas interesantes como Nombre: Carmen (1983).

El nuevo cine alemán

Algún tiempo después de la eclosión de la nouvelle vague francesa, surgió en Alemania un grupo de cineastas jóvenes que compartían un punto de vista crítico sobre la sociedad de su tiempo, rechazando de plano el complaciente materialismo burgués. Werner Herzog, uno de sus representantes más típicos, haría, a través de paisajes impresionantes y personajes exóticos, una reflexión sobre la vida en condiciones difíciles y peligrosas, como en su película más conocida, Aguirre, la cólera de Dios (1972), sobre el conquistador español Lope de Aguirre, que en el siglo XVI y en pleno Amazonas se declaró rebelde al rey Felipe II, pretendiendo, perdido y famélico, dominar un continente entero. Wim Wenders, por su parte, ha tratado sobre la alienación y la autorrealización, como en El amigo americano (1977), París, Texas (1984) o Cielo sobre Berlín (1987), en películas que muestran también su interés por la cultura estadounidense.

Pero el más prolífico (38 largometrajes) y el más destacado de estos cineastas, pese a su temprana desaparición cuando sólo tenía 36 años, fue Rainer Werner Fassbinder, que llevó el cine alemán al nivel de los mejores cines europeos, haciendo, en sólo 12 años, desde el cine más clásico y accesible para el gran público, como Lili Marlen (1981), hasta el más experimental y provocador, como Querelle (1982), pasando por sus cuadros sobre la Alemania de la posguerra con El matrimonio de María Braun (1978), Las amargas lágrimas de Petra von Kant (1972) o Todos nos llamamos Alí (1973), emotiva reflexión sobre el racismo. En todas sus películas trató temas de implacable actualidad, como la alienación, el consumismo, la desigualdad económica, la colonización cultural y el racismo o la opresión política.

El cine australiano

Tras décadas de dominación en las que Australia era un mero decorado para filmar películas extranjeras, un cine nacional pudo emerger a comienzos de la década de 1970, con la obra de Peter Weir (el más destacado de los cineastas australianos) Picnic en Hanging Rock (1975). En esta película se recreaba un incidente de 1900 en el que un grupo de colegialas desapareció de forma inexplicable en una excursión. También han destacado las obras de Bruce Beresford The Getting of Wisdom (1977), sobre la vida en un colegio victoriano de chicas, y Consejo de guerra (1980), que cuenta la historia real de tres soldados australianos que durante la Guerra Bóer fueron juzgados por asesinato de prisioneros y condenados a muerte. Por último, Gillian Armstrong en My Brilliant Career (Mi brillante carrera, 1979) cuenta los primeros años de vida de una escritora feminista de principios de siglo.

El cine estadounidense de las décadas 1960-1990

El impacto del cine europeo sobre los cineastas estadounidenses y el posterior declive del sistema de los estudios coadyuvaron durante las décadas de 1960 y 1970 al cambio del estilo del cine estadounidense.

Los inversores toman el control

A finales de los años sesenta, de los estudios cinematográficos sólo quedaba el nombre, ya que su función original y su propiedad habían sido asumidas por inversores ajenos a la industria. Los nuevos propietarios, las grandes corporaciones audiovisuales, pusieron el acento preferentemente en la producción de películas como una mera inversión de los excedentes de los negocios musicales. Así, los estudios aún funcionaron durante la década de 1960 produciendo adaptaciones de musicales y comedias de Broadway. En 1968, el fin de la censura permitió a la industria de Hollywood especializarse en películas que mostraban un alto grado de violencia y una visión más explícita de las relaciones sexuales.

Los nuevos cineastas estadounidenses

Al mismo tiempo surgió una nueva generación de realizadores bajo la influencia de las tendencias europeas y con el deseo de trabajar con diferentes distribuidores, tomando cada película como una unidad por separado. Muchos de ellos realizaron películas de gran calidad, tanto fuera de la recién descentralizada industria como dentro de sus límites. Algunos de ellos, como Stanley Kubrick, Woody Allen, Arthur Penn, Francis Ford Coppola o Martin Scorsese, han tratado en numerosas ocasiones de trabajar con el respaldo de una compañía financiera, buscando la distribución de sus obras a través de un estudio distinto para cada proyecto, o manteniendo una relación relativamente estable con uno de ellos. Otros directores, como Robert Altman, John Cassavetes o John Sayles, han tratado de eludir los canales establecidos, pero eso les ha supuesto que sólo ocasionalmente hayan conseguido un éxito comercial suficientemente amplio como para financiarse sus siguientes proyectos.

Stanley Kubrick produjo durante unos años una serie de obras interesantes, desde la sátira política de ¿Teléfono rojo? Volamos hacia Moscú (1964), hasta el desafío técnico de 2001: una odisea del espacio (1968), la meticulosa adaptación del siglo XVIII de Barry Lyndon (1975) o el horror gótico de El resplandor (1980), aunque sus mejores películas siguen siendo las primeras: Atraco perfecto (1956), hermosa síntesis del género policiaco, de un fatalismo poético; Senderos de gloria (1957), una de las mejores películas antibélicas de la historia; Espartaco (1960), sobre la revuelta de los esclavos romanos, y Lolita (1962), todas ellas además magistralmente interpretadas. Arthur Penn, más complaciente, con Bonnie y Clyde (1967) conmovió a los espectadores de las salas de arte y ensayo y a los aficionados al cine de violencia y de aventuras, y sirvió de punto de partida para el gusto de nuevas generaciones de espectadores, que marcaron también Mike Nichols con El graduado (1967), o Dennis Hopper con Buscando mi destino (1969). Penn continuó con el cine `contracultural' de los sesenta con El restaurante de Alicia (1969) y Pequeño gran hombre (1970). Por su parte, Woody Allen dirigió y protagonizó una serie de películas formalmente semejantes a las de los cómicos clásicos estadounidenses, algo entre sus admirados Bob Hope y Groucho Marx, pero con un mensaje y unas actitudes peculiares, propias de la sensibilidad de la ciudad de Nueva York. Entre ellas son buenos ejemplos Toma el dinero y corre (1969), Bananas (1971) y El dormilón (1973). Más tarde, Woody Allen ha alcanzado una madurez indudable, alejado ya de la payasada, más reflexivo y al mismo tiempo más amargo, preguntándose permanentemente sobre el sexo, el amor, la muerte y la responsabilidad personal. Aquí cabe citar Annie Hall (1977), Manhattan (1979), Hannah y sus hermanas (1986), Días de radio (1987), Delitos y faltas (1989) y Desmontando a Harry (1997).

En otro estilo totalmente distinto, Francis Ford Coppola aparece como un director de grandes producciones y arriesgados experimentos, no siempre fructíferos comercialmente. Aunque esto no le ha impedido continuar una obra tan personal como la de los autores europeos, ajeno a las conveniencias y a las modas. De sus primeros fracasos económicos se repone con El padrino (1972), un éxito comercial de tal magnitud que le permite hacer la personal La conversación (1973), a la que sigue la producción de American Graffiti (1973), de George Lucas. Con los beneficios obtenidos con esta película realiza El padrino II (1974) y Apocalypse now (1979), adaptación del relato corto de Joseph Conrad “En el corazón de las tinieblas”. Ésta resulta una gran obra aclamada por la crítica pero con un irregular resultado de público. Corazonada (1981) fue un fracaso comercial, lo que no le impide hacer poco después otra de sus mejores obras, La ley de la calle (1983). Vuelve a conseguir el éxito con Tucker: un hombre y su sueño (1988), otra obra maestra. Cierra el ciclo de la familia Corleone con El padrino III (1990). De nuevo obtuvo gran éxito de público en todo el mundo con su particular Drácula (1992). Más clásico, aunque con un estilo personal indiscutible es el también italoamericano Martin Scorsese, autor de Malas calles (1973), Taxi Driver (1976), Toro salvaje (1980), Uno de los nuestros (1990), La edad de la inocencia (1993) o Casino (1995).

Robert Altman, tras un enorme éxito comercial con M*A*S*H* (1970), que se convirtió posteriormente en una larga y popular serie de televisión, hace una serie de películas, por lo general complejas para el gran público, exceptuando el musical Nashville (1975), en el que intervienen 26 personajes principales formando un gran tapiz de la política, la música, el teatro y la religión. En sus obras más recientes vuelve a recuperar el contacto con el espectador, como en El juego de Hollywood (1991), una comedia negra sobre las intrigas de la producción cinematográfica hollywoodiense, Vidas cruzadas (1993) y Prêt-à-porter (1994) y Kansas City (1996). Cassavetes, actor-director cuyo primer largometraje fue el documental experimental Sombras (1960), se sumó a la producción convencional tras su éxito comercial con Faces (1968), que repetiría con Una mujer bajo la influencia (1974), protagonizada por su mujer, Gena Rowlands. John Sayles, escritor-director-actor independiente, consiguió el aplauso de la crítica por películas como Return of the Secaucus Seven (1980), Matewan (1987) y Passion Fish (Peces de pasión, 1992). Spike Lee, que escribió, dirigió, produjo y protagonizó películas tan alabadas por la crítica y por el público como Nola Darling (1986), Haz lo que debas (1989) o Malcolm X (1992), en la actualidad parece empeñado en crear un nuevo tipo de cine, centrado casi exclusivamente en la problemática de la comunidad afroamericana en Estados Unidos.

Fantasías de gran presupuesto

Frente al cine que representan los anteriores realizadores de cine de autor, pese a ser estadounidense y en ocasiones ligado a la industria de Hollywood, ésta ha continuado otras líneas de producción para el consumo masivo, especialmente de niños y adolescentes. Se basan principalmente en el efectismo que las nuevas tecnologías y los grandes presupuestos permiten. Dentro de esta categoría figuran las películas de catástrofes, como La aventura del Poseidón (1972), de Ronald Neame, El coloso en llamas (1974), de John Guillermin e Irvin Allen, o Titanic (1997), de James Cameron, galardonada con 11 oscars de la Academia; las recreaciones de personajes del cómic, como Superman (1978), de Richard Donner, y Batman (1989), de Tim Burton, y sus interminables secuelas; o las películas bélicas de ciencia ficción como La guerra de las galaxias (1977), de George Lucas.

En estos géneros comerciales ha destacado Steven Spielberg, desde Tiburón (1975), modelo de películas en las que una criatura terrorífica atemoriza a una pacífica comunidad, a las más serenas y emotivas de ciencia ficción Encuentros en la tercera fase (1977) y E.T. el extraterrestre (1982), que explotaron la fascinación por las posibilidades de vida extraterrestre y su posible contacto con los humanos. En la serie de Indiana Jones recrea el cine clásico de aventuras: En busca del arca perdida (1981), Indiana Jones y el templo maldito (1984) e Indiana Jones y la última cruzada (1989).

Los disparatados costes de estas megalómanas películas han llevado a varios estudios a la bancarrota y han forzado a otros a producir sólo 2 o 3 películas al año, con lo que la oferta de películas disponibles se reduce, fenómeno que tiende a intensificarse con las políticas de marketing aplicadas desde comienzos de los noventa: concentrar el esfuerzo publicitario y promocional en pocas películas que copan luego casi todas las salas de cine de las ciudades de todo el mundo, con lo que queda escaso lugar para la exhibición de pequeñas producciones independientes o producciones medias de las industrias nacionales. Estas películas quedan así arrinconadas en salas especializadas, semejantes a las antiguas de arte y ensayo, de aforo reducido, a las que acuden los aficionados y no el gran público. De hecho, incluso en Estados Unidos, aunque se siguen produciendo películas intimistas, más basadas en el guión, la interpretación y la habilidad de los realizadores, como Kramer contra Kramer (1979), Gente corriente (1980) o Paseando a Miss Daisy (1989), son a menudo (por no ser fantásticas ni efectistas y por tratar de analizar o recrear la realidad cotidiana) consideradas una empresa azarosa por los distribuidores, lo que facilita aún menos su pervivencia.

La televisión por cable y el vídeo doméstico

La década de 1980 ha sido testigo de una revolución en las formas de acceder a los productos cinematográficos, con la sustitución del visionado en las salas de cine por el vídeo doméstico, en el que los títulos de estreno —especialmente los de las grandes superproducciones— están disponibles poco después de su pase por las salas. Este hecho, unido a la implantación progresiva de la televisión por cable, con canales temáticos, en las que hay y habrá aún más canales especializados en la emisión continua de películas, amenaza seriamente no ya a la industria, sino el hecho mismo del cine. Como consecuencia, se está creando un clima parecido al de la década de 1950, cuando las productoras buscaron, ante la llegada de la televisión, nuevos formatos en busca de un mayor espectáculo, para conseguir atraer nuevamente a los espectadores a las salas de cine.

Televisión (TV), transmisión instantánea de imágenes, tales como fotos o escenas, fijas o en movimiento, por medios electrónicos a través de líneas de transmisión eléctricas o radiación electromagnética (ondas de radio).

Imágenes de televisión

La fotolitografía corriente se caracteriza por la división de la imagen en una enorme cantidad de puntos pequeños luminosos u oscuros. La transmisión facsímil (fax), sistema de transmisión eléctrica de fotografías, dibujos o elementos impresos, también se basa en esta subdivisión en puntos. En ambos casos, los puntos son tan pequeños y tan numerosos que la imagen aparece al ojo del observador como un todo integrado. Las imágenes de televisión están formadas análogamente por un esquema de elementos tonales que configuran una imagen completa. Sin embargo, a diferencia de los puntos de un grabado o de la transmisión facsímil, que aparecen simultáneamente en la superficie del papel, los diferentes elementos tonales de la imagen de televisión aparecen en la superficie de proyección uno tras otro en una secuencia temporal; forman la imagen porque la persistencia de la visión los combina para formar una imagen completa.

Exploración de imágenes

La subdivisión de una imagen en una secuencia de elementos individuales que más tarde pueden volver a combinarse con el fin de recrear dicha imagen, se efectúa mediante una técnica denominada captación de imágenes. El objetivo va pasando por toda la imagen de forma análoga a como el ojo del lector recorre una página escrita, palabra a palabra y línea a línea. Esa exploración genera una señal eléctrica proporcional a la luminosidad del punto explorado. En el receptor, un segundo dispositivo recrea la imagen del objeto desplazando un punto de luz, modulado por la señal, en sincronismo perfecto con la captación del transmisor.

Hay diferentes medios de exploración, tanto mecánicos como eléctricos, algunos de los cuales se describen en este artículo (véase Historia más adelante). Sin embargo, casi todos los sistemas modernos de televisión utilizan el movimiento de un haz de electrones que recorre la pantalla de los tubos tomavistas o de los tubos receptores. La ventaja de la exploración mediante haz de electrones radica en que puede desplazarse con mayor rapidez y puede explorar una imagen completa en una fracción de segundo.

La figura 1 (véase un poco más abajo) muestra, de forma simplificada, el camino trazado por un haz de electrones al explorar toda la superficie de una foto o una imagen. Las líneas continuas representan el camino descrito por el haz sobre la superficie de la imagen y las líneas de puntos, los tiempos de retorno del haz. Durante estos intervalos, necesarios para situar de nuevo el haz en el punto de partida de la siguiente línea o de toda la función de exploración, la corriente del haz se elimina. El dibujo muestra un esquema de exploración sencilla compuesta por relativamente pocas líneas y una repetición simple del esquema. En la exploración real se utiliza un gran número de líneas y el esquema se somete a exploración en dos fases entrelazadas.

Los inventos de la historia

Un esquema completo de exploración de barrido, como el representado, produce una única imagen estática, análoga a un único fotograma de una película. Al repetir el esquema varias veces por segundo, se registran los cambios de la imagen en movimiento, produciendo para el observador la sensación de movimiento continuo.

Cuanto mayor sea el número de líneas de barrido vertical en una imagen, y cuanto mayor sea el número de elementos registrados en cada línea según se explora de izquierda a derecha, mayor es la definición o capacidad de la imagen para mostrar detalles minúsculos u objetos pequeños. En televisión, la frecuencia de repetición del esquema y el número utilizado de líneas de barrido tiene que ser estándar para un determinado sistema. Para mayor comodidad, estas normas de televisión se fijan para todas las emisoras y receptores de cada país. En Europa y algunas otras partes del mundo se utiliza el sistema PAL (Phase Alternate Line), compuesto por 625 líneas y 25 imágenes por segundo que proporcionan una alta definición, ya que al transmitir cada fotograma como dos campos, se ven unas 50 imágenes por segundo. En Estados Unidos, sin embargo, las emisoras y los fabricantes de receptores adoptaron la norma de 525 líneas horizontales por fotograma y una frecuencia de 30 fotogramas por segundo. El sistema francés SECAM (Color Secuencial de Memoria) tiene 525 líneas con 30 fotogramas por segundo. España también utiliza este sistema. Según se incrementa el número de líneas y elementos se obtienen imágenes de televisión más nítidas.

La señal de televisión

La señal de televisión es una compleja onda electromagnética (véase Electromagnetismo) de variación de tensión o intensidad, compuesta por las siguientes partes: 1) una serie de fluctuaciones correspondientes a las fluctuaciones de la intensidad de luz de los elementos de la imagen a explorar; 2) una serie de impulsos de sincronización que adaptan el receptor a la misma frecuencia de barrido que el transmisor; 3) una serie adicional de los denominados impulsos de borrado, y 4) una señal de frecuencia modulada (FM) que transporta el sonido que acompaña a la imagen. Los tres primeros elementos conforman la señal de vídeo y se describen más adelante.

Las fluctuaciones de intensidad o tensión correspondientes a las variaciones de la intensidad de la luz, suelen llamarse señal de vídeo. Las frecuencias de dicha señal oscilan entre 30 millones y 4 millones de Hz, dependiendo del contenido de la imagen.

Los impulsos de sincronización son picos pequeños de energía eléctrica generados por los correspondientes osciladores en la estación emisora. Estos impulsos controlan la velocidad del barrido horizontal y vertical tanto de la cámara como del receptor. Los impulsos de sincronismo horizontal se producen a intervalos de 0,01 segundos y su duración es prácticamente la misma.

Los impulsos de borrado anulan el haz de electrones en la cámara y en el receptor durante el tiempo empleado por el haz de electrones en volver desde el final de una línea horizontal hasta el principio de la siguiente, así como desde la parte inferior del esquema vertical hasta la parte superior. La sincronización y estructura de estos impulsos resultan extremadamente complejas.

Cámaras de televisión

La cámara de televisión se asemeja a una cámara fotográfica normal por cuanto va equipada con una o varias lentes y un mecanismo de enfoque de la imagen formada por la lente sobre una superficie sensible. Estas superficies forman parte de tubos electrónicos llamados tubos tomavistas, capaces de transformar las variaciones de la intensidad de la luz en variaciones de la carga o corriente eléctrica. El tubo tomavistas original fue el iconoscopio, utilizado durante mucho tiempo para televisar películas. En el caso de escenas con un nivel de luminosidad bajo, como en las salas o habitaciones normalmente iluminadas, se utiliza el orticón de imagen de alta sensibilidad o vidicón.

Iconoscopio

Al igual que el tubo tomavistas, el iconoscopio presenta varios inconvenientes. Uno de los mayores es que exige una iluminación enorme del sujeto para producir una señal útil. Si se están utilizando las cámaras de televisión dentro de un estudio bajo condiciones controladas de luz, este inconveniente no es importante, pero el iconoscopio no se puede utilizar para televisar acontecimientos en condiciones adversas de luz.

Orticón de imágenes

A fin de solventar esta dificultad se han inventado diferentes tubos tomavistas. El más sensible de todos es el orticón de imagen, representado en la figura 2. La sensibilidad de este tubo es tal que es capaz de producir una señal en cualquier condición de luz que resulte aceptable para el ojo humano; a efectos de demostración, el orticón ha llegado a producir señales válidas de televisión en escenas iluminadas únicamente por velas. Otra ventaja del orticón es la de utilizar una pantalla relativamente pequeña que se puede incorporar a cualquier cámara de tamaño medio.

El orticón lleva un mosaico plano de cristal en uno de sus extremos. La cara interior del mosaico va recubierta por una capa continua de un compuesto alcalino intermetálico que constituye una superficie fotoeléctrica sensible. La emisión de electrones por parte de la capa se somete a aceleración y mediante un campo magnético (véase Magnetismo) se enfoca sobre un cristal de muy baja conductividad eléctrica, la llamada placa acumuladora. En frente de la placa hay una pantalla de malla metálica con unos 155.000 orificios por centímetro cuadrado. Detrás de la placa, un anillo concéntrico metálico recubierto en la parte interior del tubo constituye el elemento de desaceleración, y por detrás del anillo hay una capa en el cuello del tubo que actúa de ánodo, es decir, de electrodo con carga negativa. Al final del tubo hay un cañón de electrones que genera un haz de electrones y una estructura denominada multiplicador de electrones.

Los electrones emitidos por la superficie fotosensible inciden en la placa, produciendo la emisión de electrones secundarios en una proporción de varios de ellos por cada electrón que llega a la placa desde la superficie fotosensible. Esta emisión secundaria genera una nube de cargas positivas en la placa que equivale a la imagen luminosa de la superficie fotosensible. En esta imagen de cargas, las zonas luminosas son más positivas y las oscuras menos. Los electrones secundarios son captados por la pantalla de malla. El cristal que se utiliza para la placa es tan fino que las diferentes cargas positivas en la parte exterior pasan a través de la parte interior de la placa, neutralizando las cargas negativas depositadas por el haz de barrido.

Este mecanismo de barrido del tubo está constituido por el cañón de electrones, por el ánodo cilíndrico en el cuello del tubo, que conjuntamente actúan como origen de un haz de electrones, y un juego de bobinas deflectoras (no representadas en la figura 2) colocadas fuera del tubo igual que las bobinas deflectantes del iconoscopio. El haz de barrido se ve frenado, justo antes de incidir en la placa, por la acción del anillo desacelerador de carga negativa y alcanza la placa sin la energía suficiente para neutralizar los electrones secundarios que sobrepasan en número a los electrones del haz. A medida que el haz incide sobre cada una de las partes del patrón de cargas eléctricas positivas en la placa, suelta suficientes electrones como para neutralizar la carga positiva en dicha parte de la placa. Los electrones restantes se reflejan de nuevo hacia el cañón de electrones y su multiplicador asociado. En las áreas con mayor carga positiva, que corresponden a las zonas luminosas de la imagen, se necesitan más electrones para neutralizar la carga, reflejándose menos electrones.

El multiplicador de electrones —que forma un disco alrededor de la abertura a través de la cual `dispara' el cañón de electrones, seguido de varios elementos simétricos detrás del disco— actúa como un elemento amplificador mediante la emisión de electrones secundarios. El primer disco de un orticón de imagen suele estar a un voltaje de 200 V y los elementos posteriores, o dinodos, tienen una tensión positiva mayor. Los electrones que inciden en el disco liberan electrones secundarios que, a su vez, liberan todavía más al pasar de un dinodo a otro. En consecuencia, la señal de la cámara se multiplica al pasar de un elemento al siguiente.

Vidicón

Otro de los tipos de tubo tomavistas utilizado en la transmisión moderna de televisión es el vidicón. La imagen se proyecta sobre una placa fotoconductora, por lo general una capa fina de una sustancia como el trisulfato de antimonio, que presenta una conductividad eléctrica variable que aumenta con la exposición a la luz. Este material fotoconductor se aplica sobre un electrodo conductor transparente que actúa como la placa de señal y tiene carga positiva con respecto a la fuente del haz de electrones. Este haz, enfocado y desviado igual que en el caso del orticón de imagen, deposita una cantidad suficiente de electrones sobre la placa para compensar la carga que ha perdido desde el barrido anterior sobre ese mismo punto. Esta carga es mayor en las zonas iluminadas de la placa que en las oscuras. El desplazamiento de la carga en el generador de la señal, que es igual a la carga depositada por el haz, genera la señal de vídeo en la entrada del amplificador acoplado al tubo.

El plumbicón, variante del vidicón, presenta ciertas características, como la ausencia de retraso (que origina la apariencia borrosa de las imágenes en movimiento en la pantalla) y la proporcionalidad entre la señal de salida y del brillo de la imagen, que lo hacen especialmente adecuado para las cámaras de televisión en color.

El vidicón es un tubo sencillo y compacto de alta sensibilidad. Debido a su reducido diámetro de unos 2,5 cm y longitud, unos 15 cm, se utiliza mucho en televisión de circuito cerrado. Este tipo de televisión se utiliza siempre que no es necesaria la emisión a grandes distancias, por ejemplo, cuando el emisor y el receptor se hallan en un mismo edificio o zona. En estas circunstancias, la cámara puede alimentar directamente a las pantallas próximas a través de conexiones por cable, eliminando los potentes sistemas de emisión. La televisión de circuito cerrado se utiliza en la industria, el comercio y la investigación para llegar a lugares inaccesibles o peligrosos.

Transmisión de televisión

Si se exceptúan los circuitos especiales necesarios para producir los pulsos de sincronización y borrado del barrido y los diferentes equipos especiales que se utilizan para examinar o controlar las señales desde la cámara de televisión, todo el resto del sistema de transmisión de televisión recuerda al de una emisora de radio de AM (véase Radio: Modulación). El equipo de sonido no se diferencia en nada del utilizado en las emisiones de frecuencia modulada, y la señal de sonido a veces se emite desde una antena independiente, constituyendo de hecho una unidad de emisión totalmente independiente.

Canales

Sin embargo, la emisión de televisión presenta una serie de problemas específicos que no existen en las emisiones normales de sonido, siendo el principal el del ancho de banda. Modular una onda electromagnética implica generar una serie de frecuencias denominadas bandas laterales que corresponden a la suma y a la diferencia entre la frecuencia de radio, o portadora, y las frecuencias moduladoras. En las emisiones normales, donde la señal sólo utiliza frecuencias hasta de 10.000 Hz, o 10 kHz, las bandas laterales ocupan poco espacio en el espectro de frecuencias, lo que permite asignar a las distintas emisoras frecuencias de portadora con una diferencia tan pequeña como 10 kHz sin que se produzcan interferencias apreciables. Por el contrario, la gama de frecuencias de una sola señal de televisión es de unos 4 millones de Hz, o 4 MHz, por lo que tales señales ocupan un espacio 400 veces mayor que la gama completa de frecuencias utilizada por una estación de radio en las emisiones AM corrientes.

A fin de disponer de un número suficiente de canales para dar cabida a una serie de emisoras de televisión en una misma zona geográfica, es preciso utilizar frecuencias de transmisión relativamente elevadas para las portadoras de televisión. En Estados Unidos, por ejemplo, el número de canales asignados a las emisiones de televisión asciende a 68. Esta cifra se desglosa en 12 canales en la banda de frecuencias muy elevadas (VHF) y 56 en la banda de las ultraelevadas (UHF).

Emisión de alta frecuencia

La utilización de las altas frecuencias para la emisión de televisión plantea una serie de problemas muy distintos a los de la emisión ordinaria de sonido. El alcance de las señales de radio de baja frecuencia es muy amplio, alcanzando centenares e incluso millares de kilómetros. Las señales de alta frecuencia, por el contrario, poseen un alcance relativamente limitado y a menudo no cubren mucho más de la distancia visible entre estaciones debido a la curvatura de la tierra. Así pues, mientras que la zona de servicio de una emisora normal de radio puede tener un radio muy por encima de los 160 km, la de la emisora de televisión está limitada a unos 56 km, dependiendo de la altura de las antenas emisora y receptora. La cobertura total para un país de cierta extensión requiere muchas más estaciones de televisión que la radiodifusión ordinaria.

Otro de los problemas con los que choca la utilización de altas frecuencias para la emisión de televisión consiste en que a dichas frecuencias, las ondas de radio se comportan casi como ondas luminosas y se reflejan en objetos sólidos, como montañas o edificios. A menudo, alguno de estos reflejos de una emisora se captan en un determinado punto de recepción, originando imágenes múltiples en la pantalla del receptor por haber viajado las señales reflejadas diferentes distancias y por tanto, por haber llegado al receptor en distintos tiempos.

El problema de las señales reflejadas, así como el de la recepción de las señales de televisión a distancias superiores al alcance normal, han quedado resueltos en gran medida merced a la utilización de antenas receptoras especiales con una ganancia muy elevada para amplificar señales débiles. La mayoría son además direccionales, y presentan una gran ganancia para señales que se reciben en una determinada dirección y muy baja para las que inciden en las demás direcciones. La orientación correcta de la antena direccional permite seleccionar una de las señales reflejadas y eliminar las otras, suprimiendo así las imágenes múltiples en un punto concreto.

Televisión por satélite

Además del cable y las estaciones repetidoras terrestres, el satélite artificial constituye otro medio de transmisión de señales a grandes distancias. Un repetidor de microondas en un satélite retransmite la señal a una estación receptora terrestre, que se encarga de distribuirla a nivel local.

Los problemas principales de los satélites de comunicaciones para la transmisión son la distorsión y el debilitamiento de la señal al atravesar la atmósfera. Tratándose además de distancias tan grandes se producen retrasos, que a veces originan ecos. Ciertos satélites repetidores de televisión actualmente en órbita están concebidos para retransmitir señales de una estación comercial a otra. Ciertas personas han instalado en sus hogares antenas parabólicas que captan la misma transmisión, eludiendo a menudo el pago de las tarifas por utilización de la televisión por cable, aunque ya se están efectuando transmisiones codificadas para evitar este fraude.

Receptores de televisión

El elemento más importante del receptor de televisión es el tubo de imágenes o cinescopio, que se encarga de convertir los impulsos eléctricos de la señal de televisión en haces coherentes de electrones que inciden sobre la pantalla final del tubo, produciendo luz así como una imagen continua.

Cinescopios

El cinescopio guarda con el receptor la misma relación que el tubo tomavistas con el emisor de televisión. La estructura real del cinescopio corresponde a la de un tubo de rayos catódicos, que recibe este nombre por generar un haz de electrones que proceden del cátodo, el electrodo negativo.

La figura 3 muestra el funcionamiento de un cinescopio típico. Alojado en la parte más angosta de un tubo en forma de embudo se halla el cañón de electrones, compuesto por un filamento catódico, una rejilla de control y dos ánodos. Los electrones emitidos por el cátodo se enfocan para formar un haz compacto haciéndolos pasar por un pequeño orificio de la rejilla de control, que se mantiene a una tensión negativa respecto del cátodo. Este potencial ligeramente negativo de la rejilla hace que algunos electrones regresen al cátodo, dejando pasar sólo los que tienen una velocidad suficientemente elevada. Los dos ánodos se hallan a un potencial positivo creciente con respecto al cátodo, aplicando una aceleración a los electrones. El efecto del campo eléctrico entre los dos ánodos consiste en enfocar los electrones que atraviesan el tubo de forma que incidan sobre un único punto de la pantalla en la parte ancha del tubo. Por lo general hay la posibilidad de modificar la intensidad relativa del campo para poder centrar exactamente el punto en la pantalla. Una bobina de enfoque magnético suele ser la encargada de realizar la misma función que el campo entre ambos ánodos.

La pantalla

La pantalla está formada por un recubrimiento de la parte interior del tubo con alguno de los muchos tipos de productos químicos conocidos como sustancias fosforescentes, que presentan la propiedad de la luminiscencia al estar sometidos a un bombardeo de un haz de electrones. Cuando el tubo está encendido, el haz de electrones es perceptible en la pantalla en forma de un pequeño punto luminoso.

En el cinescopio representado en la figura 3, el barrido del haz de electrones se consigue mediante dos parejas de placas deflectoras. Si una de las placas tiene carga positiva y la otra negativa, el haz se aparta de la negativa y se acerca a la positiva. La primera pareja de placas del tubo representada en el esquema desplaza el haz hacia arriba y hacia abajo y la segunda pareja lo hace lateralmente. En el receptor se generan los voltajes oscilantes de barrido y se sincronizan perfectamente con los del emisor mediante los impulsos de sincronismo de éste. Así, al sintonizar una emisora en el receptor, el ritmo y secuencia de barrido del cinescopio quedan ajustados automáticamente a los del tubo tomavistas en el emisor. En los cinescopios actuales, la deflexión se consigue mediante los campos magnéticos de dos pares de bobinas que forman un anillo deflector por fuera del tubo. Las corrientes de deflexión provienen de un generador en el receptor, sincronizado con el emisor.

La señal de cámara del emisor se amplifica en el receptor y se aplica a la rejilla de control del cinescopio. Cuando la rejilla se hace negativa por efecto de la señal, la rejilla repele los electrones; y cuando la señal negativa se hace lo suficientemente intensa, no pasa ningún electrón y la pantalla queda a oscuras. Si la rejilla se torna ligeramente negativa, algunos electrones la atraviesan y la pantalla muestra un punto de leve luminosidad que corresponde al gris de la imagen original.

A medida que el potencial de la rejilla se va acercando al del cátodo, la pantalla muestra un punto brillante que corresponde al blanco en la imagen original. La acción concertada del voltaje de exploración y el de la señal de cámara hace que el haz de electrones describa un trazo luminoso en la pantalla que es la reproducción exacta de la escena original. La sustancia fosforescente de la pantalla continúa brillando durante un breve lapso después de haber sido activa por el haz de electrones, de forma que los diferentes puntos se entremezclan formando una imagen continua.

El tamaño del extremo del tubo del cinescopio determina el tamaño de la imagen en la pantalla. Los cinescopios se fabrican con pantallas que tienen una medida en diagonal (desde la esquina inferior izquierda hasta la superior derecha) entre 3,8 y 89 cm. Ya se han construido pantallas de cristal líquido, o LCD, para los televisores. La fabricación de tubos de grandes dimensiones resulta costosa y difícil y además corren mayor riesgo de rotura. Para obtener una imagen muy grande con tubos relativamente pequeños se suele proyectar la imagen sobre pantallas translúcidas u opacas. Estos cinescopios de proyección trabajan con tensiones muy altas para producir imágenes notablemente más luminosas que las que generan los tubos normales.

Circuitos receptores

Los circuitos de los receptores modernos de televisión son a la fuerza muy complejos, pero la idea general de cómo funcionan resulta fácilmente comprensible a la vista de la figura 4. La señal que recibe la antena se sintoniza y se amplifica en la etapa de radiofrecuencia. En la etapa de modulación la señal se mezcla con la salida de un oscilador local en el receptor que genera una frecuencia constante. Esta mezcla, o modulación, produce frecuencias heterodinas correspondientes a la señal de imagen y a la de sonido. Una vez separadas por circuitos filtro que permiten el paso de una banda de frecuencias y rechazan todas las demás, ambas señales se amplifican independientemente. La señal de sonido se amplifica en un amplificador intermedio, se demodula y se vuelve a amplificar de nuevo con un amplificador audio igual que en los receptores ordinarios de FM. En muchos de los receptores modernos, la señal de sonido se separa de la de imagen en una etapa posterior en el amplificador de vídeo.

La señal de vídeo también se amplifica mediante un dispositivo intermedio independiente y a continuación se detecta. Tras someterla a otra amplificación posterior, la señal se divide con circuitos filtro en dos componentes separados. La señal de cámara y los impulsos de borrado pasan directamente a la rejilla del cinescopio para controlar la intensidad del haz de electrones. Los dos conjuntos de impulsos de sincronización se separan por filtrado en los componentes verticales y horizontales y se aplican a los osciladores que generan los voltajes usados para deflectar el haz de electrones. Las salidas de los osciladores vertical y horizontal se amplifican y se conducen al correspondiente conjunto de imanes deflectores del cinescopio a fin de formar el esquema de barrido.

La utilización de válvulas en la televisión comenzó su declive, igual que en el caso de la radio, a finales de los años sesenta. Se sustituyeron por los transistores, circuitos integrados y demás dispositivos electrónicos de estado sólido que son mucho más pequeños y consumen menos potencia.

El receptor doméstico de televisión se ha ido haciendo con los años cada vez más complejo. El televisor moderno ya no es sólo un elemento para sintonizar los programas emitidos. Es una unidad compleja, controlada por software capaz de recibir y visualizar servicios de teletexto y puede descodificar y reproducir emisiones musicales de alta fidelidad. Además, la cantidad de circuitería digital y de software en la televisión moderna (casi tan abundante como en alguna de las naves espaciales de los años ochenta) permite ajustarla y controlarla a gusto del espectador mediante un dispositivo de control remoto. La mayoría de los televisores dispone de conectores para enchufar grabadoras de vídeo y consolas de videojuegos. La idea de que el televisor es algo que se enciende simplemente para verse empieza a quedar bastante anticuada.

Teletexto

El sistema de teletexto visualiza en la pantalla del televisor información impresa y diagramas sencillos. Utiliza algunas de las líneas de reserva disponibles en la señal ordinaria de emisión. El sistema Ceefax de la BBC en el Reino Unido, por ejemplo, aprovecha algunas de las líneas fuera de la pantalla del total de 625 disponibles para transmitir información codificada, incluyendo noticias, información meteorológica, deportes, informes económicos, servicios de citas, recetas culinarias y guías de vacaciones. El descodificador del televisor se encarga de filtrar el teletexto del resto de la información de imágenes y de visualizarla a continuación en pantalla. Una pantalla normal de teletexto resulta bastante pobre comparada con la de las computadoras, ya que está formada por sólo 24 líneas de 40 caracteres.

Televisión en color

La televisión en color entró en funcionamiento en Estados Unidos y otros países en la década de 1950. En México, las primeras transmisiones en color se efectuaron en 1967 y en la década siguiente en España. Más del 90% de los hogares en los países desarrollados disponen actualmente de televisión en color.

Color compatible

La televisión en color se consigue transmitiendo, además de la señal de brillo, o luminancia, necesaria para reproducir la imagen en blanco y negro, otra que recibe el nombre de señal de crominancia, encargada de transportar la información de color. Mientras que la señal de luminancia indica el brillo de los diferentes elementos de la imagen, la de crominancia especifica la tonalidad y saturación de esos mismos elementos. Ambas señales se obtienen mediante las correspondientes combinaciones de tres señales de vídeo, generadas por la cámara de televisión en color, y cada una corresponde a las variaciones de intensidad en la imagen vistas por separado a través de un filtro rojo, verde y azul. Las señales compuestas de luminancia y crominancia se transmiten de la misma forma que la primera en la televisión monocroma. Una vez en el receptor, las tres señales vídeo de color se obtienen a partir de las señales de luminancia y crominancia y dan lugar a los componentes rojo, azul y verde de la imagen, que vistos superpuestos reproducen la escena original en color. El sistema funciona de la siguiente manera.

Formación de las señales de color

La imagen de color pasa a través de la lente de la cámara e incide sobre un espejo dicroico refleja un color y deja pasar todos los demás. El espejo refleja la luz roja y deja pasar la azul y la verde. Un segundo espejo dicroico refleja la luz azul y permite el paso de la verde. Las tres imágenes resultantes, una roja, otra azul y otra verde, se enfocan en la lente de tres tubos tomavistas (orticones de imagen o plumbicones). Delante de cada tubo hay unos filtros de color para asegurar que la respuesta en color de cada canal de la cámara coincide con los colores primarios (rojo, azul y verde) a reproducir. El haz de electrones en cada tubo barre el esquema de imagen y produce una señal de color primario. Las muestras de estas tres señales de color pasan a un sumador electrónico que las combina para producir la señal de brillo, o blanco y negro. Las muestras de señal también entran en otra unidad que las codifica y las combina para generar una señal con la información de tonalidad y saturación. La señal de color se mezcla con la de brillo a fin de formar la señal completa de color que sale al aire.

Receptores de color

El receptor de televisión en color lleva un tubo de imágenes tricolor con tres cañones de electrones, uno para cada color primario, que exploran y activan los puntos fosforescentes en la pantalla del televisor. Estos puntos minúsculos, que pueden sobrepasar el millón, están ordenados en grupos de tres, uno rojo, otro verde y otro azul. Entre los cañones de electrones y la pantalla hay una máscara con diminutas perforaciones dispuestas de forma que el haz de electrones de cada cañón sólo pueda incidir sobre su correspondiente punto fosforescente. El haz que pinta la información roja sólo chocará con las fosforescencias rojas, y lo mismo para los otros colores.

Cuando la señal de color entrante llega a un televisor de color, pasa por un separador que aísla el color del brillo. A continuación se descodifica la información de color. Al volverse a combinar con la información del brillo, se producen diferentes señales de color primario que se aplican al tubo tricolor, recreándose la imagen captada por la cámara de color. Si la señal de color llega a un televisor en blanco y negro, los circuitos del receptor ignoran los datos relativos a tonalidad y saturación y sólo tienen en cuenta la señal de brillo. La norma de televisión en color adoptada en Estados Unidos por el National Television System Committee (NTSC) y que es la usual en América Latina, no ha sido aceptada en otras partes del mundo. Quizá sobre todo por la ausencia de consenso acerca del equilibrio entre calidad y complejidad de la norma a utilizar. En muchas partes de Europa se rechaza la norma NTSC. En consecuencia, existen en el mundo varias normas, cada una de ellas con sus propias características. En el Reino Unido, la norma actual es PAL (Phase Alternate Line, véase Exploración más arriba), mientras que Francia utiliza la norma Color Secuencial de Memoria (SECAM). A grandes rasgos ambas pueden coexistir, pero existe un cierto grado de incompatibilidad en los equipos receptores.

Historia

La historia del desarrollo de la televisión ha sido en esencia la historia de la búsqueda de un dispositivo adecuado para explorar imágenes. El primero fue el llamado disco Nipkow, patentado por el inventor alemán Paul Gottlieb Nipkow en 1884. Era un disco plano y circular que estaba perforado por una serie de pequeños agujeros dispuestos en forma de espiral partiendo desde el centro. Al hacer girar el disco delante del ojo, el agujero más alejado del centro exploraba una franja en la parte más alta de la imagen y así sucesivamente hasta explorar toda la imagen. Sin embargo, debido a su naturaleza mecánica el disco Nipkow no funcionaba eficazmente con tamaños grandes y altas velocidades de giro para conseguir una mejor definición.

Los primeros dispositivos realmente satisfactorios para captar imágenes fueron el iconoscopio, descrito anteriormente, que fue inventado por el físico estadounidense de origen ruso Vladimir Kosma Zworykin en 1923, y el tubo disector de imágenes, inventado por el ingeniero de radio estadounidense Philo Taylor Farnsworth poco tiempo después. En 1926 el ingeniero escocés John Logie Baird inventó un sistema de televisión que incorporaba los rayos infrarrojos para captar imágenes en la oscuridad. Con la llegada de los tubos y los avances en la transmisión radiofónica y los circuitos electrónicos que se produjeron en los años posteriores a la I Guerra Mundial, los sistemas de televisión se convirtieron en una realidad.

Emisión

Las primeras emisiones públicas de televisión las efectuó la BBC en Inglaterra en 1927 y la CBS y NBC en Estados Unidos en 1930. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular. Las emisiones con programación se iniciaron en Inglaterra en 1936, y en Estados Unidos el día 30 de abril de 1939, coincidiendo con la inauguración de la Exposición Universal de Nueva York. Las emisiones programadas se interrumpieron durante la II Guerra Mundial, reanudándose cuando terminó.

En España, se fundó Televisión Española (TVE), hoy incluida en el Ente Público Radiotelevisón Española, en 1952 dependiendo del ministerio de Información y Turismo. Después de un periodo de pruebas se empezó a emitir regularmente en 1956, concretamente el 28 de octubre. Hasta 1960 no hubo conexiones con Eurovisión. La televisión en España ha sido un monopolio del Estado hasta 1988. Por mandato constitucional, los medios de comunicación dependientes del Estado se rigen por un estatuto que fija la gestión de los servicios públicos de la radio y la televisión a un ente autónomo que debe garantizar la pluralidad de los grupos sociales y políticos significativos.

A partir de la década de 1970, con la aparición de la televisión en color los televisores experimentaron un crecimiento enorme lo que produjo cambios en el consumo del ocio de los españoles.

A medida que la audiencia televisiva se incrementaba por millones, hubo otros sectores de la industria del ocio que sufrieron drásticos recortes de patrocinio. La industria del cine comenzó su declive con el cierre, de muchos locales.

En México, se habían realizado experimentos en televisión a partir de 1934, pero la puesta en funcionamiento de la primera estación de TV, Canal 5, en la ciudad de México, tuvo lugar en 1946. Al iniciarse la década de 1950 se implantó la televisión comercial y se iniciaron los programas regulares y en 1955 se creó Telesistema mexicano, por la fusión de los tres canales existentes.

Televisa, la empresa privada de televisión más importante de habla hispana, se fundó en 1973 y se ha convertido en uno de los centros emisores y de negocios más grande del mundo, en el campo de la comunicación, ya que además de canales y programas de televisión, desarrolla amplias actividades en radio, prensa y ediciones o espectáculos deportivos.

La televisión ha alcanzado una gran expansión en todo el ámbito latinoamericano. En la actualidad existen más de 300 canales de televisión y una audiencia, según número de aparatos por hogares (más de 60 millones), de más de doscientos millones de personas.

A partir de 1984, la utilización por Televisa del satélite Panamsat para sus transmisiones de alcance mundial, permite que la señal en español cubra la totalidad de los cinco continentes. Hispasat, el satélite español de la década de 1990, cubre también toda Europa y América.

En 1983, en España empezaron a emitir cadenas de televisión privadas TELE 5, Antena 3 y Canal +. En 1986 había 3,8 habitantes por aparato de televisión, en la actualidad ha bajado a 3,1. A finales de los años ochenta, había en Estados Unidos unas 1.360 emisoras de televisión, incluyendo 305 de carácter educativo, y más del 98% de los hogares de dicho país poseía algún televisor semejante al nivel español. Hay más de 8.500 sistemas ofreciendo el servicio de cable, con una cartera de más de 50 millones de abonados. En la actualidad en todo el mundo, la televisión es el pasatiempo nacional más popular; el 91% de los hogares españoles disponen de un televisor en color y el 42%, de un equipo grabador de vídeo. Los ciudadanos españoles invierten, por término medio, unas 3,5 horas diarias delante del televisor, con una audiencia de tres espectadores por aparato.

Durante los años inmediatamente posteriores a la II Guerra Mundial se realizaron diferentes experimentos con distintos sistemas de televisión en algunos países de Europa, incluida Francia y Holanda, pero fue la URSS, que comenzó sus emisiones regulares en Moscú en 1948, el primer país del continente en poner en funcionamiento este servicio público. Cerca del 98% de los hogares en la URSS (3,2 personas por receptor) y en Francia (2,5) posee televisor, siendo el porcentaje de 94 en Italia (3,9) y 93 en los hogares de Alemania actualmente parte de la reunificada República Federal de Alemania (2,7).

Televisión en el espacio

Las cámaras de televisión a bordo de las naves espaciales estadounidenses transmiten a la tierra información espacial hasta ahora inaccesible. Las naves espaciales Mariner, lanzadas por Estados Unidos entre 1965 y 1972, envió miles de fotografías de Marte. Las series Ranger y Surveyor retransmitieron miles de fotografías de la superficie lunar para su análisis y elaboración científica antes del alunizaje tripulado (julio de 1969), al tiempo que millones de personas en todo el mundo pudieron contemplar la emisión en color directamente desde la superficie lunar.

Desde 1960 se han venido utilizando también ampliamente las cámaras de televisión en los satélites meteorológicos en órbita. Las cámaras vidicón preparadas en tierra registran imágenes de las nubes y condiciones meteorológicas durante el día, mientras que las cámaras de infrarrojos captan las imágenes nocturnas. Las imágenes enviadas por los satélites no sólo sirven para predecir el tiempo sino para comprender los sistemas meteorológicos globales. Se han utilizado cámaras vidicón de alta resolución a bordo de los Satélites para la Tecnología de los Recursos Terrestres (ERTS) para realizar estudios de cosechas, así como de recursos minerales y marinos.