Electrónica, Electricidad y Sonido


Electrónica


ELECTRÓNICA

Informe preliminar sobre el desarrollo de la tecnología electrónica y su impacto social.

OBJETIVO DEL INFORME: _definir el campo de actividad de la tecnología electrónica y su impacto social.

La electrónica es el campo de la ingeniería y de la física aplicada relativo al diseño y aplicación de dispositivos, por lo general circuitos electrónicos, cuyo funcionamiento depende del flujo de electrones para la generación, transmisión, recepción y almacenamiento de información. Esta información puede consistir en voz o música (señales de voz) en un receptor de radio, en una imagen en una pantalla de televisión, o en números u otros datos en un ordenador o computadora.

ANTECEDENTES HISTÓRICOS

  Con la introducción de los tubos de vacío a comienzos del siglo XX propició el rápido crecimiento de la electrónica moderna. Con estos dispositivos se hizo posible la manipulación de señales, algo que no podía realizarse en los antiguos circuitos telegráficos y telefónicos, ni con los primeros transmisores que utilizaban chispas de alta tensión para generar ondas de radio. Por ejemplo, con los tubos de vacío se pudieron amplificar las señales de radio y de sonido débiles, y además podían superponerse señales de sonido a las ondas de radio. El desarrollo de una amplia variedad de tubos, diseñados para funciones especializadas, posibilitó el rápido avance de la tecnología de comunicación radial antes de la II Guerra Mundial, y el desarrollo de las primeras computadoras, durante la guerra y poco después de ella.

Hoy día, el transistor, inventado en 1948, ha reemplazado casi completamente al tubo de vacío en la mayoría de sus aplicaciones. Al incorporar un conjunto de materiales semiconductores y contactos eléctricos, el transistor permite las mismas funciones que el tubo de vacío, pero con un coste, peso y potencia más bajos, y una mayor fiabilidad. Los progresos subsiguientes en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la iniciativa de exploración del espacio, llevó al desarrollo, en la década de 1970, del circuito integrado. Estos dispositivos pueden contener centenares de miles de transistores en un pequeño trozo de material, permitiendo la construcción de circuitos electrónicos complejos, como los de los microordenadores o microcomputadoras, equipos de sonido y vídeo, y satélites de comunicaciones.

RAMAS DE LA ELECTRÓNICA.

Las ramas de la electrónica son muy diversas yendo desde la medicina hasta la micro-computación. Pasaremos a detallar algunas de ellas:

La astronáutica es la ciencia e ingeniería de los viajes espaciales, tripulados o no. La exploración del espacio o astronáutica es una ciencia interdisciplinaria que se apoya en conocimientos de otros campos, como física, astronomía, matemáticas, química, biología, medicina, electrónica y meteorología.

Las sondas espaciales han aportado una enorme cantidad de datos científicos sobre la naturaleza y el origen del Sistema Solar y del Universo. Los satélites situados en órbita terrestre han contribuido a mejorar las comunicaciones, la predicción del tiempo, la ayuda a la navegación y el reconocimiento de la superficie terrestre para la localización de recursos minerales y con fines militares.

La era espacial y la astronáutica práctica empieza con el lanzamiento del Sputnik 1 por la URSS en octubre de 1957, y con el del Explorer 1 por Estados Unidos en enero de 1958. En octubre de 1958 se creó en Estados Unidos la NASA. En las dos décadas siguientes se llegaron a lanzar más de 1.600 naves espaciales de todo tipo, la mayoría destinadas a orbitar nuestro planeta. Sobre la superficie de la Luna han estado dos docenas de hombres, que han regresado después a la Tierra. En el año 2000 había ya unos 9.000 objetos (con diámetros superiores a 10 cm) girando alrededor de la Tierra, en su mayoría restos de cohetes y equipos de sus fases de lanzamiento, y otros materiales semejantes.

El Sputnik 1 era una esfera de aluminio de 58 cm de diámetro y 83 kg. Tardaba 96,2 minutos en dar la vuelta a la Tierra. Describía una órbita elíptica y alcanzaba su apogeo a una altura de 946 km, y su perigeo a 227 km. Contaba con instrumentos electronicos que durante 21 días enviaron información a la Tierra sobre radiación cósmica, meteoroides y sobre la densidad y la temperatura de las capas superiores de la atmósfera. Al cabo de 57 días el satélite entró en la atmósfera terrestre y se destruyó por efecto del calor debido al rozamiento aerodinámico.

El segundo satélite artificial fue también un vehículo espacial soviético, de nombre Sputnik 2. Fue lanzado el 3 de noviembre de 1957 y llevaba a bordo un animal, la perra Laika. Realizó las primeras mediciones biomédicas en el espacio con instrumentación electrónica, gracias a los avances logrados. Este satélite entró en la atmósfera terrestre destruyéndose después de 162 días de vuelo.

A medida que los sistemas de despegue de las naves espaciales (propulsadas por cohetes) y los equipos científicos se hicieron más fiables, se fueron desarrollando una gran variedad de satélites con nuevas tecnologías y electrónica de avanzada. Los científicos trataron de recopilar información y realizar estudios precisos del Sol, otras estrellas, la Tierra y del mismo espacio. La atmósfera que envuelve la Tierra impide obtener tales datos, a excepción de la escasa información que se podía conseguir por medio de globos a gran altitud.

En 1999 se lanzaron dos telescopios de rayos X de tecnología avanzada. En agosto, la NASA puso en órbita el telescopio Chandra, y en diciembre, un cohete Ariane 5 lanzó el telescopio Newton XMM de la Agencia Espacial Europea (ESA). En julio y agosto de 2000, la ESA lanzó también los cuatro satélites de la misión Cluster II, cuyo objetivo es el estudio de la magnetosfera terrestre y su interacción con el viento solar.

SATÉLITES DE APLICACIONES.

Este tipo de satélites no tripulados son también de gran utilidad para los científicos dedicados al estudio de la Tierra. Se pueden clasificar, a grandes rasgos, en tres tipos: medioambientales, de navegación y de comunicaciones.

Los satélites medioambientales observan la Tierra y la atmósfera transmitiendo imágenes con diversos fines. Los satélites meteorológicos envían diariamente datos sobre la temperatura y formación de nubes. Un ejemplo es el Satélite Meteorológico Sincronizado (SMS), que desde una órbita geoestacionaria envía imágenes de una extensa zona de la Tierra cada 30 minutos. Dos satélites SMS pueden cubrir todo un continente y sus mares adyacentes.

Los satélites estadounidenses Landsat observan la Tierra con ayuda de escáneres ópticos multiespectrales y envían datos a las estaciones en Tierra, que se procesan en imágenes a color y suministran información muy valiosa sobre características del suelo, cantidades de hielo y agua en los mares, contaminación de las aguas costeras, salinidad y plagas de insectos en cosechas y bosques. Incluso pueden detectarse incendios forestales desde los satélites. Los estudios sobre las fallas y fracturas de la corteza terrestre facilitan a los geólogos la identificación de depósitos y yacimientos de petróleo y minerales. El SPOT (Sistema Probatorio para la Observación de la Tierra), un satélite europeo lanzado en 1985, logra transmitir imágenes de la Tierra con más detalle que los estadounidenses Landsat. Véase también Teledetección.

Los satélites de observación terrestre se utilizan en diversos países para obtener imágenes de interés militar, como explosiones nucleares en la atmósfera y en el espacio, bases de lanzamiento de misiles balísticos, así como movimientos de tropas o barcos. En los años ochenta surgió la polémica cuando Estados Unidos se propuso desarrollar un sistema de defensa antibalística accionado con tecnología láser.

Los satélites de navegación proporcionan un punto conocido de observación de la órbita terrestre que ayuda a fijar la posición de barcos y submarinos con un margen de error de unos pocos metros. El Sistema de Posicionamiento Global (GPS), integrado por 24 satélites, suministra la posición, la velocidad y el tiempo 24 horas al día en cualquier lugar del mundo.

PERSPECTIVASElectrónica

Con los contratiempos que supusieron el mal funcionamiento del telescopio espacial Hubble y las fugas en los tanques de combustible de hidrógeno de la lanzadera espacial, no parecía que el programa espacial de Estados Unidos pudiera llegar a cumplir sus objetivos para la década de 1990. Además de la estación espacial tripulada, uno de esos objetivos era la construcción de la nave X-30, proyectada para despegar como los aviones convencionales y autopropulsarse hasta llegar a la zona orbital con potentes estatorreactores. Todavía ha de pasar bastante tiempo antes de abordar otros objetivos más ambiciosos, como el de establecer una base en la Luna y enviar astronautas a explorar el planeta Marte.

La astronomía de rayos X es la detección y estudio de la radiación electromagnética emitida por los cuerpos celestes en forma de rayos X. La astronomía de rayos X proporciona a los astrofísicos un medio de estudiar ciertos acontecimientos violentos y ricos en energía que se producen en el Universo. Casi todas las categorías de objetos astronómicos, desde estrellas cercanas hasta quásares distantes, emiten rayos X en algún momento de su ciclo vital.

Los rayos X son una parte de un amplio espectro de energía denominado radiación electromagnética. Las ondas electromagnéticas van desde los rayos gamma, de alta energía y baja longitud de onda, hasta las ondas de radio de baja energía y longitud de onda elevada, pasando por la luz visible. Los rayos X tienen longitudes de onda más cortas y energías más elevadas que la luz visible y la radiación ultravioleta, pero su longitud de onda es mayor que la de los rayos gamma. Son suficientemente potentes, y su longitud de onda es lo suficientemente baja, para atravesar muchos materiales que reflejan o absorben la luz visible.

Los objetos o regiones del espacio emiten rayos X por alguna de las dos causas siguientes. La mayor parte de los rayos X procede de regiones en las que un gas se ha calentado a decenas de millones de grados. Este calentamiento se puede deber a las ondas de choque procedentes de enormes explosiones estelares, a la precipitación del gas en campos gravitatorios intensos (véase Gravitación) u otros acontecimientos ricos en energía, que provocan que el gas emita rayos X. La emisión de rayos X provocada por un gas caliente se denomina emisión térmica. Los rayos X también se pueden emitir cuando un campo magnético muy intenso acelera los electrones hasta velocidades próximas a la de la luz. Este tipo de emisión de rayos X se denomina no térmica.

CIRCUITOS DE CONMUTACIÓN Y TEMPORIZACIÓN.

Los circuitos de conmutación y temporización, o circuitos lógicos, forman la base de cualquier dispositivo en el que se tengan que seleccionar o combinar señales de manera controlada. Entre los campos de aplicación de estos circuitos se pueden mencionar la conmutación telefónica, las transmisiones por satélite y el funcionamiento de las computadoras digitales.

La lógica digital es un proceso racional para adoptar sencillas decisiones de “verdadero” o “falso” basadas en las reglas del álgebra de Boole. Verdadero puede estar representado por un 1, y falso por un 0, y en los circuitos lógicos estos numerales aparecen como señales de dos tensiones diferentes. Los circuitos lógicos se utilizan para adoptar decisiones específicas de “verdadero-falso” sobre la base de la presencia de múltiples señales “verdadero-falso” en las entradas. Las señales se pueden generar por conmutadores mecánicos o por transductores de estado sólido. La señal de entrada, una vez aceptada y acondicionada (para eliminar las señales eléctricas indeseadas, o ruidos), es procesada por los circuitos lógicos digitales. Las diversas familias de dispositivos lógicos digitales, por lo general circuitos integrados, ejecutan una variedad de funciones lógicas a través de las llamadas puertas lógicas, como las puertas OR, AND y NOT y combinaciones de las mismas (como NOR, que incluye a OR y a NOT). Otra familia lógica muy utilizada es la lógica transistor-transistor. También se emplea la lógica de semiconductor complementario de óxido metálico, que ejecuta funciones similares a niveles de potencia muy bajos pero a velocidades de funcionamiento ligeramente inferiores. Existen también muchas otras variedades de circuitos lógicos, incluyendo la hoy obsoleta lógica reóstato-transistor y la lógica de acoplamiento por emisor, utilizada para sistemas de muy altas velocidades.

Los bloques elementales de un dispositivo lógico se denominan puertas lógicas digitales. Una puerta Y (AND) tiene dos o más entradas y una única salida. La salida de una puerta Y es verdadera sólo si todas las entradas son verdaderas. Una puerta O (OR) tiene dos o más entradas y una sola salida. La salida de una puerta O es verdadera si cualquiera de las entradas es verdadera, y es falsa si todas las entradas son falsas. Una puerta INVERSORA (INVERTER) tiene una única entrada y una única salida, y puede convertir una señal verdadera en falsa, efectuando de esta manera la función negación (NOT). A partir de las puertas elementales se pueden construir circuitos lógicos más complicados, entre los que cabe mencionar los circuitos biestables (también llamados flip-flops, que son interruptores binarios), contadores, comparadores, sumadores, y combinaciones más complejas.

En general, para ejecutar una determinada función es necesario conectar grandes cantidades de elementos lógicos en circuitos complejos. En algunos casos se utilizan microprocesadores para efectuar muchas de las funciones de conmutación y temporización de los elementos lógicos individuales. Los procesadores están específicamente programados con instrucciones individuales para ejecutar una determinada tarea o tareas. Una de las ventajas de los microprocesadores es que permiten realizar diferentes funciones lógicas, dependiendo de las instrucciones de programación almacenadas. La desventaja de los microprocesadores es que normalmente funcionan de manera secuencial, lo que podría resultar demasiado lento para algunas aplicaciones. En tales casos se emplean circuitos lógicos especialmente diseñados.

AVANCES RECIENTES

El desarrollo de los circuitos integrados ha revolucionado los campos de las comunicaciones, la gestión de la información y la informática. Los circuitos integrados han permitido reducir el tamaño de los dispositivos con el consiguiente descenso de los costes de fabricación y de mantenimiento de los sistemas. Al mismo tiempo, ofrecen mayor velocidad y fiabilidad. Los relojes digitales, las computadoras portátiles y los juegos electrónicos son sistemas basados en microprocesadores. Otro avance importante es la digitalización de las señales de sonido, proceso en el cual la frecuencia y la amplitud de una señal de sonido se codifica digitalmente mediante técnicas de muestreo adecuadas, es decir, técnicas para medir la amplitud de la señal a intervalos muy cortos. La música grabada de forma digital, como la de los discos compactos, se caracteriza por una fidelidad que no era posible alcanzar con los métodos de grabación directa.

La electrónica médica ha progresado desde la tomografía axial computerizada (TAC) hasta llegar a sistemas que pueden diferenciar aún más los órganos del cuerpo humano. Se han desarrollado asimismo dispositivos que permiten ver los vasos sanguíneos y el sistema respiratorio. También la alta definición promete sustituir a numerosos procesos fotográficos al eliminar la necesidad de utilizar plata.

La investigación actual dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip. Se han llegado a fabricar computadoras que alcanzan altísimas velocidades en las cuales los semiconductores son reemplazados por circuitos superconductores que utilizan las uniones de Josephson y que funcionan a temperaturas próximas al cero absoluto.

MÚSICA ELECTRÓNICA

La música electrónica es la música creada por medios electrónicos. Este concepto incluye la música compuesta con cintas magnetofónicas (que sólo existe sobre la cinta y se interpreta por medio de altavoces), la música electrónica en vivo (creada en tiempo real con sintetizadores y otros equipos electrónicos), la música concreta (creada a partir de sonidos grabados y luego modificados) y la música que combina el sonido de intérpretes en vivo con música electrónica grabada. Si bien estos tipos de música se refieren en principio a la naturaleza de la tecnología y las técnicas empleadas, estas divisiones son cada día menos claras. Hoy están en uso otras terminologías, como música por computadora, música electroacústica o música radiofónica, definiciones que suelen referirse más a la estética que a las tecnologías utilizadas.

ANTECEDENTES HISTÓRICOS DE LA MÚSICA ELECTRÓNICA.

En la década de 1910, los futuristas italianos, liderados por el compositor Luigi Russolo, concibieron una música creada con ruidos y cajas de música electrónicas. Fue entonces cuando aparecieron los primeros instrumentos musicales electrónicos comerciales. No obstante, ciertos compositores visionarios, como Alexandr Skriabin o Henry Cowell, habían soñado una música creada solamente por medios electrónicos, aunque este tipo de música no fue un hecho real hasta el desarrollo de la tecnología de la grabación de sonidos durante la IIGuerra Mundial.

El compositor e ingeniero francés Maurice Martenot presentó en 1928 un instrumento electrónico llamado ondas Martenot, consistente en un generador de bajas frecuencias manejado con un teclado de piano. En las décadas de 1940 y 1950, nacieron varios estudios de grabación asociados a los nombres de figuras destacadas, cuyos objetivos eran específicamente artísticos. En Francia, el ingeniero de sonido y compositor Pierre Schaeffer fundó el estudio de Radio Francia (RTF) en París, compuesto por varias grabadoras, micrófonos y equipos para la edición de cintas. Las principales técnicas utilizadas para crear música consistían en cortar, pegar, empalmar o recorrer hacia atrás distintos fragmentos de la cinta grabada. Estas técnicas de manipulación de las cintas dieron lugar a un nuevo tipo de montaje de sonido, elaborado con mucho esfuerzo a partir de las grabaciones provenientes del mundo real. Schaeffer calificó los resultados como música concreta, un término que aún se sigue utilizando ampliamente, sobre todo en Francia. Su primer experimento en este nuevo género utilizaba sonidos de grabaciones de trenes. Todas sus obras de esa época eran breves estudios sobre sonidos y tienen títulos evocadores como la Symphonie pour un homme seul (1950), compuesta en colaboración con su colega (más joven que él) Pierre Henry. Los experimentos prácticos de Schaeffer en la composición de música electrónica se basaban en algunos escritos teóricos sobre el tema que influyeron en él. El estudio de Henry y Schaeffer atrajo a diversos compositores, entre los cuales destacaba Pierre Boulez.

A finales de la década de 1940, Werner Meyer-Eppler, físico y director del Instituto de Fonética de la Universidad de Bonn, presentó por vez primera el Vocoder, un dispositivo que conseguía sintetizar la voz humana. Su trabajo teórico influyó en los compositores relacionados con el estudio de la Radio de Alemania Occidental en Colonia (fundada en 1953), y cuyo interés giraba en torno a la síntesis electrónica de los sonidos mediante generadores de sonido y otros aparatos. El primer director del estudio de Colonia, Herbert Eimert, ejerció una gran influencia por su forma de utilizar el serialismo total como base para la construcción de obras electrónicas. Según este método, todos los aspectos de la música, incluidos el tono, el ritmo y el volumen relativo, quedaban bajo el control de unos principios definidos numéricamente. Los sonidos y aparatos electrónicos brindaban la precisión y el control necesarios para la realización de este concepto. Compositores como Bruno Maderna y Karlheinz Stockhausen elaboraron piezas electrónicas cortas, llamadas síntesis aditiva. Estas obras se componían enteramente a partir de sonidos electrónicos.

A finales de la década de 1950, ya se habían establecido gran parte de los estudios de música electrónica de Europa. Los más importantes eran el de la RAI en Milán, fundado por Luciano Berio y Maderna, el Instituto de Sonología de Utrecht y el estudio EMS de Estocolmo. La división entre la música concreta y la música electrónica pura fue un fenómeno básicamente europeo. Si bien en EEUU surgieron varios estudios en aquella época, las distinciones estéticas eran allí menos importantes. En la década de 1950 en Nueva York, los compositores Otto Luening y Vladimir Ussachevski crearon músicas para cinta magnetofónica con un equipo de estudio muy rudimentario que transformaba los sonidos grabados de instrumentos y voces mediante técnicas de manipulación de cintas y simples unidades de reverberación. A finales de la década se asociaron con el Centro de Música Electrónica de Columbia-Princeton, donde el compositor Milton Babbitt empleaba una enorme computadora RCA para crear una música compuesta con los mismos principios seriales que Eimert y Stockhausen en Colonia. Su obra Philomel (1964) fue una de las primeras composiciones para soprano solista y cinta magnetofónica. El desarrollo de la tecnología informática en las décadas de 1950 y 1960 llevó al establecimiento de una serie de estudios dedicados en exclusiva a la música por ordenador en universidades estadounidenses y, en menor medida, en Europa.

Durante las décadas de 1960 y 1970, los estadounidenses Lansky y Barry Vercoe, entre otros, desarrollaron paquetes de programas para música (programas informáticos diseñados para la manipulación y creación de sonido), que se entregaban gratuitamente a los compositores interesados. Esta tradición de software procedente de las universidades de Estados Unidos ha contribuido en gran medida al crecimiento de la música por computadora en todo el mundo. Tanto el Centro para la Investigación Informática en Música y Acústica (CCRMA) de la Universidad de Stanford, en el estado de California, como el Institut de Recherche et de Coordination Acoustique/Musique (IRCAM) de París (fundado por Pierre Boulez en 1976), utilizaron los ordenadores de forma significativa y continúan siendo centros influyentes en la composición de música electrónica en la actualidad.

El rápido desarrollo de la tecnología informática durante los últimos 15 años ha conducido a una revolución en la música por computadora y en la música electrónica en general. Los ordenadores son ahora más asequibles, y los programas informáticos, que antes eran muy lentos, funcionan ahora en cuestión de segundos o incluso de forma simultánea a los instrumentos. Son muchas las universidades y conservatorios actuales equipados con un estudio de música por ordenador y varios países tienen estudios nacionales, dedicados a la composición de música electrónica. Además, los músicos trabajan cada vez más de forma independiente, en estudios particulares.

LOS SINTETIZADORES Y LOS INSTRUMENTOS DE MÚSICA ELECTRÓNICA
A principios del siglo XX se inventaron instrumentos electrónicos como el Telharmonium o el Theremin, pero eran muy rudimentarios en su construcción y complicados en su funcionamiento. Los sintetizadores e instrumentos electrónicos con amplificación, susceptibles de ser utilizados en las actuaciones en vivo, se perfeccionaron en la década de 1960. La computadora central RCA fue en esencia uno de los primeros sintetizadores electrónicos. El aparato contenía todos los recursos necesarios para generar y modificar los sonidos por medios electrónicos. En la década de 1960, Robert Moog, Donald Buchla y los fabricantes británicos EMS, entre otros, comenzaron a producir sintetizadores que utilizaban el control de voltajes. Se trataba de un medio electrónico para variar el tono o el volumen, y se empleaba para crear, filtrar y modificar, sonidos electrónicos. Pronto aparecieron sintetizadores que ofrecían una serie de sonidos y efectos pregrabados. Éstos serían utilizados cada vez más con propósitos comerciales, desde los anuncios de la televisión hasta la banda sonora de películas de ciencia ficción. Hoy existe una amplia variedad de sintetizadores, capaces de imitar casi cualquier sonido y de crear gamas tonales y timbres completamente nuevos.

Los nuevos instrumentos musicales electrónicos de la década de 1960 también contribuyeron al crecimiento de la música electrónica en vivo, en la cual la creación y la manipulación electrónica del sonido ocurren en tiempo real (es decir, que se tocan y se escuchan en el momento). Al mismo tiempo, ciertos compositores creaban música electrónica en vivo con equipos fabricados por ellos mismos. La obra Solo de Stockhausen (1966), por ejemplo, utilizaba un complejo sistema de retardo de la grabación que requería cuatro ayudantes para su interpretación. Durante la década de 1960, surgieron numerosos grupos de música electrónica en vivo, muchos de los cuales interpretaban música improvisada de carácter teatral. En años recientes, la revolución tecnológica también se tradujo en la aparición de numerosos instrumentos electrónicos y programas de ordenador diseñados para las actuaciones en directo. Destacan, entre otros, el músico y diseñador de instrumentos Michel Waisvisz, que trabaja en los estudios STEIM de Holanda, inventor de diversos instrumentos como el llamado The Hands (las manos), en el cual el movimiento de las manos del intérprete en el espacio activa sonidos complejos y permite manipulaciones sonoras. El compositor-intérprete estadounidense George Lewis combina la improvisación al trombón con programas personalizados de composición por ordenador que trabajan de forma simultánea. La estación de trabajo de procesamiento de señales desarrollada en el IRCAM permite una manipulación muy compleja en tiempo real de los sonidos instrumentales y sintéticos. Además de estos interfaces (superficie de contacto) altamente especializados, muchos compositores e intérpretes utilizan algunas cajas de efectos disponibles en el mercado, diseñadas pensando en el mercado de la música popular.

La evolución del sintetizador y la guitarra eléctrica a partir de la década de 1950 también ha influido en gran medida en el mundo del pop y la música rock. Los avances tecnológicos fueron acogidos con entusiasmo por grupos como Grateful Dead, Pink Floyd y Velvet Underground. En la década de 1980 se inventó una nueva forma de trabajar con instrumentos de música electrónica dirigida al mercado popular: el llamado MIDI (interfaz digital de instrumentos musicales). El MIDI no es un instrumento musical, sino un medio que permite a los sintetizadores y otros equipos comunicarse unos con otros mediante el envío de instrucciones digitales. Por ejemplo, mediante el MIDI un intérprete puede hacer que varios sintetizadores respondan cuando se toque uno de ellos. El uso de la tecnología musical en la música pop y rock es tan importante que la naturaleza de los instrumentos y las otras tecnologías musicales relacionadas con la música electrónica están dictadas, en gran medida, por las necesidades de la industria del rock.

LA SÍNTESIS DEL SONIDO Y LAS TÉCNICAS DE PROCESAMIENTO
Las diferentes técnicas utilizadas para crear música electrónica pueden dividirse entre las que se usan para crear nuevos sonidos y las que se utilizan para modificar, o transformar, sonidos ya registrados. En épocas pasadas se usaban osciladores y filtros de control por voltaje, pero estas funciones las realiza hoy el ordenador. La creación de sonidos completamente nuevos obtenidos por la superposición o la mezcla de sonidos puros es un proceso llamado síntesis aditiva. Por otra parte, el modelado de sonidos o filtración de ruido se conoce como síntesis sustractiva. El compositor francés Jean-Claude Risset ha diseñado muchos timbres por síntesis aditiva en obras como Mutations I (1979), mientras que el estadounidense Charles Dodge usa la síntesis sustractiva con gran efectividad en su obra Cascando (1983). La síntesis por frecuencia modulada (FM), documentada por vez primera por el compositor estadounidense John Chowning en la década de 1960, se emplea como vía para crear sonidos sintéticos complejos. Su pieza para cinta Stria (1976) está compuesta de varios timbres FM mezclados. Se pueden usar filtros de diferentes tipos para acentuar tonos o armonías específicas, y los sonidos pueden prolongarse en el tiempo, o elevarse y bajarse de tono, gracias a técnicas como el vocoding de fase o codificación predictiva lineal. Las Seis fantasías sobre un poema de Thomas Campion de Paul Lansky (1979) son una obra pionera en este área. Además, se usan técnicas de reverberación para añadir ecos o un cierto retardo a los sonidos grabados o sintetizados, mientras que se utilizan técnicas de simulación de espacios o salas para imitar el carácter acústico de las grandes salas de conciertos y otros espacios. Todas estas técnicas, aisladas o combinadas, son de uso frecuente entre los compositores de música electrónica.

MÚSICA POR ORDENADOR Y MÚSICA ELECTROACÚSTICA

La música por ordenador se caracteriza por el empleo de la tecnología digital. Si la música creada mediante el corte y pegado de cintas utilizaba grabadoras y dispositivos analógicos, los ordenadores almacenan la información de forma digital, como números que pueden manipularse mediante procesos matemáticos usando programas informáticos. Desde la década de 1960, los términos música electroacústica y por ordenador se refieren, respectivamente, aunque no de forma constante, a la música analógica y a la digital. Hoy esos términos se usan casi de forma equivalente, dado que casi toda la música electrónica utiliza ahora tecnología digital.

Son hoy muchos los compositores que escriben música electrónica, en una gran variedad de estilos. En alguno de estos casos la tecnología digital ofrece la oportunidad de crear una música para cinta magnetofónica que explore los sonidos del entorno natural. El compositor francés Luc Ferrari ha escrito una serie de piezas, Presque Rien nº 1-3, usando grabaciones directas de los sonidos del mar o del campo. Otros compositores, como Denis Smalley en el Reino Unido o el argentino Horacio Vaggione, continúan la tradición de la música concreta en la que los sonidos grabados son sometidos a un procesamiento y una edición muy intensas. Este tipo de música, en la que los sonidos grabados son tratados como objetos sonoros abstractos, es conocida como acusmática. Para compositores como el canadiense Robert Normandeau es importante cómo se presenta la música de cinta en una actuación. Su obra Spleen (1993) ha de interpretarse con varios altavoces. Otro autores, como Luis de Pablo en España o Juan García Esquivel en México, también se han servido de medios electrónicos para componer sus obras.

AVANCES FUTUROS.

La música electrónica es, en relación a la música en general, un campo muy nuevo que ha sabido adaptarse a los rápidos avances tecnológicos. En años recientes ha habido enormes avances en la tecnología interactiva y multimedia, de gran influencia en el carácter de la música electrónica y en su interpretación. La disponibilidad de cada vez mayor tecnología de comunicaciones como Internet y otras redes informáticas han permitido a los compositores intercambiar programas de música e incluso sonidos grabados. Si se observa este género de forma aislada, tanto desde el punto de vista de los compositores como del público, se apreciarán las diferencias tecnológicas y estéticas con respecto a la música convencional. Hoy son muchos los practicantes de este género que ven la música electrónica como una parte del todo que constituye la música. Muchas obras combinan sonidos electrónicos y acústicos (instrumentales). Buen número de compositores de este género trabajan en colaboración con otros medios, como el vídeo, el cine o la danza. Quizá en el futuro el término música electrónica desaparezca, una vez que tanto la tecnología electrónica como la informática estén plenamente integradas en el mundo del compositor.

ARTES GRAFICAS.

En el más amplio sentido del término, son las artes del dibujo, la pintura, el grabado, el diseño gráfico y la fotografía. De forma más específica, se aplica solamente a las técnicas de grabado, sobre todo en su acepción industrial. En este sentido, el término incluye las diversas facetas de producción de publicaciones y soportes publicitarios. También se conocen como industrias gráficas.

El fin último de las artes gráficas es el objeto impreso, para cuya realización interviene una serie de procesos correlacionados. En primer lugar se realiza el diseño o concepción del producto, desarrollado de acuerdo a las intenciones previas y a las condiciones de manufactura y distribución. Después se realiza la composición o materialización del diseño propiamente dicho, una etapa que ha ido perdiendo importancia gracias a los avances tecnológicos, al fundirse con la primera en los actuales sistemas de autoedición. Le sigue el grabado de las planchas o soportes de la impresión, que pueden adoptar diferentes disposiciones (en plano o en cilindros) y materiales (madera, caucho, tela o metal, entre otros). El método de impresión estará en función del tipo de estampación, que condiciona la calidad, la cantidad y los costes de la tirada. Terminada esta operación, el producto necesita la conformación final, que oscila desde un simple corte o guillotinado, en el caso de un cartel publicitario, hasta la compleja encuadernación de una edición de lujo.

Aunque los métodos empleados por las artes gráficas sean muy diversos, la industria, desde la invención de la imprenta, ha tendido a concentrarlos para controlar toda la producción desde una perspectiva integradora. En la actualidad, la impresión electrónica, unida a los sofisticados medios informáticos, ha generado una cierta disgregación de este conjunto de actividades, ganando eficacia en detrimento de la calidad de los productos. Sin embargo, la cultura histórica de las artes gráficas se muestra ya como la única capaz de respaldar los nuevos métodos de edición y comunicación virtuales.

NÁUTICA.

Las fuerzas navales de todo el mundo están reduciendo el número de buques de sus flotas, pero a la vez invierten en dotar a cada una de sus naves de complejos instrumentos. Sofisticados sistemas de ordenadores y de misiles aseguran que cada barco sea más eficaz, más versátil y más difícil de hundir. Muchos están equipados con una serie de dispositivos de guerra electrónica que evitan que los misiles enemigos los conviertan en objetivos: la tecnología de ocultación se utiliza cada vez más en los barcos. Al principio a los barcos en activo se les colocaban pantallas de plásticos que absorbían las señales del radar. Pero las nuevas naves se diseñan cada vez más con superficies inclinadas que dispersan las señales del radar como lo hacen las superficies del avión de combate invisible Lockheed F-117. Lockheed presentó el Sea Shadow, un catamarán anguloso que parece una pirámide truncada que flota sobre el agua. Un buque en la práctica invisible como ése, sería ideal para funcionar como una nave de defensa antiaérea de largo alcance, desplegado para formar junto con otros una pantalla alejada de la flota de ataque principal. En el futuro, los buques de guerra seguirán manteniendo un papel vital en la estrategia naval.

LA BIOFÍSICA

Un área importante de la biofísica ha sido el estudio de la transmisión de información en forma de impulsos en las células nerviosas de los organismos. Cada información se transmite en la forma de fenómenos discretos, llamados potenciales de acción, y está determinada por la frecuencia a la que son transmitidos y por las conexiones que cada célula establece con sus vecinas. Por ejemplo, el biofísico británico Alan Lloyd Hodgkin y el físico Andrew Fielding Huxley estudiaron las células nerviosas del calamar, cuyo gran tamaño permite la colocación de varios electrodos directamente en el interior de las células. Mediante una acertada combinación de la electroquímica, la electrónica moderna y los modelos matemáticos, fueron capaces de demostrar que el potencial de acción estaba producido por cambios selectivos en la permeabilidad de la membrana celular al sodio y al potasio. Desde entonces, se ha aplicado esta técnica con leves modificaciones a otros tejidos excitables, y en la actualidad constituye la base de todos los intentos de comprender el funcionamiento del sistema nervioso.

CAMARA DE FOTOS

El tipo de cámara SLR utiliza un solo objetivo, tanto para ver la escena como para hacer la fotografía. Un espejo situado entre el objetivo y la película refleja la imagen formada por el objetivo a través de un prisma de cinco caras y la dirige hacia la pantalla de cristal esmerilado que hay en la parte superior de la cámara. En su momento se abre el disparador y un muelle retira automáticamente el espejo de la trayectoria visual entre la película y el objetivo. Gracias al prisma, la imagen tomada en la película es casi exacta a la que se ve a través del objetivo de la cámara, sin ningún error de paralaje. La mayor parte de las SLR son instrumentos de precisión equipados con obturadores de plano focal. Muchas tienen mecanismos automáticos para el control de exposición y fotómetros incorporados. La mayoría de las SLR modernas poseen obturadores electrónicos y, asimismo, la abertura puede manipularse electrónica o manualmente. Cada vez son más los fabricantes de cámaras que hacen las SLR con enfoque automático, innovación que originariamente era para cámaras de aficionados. La serie Maxxum de Minolta, la EOS de Canon y la F4 de Nikon, unidad para profesionales, poseen enfoque automático y son completamente electrónicas. Una unidad central de proceso (CPU) controla las funciones electrónicas en estas cámaras. La Maxxum 7000i de Minolta utiliza tarjetas de software que cuando se introducen en el interior de la cámara aumentan las posibilidades de la misma.

GUERRA.

El armamento utilizado en la guerra de Vietnam incluía reactores supersónicos: los MIG-17 y MIG-21 soviéticos se enfrentaron a los F-105 y F-4. Los pilotos estadounidenses afrontaron la nueva e importante amenaza planteada por los misiles tierra-aire (surface-to-air missiles, SAM) utilizados en la defensa aérea. La tecnología electrónica les proveyó, sin embargo, de bombas de guía óptica y láser, sistemas para la detección de misiles y la interferencia en radares, además de cohetes aire-aire y aire-tierra. La aviónica (el uso de la electrónica en los aviones) se constituyó en una rama vital para el desarrollo de la aviación de guerra moderna. El desarrollo de técnicas para repostar en el aire contribuyó a ampliar el alcance del avión de combate. Por otro lado, los esfuerzos de los portaaviones fueron bastante inútiles, comparados con su éxito en la IIGuerra Mundial. Fue en Vietnam donde los helicópteros, utilizados al principio para la observación, el transporte y la evacuación sanitaria, se convirtieron en una importante arma de combate: el C-47, que durante la IIGuerra Mundial había servido para el transporte, se convirtió en un helicóptero dotado de artillería pesada.

METEOROLOGÍA.

Los recientes avances producidos en el campo de la electrónica han ido acompañados de un desarrollo concomitante en el uso de instrumentos meteorológicos electrónicos. Uno de estos instrumentos es el radar meteorológico, que hace posible la detección de huracanes, tornados y otras tormentas fuertes a distancias de varios miles de kilómetros. Para tales fines, se usan las ondas de radar reflejadas por las precipitaciones asociadas con las alteraciones, que sirven para trazar su curso. Otros instrumentos meteorológicos electrónicos incluyen: el empleado para medir la altura de las nubes y el que se usa para medir el efecto total del humo, la niebla y otras limitaciones a la visibilidad. Ambos instrumentos suministran importantes mediciones para el despegue y aterrizaje de los aviones.

NAVEGACIÓN ELECTRÓNICA.

Este método de navegación se basa en el uso de equipos y sistemas en los que las ondas de radio y las técnicas electrónicas se utilizan para poner en una carta la posición y la ruta de un navío. La ayuda electrónica y la precisión en la mayoría de los casos han incrementado la seguridad de la navegación suministrando información importante rápidamente en periodos de baja visibilidad, sobre todo en aguas peligrosas y congestionadas. El navegante moderno hace hoy gran uso de estos dispositivos, en zonas de practicaje y en mar abierto. La radio proporciona al navegante información auxiliar, que incluye las señales horarias de radio, los informes meteorológicos, los anuncios de tormentas y los anuncios de navegación general con respecto a los riesgos de colisión que suponen barcos abandonados, luces de navegación extinguidas y boyas a la deriva.

La radio como ayuda a la navegación fue utilizada por primera vez a comienzos del siglo XX. Los aviones fueron equipados en la década de los treinta con instrumentos de comunicaciones para recibir la dirección de navegación desde la Tierra y tomar la dirección a partir de los transmisores de superficie. La ayuda en la navegación moderna consiste en indicar la dirección de radio utilizada en una de las siguientes formas: un avión o barco toma la dirección a partir de transmisores instalados en el suelo y fija su posición relativa a dos o más transmisores, o toma la dirección mediante estaciones terrestres en una transmisión que desde un avión o un barco se correlacionan a un centro, lo que establece la posición del aparato

TECNOLOGÍA.

El concepto denominado tecnología apropiada, conveniente o intermedia se acepta como alternativa a los problemas tecnológicos de las naciones industrializadas y, lo que es más importante, como solución al problema del desequilibrio social provocado por la transferencia de tecnologías avanzadas a países en vías de desarrollo. Se dice que el carácter arrollador de la tecnología moderna amenaza a ciertos valores, como la calidad de vida, la libertad de elección, el sentido humano de la medida y la igualdad de oportunidades ante la justicia y la creatividad individual. Los defensores de este punto de vista proponen un sistema de valores en el que las personas reconozcan que los recursos de la Tierra son limitados y que la vida humana debe reestructurarse alrededor del compromiso de controlar el crecimiento de la industria, el tamaño de las ciudades y el uso de la energía. La restauración y la renovación de los recursos naturales son los principales objetivos tecnológicos.

Además se ha argumentado que, como la sociedad moderna ya no vive en la época industrial del siglo XIX y principios del XX (y que la sociedad post-industrial es ya una realidad), las redes complejas posibles gracias a la electrónica avanzada harán obsoletas las instituciones de los gobiernos nacionalistas, las corporaciones multinacionales y las ciudades superpobladas.

La tecnología ha sido siempre un medio importante para crear entornos físicos y humanos nuevos. Sólo durante el siglo XX se hizo necesario preguntar si la tecnología destruiría total o parcialmente la civilización creada por el ser humano.

ELECTRICIDAD, PUNTO DE VISTA.

La electricidad denota los fenómenos físicos originados por la existencia de cargas eléctricas y por la interacción de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas eléctricas sobre las otras cargas situadas en su misma región del espacio; cuando está en movimiento, produce además efectos magnéticos. Los efectos eléctricos y magnéticos dependen de la posición y movimiento relativos de las partículas con carga. En lo que respecta a los efectos eléctricos, estas partículas pueden ser neutras, positivas o negativas. La electricidad se ocupa de las partículas cargadas positivamente, como los protones, que se repelen mutuamente, y de las partículas cargadas negativamente, como los electrones, que también se repelen mutuamente. En cambio, las partículas negativas y positivas se atraen entre sí. Este comportamiento puede resumirse diciendo que las cargas del mismo signo se repelen y las cargas de distinto signo se atraen.

ELECTROSTÁTICA

Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza eléctrica uno sobre otro. La carga eléctrica de cada cuerpo puede medirse en culombios. La fuerza entre dos partículas con cargas q1 y q2 puede calcularse a partir de la ley de Coulomb

Electrónica

según la cual la fuerza es proporcional al producto de las cargas dividido entre el cuadrado de la distancia que las separa. La constante de proporcionalidad K depende del medio que rodea a las cargas. La ley se llama así en honor al físico francés Charles de Coulomb.

Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto. Para mover otra partícula cargada de un punto a otro del campo hay que realizar trabajo. La cantidad de energía necesaria para efectuar ese trabajo sobre una partícula de carga unidad se conoce como diferencia de potencial entre ambos puntos. Esta magnitud se mide en voltios. La Tierra, un conductor de gran tamaño que puede suponerse sustancialmente uniforme a efectos eléctricos, suele emplearse como nivel de referencia cero para la energía potencial. Así, se dice que el potencial de un cuerpo cargado positivamente es de tantos voltios por encima del potencial de tierra, y el potencial de un cuerpo cargado negativamente es de tantos voltios por debajo del potencial de tierra.

PROPIEDADES DE LOS MATERIALES ELÉCTRICOS.

El primer fenómeno eléctrico artificial que se observó fue la propiedad que presentan algunas sustancias resinosas como el ámbar, que adquieren una carga negativa al ser frotadas con una piel o un trapo de lana, tras lo cual atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones. Una varilla de vidrio frotada con seda tiene una capacidad similar para atraer objetos no cargados, y atrae los cuerpos cargados negativamente con una fuerza aún mayor. El vidrio tiene una carga positiva, que puede describirse como un defecto de electrones o un exceso de protones.

Cuando algunos átomos se combinan para formar sólidos, frecuentemente quedan libres uno o más electrones, que pueden moverse con facilidad a través del material. En algunos materiales, llamados conductores, ciertos electrones se liberan fácilmente. Los metales, en particular el cobre y la plata, son buenos conductores.

Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como aislantes, no conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca.

Existe un tercer tipo de materiales en los que un número relativamente pequeño de electrones puede liberarse de sus átomos de forma que dejan un 'hueco' en el lugar del electrón. El hueco, que representa la ausencia de un electrón negativo, se comporta como si fuera una unidad de carga positiva. Un campo eléctrico hace que tanto los electrones negativos como los huecos positivos se desplacen a través del material, con lo que se produce una corriente eléctrica. Generalmente, un sólido de este tipo, denominado semiconductor, tiene una resistencia mayor al paso de corriente que un conductor como el cobre, pero menor que un aislante como el vidrio. Si la mayoría de la corriente es transportada por los electrones negativos, se dice que es un semiconductor de tipo n. Si la mayoría de la corriente corresponde a los huecos positivos, se dice que es de tipo p.

Si un material fuera un conductor perfecto, las cargas circularían por él sin ninguna resistencia; por su parte, un aislante perfecto no permitiría que se movieran las cargas por él. No se conoce ninguna sustancia que presente alguno de estos comportamientos extremos a temperatura ambiente. A esta temperatura, los mejores conductores ofrecen una resistencia muy baja (pero no nula) al paso de la corriente y los mejores aislantes ofrecen una resistencia alta (pero no infinita). Sin embargo, la mayoría de los metales pierden toda su resistencia a temperaturas próximas al cero absoluto; este fenómeno se conoce como superconductividad.

CARGAS ELÉCTRICAS.

El electroscopio es un instrumento cualitativo empleado para demostrar la presencia de cargas eléctricas. En la figura 1 se muestra el instrumento tal como lo utilizó por primera vez el físico y químico británico Michael Faraday. El electroscopio está compuesto por dos láminas de metal muy finas (a, a_) colgadas de un soporte metálico (b) en el interior de un recipiente de vidrio u otro material no conductor (c). Una esfera (d) recoge las cargas eléctricas del cuerpo cargado que se quiere observar; las cargas, positivas o negativas, pasan a través del soporte metálico y llegan a ambas láminas. Al ser iguales, las cargas se repelen y las láminas se separan. La distancia entre éstas depende de la cantidad de carga.

Pueden utilizarse tres métodos para cargar eléctricamente un objeto: 1) contacto con otro objeto de distinto material (como por ejemplo, ámbar y piel) seguido por separación; 2) contacto con otro cuerpo cargado; 3) inducción.

El efecto de las cargas eléctricas sobre conductores y no conductores se muestra en la figura 2. Un cuerpo cargado negativamente, A, está situado entre un conductor neutro, B, y un no conductor neutro, C. Los electrones libres del conductor son repelidos hacia la zona del conductor alejada de A, mientras que las cargas positivas se ven atraídas hacia la zona próxima. El cuerpo B en su conjunto es atraído hacia A, porque la atracción de las cargas distintas más próximas entre sí es mayor que la repulsión de las cargas iguales más separadas (las fuerzas entre las cargas eléctricas son inversamente proporcionales al cuadrado de la distancia entre las cargas). En el no conductor, C, los electrones no pueden moverse libremente, pero los átomos o moléculas del mismo se reorientan de forma que sus electrones constituyentes estén lo más lejos posible de A; el no conductor también es atraído por A, pero en menor medida que el conductor.

El movimiento de los electrones en el conductor B de la figura 2 y la reorientación de los átomos del no conductor C proporciona a esos cuerpos cargas positivas en los lados más próximos a A y negativas en los lados más distantes de A. Las cargas generadas de esta forma se denominan cargas inducidas.

MEDIDAS ELECTRICAS.

El flujo de carga, o intensidad de corriente, que recorre un cable conductor se mide por el número de culombios que pasan en un segundo por una sección determinada del cable. Un culombio por segundo equivale a 1 amperio, unidad de intensidad de corriente eléctrica llamada así en honor al físico francés André Marie Ampère. Véase el siguiente apartado, Corriente eléctrica.

Cuando una carga de 1 culombio se desplaza a través de una diferencia de potencial de 1 voltio, el trabajo realizado equivale a 1 julio, unidad llamada así en honor al físico británico James Prescott Joule. Esta definición facilita la conversión de cantidades mecánicas en eléctricas.

Una unidad de energía muy usada en física atómica es el electronvoltio (eV). Corresponde a la energía adquirida por un electrón acelerado por una diferencia de potencial de 1 voltio. Esta unidad es muy pequeña y muchas veces se multiplica por un millón o mil millones, abreviándose el resultado como 1 MeV o 1 GeV.

CORRIENTE ELÉCTRICA.

Si dos cuerpos de carga igual y opuesta se conectan por medio de un conductor metálico, por ejemplo un cable, las cargas se neutralizan mutuamente. Esta neutralización se lleva a cabo mediante un flujo de electrones a través del conductor, desde el cuerpo cargado negativamente al cargado positivamente (en ingeniería eléctrica, se considera por convención que la corriente fluye en sentido opuesto, es decir, de la carga positiva a la negativa). En cualquier sistema continuo de conductores, los electrones fluyen desde el punto de menor potencial hasta el punto de mayor potencial. Un sistema de esa clase se denomina circuito eléctrico. La corriente que circula por un circuito se denomina corriente continua (c.c.) si fluye siempre en el mismo sentido y corriente alterna (c.a.) si fluye alternativamente en uno u otro sentido.

El flujo de una corriente continua está determinado por tres magnitudes relacionadas entre sí. La primera es la diferencia de potencial en el circuito, que en ocasiones se denomina fuerza electromotriz (fem), tensión o voltaje. La segunda es la intensidad de corriente. Esta magnitud se mide en amperios; 1 amperio corresponde al paso de unos 6.250.000.000.000.000.000 electrones por segundo por una sección determinada del circuito. La tercera magnitud es la resistencia del circuito. Normalmente, todas las sustancias, tanto conductores como aislantes, ofrecen cierta oposición al flujo de una corriente eléctrica, y esta resistencia limita la corriente. La unidad empleada para cuantificar la resistencia es el ohmio (Electrónica
), que se define como la resistencia que limita el flujo de corriente a 1 amperio en un circuito con una fem de 1 voltio. La ley de Ohm, llamada así en honor al físico alemán Georg Simon Ohm, que la descubrió en 1827, permite relacionar la intensidad con la fuerza electromotriz. Se expresa mediante la ecuación Electrónica
= I × R, donde Electrónica
es la fuerza electromotriz en voltios, I es la intensidad en amperios y R es la resistencia en ohmios. A partir de esta ecuación puede calcularse cualquiera de las tres magnitudes en un circuito dado si se conocen las otras dos.

Cuando una corriente eléctrica fluye por un cable pueden observarse dos efectos importantes: la temperatura del cable aumenta y un imán o brújula colocado cerca del cable se desvía, apuntando en dirección perpendicular al cable. Al circular la corriente, los electrones que la componen colisionan con los átomos del conductor y ceden energía, que aparece en forma de calor. La cantidad de energía desprendida en un circuito eléctrico se mide en julios. La potencia consumida se mide en vatios; 1 vatio equivale a 1 julio por segundo. La potencia P consumida por un circuito determinado puede calcularse a partir de la expresión P = Electrónica
 × I, o la que se obtiene al aplicar a ésta la ley de Ohm: P = I2 × R. También se consume potencia en la producción de trabajo mecánico, en la emisión de radiación electromagnética como luz u ondas de radio y en la descomposición química.

ELECTROMAGNETISMO.

El movimiento de la aguja de una brújula en las proximidades de un conductor por el que circula una corriente indica la presencia de un campo magnético alrededor del conductor. Cuando dos conductores paralelos son recorridos cada uno por una corriente, los conductores se atraen si ambas corrientes fluyen en el mismo sentido y se repelen cuando fluyen en sentidos opuestos. El campo magnético creado por la corriente que fluye en una espira de alambre es tal que si se suspende la espira cerca de la Tierra se comporta como un imán o una brújula, y oscila hasta que la espira forma un ángulo recto con la línea que une los dos polos magnéticos terrestres.

Puede considerarse que el campo magnético en torno a un conductor rectilíneo por el que fluye una corriente se extiende desde el conductor igual que las ondas creadas cuando se tira una piedra al agua. Las líneas de fuerza del campo magnético tienen sentido antihorario cuando se observa el conductor en el mismo sentido en que se desplazan los electrones. El campo en torno al conductor es estacionario mientras la corriente fluya por él de forma uniforme.

Cuando un conductor se mueve de forma que atraviesa las líneas de fuerza de un campo magnético, este campo actúa sobre los electrones libres del conductor desplazándolos y creando una diferencia de potencial y un flujo de corriente en el mismo. Se produce el mismo efecto si el campo magnético es estacionario y el cable se mueve que si el campo se mueve y el cable permanece estacionario. Cuando una corriente empieza a circular por un conductor, se genera un campo magnético que parte del conductor. Este campo atraviesa el propio conductor e induce en él una corriente en sentido opuesto a la corriente que lo causó (según la llamada regla de Lenz). En un cable recto este efecto es muy pequeño, pero si el cable se arrolla para formar una bobina, el efecto se amplía ya que los campos generados por cada espira de la bobina cortan las espiras vecinas e inducen también una corriente en ellas. El resultado es que cuando se conecta una bobina así a una fuente de diferencia de potencial, impide el flujo de corriente cuando empieza a aplicarse la diferencia de potencial. De forma similar, cuando se elimina la diferencia de potencial, el campo magnético se desvanece, y las líneas de fuerza vuelven a cortar las espiras de la bobina. La corriente inducida en estas circunstancias tiene el mismo sentido que la corriente original, y la bobina tiende a mantener el flujo de corriente. Debido a estas propiedades, una bobina se resiste a los cambios en el flujo de corriente, por lo que se dice que posee inercia eléctrica o autoinducción. Esta inercia tiene poca importancia en circuitos de corriente continua, ya que no se observa cuando la corriente fluye de forma continuada, pero es muy importante en los circuitos de corriente alterna.

CONDUCCIÓN EN LÍQUIDOS Y GASES.

Cuando fluye una corriente eléctrica por un conductor metálico, el flujo sólo tiene lugar en un sentido, ya que la corriente es transportada en su totalidad por los electrones. En cambio en los líquidos y gases, se hace posible un flujo en dos sentidos debido a la ionización. En una solución líquida, los iones positivos se mueven en la disolución de los puntos de potencial más alto a los puntos de potencial más bajo; los iones negativos se mueven en sentido opuesto. De forma similar, en los gases —que pueden ser ionizados por radiactividad, por los rayos ultravioletas de la luz solar, por ondas electromagnéticas o por un campo eléctrico muy intenso— se produce un movimiento de iones en dos sentidos que produce una corriente eléctrica a través del gas.

FUENTES DE FUERZA ELECTROMOTRIZ.

Para producir un flujo de corriente en cualquier circuito eléctrico es necesaria una fuente de fuerza electromotriz. Las fuentes disponibles son las siguientes: 1) máquinas electrostáticas, que se basan en el principio de inducir cargas eléctricas por medios mecánicos; 2) máquinas electromagnéticas, en las que se genera corriente desplazando mecánicamente un conductor a través de un campo o campos magnéticos; 3) células voltaicas, que producen una fuerza electromotriz a través de una acción electroquímica; 4) dispositivos que producen una fuerza electromotriz a través de la acción del calor; 5) dispositivos que generan una fuerza electromotriz por la acción de la luz; 6) dispositivos que producen una fuerza electromotriz a partir de una presión física, como los cristales piezoeléctricos.

CAMBIOS CULTURALES SEGÚN LA EVOLUCIÓN DE LA TECNOLOGÍA.

La historia del mundo sigue el progreso de la civilización que, alternadamente, se mueve en respuesta a cambiar tecnologías culturales. El modo de la tecnología imparte algo de su naturaleza a la experiencia pública. La forma afecta la sustancia, o, como decía McLuhan una vez que esta dicho, " El medio es el mensaje."

  • La civilización I comenzó en un momento en que la escritura ideografica fue introducida. La escritura ideografica utiliza símbolos escritos a enteras expresas las palabras - una palabra, un símbolo, sin importar contenido de los sonidos. Si el vocabulario hablado contiene 10.000 palabras, después 10.000 símbolos se deben aprender para dominar el lenguaje escrito.

Que un requisito tan inmenso el aprender restringe el conocimiento de escribir a un grupo de profesionales entrenados. Los escribanos del templo monopolizaron este arte. El escribir en esta etapa fue utilizado para preservar conocimiento, contiene expedientes comerciales, no pierde de vista colecciones de impuesto y leyes. Es decir respondió a las necesidades de las burocracias grandes.

Este tipo de escritura fue tomados de la mano con la formación de los gobiernos imperiales que dependieron del trabajo de escribanos. El gobierno imperial era la institución en el culminar de la civilización I.

  • La civilización II comenzó en un momento en que la escritura alfabética fue introducida. La escritura alfabética asigna símbolos a los sonidos puros del discurso. Las cartas dispuestas secuencialmente en el orden de sonidos en una palabra hablada abarcan la palabra escrita. Puesto que 26 cartas pueden representar los varios sonidos del inglés hablado, una persona tienen aprender solamente 26 símbolos para aprender cómo escribir - A ", B, C's del niño ". Luego, el "sonar fuera" de una palabra identifica su significado.

El número reducido de símbolos hace más fácil aprender la escritura. Eso significó que un segmento más grande de la población podría leer y escribir. Un público de la lectura emergió. La instrucción creciente en Grecia y otros lugares despertó curiosidad sobre la naturaleza de las palabras.

Las palabras fijadas en un medio sólido tal como el papiro o la piedra se parecía tener una existencia palpable. Los filósofos pidieron: Qué clase de cosa es ésta? (la respuesta de Platón era: forma.) Las sociedades abrazaron los ideales la calidad y verdad, que son esencialmente de palabras. Las filosofías éticas tales como Platón y Aristoteles trabajaron su manera en la ideología de la religión cristiana. La religión del mundo que emergía eran la institución el culminar de la Civilización II.

  • La civilización III comenzó en un momento en que la impresión fue introducida en Europa. La impresión aumentos la eficacia de copiar los manuscritos escritos. Una placa que contiene líneas del tipo "escrita" una paginación entera del texto impreso en un solo impresión entintada.

La eficacia creciente de la escritura trajo un volumen grandemente creciente de literatura impresa. También significó que el mayor cuidado se podría dar a producir el texto sin error; valió el comprobar de un texto con minuciosidad que sería reproducido muchas veces. Las palabras y los estilos de tipo deletreados podrían ser estandardizado.

Porque la impresión permitió que un texto fuera reproducido sin fin exactamente de la misma manera, una podrían ser seguros que las palabras exactas del autor fueron transmitidas a los programas de lectura. Eso permitió para que los autores individuales atraigan un siguiente entre las personas enamoradas de su estilo de escritura personal. Los autores hicieron los héroes culturales, grapas del coursework de la universidad.

Imprimía también ayudaron a la difusión del conocimiento. Los diarios científicos presentaron argumentos cuidadosamente expresados a los grupos de programas de lectura interesados. Los boletines de noticias o los periódicos generales atrajeron a un número total de lectores total que podría ser golpeado ligeramente con eficacia por los publicistas. Por eso, el comercio encontró una manera de vender sus mercancías con impreso del literatura. Comercio y la educación era las instituciones el culminar de la civilización  

  • La civilización IV comenzó en un momento en que la comunicación electrónica fue introducida. Las tecnologías de la Electrónico-comunicación incluyen un número de dispositivos inventados en los diecinueveavo y vigésimos siglos que permiten registrar imágenes sensuales tan bien como de las palabras.

La fotografía era el precursor de este tipo de invención. Entonces vinieron el telégrafo eléctrico, el teléfono, el fonógrafo, la máquina cinematográfica, la radio, y la televisión. Cada dispositivo tiene su propia capacidad de preservar audio o las imágenes visuales y la proyección de ellos concluía a grandes distancias o al audiencias geográficamente dispersadas.

Estos dispositivos de la comunicación crearon una cultura animada de imágenes rápidas, perfeccionadas. El ejecutante hermoso, rítmico que habitó este dominio hizo un nuevo héroe cultural. Los media electrónicos permitieron preservar cada expresión facial y cada inflexión de la voz de un cantante.

La celebridad fue llevada de la exposición a las audiencias sobre una etapa extensa. El público hizo los consumidores de la cultura popular, conocedores de varias clases de ritmos. Productos comerciales anunciándose en radio o la televisión se convirtió en las marcas rápido-seguro-vendibles. Redes de la televisión era la institución el culminar de la civilización IV.

  • La civilización V ha comenzado con la introducción del ordenador. La informática se parece abrogar a un tipo más intelectual o, por lo menos, técnico más inclinado de persona que el mundo de la hospitalidad. Sus utilizadores trabajan a menudo solamente delante de una terminal. Deben tener la capacidad de pulsar. Los dispositivos son absolutamente variadas.

Todo el esto pueden agregar absolutamente hasta una red de individuos solitarios, inteligente pero social torpe: gansos y nerviosos. Por otra parte, la actividad del ordenador no permite también muchos flácidos, TV-tipo "patatas del sofá".

Quizás como los dispositivos del ordenador llegan a ser más pequeños y más móviles y mientras que se agregan más características del voz-reconocimiento, su uso se convertirá en parte de una forma de vida más activa y social que estimula más.

   





Descargar
Enviado por:Cacho
Idioma: castellano
País: Argentina

Te va a interesar