Comunicación Audiovisual


Sonido e imagen


Tema 1. Introducción al sonido analógico

1.1. Introducción

1.2. Características del sonido analógico

1.3. La forma de onda

1.4. El oído humano y el espectro audible

Tema 2. Digital o analógico

2.1. El audio digital. El sistema binario

2.2. La conversión analógica digital

2.3. Niveles de funcionamiento en audio digital

Tema 3.El estudio de grabación.

3.1. Estructura del estudio / tipos de estudio

3.2. La acústica del estudio y conexionado

3.3. El control y el monitoreo

3.4. La mesa de mezcla. Características y tipos

Tema 4. Micrófonos de estudio y de directo

4.1. Características de los micrófonos

4.2. Micrófonos. Clasificación según directividad y construcción

4.3. Conexionado de micrófonos

Tema 5. Metodología de una grabación

5.1. Introducción a la grabación

5.2. Preparación y ajustes del equipo

5.3. Procesadores de efectos y de dinámica

Tema 6. La edición de audio digital

6.1. Edición destructiva y no destructiva

6.2. Las acciones de edición

6.3. Formatos de almacenamiento y master

Tema 7. El directo en cine

7.1. El equipo de directo

7.2. La documentación y clasificación del material

7.3. Posicionamiento de micrófonos y accesorios

práctica

Tema 8. La post-producción. El pro-tools

8.1. El programa y su metodología de trabajo

8.2. Conceptos esenciales del programa

8.3. Introducción a la sincronización con imagen

8.4. El control y arrastre de maquina

8.5. Exportación e importación de archivos

Tema 9. La sincronización con la imagen

9.1. la sincronización y sincronizadores

9.2. El código de tiempo

9.3. La sincronización digital y analógica

Tema 10. La premezcla y mezcla

10.1. El estudio de mezcla en cine y televisión

10.2. La mezcla final

10.3. La mezcla m+e. La banda internacional

10.4. El print-master

10.5. La mezcla para televisión

Tema 11. Sistemas de codificación y reproducción

11.1. La codificación dolby-dts-sdds

11.2. Sistemas de reproducción del sonido en cine. Thx

Tema 12. El sonido en espectáculos audiovisuales

12.1. El sonido p.a.

12.2. Características del p.a.

12.3. El equipo p.a. normas de funcionamiento

TEMA 1:. EL SONIDO ANALÓGICO

1:. INTRODUCCIÓN

El sonido audible es analógico, sin embargo el digital no.

Sonido: es la vibración de las moléculas de un medio transmisor, ya sea gaseoso, líquido o sólido. Para que se produzca un sonido se necesita un medio.

Se propaga con una velocidad dada (varía según el medio):

Aire: 343 m/sg

Agua: 1483 m/sg

Acero: 5060 m/sg

Las variables dependen del medio y de la temperatura:

  • A mayor densidad del medio mayor velocidad de propagación

  • A menor temperatura mayor velocidad de propagación

Ej: el aire a 20º ! 343 m/sg y el aire a 0º ! 760 m/sg.

2:. CARACTERÍSTICAS DEL SONIDO ANALÓGICO

Campo Sonoro: son las superficies que delimitan un campo acústico. Un campo sonoro siempre está inmerso en un medio.

No todos los sonidos se propagan y comportan de la misma manera:

  • Graves: su forma de difusión es circular o elíptica

  • Medio

  • Agudo

.: Características básicas del sonido:.

TONO: es la magnitud subjetiva (propia de cada persona: cómo entendemos lo grave, agudo o medio) del sonido que se refiere a su altura o gravedad. Son los controles de una mesa de ecualización.

FRECUENCIA: es la magnitud objetiva del sonido y medible. La unidad de medida es el Hertzio (Hz = una vibración por segundo).

En sonido se utiliza el Kilo Hertzio para referirse a los tonos agudos (KHz = 1000 Hz)

!Tonos Agudos ! 2 KHz a 20 KHz

!Tonos Medios ! 600 Hz a 1 KHz

!Tonos Graves ! 20 Hz a 400 Hz

El oído humano tiene un ancho de banda de audición de 20 Hz a 20 KHz (por encima y por debajo no oye).

TIMBRE: es la cualidad del sonido que nos permite diferenciar el sonido de dos instrumentos cuando ambos interpretan la misma nota. EJ: Piano ! LA: frecuencia de 440 Hz ! Flauta ! LA: frecuencia de 440 Hz

3:. LA FORMA DE ONDA

Nos basamos en la Frecuencia armónica o el Análisis de Fourier:

Pero el sonido se compone no sólo de esta onda Fundamental sino también de múltiples de la fundamental:

El 1er armónico (más cerca del fundamental): Armónico Fundamental, dependiendo del nº de armónicos podré diferenciar el timbre. Varían en intensidad, siempre menor a la fundamental.

4:. EL OIDO HUMANO Y EL ESPECTRO AUDIBLE

.:Funcionamiento del oído:.

Las vibraciones son captadas por el pabellón auditivo que por los pliegues y repliegues realizan una ecualización del sonido. Esas vibraciones pasan por el canal auditivo hasta llegar al tímpano (membrana que capta vibraciones y vibra ! más rápido con frecuencias altas). Esas vibraciones llegan a unos huesos (yunque...) que amplifican 15 veces. Esas vibraciones llegan al caracol donde se convierten en presión y depresión hidráulica (caracol está lleno de un líquido sinovial). Llegan al órgano de Corti, el cual convierte esas presiones y depresiones en impulsos eléctricos que a través del nervio auditivo llegan al cerebro y se produce la sensación de oír.

ESQUEMA HUMANO:

Sonido ecualizador tímpano huesos caracol señal eléctrica nervio

.:Funcionamiento de un micrófono:.

Las ondas se presión son captadas por el micrófono: en su interior hay una membrana, al vibrar llega a una bobina que pasa a una mesa de mezclas donde se ecualiza y pasa a un amplificador para poder ser escuchado multiplicado por 20. De ahí se llevan a unos altavoces que cambian la señal eléctrica en ondas de presión.

ESQUEMA:

X 20

Nuestros oídos son capaces de captar sonidos en 180º, omnidireccional (diagrama de captación).

INTENSIDAD: es una magnitud objetiva (=frecuencia) que hace referencia a la potencia acústica ! I = W/cm2 (vatios).

SONORIDAD: es la sensación subjetiva propia de cada uno; se mide en S = Belios ! una unidad más pequeña: decibelios. Es subjetiva porque depende de cada persona (sordos).

TEMA 2:. SONIDO DIGITAL

2.1:.EL AUDIO DIGITAL. EL SISTEMA BINARIO

Las primeras técnicas de grabación sonoro se hacía variar algún parámetro mecánico, eléctrico o magnético, del mismo modo en el que el sonido que vamos a grabar había variado la presión del aire.

Señal eléctrica

AUDIO ANALÓGICO:

En un sistema analógico la información se obtiene mediante la variación de un parámetro continuo como puede ser la tensión en un hilo conductor. En un equipo de grabación la distancia a lo largo del soporte físico es también un elemento continuo y equivalente al tiempo.

Usar unas bobinas de cinta magnética que el tiempo de lo que queremos grabar deberá tenerlo también la cinta (60 m).

Relación del soporte donde se hará la grabación y el tiempo de grabación.

Los equipos de grabación poseen elementos mecánicos que permiten variar la velocidad de arrastre, es preciso que sea también un elemento continuo:

17 rev/m - 33 rev/m - 45 rev/m

Tensión / Velocidad / tiempo ! continuo.

En el audio analógico si modifico la velocidad de arrastre del soporte obtengo una señal de audio válida (audible). En el audio digital eso no ocurre.

AUDIO DIGITAL:

Un equipo de grabación digital tiene las mismas características que un equipo de grabación analógico ideal (de muy alta gama; ej: las BSO, la mezcla se sigue haciendo en analógico, calidad similar al digital).

DIGITAL ANALÓGICO

Mini-Disk (30.000) — con igual calidad! DASH (700.000)

2.2:. PROCESO DE CONVERSIÓN ANALÓGICA DIGITAL.

El sistema AD / DA:

S.E S.E

Convertidor

PCM

El convertidor AD convierte la señal analógica en código binario, esa señal digital necesita volver a convertirla en señal analógica, es necesario un convertidor DA que iría al altavoz que vuelva a provocar esas ondas de presión.

El sistema DA se basa en un esquema llamado PCM (Sist. De codificación por impulsos).

I A intervalos

T = 1 sg

Frecuencia de Muestreo

T1= 3 ! 01001001001

T4= 4 ! 10010010010

La sucesión de valores que el resultado es una cadena se conoce como PALABRA DIGITAL. A intervalos de tiempo regulares, el Sist. PCM va tomando muestras de audio y lo que obtengo es una descomposición de la señal continua en infinidad de puntos.

La señal analógica es continua, la digital no. El audio digital es un sucesión de valores y el resultado es una cadena de código binario que se le conoce como: PALABRA (01001001..)

Cuando la frecuencia de muestreo equivale a 44,1KHz (he tomado 44.100 muestras en 1sg), una cadena digital debe tener como calidad mínima 44,1KHz = 16 BITS equivalen a una palabra digital.

CD ! 44,1KHz = 16 BITS en calidad CD

DVD ! s canales en alta calidad ! 96KHz = 24 BITS (en 1sg analiza 9.600 muestras, y la información de bits mucho mayor)

DLT (Audio en cine digital)! 2 canales = 132KHZ = 32 BITS

A mayor frecuencia de muestreo, mayor calidad:

!FM = ! calidad.

Philips

- DVD Audio 96KHz ! 5.1- mantiene la calidad CD

Pioneer

Sony

- Super Audio CD ! SACD

JVC

El sistema 5.1 (Dolby) L C R

Dentro de esta palabra destacamos el primer y último digito:

0100101001011001

MSB LSB

El BIT de mayor significado El BIT de menor significado

El sonido digital tiende a imitar al analógico ! conseguir continuidad. El sistema analógico al hacer una copia se pierden generaciones.

En digital no, se clona la información del Master sin perder calidad. También el soporte en el que se registra el sonido digital tiene una vida ilimitada (CD utilizable y reutilizable). El mantenimiento en analógico se almacena en un sitio controlado y cuidado en comparación con el digital. Además de que el espacio en analógico (cinta abierta) es mayor y más cara.

El sistema digital tiene un inconveniente, los ecualizadores digitales necesitan un reloj que enclava la sincronización.

CD 48HKz mesa de mezclas 48KHz PC

Esta cadena debe llevar un reloj que lo sincroniza, implícita en la frecuencia de muestreo

44,1KHz

RELOJ

48KHz ! BROADCAST: la calidad (por encima de la normativa mínima)

El Mini-Disk ! 32KHz : menos calidad, no profesional.

CD! 44,1KHz

Por ello usan el DAT (Digital Audio Tape ! 48KHz)

Caso:

48KHz 44,1KHZ

JITTER

Se corta porque no están enclavados, no así con analógico: 33rpm ! 45rpm

JITTER: efecto que surge al no enclavarse los sistemas.

En una cadena de grabación tengo que todos son de 48KHz pero que pro fabrica vengan descuadrados:

DAT ! 48khz ! 47,999KHz

MESA ! 48KHz ! 48,001KHz JITTER

Protools ! 48KHz ! 48,025KHz

A medida que avanza el proceso de grabación se desajusta y se produce el efecto Jitter; para ello existe un generador de sincronismos llamado HOUSE SYNC / BLACK BURST : 48KHz que generan una señal de reloj maestra para todos los equipos.

En vez de ajustarse cada uno de los sistemas a su reloj interno se ajustan a uno externo.

2.3:. NIVELES DE FUNCIONAMIENTO EN AUDIO DIGITAL

Un equipo analógico posee elementos que miden la sonoridad de la señal llamados PPM (Program Peak Meter: medidor de programa). Hay o de Aguja o de LEDS :

LEDS: tienen una escala que va de 70dB a 0dB: +1, +2, +3,......

En el audio analógico es correcto usar lo verde: la zona de funcionamiento óptimo, por encima suele ser rojo y es la saturación o HEAD ROOM, que puedo usarlo como zona de funcionamiento siempre que no estemos constantemente en él.; el oído no percibe esas imperfecciones si son inconstantes.

En el audio digital se sigue teniendo PPM peor no existe zona HEAD ROOM (-70dB). El 0dB digital no equivales al 0dB sino a -18dB digital. Me permite tener mucho más rango dinámico (desde -18dB a 0dB) y el 0dB es la zona de recorte.

TEMA 3:. EL ESTUDIO DE GRABACIÓN

El control sala sorda

Estructura El Locutorio / sala de grabación. Tipos sala brillante Cuarto de maquinas Mixtas(Dolby)

Distancia entre oyentes y la fuente sonora

Acústica S = s. directo + s. reflejado

Naturaleza de las superficies (HAAS / ECO)

  • Sala sorda: producción audiovisual (sala de doblaje) predomina la absorción de sonido.

  • Sala Brillante: predomina la reflexión del sonido. Para grabar música (sala para grabar una batería).

  • Salas Mixtas: se combina absorción con reflexión (acústica de cine: Dolby). Las salas brillantes pueden modificar su acústica poniendo paneles que tiene por una cara reflexión y por la otra absorción.

Cuarto de máquinas: se ubican aquellos elementos que pueden interferir en una grabación: magnetófonos, ordenadores; cualquier sonido que provoquen las máquinas en control se cambian de lugar.

3.2:. LA ACÚSTICA DEL ESTUDIO Y CONEXIONADO

  • Reverberación: es la suma de las reflexiones del sonido que llegan al lugar del oyente en diferentes momentos de tiempo. Auditivamente se caracteriza por una prolongación a modo de cola sonora que se añade al sonido original. La duración y la coloración tímbrica de esta cola depende de 2 valores:

  • La distancia entre el oyente y la fuente sonora.

  • S = SD + SR

  • La naturaleza de las superficies que delimitan el campo sonoro:

  • -Materiales de naturaleza porosa: absorción (sorda), ej: pared acolchada.

    -Materiales pulimentados: reflexión (brillante), ej: madera barnizada (resonadores), cristal, piedra.

    El sonido directo: la trayectoria es más corta por lo que escucharemos primero esto que el reflejado.

    Para escuchar el sonido en su totalidad, la reflexión del sonido debe ser menor a 50 msg y tiene que tener una presión sonora superior a 60 dB, porque la presión ambiente es de 60dB y lo enmascararía.

    • < 50 msg y ! 60 dB se produce el efecto HAAS o efecto precedencia.

    • > 50 msg ! efecto ECO.

    En un estudio se puede crear estos efectos por medio de una reverberación artificial. Parámetros:

    · Tiempo de decaimiento: es le parámetro con el que conseguimos que el sonido reverberado disminuye 60dB (TR60)

    · Retardo de las primeras reflexiones.

    · La intensidad de las reflexiones: marcamos la distancia entre la fuente sonora y el ambiente. Si está lejos la intensidad será menor y la reflexión mayor.

    PRINCIPALES CONECTORES:

    • EQUIPOS ANALÓGICOS:

  • Gama Profesional:

    • XLR (canon): posee 3 canales; al tener este canal de masa permite proteger nuestro audio de ruido electromagnético. (También para señales de micrófono).

    • JACK (stereo): tiene dos separadores de plástico que separan los canales. Se usa también en el entorno doméstico para los cascos (mini-jack), ya que va:

    • + Canal izquierdo

      - Canal derecho

      masa Canal negativo

      * El Jack mono y stereo también se llaman TRS.

    • Gama doméstica: +

        • JACK (mono): tiene dos canales. No tiene canal de masa. -

        • RCA: dos canales y se utiliza para entornos domésticos

      • EQUIPOS DIGITALES:

    • Conectores profesionales:

      • XLR: no tiene 3 canales. No afecta las inducciones por ser código binario, las señales digitales sólo necesitan un canal en el que viajan los 2 canales de dcha. e izda.

      • CD analógico : L y R ! 2 CH

        CD digital : 1 CH! digital

      • Conectores domésticos:

        • RCA

        • TOSLINK: (ópticas)

        (en profesionales para ADAT : 8 CH de audio).

        CONEXIONES:

        • ANALÓGICOS:

        • Balanceada: conexión profesional. Tiene salida marcada como +4 dB con conectores XLR y el JACK stereo. Protege la señal de ruidos electromagnéticos. Mayor tirada de cable.

        • Desbalanceada: conexión doméstica y en equipos como -10 dB. 2 canales y más sensible q interferencias de radiofrecuencia

          • DIGITALES:

          • AES / EBU: señal digital profesional; lleva información derecha e izquierda, e informa de reloj, de sincronismos, etc. Conector XLR.

          • SPDIF /SDIF: señal digital doméstica, sólo los canales izquierdo y derecho. Conector RCA. (Digital Interface Formal)

          • 3.3:. LA MESA DE MEZCLAS

            SECCIÓN DE ENTRADA:

            Entran las señales. Hay un pre-amplificador de la señal donde se ajusta el nivel (la intensidad) se hacen con un control de ganancias TRIM // GAIN. Después los controles de ecualización, donde modificamos el timbre de una señal por medio de unos filtros de tonos agudos, medios y graves. Los envíos de auxiliares para enviar una parte de la señal hacia una salida determinada.

            Después la regleta o fadder, y ajustamos el nivel de intensidad respecto a la mezcla. Un potenciómetro llamado Panorámico (PAN) envía la señal al canal L o R del master (panpometrar la señal).

            El balance se aplica sólo a estéreo que se diferencia del PAN porque en el balance se suma la señal derecha al izquierdo )o viceversa).

            ECUALIZACIÓN:

            Para filtrar la señal se usan filtros agudos, medios y graves. Que actúan sobre le ancho de banda de frecuencias de audición de banda.

            Graves Medios Agudos

            20Hz 600Hz 800Hz 2KHz 8HKz 20KHz

            Cuando los filtros están prefijados por el fabricante se conoce como: Ecualización tipo Shelving (la más común y con ecualizadores gráficos).

            En entornos profesionales está el ecualizador PICO o CAMPANA, en el que se pueden cambia r los parámetros de ecualización.

            • Frecuencia de actuación

            20Hz 35Hz 20KHz

            • Factor Q: rango en el que quiero actuar. Actúa en las medidas colindantes con menor intensidad. Mejor poner un factor Q más estrecho.

            30H 35Hz 40Hz

            • Ganancia / GAIN: decirle la cantidad de nivel de actuación. + para ensalzar, - para deducir.

            Frecuencia Aguda / F. Media Aguda / F. Media Grave / F. Grave y cada uno de ellos estos tres parámetros. Ecualizadores paramétricos.

            TEMA 4:. MICRÓFONOS DE ESTUDIO Y DE DIRECTO

            4.1:. Características de los micrófonos:

            El primer elemento que interviene en la cadena de reproducción sonora es el micrófonos y el último es el altavoz, también llamado TRANSDUCTOR.

            • Micrófono: transductor que convierte magnitudes físicas (ondas de presión) en una magnitud eléctrica.

            • Altavoz: transductor que convierte una magnitud eléctrica en magnitudes físicas (ondas de presión).

            CLASIFICACIÓN:

            Dinámicos / Bobina móvil 1.Cardioide/ Unidireccional

            Construcción Condensador / Phantom (48V) 2. Hipercardioide

            MIC Figuras Polares 3. Figura en 8/Bidireccional

            Funcionamiento Presión 4. Omnidireccional

            Gradiente Presión / Velocidad

          • Micrófonos según su construcción:

          • Dinámicos / Bobina móvil: es un micrófono robusto, de bajo coste, capaz de captar todo el espectro de frecuencias audibles (20Hz a 20KHz). Utilidades: para reportajes ENG, también en Radio.

          • Funcionamiento: membrana en un entrehierro que se mueve y que genera una corriente eléctrica que va a la mesa.

          • Condensador: micrófonos profesionales se emplean en estudios. Necesitan para que sean sensibles una alimentación extra (llamada alimentación Phantom de 48V).

          • Funcionamiento: la membrana está suspendida, se le suministra una energía extra para polarizarlo y que pueda vibrar. También hay unos de válvulas que llevan su propio condensador de energía. Micrófono de carbono del teléfono.

          • Figuras polares

          • CARDIOIDE / Unidireccional: máxima captación por su parte frontal

          • (hacia donde estás apuntando).

          • HIPERCARDIOIDE: compuesto por dos figuras polares cardioides

          • de diferente sensibilidad. Poseen máxima captación por la

            parte frontal y también por su parte posterior (inferior) por medio de unas aberturas.

          • FIGURA EN 8 / Bidireccional: máxima captación por su parte

          • frontal y posterior.

          • OMNIDIRECCIONAL. Ej: teléfono móvil, mesa de mezclas (PFL).

          • Funcionamiento:

          • Presión: la membrana está sometida a una cierta presión y sólo es sensible por una de sus caras. El dinámico no captaría apenas el sonido reflejado.

          • Gradiente Presión: la membrana es sensible por su parte frontal y posterior x la parte frontal el sonido directo y por la posterior el sonido reflejado.

          • Dinámico: Cardioide y de presión.

            Condensador: Cardioide, Hipercardioide, F8, Omni, Velocidad y presión.

            Cardioide: presión

            F8: velocidad

            Hipercardioide: velocidad

            Omni: velocidad.

            TEMA 5: METODOLOGÍA DE UNA GRABACIÓN

            5.1 PREPARACIÓN Y AJUSTES DEL EQUIPO.

            5.2 EL PROCESADO DE LA SEÑAL.

            5.3 EL MASTERING.

            Procesado de dinámica

            El margen dinámico de nuestro oído y el que se puede generar a partir de instrumentos acústicos puede alcanzar los 130 dB SPL.

            En cambio, los dispositivos de grabación no tienen tanto margen: los magnetofones de cinta apenas superan los 60 dB, las tarjetas de sonido domésticas apenas superan los 80 dB, tan sólo algunos de los equipos digitales profesionales permiten una dinámica de 120 dB...

            Por tanto, en algunas situaciones en la que necesitemos grabar instrumentos acústicos (especialmente una orquesta) necesitaremos comprimir su dinámica (o aprendernos la partitura para subir o bajar faders según haya momentos ppp o fff).

            Básicamente un compresor atenuará en una determinada proporción (ratio) la intensidad de la señal cuando ésta supere determinado umbral (threshold).

            Si a partir de determinado nivel no se permite que aumente la intensidad en absoluto, estaremos utilizando un limitador en lugar de un compresor.

            El limitador es de utilidad cuando resulta imprescindible que una señal de audio no supere un determinado umbral (por ejemplo, en transmisión de televisión, o en grabación digital -aunque en este caso el propio dispositivo de grabación ya realiza la limitación, con los desagradables resultados que todos conocemos-).

            Las utilidades más habituales y obvias de los compresores se centran en situaciones en las que es necesario minimizar los cambios de nivel debidos a variaciones de la distancia entre el micro y la fuente sonora, o cuando es necesario grabar sobre un soporte que no permite tanta dinámica como la fuente original -y protegernos contra las saturaciones-, o cuando es necesario suavizar los ataques de fuentes sonoras intensas, o cuando es necesario conseguir una sensación de alta intensidad sonora sin llegar a saturar y distorsionar la grabación (por ejemplo en emisoras comerciales de FM, o en spots publicitarios).

            Cuando utilizamos la compresión hay que pensar que el nivel de salida del compresor puede ser menor que el de entrada, por tanto tendremos que compensar la salida añadiendo una ligera amplificación.

            Un tipo de compresión que cada vez se utiliza más es la compresión por bandas, de manera que sólo se aplica a determinadas frecuencias (por ejemplo a los graves, o a los 7KHz para reducir la sibilancia o siseo de una voz). Aunque no nos extenderemos en ellos, los reductores de ruido de cinta (Dolby B y C, Dolby SR y  DBX) son sistemas de compresión/expansión selectiva por bandas de frecuencia.

            Las puertas de ruido "cierran" el paso de toda señal que no supere un determinado umbral fijado por el usuario. Son muy útiles en situaciones de "directo" en las que hay multitud de micrófonos que pueden captar lo mismo que el principal, y tratamos de que la señal sólo entre por el principal (por ejemplo, en un coloquio en el que casi seguro que sólo habla una persona al mismo tiempo).

            También nos ayudan a "recortar" todos aquellos ruiditos no deseados que se han colado en una grabación (toses, respiraciones, rozamientos de ropas, ruidos de ambiente), siempre que no se mezclen con la señal principal.
             
            Los expansores de dinámica actúan de manera inversa a los compresores. A partir de un determinado umbral expanden el margen dinámico en una proporción fijada por el usuario.

            Su utilidad puede revelarse especialmente en situaciones en las que la señal original tiene una dinámica demasiado reducida

            (por ejemplo, en la escucha de un disco de vinilo) y nos interesa tratar de ampliarla un poco, o también puede ayudarnos a restaurar señales grabadas con bajo nivel (aunque necesitaremos aplicar otros procesos adicionales, ya que el expansor por sí solo no bastará).

            Cuando necesitemos utilizar varios tipos de procesadores de dinámica hemos de actuar en primer lugar contra los ruidos indeseables (con una puerta de ruido, por ejemplo). Después podemos poner el compresor. Finalmente, a diferencia del uso de otros procesos (reverberación, retardos).

            La normalización consiste en transformar la amplitud de la señal tomando un determinado valor como máximo y reajustando en la correspondiente proporción toda la señal. Así, cuando normalizamos a 0, si el valor máximo que tenemos en nuestro archivo es de -10 dB estaremos amplificando toda la señal esa magnitud. El problema más habitual con la normalización es la existencia de ruido de fondo, el cual, mientras está a una amplitud baja no se percibe tan molesto como cuando es amplificado en exceso (la explicación es psicoacústica).

            A veces será preferible normalizar a menos de 0 dB, o comprimir un poco y aprovechar la ganancia de salida del compresor para aumentar el nivel definitivo. Aumentar la ganancia y normalizar son dos maneras de referirse a una misma operación, aunque en muchas ocasiones empleamos la expresión "normalizar" sólo cuando normalizamos a 0 dB de la escala digital.

            Transformaciones tímbricas basadas en retardos: delay, flanger, chorus...

            Eco/Retardo

            Cuando las reflexiones de un sonido llegan con retardos superiores a 50 milisegundos respecto de la fuente original aparece lo que denominamos eco.

            En otros tiempos el efecto de eco se conseguía gracias a los 2 cabezales (grabación y reproducción) de un magnetófono. Inyectando un sonido, grabándolo y reproduciéndolo inmediatamente obtendremos un retardo cuyo tiempo estará determinado por la distancia entre los cabezales y por la velocidad de la cinta (puede oscilar entre 66 i 266 milisegundos).

            Actualmente los ecos se consiguen mediante retardos digitales (delays) que nos permiten tiempos desde una milésima de segundo hasta 3 ó 4 segundos.

            Además del tiempo de retardo, es posible manipular parámetros como:

            Múltiples líneas de retardo (multi-tap delay): es posible retardar de maneras diferentes pero simultáneas una misma señal (por ejemplo, una línea atenúa progresivamente la señal retardada, otra hace un número fijo de retardos, con una dinámica creciente, y otra hace lo mismo pero con una dinámica y una distribución de tiempos de retardo aleatorias.

            Panoramización: permite hacer sonar las repeticiones alternativamente en uno u otro lado del espacio acústico, o ir desplazándolas progresimente en una determinada dirección.

            Los retardos no sólo se utilizan para simular eco:

            Con un retardo muy corto (< 30 milisegundos) y una cierta realimentación alteraremos claramente la tímbrica. El sonido se hará metálico y adquirirá resonancias muy definidas en determinadas frecuencias. Incluso podemos simular acordes a partir de esta opción.

            Con un retardo entre 20 y 80 milésimas afectamos principalmente a la presencia del instrumento, ya que nos aprovechamos del efecto Haas para "sumar" perceptualmente dos sonidos iguales (y físicamente separados en el tiempo), de manera que podemos generar la sensación de sonido más "grueso", o de multiplicación de instrumentistas.

            Con retardos mayores de 80 o 100 milisegundos el efecto principal que obtenemos es de tipo rítmico, por tanto -al menos en el caso de músicas con ritmos marcados- hay que ajustar el tiempo de retardo al tempo de la música, para lo cual existen tablas muy útiles o puede valernos la fórmula:

            Tiempo de Retardo = 60000 / (BPM x R), donde R es 1 si el retardo va a negras, 2 si es a corcheas, 4 si es a semicorcheas, etc. Por ejemplo, a 100 BPM y 4/4, si queremos un retardo a semicorcheas (R=4) necesitamos un tiempo de 150 milisegundos.

             Flanger
             
            Se trata de un filtrado periódico (en forma de peine) de una serie de frecuencias determinada por el tiempo de retardo (por ejemplo, con uno de 0.5 milisegundos realzaremos 2KHz y sus armónicos), aunque explicarlo con palabras es poco efectivo. El origen del flanger es mecánico (hay quien se lo atribuye a George Martin y a John Lennon): si al grabar una cinta en un magnetofón presionamos con el dedo de vez en cuando y con fuerza variable la bobina que entrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos simultáneamente en 2 magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido característico del efecto de flanger.


            El flanger proporciona efectos más llamativos cuanto más rico (armónicamente hablando) sea el sonido. Cuando le añadimos feedback lo equiparamos a un chorus.

            Chorus

            Se utiliza para "engrosar" la señal, o para simular la existencia de varios instrumentos sonando al unísono. En esta situación, un intérprete puede atacar con cierto retraso  y con cierta desafinación respecto a otro intérprete; eso es lo que trata de simular, de manera compacta, este efecto.

             
            Distorsión

            Transforma en cuadradas las ondas de la señal de entrada. Eso origina que el resultado tienda a ser desagradable y rasposo (ya que la cuadratura de la onda implica que aparezcan armónicos impares).

            Excitador

            También denominado enhancer. Genera armónicos pares -a menudo medios/agudos- de la señal de entrada, de manera que contribuye a hacer más presente esa señal en una mezcla sin necesidad de subir su nivel.

            También puede utilizarse para generar subarmónicos con el fin de realzar instrumentos de tesitura grave, o de proporcionarles más cuerpo. Finalmente puede utilizarse satisfactoriamente en restauración sonora de vinilos o de grabaciones defectuosas.

            Transpositor

            Inicialmente las transposiciones mecánicas se basaban en alterar la velocidad de reproducción de una cinta respecto de su velocidad en el momento de la grabación

            (reproduciendo al doble obtenemos una transposición de octava hacia arriba), pero también se alteraba la tímbrica ya que esta transformación no preserva las estructuras de formantes propias de muchos instrumentos (por ejemplo la voz) y de ahí los conocidos efectos de "pitufo" o de "ogro", en los que la voz así procesada poco tiene que ver con la original.

            Muchos transpositores digitales aún operan en base a esa idea de alterar la velocidad de reproducción, aunque en los últimos años van apareciendo más equipos y programas capaces de transponer, incluso en tiempo real, sin alterar en exceso las características del instrumento.

            Las utilidades de un "pitch-shifter" comprendend: desafinar ligeramente un instrumento (por ejemplo, convertir un piano "soso" en un "honky-tonk"), engrosar su sonido -con la ayuda adicional de un pequeño retardo-), crear imágenes estéreo a partir de una fuente mono, corregir algunas alturas equivocadas en una interpretación por otra parte valiosa, crear armonías paralelas, o deformar sonidos "naturales" u "originales" para crear nuevos timbres (películas como La caza del Octubre Rojo, Full Metal Jacket, o Terminator 2 contienen interesantes ejemplos de uso del transpositor).

            Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado.

            El dispositivo más utilizado para transformar el timbre de un sonido es el ecualizador. Un ecualizador permite modificar la señal de entrada de manera tal que determinados componentes de su estructura o espectro salen de él atenuados o amplificados. Un ecualizador permite, como máximo, manipular 3 parámetros:

            Frecuencia de actuación o central: para determinar sobre qué zona del espectro queremos actuar;

            Anchura de banda o factor Q: para determinar la región en torno a la frecuencia central (cuanto más estrecha más precisa será la modificación -pero seguramente será menos evidente-);

            Nivel de atenuación/amplificación: para determinar la magnitud en dB que necesitamos realzar o atenuar la banda sobre la que actuamos.

            Un ecualizador puede ser:

            Paramétrico: si permite manipular los tres parámetros anteriores;

            Semiparamétrico: si la Q está prefijada y sólo podemos alterar los otros dos parámetros (habitual en muchas mesas de mezclas);

            Gráfico: si consta de un número fijo de frecuencias (8, 15, 31) de actuación, con una Q fija, de manera que tan sólo permite modificar el nivel de atenuación/ amplificación (con 31 bandas y una Q de tercio de octava puede ser el típico ecualizador utilizado para ajustar tonalmente una sala).

            Las transformaciones que podemos conseguir con un ecualizador no son excesivamente drásticas, aunque nos pueden ayudar a atenuar determinadas frecuencias molestas o exageradamente presentes, a realzar determinadas características tímbricas de una fuente sonora, o, en última instancia, a compensar determinadas deficiencias microfónicas o perceptuales (aunque no debemos poner muchas esperanzas en que nos arregle una deficiente toma microfónica).

            La EQ no se debe utilizar por rutina o sistema sino en función de los objetivos sonoros o musicales (claridad, equilibrio tonal, énfasis en determinados componentes, etc.).

            En una mezcla es importante tratar de plantear siempre en primer lugar una ecualización destructiva (en la que se atenúan determinadas zonas para conseguir el deseado equilibrio tonal)

            antes que una constructiva (en la que una amplificación excesiva puede originar un aumento del ruido); en lugar de amplificar lo que queremos resaltar podemos obtener el mismo efecto atenuando todo aquello que no nos interesa resaltar.

            En cambio, en grabación, si es necesario ecualizar deberemos preferir antes una EQ constructiva (que siempre permita volver a atenuar en mezcla) antes que una destructiva (si hemos atenuado algo, difícilmente vamos a conseguir que "reaparezca");

            ahora bien, hay que conocer en qué zonas se mueve la energía de los instrumentos para no cometer el error de enfatizar zonas vacías que lo único que hará será aumentarnos el ruido de la grabación.

            Junto a los ecualizadores los filtros son otra herramienta importante para alterar la estructura tímbrica de un sonido (de hecho los ecualizadores no son más que filtros especiales).

            Un filtro nos permite eliminar una determinada banda o margen de frecuencias en torno, por encima, o por debajo, de una cierta frecuencia de trabajo o frecuencia de corte.

            Los filtros más habituales son:

            Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central;

            Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte;

            Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo, el filtro de 80/100 Hz que habitualmente llevan las mesas de mezcla);

            Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia central;

            Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte, pero sin ser tan abruptos como los pasa-altos y pasa-bajos (los controles de graves y agudos de los amplificadores domésticos y algunas secciones de los ecualizadores de una mesa de mezclas suelen ser de tipo escalón)

            TEMA 6: EDICIÓN DE SONIDO

            VISUALIZACION DEL SONIDO.

            EL DOMINIO TEMPORAL Y EL DOMINIO ESPECTRAL

            En la actualidad contamos con la ayuda de representaciones visuales tales como los gráficos de formas de onda y los espectrogramas, y la edición no se realiza físicamente sobre el soporte del audio, sino de manera "virtual" sobre representaciones del sonido..

            Los gráficos de forma de onda nos presentan las variaciones de amplitud de la onda sonora a lo largo del tiempo. En el eje horizontal se representa el tiempo, y en el vertical la amplitud, intensidad o incluso la presión sonora. A menudo en el eje horizontal tenemos una escala en horas, minutos, segundos y "frames", o bien en compases y tiempos de compás, mientras que en el eje vertical tenemos decibelios, valores de amplitud de muestra o porcentaje de amplitud.

            Los espectrogramas nos representan la estructura intrínseca del sonido. En el eje horizontal se ubica la frecuencia, y en el vertical la amplitud.

            Si repetimos esas representaciones a lo largo de un periodo de tiempo obtenemos un espectrograma en cascada, en el que podemos observar las variaciones temporales de la estructura del sonido.

            Para analizar el espectro nos valemos del análisis de Fourier a corto plazo. Esta técnica puede requerir que ajustemos algunos parámetros para obtener unas representaciones fiables y de alta precisión.

            Por ejemplo, un tamaño grande para la ventana de análisis nos permite detectar correctamente bajas frecuencias, pero nos reduce la resolución temporal.

            EDICION DESTRUCTIVA Y NO DESTRUCTIVA

            La mayoría de programas actuales de edición permiten trabajar de manera no-destructiva. Ello significa que las transformaciones que realizamos con un determinado archivo no operan directamente sobre él sino sobre una copia real (un archivo temporal) o virtual (una serie de punteros y variables que especifican cómo se transforma el archivo original en el momento de reproducirlo transformado).

            La edición no-destructiva permite siempre "volver atrás" si tomamos una decisión equivocada.

            Una opción muy interesante en los sistemas de edición no destructiva es la del uso de regiones.

            Una región es una representación "virtual" -software- de un fragmento del archivo. Descomponiendo un archivo en regiones es posible construir un orden nuevo de sus contenidos sin necesidad de alterarlo físicamente, ni de copiar y pegar los fragmentos para construir nuevas ordenaciones.

            Para ello elaboramos una lista de reproducción (o playlist) que especifica qué regiones hacer sonar en cada momento.

            En algunas aplicaciones de edición de sonido podemos hallar diferentes modos de edición La elección de uno o de otro depende de los objetivos de la sesión o del proceso que tratemos de llevar a cabo.

            Cuando utilizamos las funciones de cortar y pegar es posible realizar un "pegado-mezcla" (pegando sobre un fragmento del archivo que previamente contenía sonido), una inserción (el audio que pegamos hace desplazar hacia atrás el que existía en el punto de inserción), o una substitución total (cuando en lugar de un punto de inserción especificamos una región). También es posible el pegado a una dirección específica de código de tiempo.


            Otra opción muy interesante es el recorte (o crop), mediante el que podemos eliminar todo aquello que rodea al fragmento que verdaderamente nos interesa.

            Finalmente, la opción de simulación de bobina permite ajustar un punto de edición escuchando a velocidad lenta el sonido existente alrededor de dicho punto. Cada opción depende, en última instancia, del modo de edición en el que estemos trabajando.

            CORTES Y ENCADENADOS. FADE IN Y FADE OUT.CROSSFADE

            Denominamos corte a una edición de material sonoro en la que el audio aparece o desaparece bruscamente.

            Denominamos encadenado a una edición de material sonoro en la que se yuxtaponen sin solución de continuidad y sin solapamiento dos elementos más o menos dispares.

            Cuando hacemos un encadenado la mayoría de aplicaciones profesionales pueden ajustar hasta cierto punto el  enlace para que no se produzca un "click" audible debido a diferencias de fase y amplitud entre los dos fragmentos.

            Un fundido es una transición gradual desde o hacia el silencio absoluto.

            En el primer caso se denomina fundido de entrada" (o "fade in"), mientras que en el segundo caso hablamos de fundido de salida (o "fade out").

            Cuando yuxtaponemos 2 materiales sonoros diferentes utilizando una combinación de fundido de entrada y de salida, es decir, cuando los yuxtaponemos sin "corte" sino con una transición paulatina, denominamos al proceso crossfade (o "fundido cruzado").

            En un fundido cruzado coinciden en el mismo momento de tiempo dos fragmentos sonoros diferentes, probablemente procedentes de archivos diferentes, que se combinan entre sí en una proporción que varía a lo largo del tiempo. Así hablamos de fundidos cruzados lineales, exponenciales, abruptos.

            Siempre que realizamos un fundido cruzado hay que vigilar las alteraciones de nivel que pueden producirse durante él (un fundido cruzado lineal origina una pérdida de entre 3dB y 6 dB).

            ELIMINACION DE RUIDOS INDESEABLES

            Los ruidos continuos y estables (por ejemplo un zumbido de baja frecuencia, o el "hiss" o soplido de cinta) pueden reducirse notablemente con ayuda de sofisticados procesos de filtraje disponibles en algunos editores profesionales.

            La estrategia suele implicar la selección de un breve fragmento -200 milésimas suele ser suficiente- de ruido solo, a partir del que el programa obtiene el perfil espectral de dicho ruido y propone un filtro reductor.

            A continuación, operando por ensayo y error unos cuantos parámetros es posible conseguir una mejora en la calidad sonora del archivo.

            Los ruidos transitorios, abruptos, y poco predecibles (toses, respiraciones, rozamientos de ropa, "clicks", "pops", etc.), es posible eliminarlos siempre que no coincidan con material "interesante".

            Estos ruidos que aparecen en momentos de silencio pueden eliminarse de manera semi-automática, con funciones tipo puerta de ruido, en las que establecemos un umbral de intensidad por debajo del cual lo que suena se atenúa o elimina.

            Además, es posible establecer umbrales temporales de manera que la puerta de ruido sólo actúe si el ruido no es mayor o menor que un determinado valor.

            En el caso de crujidos y "pops" de disco de vinilo existen aplicaciones con funciones especialmente diseñadas para resolver aceptablemente el problema.

            En el caso de "glitches" o "clicks", también podemos utilizar funciones de "de-clicking" que permiten substituir la muestras defectuosas, por ejemplo, un valor aceptable calculado a partir de las muestras adyacentes.

            La eliminación de ruidos indeseables no siempre debe realizarse "por sistema". En ocasiones el proceso de eliminación puede llegar a desvirtuar características sonoras importantes, en otras ocasiones determinadas eliminaciones restarán naturalidad a la banda sonora, o provocarán una cierta sensación de extrañeza. Es necesario valorar en cada caso la necesidad y el alcance y límites de dicho proceso.

            MATERIAL SONORO: SOPORTE Y FORMATOS

            AUDIO DE CD´s

            Existe una gran variedad de formatos de CD, no todos ellos necesariamente ligados al sonido.

            El CD-Audio almacena pistas de audio muestreado a 44.1 KHz y codificado en formato PCM a 16 bits, permitiendo más de 70 minutos estéreo por disco.

            El CD-ROM permite almacenar unos 650 Mb de datos informáticos de toda índole y por tanto es posible utilizarlo como soporte de almacenamiento de archivos de audio digital. Un CD-ROM no puede ser interpretado correctamente por un reproductor de CDs musicales en cambio, un CD-Audio sí que puede ser leído correctamente por un lector de CD-ROMs.

            Para extraer audio de CDs musicales e incorporarlos en un proyecto de postproducción digital de sonido se pueden seguir 4 procedimientos, asumiendo que el resultado lo pretendemos almacenar en el disco rígido de la computadora:

            a) Tomar la salida analógica del reproductor (line out) y conectarla a la entrada analógica de la tarjeta de sonido que utilicemos. Activar la función de grabación de nuestro programa de grabación/edición de sonido

            b) Utilizar el lector de CD-ROMs incorporado en la computadora. La conexión entre su salida y la entrada de la tarjeta de sonido se realiza a través de software.

            c) Transferir directamente los datos del CD a archivo de sonido, con ayuda de programas específicos (CD-grabbers).

            d) Transferir digitalmente los datos del CD desde un reproductor con salida digital hacia una tarjeta con entrada digital.
             

            La opción "c" será siempre la preferida ya que ahorra la redigitalización que tiene que llevar a cabo la tarjeta en los dos primeros casos, y permite mantener intacta la calidad original de la grabación en CD, y además nos ahorra tener que editar la grabación puesto que de hecho no hacemos una grabación sino una mera "transferencia". El problema es que los lectores de CD-ROMs no están suficientemente estandarizados y un programa de captura que funcione con un modelo o una marca puede no hacerlo con otro diferente. La opción d) también sería buena, pero nos obligaría a editar el fragmento grabado (para eliminar silencios antes y después del fragmento que nos interesaba).
             

            AUDIO DE DAT´s. (Otros soportes de audio en cinta)

            La extracción correcta de audio de DATs requiere que la tarjeta de sonido disponga de entrada digital, ya sea SPDIF (conector RCA) o AES-EBU (conector XLR o cannon). Si no disponemos de ella siempre queda el recurso de redigitalizar la señal conectando la salida de línea del DAT con la entrada de línea de la tarjeta, pero no es la opción más recomendable ya que perderemos calidad. La transferencia digital en este caso no nos permite conservar las marcas de posición (índices) que puedan existir en la cinta.

            La extracción de audio en otros soportes de cinta siempre la tendremos que realizar a través de los conectores de línea, de manera que la tarjeta de sonido será la que digitalice la señal. Cuando el audio proviene de cintas de cassette no tiene mucho sentido preocuparse por la calidad de la tarjeta, pues la señal que entraremos tiene suficientes defectos. Digitalizar audio de una cinta nos permitirá, para empezar, tratar de mejorar la calidad del sonido, eliminando el típico "hiss" o ruido de soplido.

            ARCHIVOS DE SONIDO. FORMATOS CAMBIOS DE FORMATOS, DOWNSAMPLIMG, REDUCCION DE BITS.

            Una vez digitalizado un sonido (el proceso requiere un filtrado pasa-bajos, un muestreo temporal, una cuantización de la amplitud de la onda y una codificación según un procedimiento preestablecido denominado "Modulación en código de pulsos" o PCM) dispondremos de un archivo que podremos reproducir en aquellas plataformas capaces de reconvertir su información en impulsos eléctricos susceptibles de mover el cono de un parlante.
            El archivo también podremos manipularlo de la misma manera que hacemos con otros tipos de archivos, y con la ayuda de programas especializados, podremos transformar su contenido sin que la calidad se degrade lo más mínimo.

            En un archivo de sonido distinguimos entre la cabecera (o header) y los datos. La cabecera es la sección inicial del archivo y en ella suele indicarse si se trata de un sonido mono o estéreo, si contiene puntos de buclaje (o loops), la tasa de muestreo, la duración, y otras informaciones respecto a los datos que van a continuación. Tales datos representan, muestra a muestra, el valor de la amplitud de la onda sonora. Cuando utilizamos 16 bits para codificar esa amplitud necesitamos dos octetos (o bytes) por muestra; el orden de ambos octetos es diferente para un archivo de una computadora con procesador Intel (big-endian) que para uno con procesador Motorola (little-endian). Esta es una cuestión muy importante cuando movamos archivos entre plataformas.

            Los formatos más comunes son:

            AIFF y SoundDesigner II: Propio de Macintosh

            WAV:Propio de

            Habituales de Macintosh. Las principales diferencias entre uno y otro son que en el AIFF los datos de cada canal están separados, mientras que en el SD-II están intercalados (interleaved) -o sea, una muestra de un canal seguida de una muestra del otro...- y que el formato SD-II utiliza unas estructuras de datos propias de Macintosh denominadas resource forks que suelen complicar las transferencias a PC.

            WAV:Propio de PCs.

            Un cambio de formato por lo general no debe afectar a la calidad del sonido (siempre que se mantenga la resolución y la tasa de muestreo), sólo afectará a la cantidad y tipo de información que se almacene en la cabecera. De ahí que con un cambio de formato el tamaño del archivo no se altere en exceso.

            La reducción de la tasa de muestreo y/o de la resolución se plantea como algo inevitable en muchas producciones multimedia ya que permiten comprimir el tamaño de los archivos de sonido hasta hacerlos 4 veces más pequeños, aunque el precio a pagar es siempre la degradación de la calidad.

            Cuando reducimos la tasa de muestreo es importante aplicar un filtro anti-aliasing para que no aparezcan -a modo de fantasmas- componentes espectrales de baja frecuencia que no tenía el sonido original.

            El filtrado anti-aliasing elimina todos los componentes situados más allà de la denominada frecuencia de Nyquist (la mitad de la tasa de muestreo).

            Así pues, una reducción de tasa de muestreo tendrá impacto principalmente en el timbre del sonido pues eliminará armónicos y componentes espectrales de alta frecuencia..

            Cuando reducimos la resolución (de 16 a 8 bits, por ejemplo) el impacto se produce principalmente sobre el rango dinámico de la señal (cada bit que perdemos lo reduce unos 6 dB).

            Recientemente han empezado a implantarse con éxito diversos esquemas de compresión de datos que utilizan sofisticadísimos algoritmos "adaptativos" (analizan espectralmente la señal, elaboran predicciones de lo que puede venir a continuación, utilizan conocimientos de psicoacústica para eliminar información redundante o enmascarada...). Tales algoritmos permiten reducciones de datos considerables (hasta en proporción 12:1), y sin degradar en exceso la calidad.

            El precio a pagar es que es necesario un proceso de descodificación que puede originar un cierto retardo en el inicio de la reproducción, o un gasto excesivo de los recursos de cálculo del ordenador. Entre estos algoritmos vale la pena conocer el denominado IMA ADPPCM, que reduce el audio en una proporción de 4 a 1 sin que suene tan mal como cuando reducimos a 22 KHz y 8 bits, y el MPEG-3, que puede comprimir en proporción 12 a 1 con una calidad notable (casi de CD escuchado a través de un equipo multimedia).

            TEMA 7:. EL SONIDO EN CINE

            7.1:. EL EQUIPO DIRECTO.

            Recorder- DAT (Digital Audio Tape)

            • Mini-Disk

            • Nagra (analógico)

            EQUIPO

            TÉCNICO Micrófonos

            Mesa (Mixer)

            Complementos TV/Monitor

            Radio micros

            Técnico: persona responsable

            EQUIPO HUMANO Auxiliar: ayuda al microfonista y hace las veces de 2º microfonista.

            Microfonista

            COMPLEMENTOS:

            Estos equipos graban L y R, y si en alguna toma se necesitan más canales porque se necesitan más micros (CH1- P1, 2- P2, 3- Ambiente, 4-Ext...) la mesa toma el sonido de los 4 micros y la salida es sólo L y R con todo el sonido junto. Cada canal puede ecualizarse.

            - TV/ Monitor: el monitor tiene una marca roja que delimita lo que graba

            el fotograma.

            - Radio micros: micros inhalámbrico que sustituye al micrófono en tomas abiertas.

            RECORDER

            CH 1 / L

            Graba en 2 pistas

            CH 2 / R *Pueden grabar códigos de tiempo para luego sincronizarlo

            Graban en sistema digital permitiendo grabar señales de 44,1KHz y 48KHz. En profesional se graba en 48KH (da más calidad que el 44,1KHz que es lo mínimo) ! 16BITS.

            MICRÓFONOS

            Suelen ser micrófonos de condensador que necesitan esos 48 vatios adicionales que lo da el DAT, la mesa o el propio micrófono {dentro en la cápsula hay una batería (pila)}.

            Clasificación:

          • Micro de cañón corto: estos micros suelen ser cardioides o hipercardiodes (recogen donde está apuntando y ambiente. Mayor ángulo de captación, y con un único micro puedo grabar a 2 personas. A su vez tienen menor proyección (cerca de los personajes).Se utiliza en interiores.

          • Micro de cañón medio: se utiliza para interiores y exteriores con poco ruido. Poseen un ángulo de captación grande pero menor que el de cañón corto aunque con mayor proyección.

          • Micro de cañón largo: únicamente para exteriores, con menor ángulo de captación y mayor proyección. Necesitan una suspensión especial (“Pistola”) en anclajes con gomas que amortiguan las vibraciones al mover el micrófono.

          • Encima de la suspensión se coloca el zeppelín, que protege al micrófono de golpes.

            Para mayor protección está el peluche que una funda de pelo que absorbe la lluvia, viento, etc, restando los agudos.

            La pértiga prolongación del telescópica del brazo del microfonista (enrollar cable para que no pegue contra la barra y se registre sonido).

            · Parte de Sonido: garantiza el control de sonido identificando las que han sido tomas de sonido buenas; con las notas para incidencias y la disposición de los canales del DAT -L y R en el caso de tener dos micros - pistas.

            · Wild track: cuando una toma en imagen está bien y no pueden usar otra toma, se realiza un doblaje en el mismo sitio y con la acústica de la toma.

            TEMA 10:. LA PREMEZCLA Y LA MEZCLA

            1. PREMEZCLA

            2pistas - diálogos ! 10p diálogos ! 80 p

            2pistas - efectos ! 16p efectos ! 120p ± 400p peli americana

            2pistas - amientes! 26p ambientes! 80p

            2pistas - músicas ! 16p músicas ! 128p

            ±70p

            peli española

            Los elementos comunes es hacer una premezcla de diálogos, efectos, ambientes y músicas.

            EJ: el estudio A se dedica a la mezcla de diálogos, cada apartado un estudio diferente. A nivel nacional es un único estudio.

            Es una mezcla en base al sistema 5.1 de todos los elementos que intervienen. Tengo para la mezcla final 24 pistas, se mezclan todas y se tiene una mezcla final 5.1 (MIX FINAL) ! mezcla discreta.

            2. TIPOS DE MEZCLA

            Mix Final- 5.1 - contienen todos los elementos

            MIX M + E / Soundtrack / Banda internacional: intervienen las músicas y efectos (ambientes y efectos especiales): mezcla para ser doblada a otro idioma, sin diálogos.

            LT R T : mezcla codificada de mi mezcla final. De 6CH codifica a 2CH (LT R T) poder escuchar en un sistema de 2CH (en DVD ! AC-3)Que para ver a través de un TV stereo y no oír sólo 2Ch (L y R) se agrupan en LT R T - Si se enchufa un amplificador Home Cinema el LT R T vuelve a 6CH.

            3. FORMATOS DE CINE

            Dolby Digital

            DTS sist. De Sony

            SDDS distribución de las pistas en los formatos

            MIX FINAL:

            Del estudio de Post-producción se lleva un disco duro y se enchufa a un Pro-tools en la sala de mezclas. Se hace la mezcla y se obtienen esos 6CH ! 5.1 y los almacena en formatos con unas cintas DTRS. Características de estas cintas: las mismas que la cinta DAT,

            · graba 8 pistas en digital

            · 44.1/48HKz = 16BITS

            · Time code (código de tiempos)

            8pistas digitales

            POST ! Hd (80) ! ! 5.1 ! DTRS 44.1 / 48HKz = 16BITS

            TC

            En la cinta sobran 2CH ! 7 y 8: la mezcla LT R T.

            1-L 5- SR

            2-C 6- SW

            3-R 7- LT

            4- SL 8- R T

            MIX M + E:

          • L 5- SR

          • C 6- SW

          • R 7- opcionales

          • SL 8- diálogos de referencia

          • · opcionales: para risas, canciones de los diálogos originales.

            · Diálogos de referencia: para ver al actor y el de doblaje pueda imitarlo.

            Para grabar LT R T se usan DAT (2CH).

            TEMA 11:. SISTEMA DE CODIFICACIÓN Y REPRODUCCIÓN

            1. LA CODIFICACIÓN DOLBY-DTS-SDDS

            En cine el sonido va dentro del fotograma (EL Dolby Digital). Para de la mesa de cine al óptico se ha de codificar la mezcla (sonido). Hay varios sistemas de codificación:

            • ANALÓGICO

            • Dolby SR: este sistema tiene 4CH de audio y su disposición para mezclar sería: 3CH en pantalla y mantiene un surround en mono. L C R

            • Dolby ST (stereo): con 2CH (L y R)

            • Mono Aural: 1CH (canal central).

            Estos dos últimos no se usan para proyectos de largometraje (si para cortos)

            • DIGITALES

            • Dolby SRD: Dolby digital con una estructura 5.1 (sist. Envolvente). Dolby tiene la peculiaridad que a su canal de subgraves en su sistema lo denomina LFE.

            • Dolby SRD EX: utiliza la estructura 7.1 (la

            diferencia con el SRD es que el EX tiene 2 surrounds por cada lado).

            MEDIO GAS ! aire

            TRANSMISOR LÍQUIDO ! agua

            SÓLIDO ! acero

            Es lineal, más difícil de propagar. Cuando inciden en obstáculos rebotan

            I

            t

            O

            O

            O

            ONDA FUNDAMENTAL

            Armónico Fundamental

            CEREBRO

            CORTI

            x 15

            EQ

            DA

            (DAC)

            01001001...

            AD (ADC)

            SW

            S.C S.R

            5.1

            PC

            Mesa

            CD

            0dB

            - 70dB

            Vu

            X X

            SD

            E MICRO

            SMono

            SL1 LFE SR1

            SL2 SR2




    Descargar
    Enviado por:Sann
    Idioma: castellano
    País: España

    Te va a interesar