Sonido en El Cine
Sonido en El Cine
Sonido en El Cine
mano con la imagen. Abarca todos los elementos que no sean estrictamente música
compuesta en un filme: diálogos y efectos sonoros. La creación de una banda sonora
tiene las mismas posibilidades creativas que el montaje. Se deben seleccionar
sonidos con una función concreta para guiar la percepción de la imagen y la acción,
en el caso de no tener aun hecha esa banda sonora se usa otra ya existente para ir
montando la imagen, a esto se le llama temp track.
Normalmente se tiene la sensación de que los actores u objetos que aparecen en
las películas producen el ruido adecuado en el momento adecuado, considerando el
sonido como un simple acompañamiento a las imágenes. En cambio, la banda sonora
de una película se construye separada de la banda de imagen y de manera
independiente. Parte de la fuerza de muchas escenas y secuencias se consigue
gracias a efectos de sonido que suelen pasar desapercibidos. El sonido es capaz de
crear un modo distinto de percibir la imagen y puede condicionar su interpretación,
por ejemplo, centrando la atención del espectador en un punto específico y guiándolo
a través de la imagen.
El sonido se propaga por presión mecánica de unas moléculas de aire sobre las
moléculas contiguas dando lugar a un movimiento que se transmite, en una o
múltiples direcciones, de unas moléculas a otras en forma de onda de presión (piensa
en lo que sucede en un vagón de metro lleno de gente cuando frena de golpe y alguien
pierde el equilibrio; este pasajero empujará a alguien, que a su vez empujará a otro y
así sucesivamente y a continuación se producirá el mismo movimiento en sentido
contrario. Esto provocará un vaivén en los pasajeros hasta que la energía quede
absorbida y todos recuperen la posición inicial de equilibrio. Esto es un movimiento
ondulatorio de transmisión mecánica) Cuando en el aire se producen ese tipo de
oscilaciones entre 20 y 20000 veces por segundo, nuestro cerebro puede
interpretarlas como sonido por medio del oído.
Las ondas pueden verse modificadas por reflexión, chocan contra una superficie y
rebotan cambiando su dirección inicial (eco o reverberación); refracción, cambiar de
dirección al pasar de un medio a otro de distinta densidad (Ej: agua-aire) o difracción,
dividirse en múltiples direcciones cuando encuentran un punto de paso muy estrecho
o un obstáculo en su camino.
Las características de las ondas se establecen a partir de un modelo de onda
sinusoidal que sería la correspondiente a un tono puro, perfecto:
Longitud de onda: distancia entre dos puntos que oscilan en la misma fase (Ej:
distancia entre dos crestas o entre dos valles de una onda). Depende de la frecuencia
y del medio de propagación.
Frecuencia: número de ciclos que una onda completa en un segundo y se mide en
Herzios. Una onda de 1 Hz completa un solo ciclo en cada segundo. De la frecuencia
depende el tono, de modo que a mayor frecuencia (más ciclos por segundo) el sonido
nos parecerá más agudo y a menor frecuencia (menos ciclos por segundo) sonará
más grave. El sonido de una voz femenina presenta frecuencias más altas que el de
una voz masculina.
1
Amplitud: Máximo desplazamiento respecto del punto de equilibrio que alcanza una
partícula en su oscilación. Depende de la cantidad de energía que genera la onda y
está relacionada con la intensidad —volumen- del sonido. Cuando gritamos estamos
aplicando más energía sobre nuestras cuerdas vocales, con ello aumentamos la
amplitud de la onda sonora que estamos generando. La amplitud decrece desde el
foco según la ley del cuadrado inverso, siendo uniforme la atenuación.
Fase: la posición que alcanza una partícula que responde a un tono puro con
respecto a su posición media. Las partículas en el mismo punto de su ciclo de
movimiento se dice que están en fase. Señales en fase se refuerzan. En desfase se
restan o anulan.
Las medidas del sonido son: la potencia; densidad de energía por m3 en una unidad
de tiempo que se mide en W: Watio. La sensación: medida de comparación de
intensidad entre dos sonidos que se mide en dB: decibelio.
El sonido llega a la banda sonora mediante el uso del micrófono, medio a través del
que las vibraciones de aire se convierten en corriente eléctrica. Esta señal se puede
registrar de forma magnética u óptica.
- Sonido magnético. Tras ser amplificada, la señal pasa a una cabeza magnética
de grabación ante la cual circula una película o cinta recubierta con partículas de
óxido que se magnetizan y que posteriormente pueden reproducirse ante otra cabeza
lectora.
- Sonido óptico. Basado en la modulación de un haz luminoso que varía según
las fluctuaciones de intensidad enviadas por el micro y que tras ser revelada podrá
reproducir esas variaciones eléctricas
El sistema analógico de grabación por excelencia en cine era un magnetófono de
bobina abierta popularmente conocido como Nagra. Usa cinta magnética de 6mm de
ancho, de gran flexibilidad, permite elegir la velocidad de la cinta, lo que repercute
directamente en la calidad de la grabación en un límite tan amplio como entre 15
pulgadas por segundo y 1 pulgada por segundo. La toma debe repicarse en película
perforada para posteriormente sincronizarla con la imagen y, tras el montaje,
incorporarse a la banda magnética de la película. Cada etapa reduce el nivel de
calidad, por ello la grabación original debe ser de óptima calidad.
La velocidad de grabación condiciona la fidelidad del sonido. A mayor velocidad
mejor respuesta de las frecuencias. La música se suele grabar a 15 i.p.s. (pulgadas
por segundo), la voz humana entre 7 1/2 y 3 3/4 i.p.s. pero lo que no podemos alterar
para tener sonido sincrónico con la imagen es grabarlo a 24 o 25 f.p.s. (fotogramas
por segundo) siempre basándonos en el chasquido y la imagen de la claqueta.
La grabación analógica está en desuso con la aparición del DAT (Digital Audio Tape).
También se registra en una cinta magnética, pero de tamaño cassette, convirtiendo
las señales de sonido en datos digitales a través de un procesador.
En primer lugar se toman una serie de muestras del perfil de la onda sonora que se
quiere digitalizar. A este proceso se le conoce con el nombre de "muestreo". Cuantas
más muestras se tomen, más se parecerá la onda digital a la original, pero también
2
será mayor la cantidad de información que tendrá que manejar el sistema. Para que
te hagas una idea, un muestreo a 44 Khz toma 40.000 muestras de cada segundo de
la onda de un sonido.
Las muestras se trasladan a una escala de niveles de intensidad, asignándosele un
valor numérico a cada una. El proceso en el que diferentes niveles de intensidad son
convertidos en sus correspondientes numéricos (dígitos) dentro de una escala, es lo
que conoces como "digitalización".
Para que las máquinas puedan entender esta información, es preciso codificar estos
números en forma de ceros y unos. Esta forma de codificación es lo que conoces
como codificación "binaria" donde cada valor (0 o 1) constituye un "bit" de
información. Una vez que has convertido un sonido en una secuencia de ceros y
unos, puedes replicar esa secuencia tantas veces como quieras sin que los números
cambien, razón por la cual podemos copiar muchas veces el mismo sonido sin perder
la calidad del original. Los bits se agrupan de ocho en ocho formando "bytes". Cuanto
mayor es el número de bits que puede manejar un sistema, mayor es, por así decirlo,
su capacidad o su "potencia" (8, 16, 32, 64, 128 bits) y, por lo tanto, mayores niveles
de sonido va a poder manejar, mayor número de colores o de niveles de brillo, etc.
Operativamente, la tecnología digital ha reducido el tamaño de los medios de
grabación y la inmediatez en la búsqueda de lo grabado facilitando ostensiblemente
la labor de los operadores de sonido. De hecho digital no es sinónimo necesariamente
de mayor calidad, aunque en sonido generalmente lo sea, sino de mayor capacidad
de manipulación y gestión de la información en la que son convertidos tanto imágenes
como sonidos y otros datos. Otro carácter asociado a lo "digital" es el "multimedia",
ya que una vez que toda la información (imagen, sonido o datos) ha sido reducida a
los mismo números (ceros y unos) pueden compartir el mismo soporte (CD, DVD,
DAT) y ser transmitida por un mismo medio (cable, satélite, fibra óptica) hacia un
mismo terminal (ordenador, receptor de TV) en un proceso muy complejo que se
conoce como "convergencia tecnológica".
El sonido puede ser sonido directo, tomado sincrónicamente en rodaje para ser
utilizado como tal lo que genera en una serie de problemas logísticos pues cualquier
sonido extraño obliga a repetir la toma; sin embargo es el modo más natural de
recrear el ambiente y la calidad interpretativa. Sonido de referencia, se graban los
sonidos y los diálogos pero posteriormente no serán utilizados en la copia sino que
servirán como referencia a los actores para doblar y a los técnicos de efectos de
sonido para recrear ambientes y sonidos. El más popular y habitualmente combinado
con el sonido directo recibe el nombre de wildtrack, pista de sonido que sirve como
base para un ambiente dado o como off. Sonido añadido o mezclas, el conjunto de
la banda sonora se compone de sonido directo, wildtracks, doblaje, efectos de sonido
y música.
El micrófono es el instrumento esencial para convertir el movimiento físico de las
moléculas del aire en impulsos eléctricos. Se dividen en cinco tipos en función de su
diseño; de carbón, cristal, resorte o bobina móvil, condensador y cinta. Los dos
primeros dan muy mala calidad, pero los otros son de calidad profesional. La
3
característica definitoria realmente importante es su direccionalidad y según como
sea se dividen en:
- Omnidireccional, cubre un ángulo de 360º y son útiles para sonidos de
ambiente, pero no sirven para grabar sonidos aislados, tampoco se pueden usar en
situaciones de bajo nivel sonoro o espacios cerrados porque registran el sonido de
la cámara.
- Cardiode, reciben este nombre por que su respuesta direccional tiene forma
de corazón. Muy sensibles a fuentes sonoras situadas frente a él y nula respuesta a
las situadas detrás.
- Direccional, poseen un área de sensibilidad de 40º y se les denomina también
supercardioides. Al utilizarse cerca de la fuente dan calidad inferior a los cardioides
pero son perfectos para grabar de lejos, cuando hay problemas de cuadro para el
microfonista (no puede utilizar un micrófono sin que se vea al rodar) al utilizarse un
objetivo angular.
- Otro tipo de micrófonos específicos son los de de corbata, son micros
personales que se enganchan a la ropa pinzados, hábilmente disfrazados entre
perneras y mangas del vestuario. Idóneos para grabar los diálogos en planos amplios.
- De radio frecuencia, eliminan los cables permitiendo captar los diálogos sin
restringir movilidad a los actores.
Cuando el cine era todavía mudo, se hacía uso de música y efectos de sonido en
directo para añadir realismo a las imágenes proyectadas y, además, cubrir el fuerte
ruido ocasionado por el proyector. Sin embargo, la utilización del sonido en
producciones audiovisuales inicia en 1926, año en el que Warner lanza Don Juan, la
primera película con un acompañamiento sonoro sincrónico (con sincronía entre la
imagen y el sonido). El proceso llevado a cabo para hacer el montaje de sonido en la
imagen, fue el llamado Vitaphone, que consistía, básicamente, en grabar la música
en discos aparte y reproducir tales discos de forma sincrónica con el proyector de
imagen. Esto, por tratarse de sólo un acompañamiento musical, no causó gran
impacto en los espectadores, pues no era muy diferente a lo que habían visto hasta
entonces.
Un año más tarde, en 1927, se lanza la película El cantante de Jazz, la cual sí genera
un cambio importante en cuando a la concepción y utilización del sonido en el cine,
pues, por primera vez, había sincronía entre el movimiento de los labios de un actor
y lo que sonaba. "Hey, Mum, listen to this...!"; estas fueron las palabras que pronunció
Al Jolson y que enseguida emocionaron al público y dieron un giro a lo que es el
sonido. Desde ese momento, el cine empezó a hacer un uso exagerado (y limitado,
por la tecnología) del sonido, y, sobre todo, tuvo que acceder a las exigencias de los
espectadores, quienes, después de escuchar hablar a Al Jolson, pedían con furor que
las voces de los actores sonarán.
Esta introducción del cine sonoro se convirtió en un reto y cambio radical en la forma
en la que se hacía cine. De los estudios ruidosos y rodajes en medio de carcajadas,
pasaron a estudios insonorizados y rodajes en los que el protagonista era el silencio.
Errores técnicos debieron sortearse y soportarse, como, por ejemplo, que un actor
olvidase hablar en dirección al micrófono. Además, la iluminación debía ser más
4
fuerte, pues la sincronía entre audio e imagen exigía que las cámaras rodaran a
velocidades mayores. Esto repercutió en la comodidad de los actores. De esta forma
se podrían enumerar muchos ejemplos de las complicaciones que generó la entrada
del sonido al cine. Sin embargo, a la gente le gustaba.
Otra preocupación que empezó a gestarse en los directores fue la relacionada con
la forma de realizar versiones múltiples de las películas. Como primera medida,
Hollywood contrató equipos técnicos completos de otros países (Francia, España,
Alemania, entre otros), para realizar las grabaciones simultáneas. Rodaban una plano
en uno de los idiomas, cambiaban los actores, y rodaban el mismo plano en otro
idioma. Claramente, cuando el doblaje de voces hace su aparición, este tedioso
trabajo deja de ser funcional y es dejado a un lado por completo.
De ese momento hasta nuestros días, han sido muchas las películas que se
destacan por su extraordinario uso del sonido, entre las que se encuentran Ciudadano
Kane (1941), El hombre elefante (1980), Ereaserhead (1977), Toro Salvaje (1980), Érase
una vez en el Oeste (1968), Star Wars (1977), y Apocalypse Now (1979). Además, este
avance representó la necesidad de crear un nuevo cargo para personas
especializadas en el diseño sonoro. Esta fue la labor de Walter Murch y Ben Burtt,
quienes se han destacado históricamente por su calidad, profesionalismo y
creatividad a la hora de realizar el diseño sonoro de una película.
Desde del inicio de la historia del cine se ha intentado grabar sonido e imagen. Uno
de los primeros en intentar fue Edison, que intentó sincronizar dos de sus inventos,
el Kinetoscopio y el Fonógrafo. Lo consiguió, y hasta llegó a hacer una presentación
pública en 1913. Léon Gaumont y James Williamson también lo intentaron, pero sin
éxito. Las principales dificultades con la que se encontraban eran la imposibilidad de
amplificación del sonido y la sincronización entre éste y la imagen.
La primera solución a estos problemas llegó gracias a Lee De Forest y la invención
del Audion, la primera válvula tríode. A partir de ella, la compañía americana Western
Electric empezó a investigar, y pudo así desarrollar amplificadores. A su vez, otra
empresa llamada General Electric estaba trabajando en un sistema fotográfico que
permitía juntar sonido e imágenes.
Al principio, la acogida del sonido por parte de las grandes productoras
cinematográficas no fue buena. La primera en introducir este avance fue la Warner
Brothers, que se unió con la empresa Western Electric para empezar a trabajar con
un sistema de cine sonoro: el Vitaphone (o Vitáfono). La primera película rodada en
este formato y, por lo tanto, considerada la primera película sonora fue El cantor de
jazz (1927).
El sistema Vitaphone se siguió usando hasta que, en el año 1930, se introdujo el uso
del Movietone, creado por Theodore Case y E.I. Sopnable. Inspirado en el sistema
Phonofilm de Lee De Forest, este sistema permitía grabar directamente el sonido
junto a la imagen, en una sola película.
Cualidades del sonido:
5
• Nivel: la amplitud de las vibraciones a través del aire produce la sensación de
mayor o menor nivel (volumen). En el cine se manipula constantemente el nivel del
sonido para dar mayor protagonismo a unas acciones o personajes, para diferenciar
las distancias físicas y para crear tensión y asustar al espectador.
• Timbre: describe la textura del sonido dando una cualidad tonal.
Fundamentalmente, se hacen variaciones tonales en cuanto a la música y la banda
sonora del film.
• Tono: hace referencia a la frecuencia de las vibraciones. Juega un papel
fundamental a la hora de diferenciar objetos entre sí por sus características, música
y diálogos.
Nivel, timbre y tono interactúan para definir la textura de sonido de una película y
permiten diferenciar los sonidos de la misma. Así mismo, se puede diferenciar, por
ejemplo, las voces de los distintos personajes.
Dimensiones del sonido. Puede diferenciarse entre ritmo, fidelidad, espacio y
tiempo. El sonido ocupa una duración determinada dentro del filme, se puede
relacionar con la fuente de una manera más o menos fiel, transmite las cualidades del
espacio en el cual se desarrolla la acción y está relacionado con los elementos
visuales del lugar que se muestra.
• Ritmo: ha de existir una concordancia entre el ritmo del montaje, los movimientos
y acciones en cada una de las imágenes y el sonido, compaginando ritmos visuales
y auditivos. También se puede jugar con el contraste del ritmo entre la imagen y el
sonido para crear efectos inesperados, utilizando la voz en off, combinando
diferentes músicas para crear efectos misteriosos... El ritmo a lo largo de una película
puede cambiar constantemente.
• Fidelidad: hace referencia al grado en el que el sonido es fiel a la imagen que se
muestra en pantalla. Tal vez el sonido que se percibe no pertenezca realmente a la
fuente que estamos visionando, pero se acepta como verosímil por su credibilidad.
Podemos alterar esta fidelidad fundamentalmente para crear efectos cómicos.
• Espacio: el sonido procede de una determinada fuente, por tanto, tiene una
dimensión espacial. Si el sonido procede de la fuente que aparece en pantalla
hablamos de un sonido diegético. Si por el contrario procede de una fuente
totalmente externa a lo que se nos muestra, estaremos hablando de un sonido no
diegético.
• Tiempo: se puede representar el tiempo de diferentes formas, ya que el tiempo de
la banda sonora puede concordar o no con la imagen. Hablamos de un sonido
sincrónico cuando este está sincronizado con la imagen y lo oímos a la vez que
aparece la fuente sonora que lo produce. Para obtener efectos mas imaginativos, se
puede utilizar un sonido asincrónico que no case con la imagen.
El equipo de sonido. El profesional que realiza el arte del diseño del sonido es
denominada diseñador de sonido. El responsable de la toma de sonidos en rodaje es
el sonidista que trabaja con uno o varios microfonistas a su cargo. En la
postproducción se suman el editor de sonido, Compositor de la música incidental, y
6
los artistas de efectos sonoros (foley) y de doblaje, para generar la banda sonora
original.
Tipos de Sonido en rodaje de Cine
- Sonido Directo: Sonido grabado durante el rodaje que va ha ser utilizado para
el producto final. Por ejemplo los diálogos.
- Sonido Referencia: Sonido grabado durante el rodaje que no va ha ser utilizado
para el producto final. Por ejemplo los diálogos de una escena con mucho ruido de
fondo que servirán de referencia para el doblaje. Se suele gravar siempre en todas
las escenas.
- Room Tones: Grabación del sonido de fondo con todo el equipo de rodaje en
silencio y todos los aparatos (focos, etc.) encendidos. Suele grabarse unos 30’’ en
todos los sets de rodaje o cuando cambia la situación de sonido de fondo. Se utiliza
en posproducción como “colchón” para unir los diálogos o para sacar modelos de
ruido para utilizar en un reductor de ruido.
- Wild Track: Sonido grabado durante el rodaje sin que se grabe la imagen
correspondiente. Se suele usar para gravar pasos, puertas, … que pueden ser de
interés para el montaje. También se pueden repetir diálogos que por el tipo de plano
o por el ruido de las maquinas no haya quedado bien. Después estos diálogos se
pueden sincronizar con la imagen. No hay que confundir con los efectos sala o Foley
que se graban aparte del rodaje.
- Ambientes: Sonido grabado fuera del rodaje que va ha ser utilizado cómo
ambiente para el producto final. Se suele utilizar técnicas estéreo o de sonido
envolvente. Por ejemplo el ambiente de una playa.
- Foley: Sonido grabado fuera del rodaje que va ha ser utilizado cómo elemento
sonoro (efecto) para el producto final. Se pueden grabar en estudio o en exteriores.
Por ejemplo: pasos, disparos, motor de un coche, etc.
El sonido, al igual que una imagen, también puede tener cualidades estéticas
(texturas o frecuencias que se utilizan por ejemplo en películas de superhéroes o del
espacio) o psicológicas (efectos y sonidos sugerentes, agradables, inquietantes,
molestos…). Es decir, el sonido no sólo aporta realismo a las imágenes; también
puede crear una ambientación.
Además, podemos enfatizar el SILENCIO, y utilizarlo de una manera simbólica y
metafórica para representar la ausencia, o el peligro.
O simplemente, por el mero placer de jugar con el lenguaje cinematográfico, como
hizo Godard cortando el sonido en el famoso “minuto de silencio” de Bande a Part.
Para el que no conozca esta película, su título da nombre a la productora de
Quentin Tarantino, que es un gran fan de esta obra maestra de Godard.
- Sonido diegético. Es todo aquel sonido que forma parte de lo narrado. Por
ejemplo, si un personaje está tocando un instrumento o escuchando la radio, esa
música es diegética. Un ejemplo claro serían la mayoría de las escenas musicales de
Whiplash, de Damien Chazelle, ya que el protagonista toca la batería.
7
Otro ejemplo algo surrealista que a mí me encanta lo tenemos en esta escena de
Gato negro, gato blanco de Emir Kusturica.
1. El ruido
Ruidos naturales.
Ruidos humanos.-
8
Ruidos mecánicos.
Palabras-ruido.
2. La música.
3. La palabra y los diálogos.
El sonido siempre existió en el cine. Lo que sucede es que en la primera etapa del
cine los espectadores no podían oírlo físicamente. Tenían que leerlo, decodificarlo,
interpretarlo a partir de los mecanismos que los cineastas utilizaban...
• Intertítulos.
• Primeros planos de objetos que sugieren un determinado sonido.
• Gesticulación de los actores.
• Lectura de labios...
2. Función dramática. La música se emplea como un elemento que puede ser útil
para que el espectador comprenda el significado de la acción
Debido a la gran cantidad de tareas que requiere un trabajo de sonido óptimo, son
varias las personas que intervienen en el proceso de planeación, creación y ensamble
de los distintos componentes de sonido de un producto audiovisual. A continuación
se mencionan los cargos más relevantes y su función.
9
buscando siempre obtener el sonido más claro y limpio posible, según las
necesidades del director y del supervisor de sonido. En ocasiones, y especialmente
en producciones de bajo presupuesto, este trabajo lo realiza el mismo supervisor de
sonido, quien se encarga de monitorear el sonido, manipular la grabadora y manipular
el micrófono. Sin embargo, en condiciones ideales, es una persona aparte que está
bajo las órdenes del supervisor de sonido.
3. Editor de diálogos: Ya en la etapa de post producción, el editor de diálogos
es quien se encarga de sincronizar el audio de los diálogos (capturado en locación)
con la imagen. Además, debe limpiar, pulir y arreglar los diálogos, haciendo que lo
que se escucha coincida con lo que se ve. Por último, debe suavizar los silencios
digitales que resultan entre un diálogo y el otro. Esto lo hace usando un Room Tone
(tono de cuarto), o ambiente leve, que dé unidad y uniformidad al audio resultante.
4. Editor de ADR: En ocasiones, en el momento de grabar el sonido directo de
un producto audiovisual, y por razones que se salen de las manos del supervisor de
sonido y del microfonista, los diálogos capturados en locación no son lo
suficientemente claros, o tienen un gran componente de ruido que no permite que se
entienda por completo lo que el actor está diciendo. Para solucionarlo, en post
producción se reemplazan estos diálogos dañados. A este trabajo se le conoce como
ADR (por sus siglas en inglés Automated Dialoge Replacement), y consiste,
básicamente, en grabar los diálogos de los actores en un estudio de sonido, una vez
ha terminado el rodaje del producto audiovisual. Esto se hace para mejorar la calidad
del audio, corregir errores de continuidad y perspectiva, o disminuir los cambios en
los diálogos de un mismo actor. Para llevar a cabo este proceso, al actor se le muestra
el segmento de diálogo que debe reemplazar (con la imagen) repetidas veces. El actor
pronuncia el diálogo sobre la imagen tantas veces como sea necesario para que el
audio y la imagen queden sincronizados.
5. Diseñador de sonido y efectos sonoros: El diseñador de sonido, como su
nombre lo indica, es quién se encarga de diseñar o crear los efectos de sonido
necesarios para aumentar el realismo, hacer parecer real lo irreal, o potenciar las
emociones. Los efectos de sonido suelen salir de la imaginación y creatividad del
diseñador, quien experimenta con sonidos cotidianos para convertirlos en lo que la
imagen necesita. Sin embargo, en ocasiones se hace uso de librerías de efectos
(pagas o gratuitas) que hay en la red. En dichas librerías se encuentran efectos de
sonido por categorías, lo que, en ocasiones, facilita el trabajo del diseñador de
sonido. Claramente, esto repercute en la calidad y, sobre todo, originalidad del
producto final.
6. Diseñador de Foley: Por Foley se entiende todo movimiento que sea
producido por una acción humana. El diseñador de Foley, junto con un equipo de
actores de foley, ingenieros de sonido y demás, es quien se encarga de recrear en un
estudio todos estos movimientos para grabarlos y sincronizarlos con la imagen. Este
trabajo se realiza, principalmente, para aumentar el realismo del producto audiovisual,
y que los espectadores sientan lo que ven como un hecho cotidianamente posible.
7. Música: Dentro del trabajo musical de un producto audiovisual se encuentran
varios cargos: El supervisor musical que, al igual que el supervisor de sonido, es el
responsable y encargado directo de que las cosas salgan como se han hablado y
acordado previamente con el director. El compositor, quien es el encargado de
10
escribir la música para el producto. El ingeniero de sonido, quien es el encargado de
grabar a los músicos; y el editor musical, quien se encarga de montar los sonidos,
sincronizar los que no fueron grabados sincrónicamente, y realizar una mezcla de la
música apropiada para aportar al producto.
8. Mezcla Final: El trabajo de mezcla final lo realizan, normalmente, varios
ingenieros de sonido, todos dirigidos por el supervisor de sonido. En esta etapa, todo
el componente sonoro ha sido entregado en stems. Los stems contienen las mezclas
finales de cada una de los componentes sonoros. Por lo tanto, hay un stem de voces
(que contiene sólo los diálogos del producto audiovisual), un stem de música (en el
que ya se encuentra una mezcla general de toda la música de la película), un stem de
ambientes, y un stem de efectos (FX).
El sonido, tal como cualquier proceso audiovisual, cuenta con tres etapas básicas e
igualmente importantes para su buen desarrollo. Tales etapas son:
11
Post producción. La post producción es el proceso final del producto audiovisual.
En este se corrigen, ubican, sincronizan, crean y relacionan todos los componentes
de la banda sonora del producto final. La mayor carga laboral en cuanto al sonido en
una producción audiovisual se encuentra en esta última etapa, pues gran parte de los
trabajos a realizar se llevan a cabo en ella, a saber: Edición de diálogos, ADR,
musicalización, diseño de sonido, foley, y, por último, la mezcla final.
FUERA DE CAMPO
Cualquier personaje, objeto o acción que no se ven en la pantalla, pero de los que
se sabe que forman parte de la escena o que están cerca del lugar que se está
filmando, o cualquier sonido que tiene su origen en un área de ese tipo. Podemos
escuchar una voz que procede del fuera de campo o ver a un personaje observando
una acción que se desarrolla fuera de campo.
Una diferencia del ojo humano con la cámara, es que esta última limita el espacio
con el enfoque y al seleccionar el espacio encuadrado deja fuera parte de la realidad.
Es decir, lo que se ve en la pantalla se dice que está en campo, porque queda dentro
de la visión de la cámara, mientras que lo que queda fuera se le ha llamado fuera de
campo o espacio “off”. Se puede decir que el fuera de campo es aquello que el
espectador cree que existe fuera del encuadre basándose en la información de lo que
ve dentro del cuadro. Es un espacio invisible que rodea a lo visible. En ese espacio
invisible continua la vida de los personajes ausentes del cuadro. Este fuera de campo
casi nunca es neutro, siempre tiene una función, una significación. Puede ser
silenciado por la censura, o paradójicamente puede ser puesto en relieve por omisión
–para ocultar algo al espectador y se muestre más interesado por conocerlo. Casi
siempre tiene un valor narrativo-expresivo. Podemos identificar tres categorías en el
fuera de campo:
1. Los cuatro segmentos espaciales delimitados por los bordes del encuadre.
12
situaciones en la mente del espectador. El fuera de campo se puede mostrar
mediante sombras, espejos, voz en “off”, miradas de los personajes, etc.
La mejor manera de entender el fuera de campo es saber que aquello que está en
campo es lo que ocurre delante de la cámara, y de esta manera se sabe que el fuera
de campo es toda acción que se realiza en el momento en el que la cámara no presta
atención a dicha acción. Ésto se puede traducir de distintas maneras, sea ya con una
voz en off, con la ausencia de personajes en frente de la cámara o incluso una acción
secundaria eclipsada por la principal, siendo ésto último lo que se ve en cintas de
humor absurdo tales como Agárralo como puedas.
Otra manera en la que podemos encontrarnos el fuera de campo es cuando todas
las acciones se producen en tres lugares distintos en cuanto al enfoque de la cámara,
siendo éstas las que acontecen detrás del escenario o decorado, detrás de la cámara
o a los diferentes lados situados al exterior del encuadre.
Muchos son los directores que utilizan este recurso, muy conocidos en la industria.
Uno de ellos es Martin Scorsese, que durante las décadas de los 70, 80 y 90 hizo de
la voz en off su firma de identidad en películas como Casino o Uno de los nuestros,
algo que utilizó también de forma muy significativa el propio Robert De Niro en su
ópera prima Una Historia del Bronx.
Otro director muy reconocido por usar el fuera de campo es Quentin Tarantino, quien
lo hace de una manera muy peculiar en algunas ocasiones, usándolo mediante el
plano detalle y, de esta manera, hacer intuir al espectador lo que va a ocurrir.
13
Es importante destacar el concepto de escenario en el que transcurre la escena
(aunque sea un escenario de exteriores naturales) y que delimita la acción y lo que
los personajes pueden ver.
14
■ El sonido ambiente, que no está propiamente ni fuera ni dentro de campo, ya
que en general tiene una fuente difusa o a veces no visible. El sonido ambiente no
está generalmente localizado (murmullo de pájaros, de personas en un mercado …)
y más aún los sonidos específicamente ambientales como el sonido del viento, o el
sonido de fondo de una habitación (room tone). Este sonido está en el ambiente sin
estar realmente fuera de campo por no ser particularmente visible. Chion (1998: 78)
los llama sonidos-territorio o sonidos ambientales.
■ El sonido en las ondas («on the air») corresponde a los sonidos transmitidos
por radios y otros aparatos electrónicos, cuya fuente a veces no es necesario
visualizar, pero que pueden estar flotando en la escena, y pueden sonar en varios
escenarios distantes unos de otros.
Entre los sonidos que están fuera del escenario podemos distinguir:
15
inglés se llama voice over lo que llamamos voz en off , y el inglés llamaría voice off lo
que llamamos voz fuera de campo(ver Doane, 1985: 165-169 para una discusión entre
voice over y voice off). Además, en inglés se hace la oposición entre sonido on-
screen/off-screen (en pantalla, fuera de pantalla), con lo que una voz en pantalla
debería llamarse voz on más que voz in según la dudosa traslación al francés y
castellano, con lo que preferiremos la terminología en pantalla/fuera de
pantalla/extradiegético para utilizar términos inequívocos.
Carmona (2006: 108) introduce una nueva denominación distinguiendo entre la voz
in (que Chion llama también voz in y aquí llamamos voz en pantalla), la voz out se da,
“por ejemplo, cuando una voz cuya fuente no se visualiza en el encuadre interroga a
un sujeto en campo” y que aquí llamamos fuera de campo narrativo, la voz off es la
que se da en “un monólogo interior o del personaje-narrador en un flashback no
presente en el encuadre.” Aquí llamaremos voz pensamiento (sonido interno) al
monólogo interior y diégesis superpuesta al personaje narrando sobre el flashback.
Finalmente, Carmona denomina voz through a la emitida por “un personaje que habla
de espaldas a la cámara (Serge Daney, 1977)”. El mismo Daney (2013) añade una
reiteración de ese concepto, que al no estar referenciado en la literatura, nos
permitiremos de no llamar de ningún modo para no crear más confusión.
VOZ EN OFF
Como un recurso del personaje. Los directores pueden añadir una voz en off en
la fase de producción porque el argumento o la motivación del personaje no es
inmediatamente clara; por ejemplo Francis Ford Coppola añadió la voz en off al
personaje del Capitán Willard en Apocalypse Now para clarificar los pensamientos e
intenciones de Willard. En la versión de la película Moby Dick de 1956 de Herman
Melville, Richard Basehart, como Ishmael, narra la historia y a veces comenta la
acción en voz en off, igual que hace William Holden en las películas El crepúsculo de
los dioses y Espía por mandato.
16
Como un recurso creativo. En las películas, el director de cine pone el sonido de
una voz humana (o varias voces) sobre imágenes mostradas en la pantalla que
pueden estar o no relacionadas con las imágenes mostradas. Por consiguiente, las
voces en off se usan a veces para crear un contrapunto irónico. También, de vez en
cuando pueden ser voces aleatorias no directamente relacionadas con la gente que
se ve en la pantalla. En obras de ficción, la voz en off es usada a menudo por un
personaje para reflexionar sobre su pasado, o por una persona externa a la historia
que normalmente tiene un conocimiento más completo de los acontecimientos de la
película que los otros personajes.
El género del cine negro está especialmente asociado con la técnica de voz en off.
17
«Y que Dios os ayude si utilizáis la voz en off en vuestro trabajo. Que Dios os ayude.
Es una forma de escribir floja y chapucera».
En parte por la preferencia de Hollywood por una artesanía modesta y parte por el
miedo de que las películas habladas redujeran el cine a teatro enlatado, lo cierto es
que se evitó esta técnica fuera de documentales y noticiarios hasta mediados
de la década de 1930.
Además de aportar una exposición básica, tales voces en off también aclaran la
acción, ofrecen información sobre la psicología del personaje, aumentan el tono
íntimo e introducen una sabia ironía. También pueden reproducir el tono de las
fuentes literarias, como en Tom Jones [1963] o Barry Lyndon de 1975, y contribuyen
a veces a suavizar las transiciones abruptas en dramas extensos como Doctor
Zhivago de 1965, o simplemente parchar películas que han sufrido fuertes recortes
en el proceso de edición, como Blade Runner [1982].
18
Pero en manos de maestros como Orson Welles, Billy Wilder, Stanley Kubrick,
Martin Scorsese o Woody Allen, las voces en off complementan los elementos
visuales en lugar de simplemente compensar sus defectos.
Sin duda alguna, fueron básicas en el éxito del cine negro. En «Historia de un
detective» [Murder, My Sweet, 1944], la voz en off resuena por toda la película, y en
La ciudad desnuda [The Naked City, 1948], retumba el estilo «objetivo» de la «voz
de Dios».
Al igual que en las novelas baratas, hombres inocentes confiesan cómo han sido
engañados por femmes fatales en Perdición [1944] y La dama de Shanghai [The
Lady from Shanghai, 1947], y en El desvío[Detour, 1945] y Retorno al pasado [1947]
narradores poco fiables disimulan la verdad.
El cine negro también dio voz a las mujeres en Alma en suplicio [Mildred Pierce,
1945] y Raw Deal [1948], así como en los aclamados melodramas Carta a tres
esposas [A letter to three wives, 1949] y Eva al desnudo en 1950. Desde entonces,
las narraciones en boca de mujeres se han confinado a las películas realizadas por
directoras, como en Jane Campion o Sally Potter.
Un ejemplo donde la voz en off juega constantemente con estas cuatro posibilidades
es en El lobo de Wall Street(2013) Marti Scorsese. En la siguiente escena, la voz
en off de Jordan Belfort (Leonardo DiCaprio) sirve para unir diferentes escenas dentro
de la misma secuencia que es “la historia de los Belfort”, o mejor dicho, “la
decadencia de los Belfort”; también vemos una función directa e indirecta de lo que
sucede en la cotidianeidad de la pareja.
19
El uso de la voz en off resulta interesante como técnica para transmitir datos
imprescindibles para la historia y que son difíciles de contar de otra manera.
Para gurús del guión como Robert McKee es un recurso al que sólo que hay que
recurrir cuando el resto de soluciones creativas te hayan abandonado. Bien
aprovechada, es una herramienta muy interesante para presentar personajes,
introducir atmósferas o atrapar al espectador desde el primer minuto de la
narración. Las primeras escenas de ‘American Beauty’ o ‘El crepúsculo de los dioses’
son buena muestra de ello.
La voz en off también puede ser utilizada para aclarar el sentido de la obra. Es
particularmente interesante el ejemplo de ‘Apocalypse Now’, una obra mayúscula que
resultó confusa en su primer montaje. La decisión que tomó entonces Francis Ford
Coppola fue acompañar el film con un off del personaje del Capitán Willard en
Apocalypse Now para clarificar las intenciones y motivaciones del personaje.
También es curioso el caso de Blade Runner y sus múltiples montajes: la inclusión
o supresión de la voz en off de Deckard modifica por completo el significado de
la película de Ridley Scott.
Las posibilidades son muchas. El recurso nos puede servir para ayudar a conocer
las verdaderos sentimientos de nuestro protagonista (‘El hombre que nunca estuvo
allí’, ‘American Psycho’), dejar claro el tono de nuestra historia (‘La bella y la bestia’,
‘La Naranja Mecánica’), explicar los complejos planes de nuestros protagonistas
(cintas de atracos como la saga ‘Ocean’s Eleven’) o para sumergirnos en el universo
del protagonista que determinará nuestra historia (‘Forrest Gump’, ‘Taxi Driver’). Es
una técnica interesante y que abre diferentes caminos, pero hay que saber cuándo
renunciar a ellas. Las valoraciones personales, la información que el espectador no
necesita saber o las florituras están de más. Lo que no suma, resta.
SONIDO DIRECTO
20
Lo ideal, dependiendo del proyecto a grabar, es tener por lo menos un micrófono
shotgun para capturar la escena, junto con varios micrófonos lavaliers que irán
ocultos en cada personaje. Así tendremos independencia de la señal.
El sonido directo es aquel que proviene de su fuente sin ningún tipo de
intermediación. En cinematografía, la grabación del sonido directo consiste en la
captura de éste en el mismo momento en que se rueda una escena. Estos elementos
sonoros pueden ser utilizados o no en el montaje, aunque no pueden ser creados en
producción. En un concierto, la voz en directo hace referencia al sonido directo, es
decir, indica la ausencia de edición en ella: el sonido proviene de su emisor en el
mismo momento.1
Sistemas de grabación. Los sistemas utilizados son totalmente digitales. Los más
populares son el DAT y el ADAT, ya que son transportables. Los DAT grabadores
digitales de dos pistas simultáneas, los ADAT pueden registrar 8 pistas ampliable
mediante la sincronización de grabadores. Estos últimos se utilizarán en secuencias
en que se utilizan varios micrófonos.
21
Factores a tener en cuenta a la hora de grabar sonido directo. Puesto que el
micrófono va a grabar el sonido en directo, captará tanto las voces o elementos que
queramos registrar como sonidos quizás no deseados: viento, motores, voces
lejanas, etc. Por esta razón, son de suma importancia la elección de material y el
control de la aparición de fuentes sonoras no deseadas.
● La localización es un factor muy importante a tener en cuenta. Escoger un lugar
aislado de ruido como personas, tráfico, aparatos funcionando, etc. es fundamental
para que las voces o sonido que queremos registrar se oigan de una manera clara.
Las fuentes de ruido cercanas deben ser identificadas y tratadas. En el caso de
realizar las grabaciones en un plató, se deben utilizar mecanismos para mejorar las
condiciones acústicas del local: paneles o telas, o un tapizado adecuado para
disminuir le sonido de los pasos.
● La colocación de la fuente de sonido, en caso de ser móvil, respecto los
micrófonos. En general, un conocimiento lógico del orden.
● La elección del micrófono también es un factor destacado. Aparte de factores
funcionales de los mismos, que darán distintos resultados, el factor económico
también determina la elección y la calidad. Una de las marcas más usadas es RODE.
● Suelen usarse micrófonos de condensador con un patrón polar hipercardioide,
para aislar los sonidos no deseados, o tipo elecret si la distancia lo requiere.
- Tipos de micrófono. Igual que para la captura de la imagen se usan diferentes
objetivos o lentes con diferentes resultados, según la conveniencia, con los
micrófonos existe la misma regla.
Hay muchos tipos de micrófonos que darán resultados muy diferentes, y
decidiremos cuál usar según la expectativa de la persona, las condiciones...
Micrófono cardiode. Es un micrófono direccional, es decir, captará los sonidos de
la dirección a la que lo coloquemos, siendo la pare posterior una zona con
sensibilidad mínima.
Algunos usos recomendables serían para documentales o la grabación de eventos.
Micrófono supercardiode. Poseen un factor direccional más preciso que el
anterior, de modo que aíslan notablemente los sonidos de su alrededor para captar
únicamente la fuente a la que apuntan.
Son utilizados para grabar voces, y se pueden conectar tanto a la cámara si se va a
hablar de frente, como mediante el uso de un palo para acercarse al actor.
Micrófono omnidireccional. Este tipo recoge el sonido en todas direcciones, sin
enfocar atención a la dirección a la que apunta. Los sonidos que registra con claridad
son los más próximos a él.
Se usa en micrófonos de corbata o solapa, mediante un cable o inalámbricos, que
permiten el acompañamiento del micrófono de la fuente que se pretende registrar, y
un uso libre de manos.
El micrófono omnidireccional también se puede usar en micrófonos ambiental.
22
Micrófono bidireccional. Su registro se enfoca en dos direcciones, normalmente
usados en entrevistas de radio o cine.
WILD TRACK
El wild track es una toma de sonido adicional efectuada en locación
independientemente de la acción, a fin de incorporarla a la banda sonora con o sin
posibilidades de sincro. El sonido es registrado en el rodaje de forma independiente
a la imagen, cuyo propósito es grabar con la mayor nitidez posible el sonido de una
escena. En ocasiones, el encuadre de imagen o el movimiento de los actores o la
cámara dificulta la cercanía del micrófono a la acción y por tanto un buen registro de
sonido, de modo que se graba después aparte para su post - sincronización en el
montaje o la mezcla. También suele denominarse wildtrack la grabación del ambiente
natural de la localización del rodaje (previo riguroso silencio de todo el equipo, por
supuesto) que se empleará para uniformizar los fondos sonoros de las distintas tomas
de la escena, o con el fin de cubrir tomas para las que no se haya registrado sonido
directo.
Las palabras wild track (WT) se podrían traducir por “pista que va por libre”, y se
refieren a un archivo de sonido que se graba en la localización o el set,
independientemente de la imagen. Pueden ser voces (una parte de un diálogo), voces
difusas (murmullos), efectos (un timbre) o el silencio en el set, por ejemplo. Algunas
razones por la que se puede necesitar grabar un wild track:
- es un sonido que se va a oír en off (es decir, sin que se vea su fuente), como
un grito, un saludo o un grifo abierto, por ejemplo.
- El encuadre de la imagen o el movimiento de los actores o de la cámara
dificultan la cercanía del micrófono a la acción y, por tanto, un buen registro del
sonido.
- Se ha conseguido una toma buena de imagen, pero se ha colado un ruido (una
sirena, el roce de la ropa de los actores) o el plano tiene un diálogo que transcurre en
un taller con máquinas de coser, por ejemplo.
- Se ha conseguido una toma buena por imagen y por sonido, pero se quiere
tener una mejor vocalización de los actores o variar un poco la intención dramática.
[Cuando se graba un WT de diálogo se evita tener que ir a un estudio de doblaje (lo
que lleva tiempo y cuesta dinero), se consigue una grabación con las mismas
características sonoras que el resto del diálogo y, además, se aprovecha que los
actores están en el momento dramático o emocional adecuado.]
- Necesitamos sonido para recrear una reacción concreta a un momento
dramático (risas, cuchicheos, murmullos, “ooohs” y “aaahs”, etc.).
- Necesitamos el sonido ambiente de una localización o set en silencio total
(para igualar el audio de una secuencia en montaje y que no se noten saltos entre
cortes).
23
- Necesitamos sonido de una localización o set con su actividad habitual (para
generar, en montaje, la sensación auditiva que se produce en ese sitio concreto - bar,
colegio, juzgado, etc.).
[En estos últimos dos casos hablaríamos de WT de ambiente o, simplemente,
ambiente.]
Los WTs y ambientes se nombran así:
28-WT JUANA-1 (es decir: WT del diálogo de Juana en la secuencia 28, toma 1).
12-AMB BAR-1 (es decir: ambiente de bar de la secuencia 12, toma 1).
SONIDO AMBIENTE
El concepto de sonido ambiente engloba varios elementos de naturaleza diferente,
y que corresponden a procesos diferentes en la grabación y montaje del sonido.
Por un lado, Michel Chion distingue entre sonido ambiente o sonido territorio
(Chion 2012 § 32) y elementos de decorado sonoro (Chion 2012 § 32). A su vez, en
el campo profesional se distingue entre ambientes y atmósferas como se ilustra en
el gráfico de José Nieto.
24
A nivel perceptivo y narrativo, la frontera entre atmósferas, EDS y sonidos-acción es
porosa: una atmósfera de ciudad va a contener ruido de tráfico (generalmente difuso
y a lo lejos) pero una escena de calle en una ciudad va a contener un ruido de tráfico
que corresponda al tráfico de coches que estamos viendo, y en ese caso son
elementos de decorado sonoro. Igualmente si tenemos una persona montando en
bicicleta vamos a hablar de sonido-acción para los sonidos de la bicicleta si seguimos
la acción del ciclista, pero vamos a hablar de elemento de decorado sonoro si hay
varios ciclistas que forman parte del “fondo” de la escena.
25
ROOM TONE
Un Room Tone desde un punto de vista práctico lo forma la interacción del espacio
en donde grabamos con el propio micrófono, el ruido que exista tanto en la
localización como en los aparatos electrónicos utilizados para su grabación. Por lo
tanto si cambiamos de posicion nuestro micrófono tendremos un room tone diferente,
al igual que si cambiamos de aparatos para grabarlo, por ejemplo otro micrófono,
otros previos etc.
Otra situación en la que nos puede hacer falta el room tone es cuando en la toma
tenemos ruidos indeseados en espacios en los que debería haber “silencio”, un
golpe antes de que el actor hable o un coche pasando son algunos ejemplos típicos,
en este caso en edición normalmente cortamos dicho ruido y añadimos el room tone
para reemplazar el espacio sin sonido que nos ha quedado consecuencia de la
edición, de esta forma el corte no se percibe.
la forma más fácil de grabar un room tone es dejando unos segundos de silencio
antes de empezar cada toma, normalmente con tan solo unos cuantos segundos (de
5 a 15 por ejemplo) es suficiente para eliminar sonidos indeseados, y creando un
bucle del room tone tambien deberia ser suficiente para las tomas de diálogo. Como
te hemos dicho anteriormente si cambiaras la posición del micrófono por ejemplo,
tendrías un sonido diferente por lo que grabando antes de cada toma unos segundos
de silencio (por ejemplo antes de la claqueta) te aseguras de que el room tone es el
mismo de la toma de diálogo.
26
ecualizando por ejemplo para que se parezca más a la toma original. La ventaja de
hacerlo después es que puedes hacerlos mucho más largos, lo que puede servirle al
montador de ambientes para reforzar la localización.
Es posible que también te hayas dado cuenta que si en la toma de diálogo hay
largos pasajes de silencio entre los personajes también pueden servirte como
un room tone, lo importante al final es que la edición sea imperceptible.
EFECTOS DE SALA/FOLEY
27
el campo de los efectos sonoros cinematográficos. Los responsables de los efectos
de sonido, especialmente el de los movimientos corporales, se denominan artistas
Foley, caminantes Foley o mezcladores Foley en homenaje a Jack Foley, el creador
del sistema moderno para producir esos efectos sonoros para el cine.
El creador de los efectos sonoros en el cine fue Jack Donovan Foley, más conocido
como Jack Foley. Se le atribuye la invención de añadir a las películas efectos de
sonido naturales y cotidianos de las personas y objetos tales como pasos, aleteo de
pájaros u objetos moviéndose en superficies, entre otros ejemplos. Estas creaciones
de sonido se realizan de acuerdo a la imagen que se está emitiendo para darle un
toque más realista. Los efectos de sonido tienen que grabarse paralelamente a la
película porque no pudieron ser grabados en el momento de la filmación.
Los efectos de sonidos Foley son grabados por varios motivos. Para un equipo de
sonido en directo muchos de los sonidos se escapan o no es posible grabarlos tal
cual debido a las condiciones de la grabación (sonido ambiente) además, sería
imposible estar continuamente siguiendo a los personajes para grabar los pasos, el
ruido de los caballos al caminar, dos espadas luchando etc. En otras ocasiones los
sonidos grabados no se reproducen tal cual se quiere o necesita en la película y por
ello, se les da más vida en los estudios de grabación.
El lugar destinado a grabar los efectos sonoros son estudios dedicados a tal fin que
han de contar con un espacio amplio para poder crear distintas superficies y
28
espacios, como suelos de cemento, césped, arena etc para poder recrear los pasos
o distintos movimientos, así como contar con gran cantidad de materiales y
accesorios. El aislamiento acústico y el tratamiento de las salas son otras
características de estos lugares para evitar que los ruidos externos puedan "colarse"
en el interior además de evitar la reverberación de la sala.
Para crear los efectos sonoros de una película el equipo de foley sigue una “hoja de
ruta” en la que se detallan todos los sonidos necesarios para grabar y sus
características.
Artistas de Foley. Ben burtt recreo más de 800 sonidos para Star Wars para poder
adecuarlos a objetos y criaturas, entre ellos se encuentra la conocida distorsión de
los sables láser, que se daba al usar un cable de audio sin aislante sobre una
televisión de tubo. Burtt, además, logró dos nominaciones a los Óscar con su
fascinante trabajo para la película de animación Wall-E. Y es que hablar de animación,
en este caso, es hablar de efecto sala, puesto que es casi lo mismo. La animación es
uno de los géneros que más depende del efecto Foley, y, además, en el que más se
puede jugar con la creatividad. Jack Donovan Foley fue el creador del foley entre sus
trabajos destaca el de Espartaco, José Caldararo con películas como El secreto de
sus ojos. Los "foley artist" Kiku Vidal y Edgar Vidal recogen el Motion Picture Sound
Editors, USA: 2008 al mejor foley por su intervención en la película "EL ORFANATO".
En España el extraordinario Luis Castro fue una eminencia durante décadas.
29
proximidad con la microfonía sin ponerla en riesgo, podemos romper material de
estudio con mucha facilidad.
4- Grabación. El proceso de interpretación, el artista foley se convierte en un
intérprete más de la banda sonora, y dependerá de su habilidad de recrear e integrar
sonidos para conseguir los efectos más reales y sorprendentes. Es muy común el
trabajo por capas donde para conseguir un mismo sonido empleamos distintas
grabaciones. Ejemplo: una con más ataque, otra con más sonido de metal, y otra con
mucho volumen. Sumando todas podemos obtener el resultado esperado que de otra
forma no podríamos transmitir con un único elemento.
30
También se utilizan los sistemas de sonido digital, que actualmente comienzan a ser
comunes en las proyecciones cinematográficas y que responden a los estándares de
proyección digital 1080p, 2K, UHD, 4K y 8K, ya en vigor.
La imagen muestra una película en el antiguo celuloide, ampliando donde se alojaba
la banda sonora dentro de la película.
● Tema de salida/cierre/final. Suele ser el tema o canción que suena junto con
los créditos finales de la película o serie para la que ha sido compuesta.
31
● Leitmotiv. Recurso empleado para simbolizar una emoción, un objeto, un
personaje o protagonista (Bond).
La banda sonora forma parte integral del mensaje audiovisual y sirve generalmente
para:
-Transmitir información
•Grabado. Todo aquel sonido que puede ser tomado antes, durante o después de
la grabación de las imágenes. Esto incluye la grabación o "doblaje" de los diálogos
de los personajes, bien por los mismos actores que interpretan los distintos papeles
o bien por actores especializados en doblaje, sobre todo cuando los diálogos se
traducen a otros idiomas.
DOBLAJE
32
idioma. En el caso de los videojuegos también puede referirse al proceso de añadir
voces grabadas por actores de voz en cambio de diálogos por escrito, aunque por la
naturaleza misma de los videojuegos, no necesariamente nos podemos referir como
doblaje. Hay varias discusiones al respecto sobre si llamarlo o no doblaje y algunos
simplemente desean acuñar el término "versión" y dejar el término doblaje
exclusivamente para cine y televisión.
Para doblar una película o cualquier otro producto de video, se quita la voz de los
diálogos originales y se sustituye por otra de algún otro actor que diga lo mismo, o la
misma idea, en el idioma que se quiera doblar. Un buen doblaje se da con la
capacidad para editar y sincronizar con precisión la imagen al sonido.
Los doblajes son más utilizados en películas o programas que sean dirigidas a un
público infantil, por la misma dificultad que presentan los niños para leer subtítulos.
Por lo mismo, Disney ha sido considerada la compañía que más ha esmerado en el
doblaje de sus productos.
Con la llegada del cine sonoro, algunos países, principalmente por razones políticas
ligadas al nacionalismo propio de la época, escogieron el doblaje como forma de
fortalecimiento de su identidad y un cierto control de la información. Entre los países
que escogieron el doblaje como forma principal de reproducción pública se
encuentran España, Francia, Alemania e Italia.
33
infantiles y juveniles, México es el que ha doblado más proyectos, secundado por
Argentina.
El doblaje es criticado por personas que aprecian el cine como arte y no como
entretenimiento, diciendo que éste le quita la autenticidad de las obras en su idioma
original y más cuando el doblaje no es bueno, pues se pierde la sincronización de la
voz con los labios del personaje que está hablando en la imagen. Los pocos
defensores opinan que los subtítulos tapan parte de la imagen y que distraen al
espectador.
¿Por qué en nuestro país se hizo más popular el doblaje audiovisual que en otras
zonas de Europa? Parte de esa popularización fue debido a la época del franquismo,
ya que al doblar las películas que llegaban a nuestro país se conseguían dos
aspectos: propaganda y censura. En muy conocida la anécdota de que Grace Kelly
y Donald Sinden en Mogambo eran hermanos en vez de matrimonio para evitar de
ese modo el adulterio. Este es un ejemplo del objetivo que décadas atrás tenía el
doblaje en nuestro país, nada que ver con lo que ocurre en nuestros días.
Con el paso de los años la industria del doblaje ha ido creciendo a pasos
agigantados en nuestro país y en la actualidad no sólo se doblan películas, sino
diferentes piezas audiovisuales que consumimos en España en distintos
formatos: series, programas extranjeros, anuncios, videojuegos… . En España se
prefiere el doblaje a los subtítulos porque convierten las obras en más accesibles a
la población a la hora de seguir los diálogos, es más fácil enganchar al espectador
y se consigue que éste se fije más en los elementos gestuales o estéticos de la
trama. También es una manera de modificar las referencias culturales
adaptándolas a las de nuestro país.
Estructura y montaje
34
Es muy importante la siguiente apreciación de Nieto (1996:118): “Recordemos que la
música, con su sola aparición e independientemente de su contenido expresivo,
modificará la imagen introduciendo algún elemento dramático o estructural, lo
queramos o no. El control de esta faceta de la música lo obtendremos eligiendo
cuidadosamente el punto exacto en que ésta debe comenzar.”
Continuidad
35
- Planos espaciales de narración. Denotan el lugar donde se produce la acción
y los cambios que la afectan. Por ejemplo, que se oiga el viento indica que es un
sonido captado en exteriores, el piar de los pájaros, puede situarnos ante una imagen
sonora campestre, etc.
- Planos temporales de narración. Un sonido puede situar una determinada
acción en el tiempo (pasado, presente, futuro), incluso, intemporalidad (tiempo no
definido) y atemporalidad (fuera del tiempo). Por ejemplo, en las ambientaciones
futuristas casi siempre se recurre a músicas y efectos sonoros electrónicos.
- Planos de intención. Como su propio nombre señala, encierran una
intencionalidad concreta, es decir, quiere remarcar algo. Los planos de intención,
normalmente, suelen situar al oyente ante una introspección:incursión en el sueño o
la fantasía, etc. Por ejemplo, en muchos dramáticos (en la época en que aún no había
televisión y la gente estaba enganchada a la radionovela), para indicar que un
determinado personaje se sumergía en una recreación onírica; se utilizaba un
desvanecimento del sonido y algún efecto (unas campanillas o un cascabel). Cuando
el sueño había terminado, el sonido volvía a desvanecerse y se escuchaba al
personaje/actor desperezarse.
- Planos de presencia. Indican la distancia aparente (cercanía o lejanía) del
sonido con respecto al oyente, situando a éste en lo que llamamos plano principal.
La distancia "supuesta" entre la fuente sonora y el oyente se establecen cuatro
escalones: 1) Primer plano: es aquel plano sonoro de presencia que sitúa, en
profundidad sobre un plano imaginario, a la fuente sonora junto al oyente, es decir,
en el plano principal. Algunos autores también lo llaman plano íntimo o primerísimo
plano para expresar su fuerza dramática. 2) Plano medio o normal: es aquel plano
sonoro de presencia que sitúa, en profundidad sobre un plano imaginario, a la fuente
sonora a una distancia prudente de la oyente. De modo, que el sonido resultante, se
percibirá como cercano al oyente. Es decir, la fuente está cercana al plano principal,
aunque no en él, como en el primer plano. 3) Plano lejano o general: Sitúa a la fuente
sonora a cierta distancia del oyente, creando por tanto, gran sensación de
profundidad. 4) Plano de fondo o segundo plano: Es un plano sonoro de presencia
generado por varios sonidos, distribuidos de modo que unos suenan siempre en la
lejanía, con respecto a otros situados en primer término, por ello, se llama también
plano de fondo. El segundo plano acentúa la sensación de profundidad con respecto
al plano general.
Chion habla de linearización temporal de las imágenes por los sonidos (2012, § 22)
respecto “al sentimiento de encadenamiento temporal, y que constituye un fenómeno
propio del cine sonoro, en virtud del cual, imágenes sucesivas, que, en el cine mudo
podrían ser percibidas como vistas diversas, no sucesivas en el tiempo, de un mismo
proceso global, adquieren, al ser acompañadas de un sonido realista”. De hecho, la
primera tarea en la postproducción de sonido es la homogeneización del sonido
diegético (directo, wildtracks y elementos añadidos) para crear la linearización
temporal. Chion insiste en este fenómeno indicando que hay un desdoblamiento
temporal (2012, §23) ya que el espectador percibe una continuidad en el sonido
mientras que los planos visuales indican una discontinuidad (esta opinión de Chion
36
no está basada en ninguna evidencia perceptiva experimental, y puede ser un tema
de estudio).
Encabalgamiento
Condensación
Una de las principales funciones del anticipo del sonido es condensar el montaje.
Para presentar una escena (o más aún una obra audiovisual), el montaje clásico suele
utilizar un primer plano general de situación para indicar dónde transcurre la escena,
y luego puede haber varios planos de situación más cerrados para indicar dónde nos
37
situamos dentro del lugar general hasta tener unos planos que se centran en los
personajes que llevan la acción.
Clásicamente, la acción o los diálogos solo empiezan cuando tenemos un plano que
nos presenta a los actores que la llevan a cabo. Si anticipamos el sonido de la acción
a los planos iniciales de situación, condensamos el montaje, ya que el espectador
está viendo los planos de situación pero al mismo tiempo ya está oyendo los diálogos
o la acción sin necesidad de esperar a visualizarla. Además, el anticipo crea un nexo
más fuerte entre el plano de situación inicial y el plano final de la acción ya que el
sonido nos está indicando que la acción está transcurriendo en ese momento y en
ese lugar.
38
realizado la edición ahora viene el paso de mezcla, que trata de nivelar todo y jugar
con los planos para no confundir al oyente.
Mezclar es el proceso de combinar todas las bandas de sonido individuales de
diálogo, sonido y efectos sonoros en la banda de sonido máster compuesta.
Este proceso se realiza en una sala o estudio en la que se proyectan las imágenes
de la película sobre una pantalla con un contador de metraje debajo.
Por último una vez editado y mezclado vendría el retoque final, la masterización que
equilibra y conforma, para así poder escucharlo a un volumen aceptable en cualquier
reproductor de audio de nuestro entorno. La masterización busca equilibrar los
sonidos puesto que la respuesta de los altavoces de casa no es igual ni parecida a la
de nuestro coche. De esta manera el audio no pierde sus propiedades.
- ¿Qué es la masterización?
La masterización es un proceso en el cual se pulen detalles de la mezcla y se llevan
a un volumen comercialmente aceptable. La particularidad de la masterización es que
durante este proceso se decide también el orden de los clips, la aplicación de
fundidos (fades), la inserción de meta-datos necesarios para la identificación de la
obra (como los códigos ISRC) y se decide también el espaciado de las canciones (la
cantidad de segundos de silencio entre temas).
39
En su origen, la masterización era un proceso que se hacía únicamente para discos
completos, sin embargo también se suele masterizar pistas separadas o proyectos
de pocas canciones que no van a ser incluidas en un disco. La importancia de la
masterización radica en una perspectiva fresca que otorga un control de calidad al
proceso de mezcla.
Señal masterizada y sin masterizar. Para seguir con la analogía, así como podemos
comer directamente de una olla podemos mezclar sin masterizar, pero no podemos
masterizar sin mezclar. Un estudio de mastering no tiene nada que ver con uno de
mezcla, puesto que son equipamientos y propósitos bien distintos.
DISEÑO/DISEÑADOR DE SONIDO
40
Director de sonido en cine. En Argentina, el rol de diseñador de sonido es ocupado
por el Director de Sonido. Él es el encargado de todo el sonido de una película, con
excepción de la música. Entre las tareas que realiza está la de coordinar el trabajo del
sonidista y el microfonista (ambos trabajan en la captura de sonido directo durante el
rodaje), los editores de diálogos, de ambientes (o atmósferas), de efectos, la
grabación de sonorización (foley) y doblajes (ADR), así como también la grabación de
ambientes adicionales. Finalmente es quien trabaja en conjunto con el operador de
mezcla y el director de la película, decidiendo las cuestiones estéticas, formales,
funcionales y espaciales de la película, sin perder de vista los estándares técnicos
requeridos.
Diseño sonoro. El concepto de Diseño sonoro suele ser utilizado para referirse al
acto creativo de sugerir ideas para una obra cinematográfica, televisiva, teatral o
multimedia. En esta línea, se suele pensar en el diseñador de sonido, como el creador
estético de este elemento narrativo audiovisual.
En el significado de la palabra "Diseñador" encontraremos que diseñar se refiere a
un proceso que implica Programar, Proyectar, Coordinar, Seleccionar y Organizar una
serie de factores y elementos con miras a la realización de objetos. Algunos de estos
pueden estar destinados a producir comunicación.
Por lo tanto, se puede afirmar que el diseño sonoro es la acción de Programar,
Proyectar, Coordinar, Concebir, Seleccionar y Organizar una serie de armados
sonoros en función de comunicar una idea, hacer verosímil un espacio virtual y
trasmitir determinadas sensaciones al espectador de un producto audiovisual.
Es preciso resaltar que este proceso, requiere de consideraciones técnicas,
funcionales y estéticas para lograr su cometido. Esto significa que si el registro sonoro
durante el rodaje no es bueno, no arribaremos a un buen producto final y el diseño
habrá fallado. Si el productor no invierte el dinero necesario para realizar el sonido de
una película, el diseño estará limitado. Si en la mezcla final no se entienden los
diálogos, el vuelo poético fracasó. Si una película está técnicamente perfecta, cumple
con todos los estándares, pero no logró conmover al espectador o sacudirlo de la
butaca, hay algo que se desperdició.
El Diseño Sonoro de un film debe comenzar con la escritura del guion, ser tenido en
cuenta por el director a la hora de transponer la historia al guion cinematográfico, ser
cuidado celosamente por el productor y los demás integrantes del equipo de rodaje,
comenzar a concretarse en la edición de imagen y concluida por los postproductores
de sonido. Todas estas etapas son supervisadas y coordinadas por el director de
sonido.
Los directores de sonido, más reconocidos de Argentina son Nerio Barberis
(actualmente en México), José Luis Diaz, Guido Berenblum, Leandro de Loredo,
Martin Grignaschi y Federico Esquerro. En España Marc Sardà, Jaime Aroca y Alex
Rocasolano entre otros.
41
42