Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Sonido en El Cine

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 42

El sonido es un campo creativo que, desde la aparición del cine sonoro, va de la

mano con la imagen. Abarca todos los elementos que no sean estrictamente música
compuesta en un filme: diálogos y efectos sonoros. La creación de una banda sonora
tiene las mismas posibilidades creativas que el montaje. Se deben seleccionar
sonidos con una función concreta para guiar la percepción de la imagen y la acción,
en el caso de no tener aun hecha esa banda sonora se usa otra ya existente para ir
montando la imagen, a esto se le llama temp track.
Normalmente se tiene la sensación de que los actores u objetos que aparecen en
las películas producen el ruido adecuado en el momento adecuado, considerando el
sonido como un simple acompañamiento a las imágenes. En cambio, la banda sonora
de una película se construye separada de la banda de imagen y de manera
independiente. Parte de la fuerza de muchas escenas y secuencias se consigue
gracias a efectos de sonido que suelen pasar desapercibidos. El sonido es capaz de
crear un modo distinto de percibir la imagen y puede condicionar su interpretación,
por ejemplo, centrando la atención del espectador en un punto específico y guiándolo
a través de la imagen.
El sonido se propaga por presión mecánica de unas moléculas de aire sobre las
moléculas contiguas dando lugar a un movimiento que se transmite, en una o
múltiples direcciones, de unas moléculas a otras en forma de onda de presión (piensa
en lo que sucede en un vagón de metro lleno de gente cuando frena de golpe y alguien
pierde el equilibrio; este pasajero empujará a alguien, que a su vez empujará a otro y
así sucesivamente y a continuación se producirá el mismo movimiento en sentido
contrario. Esto provocará un vaivén en los pasajeros hasta que la energía quede
absorbida y todos recuperen la posición inicial de equilibrio. Esto es un movimiento
ondulatorio de transmisión mecánica) Cuando en el aire se producen ese tipo de
oscilaciones entre 20 y 20000 veces por segundo, nuestro cerebro puede
interpretarlas como sonido por medio del oído.
Las ondas pueden verse modificadas por reflexión, chocan contra una superficie y
rebotan cambiando su dirección inicial (eco o reverberación); refracción, cambiar de
dirección al pasar de un medio a otro de distinta densidad (Ej: agua-aire) o difracción,
dividirse en múltiples direcciones cuando encuentran un punto de paso muy estrecho
o un obstáculo en su camino.
Las características de las ondas se establecen a partir de un modelo de onda
sinusoidal que sería la correspondiente a un tono puro, perfecto:
Longitud de onda: distancia entre dos puntos que oscilan en la misma fase (Ej:
distancia entre dos crestas o entre dos valles de una onda). Depende de la frecuencia
y del medio de propagación.
Frecuencia: número de ciclos que una onda completa en un segundo y se mide en
Herzios. Una onda de 1 Hz completa un solo ciclo en cada segundo. De la frecuencia
depende el tono, de modo que a mayor frecuencia (más ciclos por segundo) el sonido
nos parecerá más agudo y a menor frecuencia (menos ciclos por segundo) sonará
más grave. El sonido de una voz femenina presenta frecuencias más altas que el de
una voz masculina.

1
Amplitud: Máximo desplazamiento respecto del punto de equilibrio que alcanza una
partícula en su oscilación. Depende de la cantidad de energía que genera la onda y
está relacionada con la intensidad —volumen- del sonido. Cuando gritamos estamos
aplicando más energía sobre nuestras cuerdas vocales, con ello aumentamos la
amplitud de la onda sonora que estamos generando. La amplitud decrece desde el
foco según la ley del cuadrado inverso, siendo uniforme la atenuación.
Fase: la posición que alcanza una partícula que responde a un tono puro con
respecto a su posición media. Las partículas en el mismo punto de su ciclo de
movimiento se dice que están en fase. Señales en fase se refuerzan. En desfase se
restan o anulan.
Las medidas del sonido son: la potencia; densidad de energía por m3 en una unidad
de tiempo que se mide en W: Watio. La sensación: medida de comparación de
intensidad entre dos sonidos que se mide en dB: decibelio.
El sonido llega a la banda sonora mediante el uso del micrófono, medio a través del
que las vibraciones de aire se convierten en corriente eléctrica. Esta señal se puede
registrar de forma magnética u óptica.
- Sonido magnético. Tras ser amplificada, la señal pasa a una cabeza magnética
de grabación ante la cual circula una película o cinta recubierta con partículas de
óxido que se magnetizan y que posteriormente pueden reproducirse ante otra cabeza
lectora.
- Sonido óptico. Basado en la modulación de un haz luminoso que varía según
las fluctuaciones de intensidad enviadas por el micro y que tras ser revelada podrá
reproducir esas variaciones eléctricas
El sistema analógico de grabación por excelencia en cine era un magnetófono de
bobina abierta popularmente conocido como Nagra. Usa cinta magnética de 6mm de
ancho, de gran flexibilidad, permite elegir la velocidad de la cinta, lo que repercute
directamente en la calidad de la grabación en un límite tan amplio como entre 15
pulgadas por segundo y 1 pulgada por segundo. La toma debe repicarse en película
perforada para posteriormente sincronizarla con la imagen y, tras el montaje,
incorporarse a la banda magnética de la película. Cada etapa reduce el nivel de
calidad, por ello la grabación original debe ser de óptima calidad.
La velocidad de grabación condiciona la fidelidad del sonido. A mayor velocidad
mejor respuesta de las frecuencias. La música se suele grabar a 15 i.p.s. (pulgadas
por segundo), la voz humana entre 7 1/2 y 3 3/4 i.p.s. pero lo que no podemos alterar
para tener sonido sincrónico con la imagen es grabarlo a 24 o 25 f.p.s. (fotogramas
por segundo) siempre basándonos en el chasquido y la imagen de la claqueta.
La grabación analógica está en desuso con la aparición del DAT (Digital Audio Tape).
También se registra en una cinta magnética, pero de tamaño cassette, convirtiendo
las señales de sonido en datos digitales a través de un procesador.
En primer lugar se toman una serie de muestras del perfil de la onda sonora que se
quiere digitalizar. A este proceso se le conoce con el nombre de "muestreo". Cuantas
más muestras se tomen, más se parecerá la onda digital a la original, pero también

2
será mayor la cantidad de información que tendrá que manejar el sistema. Para que
te hagas una idea, un muestreo a 44 Khz toma 40.000 muestras de cada segundo de
la onda de un sonido.
Las muestras se trasladan a una escala de niveles de intensidad, asignándosele un
valor numérico a cada una. El proceso en el que diferentes niveles de intensidad son
convertidos en sus correspondientes numéricos (dígitos) dentro de una escala, es lo
que conoces como "digitalización".
Para que las máquinas puedan entender esta información, es preciso codificar estos
números en forma de ceros y unos. Esta forma de codificación es lo que conoces
como codificación "binaria" donde cada valor (0 o 1) constituye un "bit" de
información. Una vez que has convertido un sonido en una secuencia de ceros y
unos, puedes replicar esa secuencia tantas veces como quieras sin que los números
cambien, razón por la cual podemos copiar muchas veces el mismo sonido sin perder
la calidad del original. Los bits se agrupan de ocho en ocho formando "bytes". Cuanto
mayor es el número de bits que puede manejar un sistema, mayor es, por así decirlo,
su capacidad o su "potencia" (8, 16, 32, 64, 128 bits) y, por lo tanto, mayores niveles
de sonido va a poder manejar, mayor número de colores o de niveles de brillo, etc.
Operativamente, la tecnología digital ha reducido el tamaño de los medios de
grabación y la inmediatez en la búsqueda de lo grabado facilitando ostensiblemente
la labor de los operadores de sonido. De hecho digital no es sinónimo necesariamente
de mayor calidad, aunque en sonido generalmente lo sea, sino de mayor capacidad
de manipulación y gestión de la información en la que son convertidos tanto imágenes
como sonidos y otros datos. Otro carácter asociado a lo "digital" es el "multimedia",
ya que una vez que toda la información (imagen, sonido o datos) ha sido reducida a
los mismo números (ceros y unos) pueden compartir el mismo soporte (CD, DVD,
DAT) y ser transmitida por un mismo medio (cable, satélite, fibra óptica) hacia un
mismo terminal (ordenador, receptor de TV) en un proceso muy complejo que se
conoce como "convergencia tecnológica".
El sonido puede ser sonido directo, tomado sincrónicamente en rodaje para ser
utilizado como tal lo que genera en una serie de problemas logísticos pues cualquier
sonido extraño obliga a repetir la toma; sin embargo es el modo más natural de
recrear el ambiente y la calidad interpretativa. Sonido de referencia, se graban los
sonidos y los diálogos pero posteriormente no serán utilizados en la copia sino que
servirán como referencia a los actores para doblar y a los técnicos de efectos de
sonido para recrear ambientes y sonidos. El más popular y habitualmente combinado
con el sonido directo recibe el nombre de wildtrack, pista de sonido que sirve como
base para un ambiente dado o como off. Sonido añadido o mezclas, el conjunto de
la banda sonora se compone de sonido directo, wildtracks, doblaje, efectos de sonido
y música.
El micrófono es el instrumento esencial para convertir el movimiento físico de las
moléculas del aire en impulsos eléctricos. Se dividen en cinco tipos en función de su
diseño; de carbón, cristal, resorte o bobina móvil, condensador y cinta. Los dos
primeros dan muy mala calidad, pero los otros son de calidad profesional. La

3
característica definitoria realmente importante es su direccionalidad y según como
sea se dividen en:
- Omnidireccional, cubre un ángulo de 360º y son útiles para sonidos de
ambiente, pero no sirven para grabar sonidos aislados, tampoco se pueden usar en
situaciones de bajo nivel sonoro o espacios cerrados porque registran el sonido de
la cámara.
- Cardiode, reciben este nombre por que su respuesta direccional tiene forma
de corazón. Muy sensibles a fuentes sonoras situadas frente a él y nula respuesta a
las situadas detrás.
- Direccional, poseen un área de sensibilidad de 40º y se les denomina también
supercardioides. Al utilizarse cerca de la fuente dan calidad inferior a los cardioides
pero son perfectos para grabar de lejos, cuando hay problemas de cuadro para el
microfonista (no puede utilizar un micrófono sin que se vea al rodar) al utilizarse un
objetivo angular.
- Otro tipo de micrófonos específicos son los de de corbata, son micros
personales que se enganchan a la ropa pinzados, hábilmente disfrazados entre
perneras y mangas del vestuario. Idóneos para grabar los diálogos en planos amplios.
- De radio frecuencia, eliminan los cables permitiendo captar los diálogos sin
restringir movilidad a los actores.
Cuando el cine era todavía mudo, se hacía uso de música y efectos de sonido en
directo para añadir realismo a las imágenes proyectadas y, además, cubrir el fuerte
ruido ocasionado por el proyector. Sin embargo, la utilización del sonido en
producciones audiovisuales inicia en 1926, año en el que Warner lanza Don Juan, la
primera película con un acompañamiento sonoro sincrónico (con sincronía entre la
imagen y el sonido). El proceso llevado a cabo para hacer el montaje de sonido en la
imagen, fue el llamado Vitaphone, que consistía, básicamente, en grabar la música
en discos aparte y reproducir tales discos de forma sincrónica con el proyector de
imagen. Esto, por tratarse de sólo un acompañamiento musical, no causó gran
impacto en los espectadores, pues no era muy diferente a lo que habían visto hasta
entonces.
Un año más tarde, en 1927, se lanza la película El cantante de Jazz, la cual sí genera
un cambio importante en cuando a la concepción y utilización del sonido en el cine,
pues, por primera vez, había sincronía entre el movimiento de los labios de un actor
y lo que sonaba. "Hey, Mum, listen to this...!"; estas fueron las palabras que pronunció
Al Jolson y que enseguida emocionaron al público y dieron un giro a lo que es el
sonido. Desde ese momento, el cine empezó a hacer un uso exagerado (y limitado,
por la tecnología) del sonido, y, sobre todo, tuvo que acceder a las exigencias de los
espectadores, quienes, después de escuchar hablar a Al Jolson, pedían con furor que
las voces de los actores sonarán.
Esta introducción del cine sonoro se convirtió en un reto y cambio radical en la forma
en la que se hacía cine. De los estudios ruidosos y rodajes en medio de carcajadas,
pasaron a estudios insonorizados y rodajes en los que el protagonista era el silencio.
Errores técnicos debieron sortearse y soportarse, como, por ejemplo, que un actor
olvidase hablar en dirección al micrófono. Además, la iluminación debía ser más

4
fuerte, pues la sincronía entre audio e imagen exigía que las cámaras rodaran a
velocidades mayores. Esto repercutió en la comodidad de los actores. De esta forma
se podrían enumerar muchos ejemplos de las complicaciones que generó la entrada
del sonido al cine. Sin embargo, a la gente le gustaba.
Otra preocupación que empezó a gestarse en los directores fue la relacionada con
la forma de realizar versiones múltiples de las películas. Como primera medida,
Hollywood contrató equipos técnicos completos de otros países (Francia, España,
Alemania, entre otros), para realizar las grabaciones simultáneas. Rodaban una plano
en uno de los idiomas, cambiaban los actores, y rodaban el mismo plano en otro
idioma. Claramente, cuando el doblaje de voces hace su aparición, este tedioso
trabajo deja de ser funcional y es dejado a un lado por completo.
De ese momento hasta nuestros días, han sido muchas las películas que se
destacan por su extraordinario uso del sonido, entre las que se encuentran Ciudadano
Kane (1941), El hombre elefante (1980), Ereaserhead (1977), Toro Salvaje (1980), Érase
una vez en el Oeste (1968), Star Wars (1977), y Apocalypse Now (1979). Además, este
avance representó la necesidad de crear un nuevo cargo para personas
especializadas en el diseño sonoro. Esta fue la labor de Walter Murch y Ben Burtt,
quienes se han destacado históricamente por su calidad, profesionalismo y
creatividad a la hora de realizar el diseño sonoro de una película.
Desde del inicio de la historia del cine se ha intentado grabar sonido e imagen. Uno
de los primeros en intentar fue Edison, que intentó sincronizar dos de sus inventos,
el Kinetoscopio y el Fonógrafo. Lo consiguió, y hasta llegó a hacer una presentación
pública en 1913. Léon Gaumont y James Williamson también lo intentaron, pero sin
éxito. Las principales dificultades con la que se encontraban eran la imposibilidad de
amplificación del sonido y la sincronización entre éste y la imagen.
La primera solución a estos problemas llegó gracias a Lee De Forest y la invención
del Audion, la primera válvula tríode. A partir de ella, la compañía americana Western
Electric empezó a investigar, y pudo así desarrollar amplificadores. A su vez, otra
empresa llamada General Electric estaba trabajando en un sistema fotográfico que
permitía juntar sonido e imágenes.
Al principio, la acogida del sonido por parte de las grandes productoras
cinematográficas no fue buena. La primera en introducir este avance fue la Warner
Brothers, que se unió con la empresa Western Electric para empezar a trabajar con
un sistema de cine sonoro: el Vitaphone (o Vitáfono). La primera película rodada en
este formato y, por lo tanto, considerada la primera película sonora fue El cantor de
jazz (1927).
El sistema Vitaphone se siguió usando hasta que, en el año 1930, se introdujo el uso
del Movietone, creado por Theodore Case y E.I. Sopnable. Inspirado en el sistema
Phonofilm de Lee De Forest, este sistema permitía grabar directamente el sonido
junto a la imagen, en una sola película.
Cualidades del sonido:

5
• Nivel: la amplitud de las vibraciones a través del aire produce la sensación de
mayor o menor nivel (volumen). En el cine se manipula constantemente el nivel del
sonido para dar mayor protagonismo a unas acciones o personajes, para diferenciar
las distancias físicas y para crear tensión y asustar al espectador.
• Timbre: describe la textura del sonido dando una cualidad tonal.
Fundamentalmente, se hacen variaciones tonales en cuanto a la música y la banda
sonora del film.
• Tono: hace referencia a la frecuencia de las vibraciones. Juega un papel
fundamental a la hora de diferenciar objetos entre sí por sus características, música
y diálogos.
Nivel, timbre y tono interactúan para definir la textura de sonido de una película y
permiten diferenciar los sonidos de la misma. Así mismo, se puede diferenciar, por
ejemplo, las voces de los distintos personajes.
Dimensiones del sonido. Puede diferenciarse entre ritmo, fidelidad, espacio y
tiempo. El sonido ocupa una duración determinada dentro del filme, se puede
relacionar con la fuente de una manera más o menos fiel, transmite las cualidades del
espacio en el cual se desarrolla la acción y está relacionado con los elementos
visuales del lugar que se muestra.
• Ritmo: ha de existir una concordancia entre el ritmo del montaje, los movimientos
y acciones en cada una de las imágenes y el sonido, compaginando ritmos visuales
y auditivos. También se puede jugar con el contraste del ritmo entre la imagen y el
sonido para crear efectos inesperados, utilizando la voz en off, combinando
diferentes músicas para crear efectos misteriosos... El ritmo a lo largo de una película
puede cambiar constantemente.
• Fidelidad: hace referencia al grado en el que el sonido es fiel a la imagen que se
muestra en pantalla. Tal vez el sonido que se percibe no pertenezca realmente a la
fuente que estamos visionando, pero se acepta como verosímil por su credibilidad.
Podemos alterar esta fidelidad fundamentalmente para crear efectos cómicos.
• Espacio: el sonido procede de una determinada fuente, por tanto, tiene una
dimensión espacial. Si el sonido procede de la fuente que aparece en pantalla
hablamos de un sonido diegético. Si por el contrario procede de una fuente
totalmente externa a lo que se nos muestra, estaremos hablando de un sonido no
diegético.
• Tiempo: se puede representar el tiempo de diferentes formas, ya que el tiempo de
la banda sonora puede concordar o no con la imagen. Hablamos de un sonido
sincrónico cuando este está sincronizado con la imagen y lo oímos a la vez que
aparece la fuente sonora que lo produce. Para obtener efectos mas imaginativos, se
puede utilizar un sonido asincrónico que no case con la imagen.
El equipo de sonido. El profesional que realiza el arte del diseño del sonido es
denominada diseñador de sonido. El responsable de la toma de sonidos en rodaje es
el sonidista que trabaja con uno o varios microfonistas a su cargo. En la
postproducción se suman el editor de sonido, Compositor de la música incidental, y

6
los artistas de efectos sonoros (foley) y de doblaje, para generar la banda sonora
original.
Tipos de Sonido en rodaje de Cine
- Sonido Directo: Sonido grabado durante el rodaje que va ha ser utilizado para
el producto final. Por ejemplo los diálogos.
- Sonido Referencia: Sonido grabado durante el rodaje que no va ha ser utilizado
para el producto final. Por ejemplo los diálogos de una escena con mucho ruido de
fondo que servirán de referencia para el doblaje. Se suele gravar siempre en todas
las escenas.
- Room Tones: Grabación del sonido de fondo con todo el equipo de rodaje en
silencio y todos los aparatos (focos, etc.) encendidos. Suele grabarse unos 30’’ en
todos los sets de rodaje o cuando cambia la situación de sonido de fondo. Se utiliza
en posproducción como “colchón” para unir los diálogos o para sacar modelos de
ruido para utilizar en un reductor de ruido.
- Wild Track: Sonido grabado durante el rodaje sin que se grabe la imagen
correspondiente. Se suele usar para gravar pasos, puertas, … que pueden ser de
interés para el montaje. También se pueden repetir diálogos que por el tipo de plano
o por el ruido de las maquinas no haya quedado bien. Después estos diálogos se
pueden sincronizar con la imagen. No hay que confundir con los efectos sala o Foley
que se graban aparte del rodaje.
- Ambientes: Sonido grabado fuera del rodaje que va ha ser utilizado cómo
ambiente para el producto final. Se suele utilizar técnicas estéreo o de sonido
envolvente. Por ejemplo el ambiente de una playa.
- Foley: Sonido grabado fuera del rodaje que va ha ser utilizado cómo elemento
sonoro (efecto) para el producto final. Se pueden grabar en estudio o en exteriores.
Por ejemplo: pasos, disparos, motor de un coche, etc.
El sonido, al igual que una imagen, también puede tener cualidades estéticas
(texturas o frecuencias que se utilizan por ejemplo en películas de superhéroes o del
espacio) o psicológicas (efectos y sonidos sugerentes, agradables, inquietantes,
molestos…). Es decir, el sonido no sólo aporta realismo a las imágenes; también
puede crear una ambientación.
Además, podemos enfatizar el SILENCIO, y utilizarlo de una manera simbólica y
metafórica para representar la ausencia, o el peligro.
O simplemente, por el mero placer de jugar con el lenguaje cinematográfico, como
hizo Godard cortando el sonido en el famoso “minuto de silencio” de Bande a Part.
Para el que no conozca esta película, su título da nombre a la productora de
Quentin Tarantino, que es un gran fan de esta obra maestra de Godard.

El sonido en el cine: diegético y extradiegético

- Sonido diegético. Es todo aquel sonido que forma parte de lo narrado. Por
ejemplo, si un personaje está tocando un instrumento o escuchando la radio, esa
música es diegética. Un ejemplo claro serían la mayoría de las escenas musicales de
Whiplash, de Damien Chazelle, ya que el protagonista toca la batería.

7
Otro ejemplo algo surrealista que a mí me encanta lo tenemos en esta escena de
Gato negro, gato blanco de Emir Kusturica.

- Sonido extradiegético. Extradiegético es aquel sonido que no pertenece a la


acción de la escena, como suele suceder con la música de la mayoría de las
películas.

Tipos de sonido en el cine: IN, OFF y Fuera de campo


El sonido in (proviene del interior de la Pantalla). Todo lo que acontece: diálogos de
los personajes, sonidos, o música, si vemos al músico tocar en directo.
El fuera de campo corresponde al sonido diegético, pero la fuente del sonido no
se ve en pantalla. Por ejemplo, imaginad que tenemos un plano detalle de una
persona durmiendo, y se empieza a escuchar el despertador sin que lo veamos,
despertando a nuestro protagonista. Sabemos que el despertador está ahí, aunque
no lo veamos.
El sonido off (exterior al mundo narrado), como por ejemplo una voz en off de un
narrador, música o sonidos que añadimos a posteriori.

Sonido directo VERSUS efectos de sonido


– SONIDO DIRECTO. Es el sonido que se registra durante la filmación, incluyendo
los WILDTRACKS, que son ambientes o repeticiones de diálogo que se graban al
margen de la imagen, para tener más recursos.
– EFECTOS DE SONIDO. Son sonidos que, aunque parecen reales y remarcan la
acción, están previamente creados, o son creados por un Foley Artist o artista de
Efectos Sala.

Qué aporta el sonido en el cine


En definitiva, aquí tenemos algunas de las funciones del sonido en el cine.
1 – Complementa a la imagen para comprender la historia.
2 – Amplia los límites de la pantalla (FUERA DE CAMPO).
3 – Soluciona problemas narrativos y da cohesión al montaje. Generalmente el
sonido cambia mucho de una toma a otra, y es fundamental unir todo eso con un
wildtrack, por ejemplo.
4 – Influye en el espectador de forma inconsciente.

Clasificación de los sonidos

1. El ruido
Ruidos naturales.
Ruidos humanos.-

8
Ruidos mecánicos.
Palabras-ruido.
2. La música.
3. La palabra y los diálogos.
El sonido siempre existió en el cine. Lo que sucede es que en la primera etapa del
cine los espectadores no podían oírlo físicamente. Tenían que leerlo, decodificarlo,
interpretarlo a partir de los mecanismos que los cineastas utilizaban...
• Intertítulos.
• Primeros planos de objetos que sugieren un determinado sonido.
• Gesticulación de los actores.
• Lectura de labios...

Funciones de la música en el cine

1. Función rítmica. La música se emplea como contrapunto de la imagen.

La duración de la imagen y de la frase musical son exactas.

a) Reemplazar un ruido real.

b) Resaltar un movimiento de un elemento de la acción.

2. Función dramática. La música se emplea como un elemento que puede ser útil
para que el espectador comprenda el significado de la acción

Debido a la gran cantidad de tareas que requiere un trabajo de sonido óptimo, son
varias las personas que intervienen en el proceso de planeación, creación y ensamble
de los distintos componentes de sonido de un producto audiovisual. A continuación
se mencionan los cargos más relevantes y su función.

1. Supervisor de Sonido: Es el equivalente a lo que se conoce como director en


áreas como la Fotografía o el Arte de una película (director de fotografía, director de
arte). El supervisor de sonido es quien representa al equipo frente a las demás áreas
y, en especial, frente al director. Su responsabilidad es dirigir el trabajo del equipo
para conseguir los resultados que el director del producto audiovisual espera.
Además, por sus amplios conocimientos, es quien toma las decisiones de sonido, y
responde por la calidad del mismo. Es posible encontrar distintos "supervisores de
sonido" dentro de una misma producción audiovisual, pues, en muchas ocasiones,
se contrata a un supervisor para el trabajo de sonido directo (sonido en locación) y
otro para el trabajo de post producción del producto.
2. Microfonista: En el trabajo de sonido directo, el microfonista, también
conocido como operador de boom, es quién se encarga de manipular el micrófono

9
buscando siempre obtener el sonido más claro y limpio posible, según las
necesidades del director y del supervisor de sonido. En ocasiones, y especialmente
en producciones de bajo presupuesto, este trabajo lo realiza el mismo supervisor de
sonido, quien se encarga de monitorear el sonido, manipular la grabadora y manipular
el micrófono. Sin embargo, en condiciones ideales, es una persona aparte que está
bajo las órdenes del supervisor de sonido.
3. Editor de diálogos: Ya en la etapa de post producción, el editor de diálogos
es quien se encarga de sincronizar el audio de los diálogos (capturado en locación)
con la imagen. Además, debe limpiar, pulir y arreglar los diálogos, haciendo que lo
que se escucha coincida con lo que se ve. Por último, debe suavizar los silencios
digitales que resultan entre un diálogo y el otro. Esto lo hace usando un Room Tone
(tono de cuarto), o ambiente leve, que dé unidad y uniformidad al audio resultante.
4. Editor de ADR: En ocasiones, en el momento de grabar el sonido directo de
un producto audiovisual, y por razones que se salen de las manos del supervisor de
sonido y del microfonista, los diálogos capturados en locación no son lo
suficientemente claros, o tienen un gran componente de ruido que no permite que se
entienda por completo lo que el actor está diciendo. Para solucionarlo, en post
producción se reemplazan estos diálogos dañados. A este trabajo se le conoce como
ADR (por sus siglas en inglés Automated Dialoge Replacement), y consiste,
básicamente, en grabar los diálogos de los actores en un estudio de sonido, una vez
ha terminado el rodaje del producto audiovisual. Esto se hace para mejorar la calidad
del audio, corregir errores de continuidad y perspectiva, o disminuir los cambios en
los diálogos de un mismo actor. Para llevar a cabo este proceso, al actor se le muestra
el segmento de diálogo que debe reemplazar (con la imagen) repetidas veces. El actor
pronuncia el diálogo sobre la imagen tantas veces como sea necesario para que el
audio y la imagen queden sincronizados.
5. Diseñador de sonido y efectos sonoros: El diseñador de sonido, como su
nombre lo indica, es quién se encarga de diseñar o crear los efectos de sonido
necesarios para aumentar el realismo, hacer parecer real lo irreal, o potenciar las
emociones. Los efectos de sonido suelen salir de la imaginación y creatividad del
diseñador, quien experimenta con sonidos cotidianos para convertirlos en lo que la
imagen necesita. Sin embargo, en ocasiones se hace uso de librerías de efectos
(pagas o gratuitas) que hay en la red. En dichas librerías se encuentran efectos de
sonido por categorías, lo que, en ocasiones, facilita el trabajo del diseñador de
sonido. Claramente, esto repercute en la calidad y, sobre todo, originalidad del
producto final.
6. Diseñador de Foley: Por Foley se entiende todo movimiento que sea
producido por una acción humana. El diseñador de Foley, junto con un equipo de
actores de foley, ingenieros de sonido y demás, es quien se encarga de recrear en un
estudio todos estos movimientos para grabarlos y sincronizarlos con la imagen. Este
trabajo se realiza, principalmente, para aumentar el realismo del producto audiovisual,
y que los espectadores sientan lo que ven como un hecho cotidianamente posible.
7. Música: Dentro del trabajo musical de un producto audiovisual se encuentran
varios cargos: El supervisor musical que, al igual que el supervisor de sonido, es el
responsable y encargado directo de que las cosas salgan como se han hablado y
acordado previamente con el director. El compositor, quien es el encargado de

10
escribir la música para el producto. El ingeniero de sonido, quien es el encargado de
grabar a los músicos; y el editor musical, quien se encarga de montar los sonidos,
sincronizar los que no fueron grabados sincrónicamente, y realizar una mezcla de la
música apropiada para aportar al producto.
8. Mezcla Final: El trabajo de mezcla final lo realizan, normalmente, varios
ingenieros de sonido, todos dirigidos por el supervisor de sonido. En esta etapa, todo
el componente sonoro ha sido entregado en stems. Los stems contienen las mezclas
finales de cada una de los componentes sonoros. Por lo tanto, hay un stem de voces
(que contiene sólo los diálogos del producto audiovisual), un stem de música (en el
que ya se encuentra una mezcla general de toda la música de la película), un stem de
ambientes, y un stem de efectos (FX).

El sonido, tal como cualquier proceso audiovisual, cuenta con tres etapas básicas e
igualmente importantes para su buen desarrollo. Tales etapas son:

Preproducción. La etapa de preproducción se desarrolla a la par con la


preproducción de todo el producto audiovisual. En esta etapa, el supervisor de sonido
se reúne con el director y, en condiciones ideales, planea con él el guión del producto
audiovisual. El objetivo no es únicamente hacer un desglose de sonido que evidencie
todo lo que habrá de sonar en el producto final. Los aportes que debe hacer el sonido
en la etapa de preproducción deben ir ligados más que todo a la forma en la que se
van a distribuir los tiempos y, sobre todo, a determinar el punto de vista desde el cual
se va a contar la historia, que será el mismo punto de vista desde el cual el espectador
percibirá el mundo, y, por ende, los sonidos.
La participación del supervisor de sonido dentro de esta etapa es primordial, pues,
aunque los directores suelen tener un conocimiento acerca del sonido, una persona
que trabaje en el medio (sonido) puede aportar más y mejores ideas, que, como última
consecuencia, permitirá obtener mejores resultados.
Además de esto, el equipo encargado de realizar el trabajo de sonido directo (sonido
en locación) del audiovisual, planea en esta etapa su trabajo durante los días de
rodaje. Realizando un desglose de sonido para rodaje, pueden prever lo que van a
necesitar en rodaje y encontrar la mejor solución a los requerimientos particulares de
sonido de cada uno de los planos.

Producción. La etapa de producción está enmarcada, básicamente, por el


momento del rodaje. En esta etapa, el equipo de sonido directo captura los diálogos,
wildtracks, wildlines, y, en ocasiones, algunos sonidos producidos por los
movimientos de los actores, que sirven de referencia para los ingenieros de foley en
post producción. Es una etapa crucial, que depende en gran parte de la capacidad
de reacción y solución de problemas del supervisor de sonido y del microfonista,
pues es el sonido puede verse afectado por cualquier tipo de inconveniente
imprevisto, sea natural o humano (lluvia, viento, aviones, automóviles, gritos a lo lejos,
etc.)

11
Post producción. La post producción es el proceso final del producto audiovisual.
En este se corrigen, ubican, sincronizan, crean y relacionan todos los componentes
de la banda sonora del producto final. La mayor carga laboral en cuanto al sonido en
una producción audiovisual se encuentra en esta última etapa, pues gran parte de los
trabajos a realizar se llevan a cabo en ella, a saber: Edición de diálogos, ADR,
musicalización, diseño de sonido, foley, y, por último, la mezcla final.

FUERA DE CAMPO

Cualquier personaje, objeto o acción que no se ven en la pantalla, pero de los que
se sabe que forman parte de la escena o que están cerca del lugar que se está
filmando, o cualquier sonido que tiene su origen en un área de ese tipo. Podemos
escuchar una voz que procede del fuera de campo o ver a un personaje observando
una acción que se desarrolla fuera de campo.

Una diferencia del ojo humano con la cámara, es que esta última limita el espacio
con el enfoque y al seleccionar el espacio encuadrado deja fuera parte de la realidad.
Es decir, lo que se ve en la pantalla se dice que está en campo, porque queda dentro
de la visión de la cámara, mientras que lo que queda fuera se le ha llamado fuera de
campo o espacio “off”. Se puede decir que el fuera de campo es aquello que el
espectador cree que existe fuera del encuadre basándose en la información de lo que
ve dentro del cuadro. Es un espacio invisible que rodea a lo visible. En ese espacio
invisible continua la vida de los personajes ausentes del cuadro. Este fuera de campo
casi nunca es neutro, siempre tiene una función, una significación. Puede ser
silenciado por la censura, o paradójicamente puede ser puesto en relieve por omisión
–para ocultar algo al espectador y se muestre más interesado por conocerlo. Casi
siempre tiene un valor narrativo-expresivo. Podemos identificar tres categorías en el
fuera de campo:

1. Los cuatro segmentos espaciales delimitados por los bordes del encuadre.

2. El espacio situado detrás de la cámara.

3. El espacio situado detrás del decorado o escenografía.

Al observar los desplazamientos de los personajes (espacial, las salidas de campo)


estos constituyen espacios potenciales que se integran en la dinámica de la
narración. Estos espacios no vistos por el espectador permiten a los realizadores
emplear un potencial narrativo de extraordinario valor. Mediante el empleo del fuera
de campo se logra que el espectador participe activamente en la recreación del
mundo irreal audiovisual. En ocasiones, lo que se sugiere puede ser más expresivo
que lo que se demuestra. Puede presentar indicios de una realidad inexistente según
la intención del emisor, que pueden ser tomadas como pruebas o indicios de la
existencia de una realidad sugerida. Recurso, en definitiva, manipulador y también
creativo, puesto que en la aplicación del lenguaje audiovisual, se pueden crear

12
situaciones en la mente del espectador. El fuera de campo se puede mostrar
mediante sombras, espejos, voz en “off”, miradas de los personajes, etc.

La mejor manera de entender el fuera de campo es saber que aquello que está en
campo es lo que ocurre delante de la cámara, y de esta manera se sabe que el fuera
de campo es toda acción que se realiza en el momento en el que la cámara no presta
atención a dicha acción. Ésto se puede traducir de distintas maneras, sea ya con una
voz en off, con la ausencia de personajes en frente de la cámara o incluso una acción
secundaria eclipsada por la principal, siendo ésto último lo que se ve en cintas de
humor absurdo tales como Agárralo como puedas.
Otra manera en la que podemos encontrarnos el fuera de campo es cuando todas
las acciones se producen en tres lugares distintos en cuanto al enfoque de la cámara,
siendo éstas las que acontecen detrás del escenario o decorado, detrás de la cámara
o a los diferentes lados situados al exterior del encuadre.
Muchos son los directores que utilizan este recurso, muy conocidos en la industria.
Uno de ellos es Martin Scorsese, que durante las décadas de los 70, 80 y 90 hizo de
la voz en off su firma de identidad en películas como Casino o Uno de los nuestros,
algo que utilizó también de forma muy significativa el propio Robert De Niro en su
ópera prima Una Historia del Bronx.
Otro director muy reconocido por usar el fuera de campo es Quentin Tarantino, quien
lo hace de una manera muy peculiar en algunas ocasiones, usándolo mediante el
plano detalle y, de esta manera, hacer intuir al espectador lo que va a ocurrir.

13
Es importante destacar el concepto de escenario en el que transcurre la escena
(aunque sea un escenario de exteriores naturales) y que delimita la acción y lo que
los personajes pueden ver.

Dentro de ese escenario tenemos:

■ El sonido en pantalla (que Chion denomina sonido in): es el sonido cuya


fuente está visualizada en pantalla: voz del personaje hablando, puerta que se cierra
y que la cámara está grabando. Todos los otros sonidos están fuera de pantalla , ya
que no vemos la fuente en pantalla (acusmáticos).
■ El sonido fuera de campo es el que no está visualizado, porque la cámara no
apunta hacia su fuente. Distinguimos varios tipos:
■ Encabalgado o fuera de campo de montaje: este tipo de fuera de campo es
muy frecuente en el montaje. Por ejemplo, en un diálogo con planos/contraplanos, el
personaje que queda momentáneamente fuera del plano y sigue hablando está fuera
de campo.
■ Fuera de campo narrativo: cuando no se nos muestra de manera insistente
la fuente sonora que tiene relevancia en la narración. Solamente en este caso el
espectador es consciente del fuera de campo, lo que suscita intriga y anticipación.
■ Chion además distingue entre fuera de campo activo y pasivo
■ fuera de campo activo: en general corresponde al sonido acción o a la voz y
llama la atención del espectador que quiere ver la fuente del sonido (un grito, unos
sonidos de pasos que se acercan …). Este tipo de sonidos generalmente forman parte
del guión y es importante que sean elementos que aparezcan en fuera de campo.
■ fuera de campo pasivo: en general corresponde al sonido ambiente y no crea
una expectativa en el espectador. Es el decorado sonoro.
■ El punto de sincronización evitado (impactos como puñetazos o caídas que se
inician visualmente pero cuyo impacto es únicamente sonoro) es un ejemplo de fuera
de campo activo.
■ El sonido visualizado inaudible, que corresponde a los raros casos donde
vemos a una fuente emitiendo sonido que no oímos (persona tras un cristal, distancia
grande ….) Podríamos distinguir dos utilizaciones del sonido inaudible:
■ Protagonista: Este recurso es muy “llamativo” y se da cuando la fuente de
sonido aparece en primer plano y deberíamos oír nítidamente el sonido. Es un efecto
expresivo y narrativo que debe en general aparecer en el guión y estar concebido
como tal en el rodaje.
■ Secundario: cuando las fuentes pasan a segundo plano en la imagen y la
narración, como personas hablando al fondo de un restaurante o que andan en la
calle sin tener influencia en la narración. El proceso de mezcla sonora decide los
sonidos que pasan a ser secundarios (volumen atenuado) y los que desaparecen
completamente (sonido visualizado inaudible secundario).
■ El sonido interno, como la voz-pensamiento, corresponde a los sonidos que
imagina un personaje y que podemos oír. Es un sonido no visualizado, pero en
general, el personaje del que emana la voz-pensamiento o los sonidos imaginados
aparece en pantalla y nos indica visualmente que está pensando.

14
■ El sonido ambiente, que no está propiamente ni fuera ni dentro de campo, ya
que en general tiene una fuente difusa o a veces no visible. El sonido ambiente no
está generalmente localizado (murmullo de pájaros, de personas en un mercado …)
y más aún los sonidos específicamente ambientales como el sonido del viento, o el
sonido de fondo de una habitación (room tone). Este sonido está en el ambiente sin
estar realmente fuera de campo por no ser particularmente visible. Chion (1998: 78)
los llama sonidos-territorio o sonidos ambientales.
■ El sonido en las ondas («on the air») corresponde a los sonidos transmitidos
por radios y otros aparatos electrónicos, cuya fuente a veces no es necesario
visualizar, pero que pueden estar flotando en la escena, y pueden sonar en varios
escenarios distantes unos de otros.

Entre los sonidos que están fuera del escenario podemos distinguir:

■ El sonido exterior, generalmente pasivo, que corresponde a sonidos de fuera:


los pájaros que se oyen a través de la ventana, el tráfico urbano que se oye en un bar.
Forman generalmente parte de un sonido ambiente extendido a fuentes de fuera del
escenario (extensión amplia)
■ El sonido contiguo (o de escena contigua): este sonido acusmático se da
generalmente cuando hay que crear una intriga para el espectador, y se representa
una acción en un lugar contiguo al escenario pero en el que los personajes no pueden
ver: pasos del asesino que se acercan detrás de la puerta, disparos en una habitación
contigua … En este caso más que un fuera de campo es un fuera de escenario, pero
que suele representar una acción que tiene una influencia directa en la acción dentro
del escenario (extensión amplia).
■ El sonido distante se refiere a sonidos exteriores que se oyen a lo lejos pero
que no se funden en el sonido ambiente exterior: sirenas de ambulancia a lo lejos
cuando la escena representa un accidente, cañonazos a lo lejos en una escena en las
trincheras…. (corresponde a la extensión muy amplia).

La extensión (Chion 2013:§33) delimita lo que oye el espectador en las fuentes de


la topología del sonido audiovisual :

■ extensión nula: solamente se oye el sonido interior


■ extensión limitada: solamente se oye lo que aparece en el escenario
■ extensión amplia: se oye los sonidos que vienen de espacios externos al
escenario
■ extensión muy amplia: se oyen sonidos de fuentes distantes

El sonido extradiegético es el que no oyen los personajes porque no existe en la


escena, generalmente la música y las locuciones extradiegéticas. Chion utiliza el
término de off, que se utiliza tanto en francés como en castellano, pero que es un
término peligroso porque tiene un significado diferente en inglés. Para la voz, en

15
inglés se llama voice over lo que llamamos voz en off , y el inglés llamaría voice off lo
que llamamos voz fuera de campo(ver Doane, 1985: 165-169 para una discusión entre
voice over y voice off). Además, en inglés se hace la oposición entre sonido on-
screen/off-screen (en pantalla, fuera de pantalla), con lo que una voz en pantalla
debería llamarse voz on más que voz in según la dudosa traslación al francés y
castellano, con lo que preferiremos la terminología en pantalla/fuera de
pantalla/extradiegético para utilizar términos inequívocos.

Carmona (2006: 108) introduce una nueva denominación distinguiendo entre la voz
in (que Chion llama también voz in y aquí llamamos voz en pantalla), la voz out se da,
“por ejemplo, cuando una voz cuya fuente no se visualiza en el encuadre interroga a
un sujeto en campo” y que aquí llamamos fuera de campo narrativo, la voz off es la
que se da en “un monólogo interior o del personaje-narrador en un flashback no
presente en el encuadre.” Aquí llamaremos voz pensamiento (sonido interno) al
monólogo interior y diégesis superpuesta al personaje narrando sobre el flashback.
Finalmente, Carmona denomina voz through a la emitida por “un personaje que habla
de espaldas a la cámara (Serge Daney, 1977)”. El mismo Daney (2013) añade una
reiteración de ese concepto, que al no estar referenciado en la literatura, nos
permitiremos de no llamar de ningún modo para no crear más confusión.

VOZ EN OFF

La voz en off o voz superpuesta es una técnica de producción donde se


retransmite la voz de un individuo que no está visualmente delante de la cámara
durante una producción de televisión. Además se utiliza en radio, cine, teatro, u otras
presentaciones. Muchas veces es pregrabada y también es de uso común en
documentales o reportajes para explicar la información o los acontecimientos.
También puede ser interpretada por un especialista en actuación de voz.

Tipos y usos de voz off.

Como un recurso del personaje. Los directores pueden añadir una voz en off en
la fase de producción porque el argumento o la motivación del personaje no es
inmediatamente clara; por ejemplo Francis Ford Coppola añadió la voz en off al
personaje del Capitán Willard en Apocalypse Now para clarificar los pensamientos e
intenciones de Willard. En la versión de la película Moby Dick de 1956 de Herman
Melville, Richard Basehart, como Ishmael, narra la historia y a veces comenta la
acción en voz en off, igual que hace William Holden en las películas El crepúsculo de
los dioses y Espía por mandato.

La técnica de voz en off también se usa para dar voces y personalidades a


personajes de dibujos animados. Entre los actores de voz más sobresalientes y
versátiles se encuentran Mel Blanc, Don Messick y Daws Butler.

16
Como un recurso creativo. En las películas, el director de cine pone el sonido de
una voz humana (o varias voces) sobre imágenes mostradas en la pantalla que
pueden estar o no relacionadas con las imágenes mostradas. Por consiguiente, las
voces en off se usan a veces para crear un contrapunto irónico. También, de vez en
cuando pueden ser voces aleatorias no directamente relacionadas con la gente que
se ve en la pantalla. En obras de ficción, la voz en off es usada a menudo por un
personaje para reflexionar sobre su pasado, o por una persona externa a la historia
que normalmente tiene un conocimiento más completo de los acontecimientos de la
película que los otros personajes.
El género del cine negro está especialmente asociado con la técnica de voz en off.

Como un recurso pedagógico o descriptivo. La voz en off tiene muchas


aplicaciones en la no ficción también. Los telediarios están a menudo presentados
como una serie de clips de vídeo de acontecimientos de interés periodístico (piezas
informativas), con la voz en off de los periodistas describiendo el significado de las
imágenes presentadas; estos se intercalan con videos de los presentadores de
noticias describiendo las historias mientras no se muestra el video de los
acontecimientos.
Las retransmisiones deportivas en directo se muestran a menudo como voces en
off de larga duración por locutores expertos sobre el video del evento deportivo.
Los concursos de televisión antiguamente hacían un amplio uso de la voz en off para
presentar concursantes y describir los premios disponibles o concedidos, pero esta
técnica ha disminuido a medida que los concursos se han movido hacia premios
predominantemente de dinero en efectivo.
Los comentarios en voz en off por un destacado crítico, historiador, o por el propio
personal de producción son a menudo una importante característica de la publicación
de películas de cine o documentales en DVD.
En este tipo de ejemplos en la que existe un narrador mal llamado "voz en off" es
más exacto y correcto aplicar el término "voz over" o "voice over".

Como un recurso publicitario. El uso de la voz en off en la publicidad ha sido


popular desde el inicio de la radiodifusión.
En los primeros años, antes de que existiera una eficaz grabación y mezcla de
sonido, los anuncios se producían "en directo" y en una única sesión en un estudio
con el reparto completo, el equipo de sonido y, normalmente, una orquesta. Un
patrocinador corporativo contrataba un productor, que contrataba escritores y
actores de voz para interpretar comedia o drama.
Aunque la mayor parte de las primeras películas las acompañaban lectores en
directo [conocidos como benshi en Japón], la actitud popular ante la voz en off puede
resumirse en el comentario de Brian Cox en su papel del guionista gurú Robert
McKee en Adaptation de Spike Jonze en 2002:

17
«Y que Dios os ayude si utilizáis la voz en off en vuestro trabajo. Que Dios os ayude.
Es una forma de escribir floja y chapucera».

En parte por la preferencia de Hollywood por una artesanía modesta y parte por el
miedo de que las películas habladas redujeran el cine a teatro enlatado, lo cierto es
que se evitó esta técnica fuera de documentales y noticiarios hasta mediados
de la década de 1930.

Un personaje complejo: la voz en off de


Fred MacMurray en Perdición [1944] contiene momentos de vivo contraste entre un
optimismo ingenuo y una sabia melancolía.

El dinamismo de la narración radiofónica, sin embargo, propició un cambio radical


de opinión y, desde entonces, se han empleado con resultados magistrales voces en
off en los melodramas [El cuarto mandamiento, 1942], westerns [Red River 1948],
musicales [Cantando bajo la lluvia 1952], películas épicas [King of Kings, 1961 ]
bélicas como Apocalipsis Now en 1979, películas de adolescentes como Stand by
me en 1986 y comedias como The Tenenbaums: Una familia de genios [The Royal
Tenenbaums, 2001].

Independientemente del tiempo o de la localización, las historias en la pantalla


pueden relatarse desde el punto de vista de una primera persona [El Club de la Lucha
– Fight Club, 1999], una tercera persona [Cadena Perpetua – The Shawshank
Redemption, 1994] o un narrador omnisciente como en Amélie de 2001.

Además de aportar una exposición básica, tales voces en off también aclaran la
acción, ofrecen información sobre la psicología del personaje, aumentan el tono
íntimo e introducen una sabia ironía. También pueden reproducir el tono de las
fuentes literarias, como en Tom Jones [1963] o Barry Lyndon de 1975, y contribuyen
a veces a suavizar las transiciones abruptas en dramas extensos como Doctor
Zhivago de 1965, o simplemente parchar películas que han sufrido fuertes recortes
en el proceso de edición, como Blade Runner [1982].

18
Pero en manos de maestros como Orson Welles, Billy Wilder, Stanley Kubrick,
Martin Scorsese o Woody Allen, las voces en off complementan los elementos
visuales en lugar de simplemente compensar sus defectos.

Sin duda alguna, fueron básicas en el éxito del cine negro. En «Historia de un
detective» [Murder, My Sweet, 1944], la voz en off resuena por toda la película, y en
La ciudad desnuda [The Naked City, 1948], retumba el estilo «objetivo» de la «voz
de Dios».

Al igual que en las novelas baratas, hombres inocentes confiesan cómo han sido
engañados por femmes fatales en Perdición [1944] y La dama de Shanghai [The
Lady from Shanghai, 1947], y en El desvío[Detour, 1945] y Retorno al pasado [1947]
narradores poco fiables disimulan la verdad.

El cine negro también dio voz a las mujeres en Alma en suplicio [Mildred Pierce,
1945] y Raw Deal [1948], así como en los aclamados melodramas Carta a tres
esposas [A letter to three wives, 1949] y Eva al desnudo en 1950. Desde entonces,
las narraciones en boca de mujeres se han confinado a las películas realizadas por
directoras, como en Jane Campion o Sally Potter.

Pocos cineastas europeos han emulado la preferencia de Sacha Guitry de la


narración por el diálogo en Le roman d’un tricheur [1936], pero algunos han hecho
un uso ejemplar de la voz en off, entre ellos Robert Bresson, Ingmar Bergman,
Alain Resnais, Jean Luc-Godard, Francois Truffaut o Eric Rohmer.

En ficción cinematográfica, la voz en off puede ser de tres tipos:

● directa: describe lo que estamos viendo y escuchando


● indirecta: describe aquello que no podemos ver, como los pensamientos de
un personaje
● contrapunto: marca un constraste evidente entre aquello que vemos y aquello
que se nos explica, se recurre a la ironía
● unión entre diferentes escenas

Un ejemplo donde la voz en off juega constantemente con estas cuatro posibilidades
es en El lobo de Wall Street(2013) Marti Scorsese. En la siguiente escena, la voz
en off de Jordan Belfort (Leonardo DiCaprio) sirve para unir diferentes escenas dentro
de la misma secuencia que es “la historia de los Belfort”, o mejor dicho, “la
decadencia de los Belfort”; también vemos una función directa e indirecta de lo que
sucede en la cotidianeidad de la pareja.

19
El uso de la voz en off resulta interesante como técnica para transmitir datos
imprescindibles para la historia y que son difíciles de contar de otra manera.
Para gurús del guión como Robert McKee es un recurso al que sólo que hay que
recurrir cuando el resto de soluciones creativas te hayan abandonado. Bien
aprovechada, es una herramienta muy interesante para presentar personajes,
introducir atmósferas o atrapar al espectador desde el primer minuto de la
narración. Las primeras escenas de ‘American Beauty’ o ‘El crepúsculo de los dioses’
son buena muestra de ello.

La voz en off también puede ser utilizada para aclarar el sentido de la obra. Es
particularmente interesante el ejemplo de ‘Apocalypse Now’, una obra mayúscula que
resultó confusa en su primer montaje. La decisión que tomó entonces Francis Ford
Coppola fue acompañar el film con un off del personaje del Capitán Willard en
Apocalypse Now para clarificar las intenciones y motivaciones del personaje.
También es curioso el caso de Blade Runner y sus múltiples montajes: la inclusión
o supresión de la voz en off de Deckard modifica por completo el significado de
la película de Ridley Scott.

Las posibilidades son muchas. El recurso nos puede servir para ayudar a conocer
las verdaderos sentimientos de nuestro protagonista (‘El hombre que nunca estuvo
allí’, ‘American Psycho’), dejar claro el tono de nuestra historia (‘La bella y la bestia’,
‘La Naranja Mecánica’), explicar los complejos planes de nuestros protagonistas
(cintas de atracos como la saga ‘Ocean’s Eleven’) o para sumergirnos en el universo
del protagonista que determinará nuestra historia (‘Forrest Gump’, ‘Taxi Driver’). Es
una técnica interesante y que abre diferentes caminos, pero hay que saber cuándo
renunciar a ellas. Las valoraciones personales, la información que el espectador no
necesita saber o las florituras están de más. Lo que no suma, resta.

SONIDO DIRECTO

El sonido directo, también llamado sonido de campo o sonido de producción


(production sound, location sound o field sound recording en ingles) es la grabación
de sonido dentro de un set de filmación de un proyecto audiovisual, bien sea cine, tv
o video.
El ingeniero de audio encargado de este proceso, comúnmente llamado sonidista,
se encarga principalmente de capturar, de manera limpia y optima, los diálogos,
ambientes, tonos de sala (Room Tone) y cualquier acción que se realice frente a
cámara. Tomando en cuenta la continuidad en la intensión y el timbre de la voz, así
como de los posibles cambios de sonidos de ambiente.
Para esto, se utiliza una gran variedad de micrófonos tipo shotgun, comúnmente
llamados “boom” (por estar colocados en una vara o percha que lleva ese nombre en
inglés) y los micrófonos inalámbricos Lavalier (llamados balitas o corbateros).

20
Lo ideal, dependiendo del proyecto a grabar, es tener por lo menos un micrófono
shotgun para capturar la escena, junto con varios micrófonos lavaliers que irán
ocultos en cada personaje. Así tendremos independencia de la señal.
El sonido directo es aquel que proviene de su fuente sin ningún tipo de
intermediación. En cinematografía, la grabación del sonido directo consiste en la
captura de éste en el mismo momento en que se rueda una escena. Estos elementos
sonoros pueden ser utilizados o no en el montaje, aunque no pueden ser creados en
producción. En un concierto, la voz en directo hace referencia al sonido directo, es
decir, indica la ausencia de edición en ella: el sonido proviene de su emisor en el
mismo momento.1

Sistemas de grabación. Los sistemas utilizados son totalmente digitales. Los más
populares son el DAT y el ADAT, ya que son transportables. Los DAT grabadores
digitales de dos pistas simultáneas, los ADAT pueden registrar 8 pistas ampliable
mediante la sincronización de grabadores. Estos últimos se utilizarán en secuencias
en que se utilizan varios micrófonos.

Grabación del sonido directo. La grabación de una secuencia combina el registro


de imagen y sonido. El sonido directo lo constituyen el ambiente y las voces de los
actores. Supone un proceso bastante crítico, dado que de haber algún defecto en la
toma de sonido durante la grabación de la escena, ésta deberá repetirse, ya que el
sonido e imagen directos se toman en el mismo momento.

- Elementos para la grabación. El elemento fundamental para la recepción y


almacenamiento del sonido es el micrófono. Aunque existen otros complementos:
● Complementación mediante otros micrófonos.
● Pértigas.
● Fuente de preamplificación o mesa de mezclas.
● Grabador multipista.
● Cortavientos
● Un sistema de monitorización (auriculares).
● Cables de conexión.
Fuentes registradas. Los sonidos que se recogen en la grabación directa son
fundamentales puesto que su creación mediante la edición resulta imposible. Es el
caso de los diálogos y los sonidos ambientales.
Diálogos: En los metrajes, los diálogos son la parte principal en cuanto a registro
de sonido se refiere. Las voces de los actores construyen la narración acompañando
coordinadamente la imagen.
Sonidos naturales: viento, lluvia, olas del mar, etc. son elementos muy registrados
para acompañar imágenes, que sin sonido parecerían incompletas, de fondo, o sin
ningún acompañamiento visual (normalmente como método de relajación).
Sonidos ambientales: público, oficina, tránsito, etc. sirven para contextualizar,
normalmente usados de fondo.

21
Factores a tener en cuenta a la hora de grabar sonido directo. Puesto que el
micrófono va a grabar el sonido en directo, captará tanto las voces o elementos que
queramos registrar como sonidos quizás no deseados: viento, motores, voces
lejanas, etc. Por esta razón, son de suma importancia la elección de material y el
control de la aparición de fuentes sonoras no deseadas.
● La localización es un factor muy importante a tener en cuenta. Escoger un lugar
aislado de ruido como personas, tráfico, aparatos funcionando, etc. es fundamental
para que las voces o sonido que queremos registrar se oigan de una manera clara.
Las fuentes de ruido cercanas deben ser identificadas y tratadas. En el caso de
realizar las grabaciones en un plató, se deben utilizar mecanismos para mejorar las
condiciones acústicas del local: paneles o telas, o un tapizado adecuado para
disminuir le sonido de los pasos.
● La colocación de la fuente de sonido, en caso de ser móvil, respecto los
micrófonos. En general, un conocimiento lógico del orden.
● La elección del micrófono también es un factor destacado. Aparte de factores
funcionales de los mismos, que darán distintos resultados, el factor económico
también determina la elección y la calidad. Una de las marcas más usadas es RODE.
● Suelen usarse micrófonos de condensador con un patrón polar hipercardioide,
para aislar los sonidos no deseados, o tipo elecret si la distancia lo requiere.
- Tipos de micrófono. Igual que para la captura de la imagen se usan diferentes
objetivos o lentes con diferentes resultados, según la conveniencia, con los
micrófonos existe la misma regla.
Hay muchos tipos de micrófonos que darán resultados muy diferentes, y
decidiremos cuál usar según la expectativa de la persona, las condiciones...
Micrófono cardiode. Es un micrófono direccional, es decir, captará los sonidos de
la dirección a la que lo coloquemos, siendo la pare posterior una zona con
sensibilidad mínima.
Algunos usos recomendables serían para documentales o la grabación de eventos.
Micrófono supercardiode. Poseen un factor direccional más preciso que el
anterior, de modo que aíslan notablemente los sonidos de su alrededor para captar
únicamente la fuente a la que apuntan.
Son utilizados para grabar voces, y se pueden conectar tanto a la cámara si se va a
hablar de frente, como mediante el uso de un palo para acercarse al actor.
Micrófono omnidireccional. Este tipo recoge el sonido en todas direcciones, sin
enfocar atención a la dirección a la que apunta. Los sonidos que registra con claridad
son los más próximos a él.
Se usa en micrófonos de corbata o solapa, mediante un cable o inalámbricos, que
permiten el acompañamiento del micrófono de la fuente que se pretende registrar, y
un uso libre de manos.
El micrófono omnidireccional también se puede usar en micrófonos ambiental.

22
Micrófono bidireccional. Su registro se enfoca en dos direcciones, normalmente
usados en entrevistas de radio o cine.

WILD TRACK
El wild track es una toma de sonido adicional efectuada en locación
independientemente de la acción, a fin de incorporarla a la banda sonora con o sin
posibilidades de sincro. El sonido es registrado en el rodaje de forma independiente
a la imagen, cuyo propósito es grabar con la mayor nitidez posible el sonido de una
escena. En ocasiones, el encuadre de imagen o el movimiento de los actores o la
cámara dificulta la cercanía del micrófono a la acción y por tanto un buen registro de
sonido, de modo que se graba después aparte para su post - sincronización en el
montaje o la mezcla. También suele denominarse wildtrack la grabación del ambiente
natural de la localización del rodaje (previo riguroso silencio de todo el equipo, por
supuesto) que se empleará para uniformizar los fondos sonoros de las distintas tomas
de la escena, o con el fin de cubrir tomas para las que no se haya registrado sonido
directo.
Las palabras wild track (WT) se podrían traducir por “pista que va por libre”, y se
refieren a un archivo de sonido que se graba en la localización o el set,
independientemente de la imagen. Pueden ser voces (una parte de un diálogo), voces
difusas (murmullos), efectos (un timbre) o el silencio en el set, por ejemplo. Algunas
razones por la que se puede necesitar grabar un wild track:
- es un sonido que se va a oír en off (es decir, sin que se vea su fuente), como
un grito, un saludo o un grifo abierto, por ejemplo.
- El encuadre de la imagen o el movimiento de los actores o de la cámara
dificultan la cercanía del micrófono a la acción y, por tanto, un buen registro del
sonido.
- Se ha conseguido una toma buena de imagen, pero se ha colado un ruido (una
sirena, el roce de la ropa de los actores) o el plano tiene un diálogo que transcurre en
un taller con máquinas de coser, por ejemplo.
- Se ha conseguido una toma buena por imagen y por sonido, pero se quiere
tener una mejor vocalización de los actores o variar un poco la intención dramática.
[Cuando se graba un WT de diálogo se evita tener que ir a un estudio de doblaje (lo
que lleva tiempo y cuesta dinero), se consigue una grabación con las mismas
características sonoras que el resto del diálogo y, además, se aprovecha que los
actores están en el momento dramático o emocional adecuado.]
- Necesitamos sonido para recrear una reacción concreta a un momento
dramático (risas, cuchicheos, murmullos, “ooohs” y “aaahs”, etc.).
- Necesitamos el sonido ambiente de una localización o set en silencio total
(para igualar el audio de una secuencia en montaje y que no se noten saltos entre
cortes).

23
- Necesitamos sonido de una localización o set con su actividad habitual (para
generar, en montaje, la sensación auditiva que se produce en ese sitio concreto - bar,
colegio, juzgado, etc.).
[En estos últimos dos casos hablaríamos de WT de ambiente o, simplemente,
ambiente.]
Los WTs y ambientes se nombran así:
28-WT JUANA-1 (es decir: WT del diálogo de Juana en la secuencia 28, toma 1).
12-AMB BAR-1 (es decir: ambiente de bar de la secuencia 12, toma 1).

SONIDO AMBIENTE
El concepto de sonido ambiente engloba varios elementos de naturaleza diferente,
y que corresponden a procesos diferentes en la grabación y montaje del sonido.

Por un lado, Michel Chion distingue entre sonido ambiente o sonido territorio
(Chion 2012 § 32) y elementos de decorado sonoro (Chion 2012 § 32). A su vez, en
el campo profesional se distingue entre ambientes y atmósferas como se ilustra en
el gráfico de José Nieto.

■ Atmósfera (Nieto) o sonido territorio (Chion): suele incluir los sonidos


relativamente continuos que en general no tienen una fuente clara y visualizable,
como una atmósfera de ciudad al fondo, el sonido difuso del mar, el sonido general
de un bosque, el viento, una atmósfera de noche con grillos, etc. También podemos
incluir un room-tone (el sonido de una habitación que en general es un ruido blanco
de ventilación más bien grave), una atmósfera de catedral donde suenen los
pequeños elementos en la reverberación. Para evitar confusiones, no utilizamos el
término “sonido ambiente” que utiliza Chion para esta categoría.
■ Elementos de decorado sonoro o EDS (Chion) que se aproximan a los
ambientes en la terminología propuesta por Nieto. Estos sonidos tienen fuentes más
puntuales y definidas que las atmósferas, y son más intermitentes. Podemos incluir
los teléfonos en una escena de oficina, el conjunto de ruido de cubiertos y voces de
comensales en un restaurante, el ruido de coches en una escena de calle o de
máquinas en una escena industrial.
■ Sonidos-acción: en este apartado tenemos los sonidos que emanan de las
acciones que hacen los personajes, generalmente en pantalla. Suele distinguirse los
sonidos que en la postproducción cinematográfica clásica corresponden a los
efectos de sala o foleys (pasos, ruidos de vaso, portazos, roce de ropa) y los sonidos
que corresponden a los efectos especiales (disparos, explosiones, puñetazos…) que
se crean en laboratorio.

24
A nivel perceptivo y narrativo, la frontera entre atmósferas, EDS y sonidos-acción es
porosa: una atmósfera de ciudad va a contener ruido de tráfico (generalmente difuso
y a lo lejos) pero una escena de calle en una ciudad va a contener un ruido de tráfico
que corresponda al tráfico de coches que estamos viendo, y en ese caso son
elementos de decorado sonoro. Igualmente si tenemos una persona montando en
bicicleta vamos a hablar de sonido-acción para los sonidos de la bicicleta si seguimos
la acción del ciclista, pero vamos a hablar de elemento de decorado sonoro si hay
varios ciclistas que forman parte del “fondo” de la escena.

A nivel de producción técnica, las atmósferas y elementos de decorado sonoro


pueden venir de librerías de sonido o grabarse in situ en los llamados wild tracks, en
los que se graba el sonido del lugar sin la presencia de cámaras y actores, para luego
reintroducir esos sonidos en postproducción. Tanto atmósferas como elementos de
decorado sonoro no requieren una sincronización entre la imagen y el sonido, y como
indica Chion (2012, §32) ambos “contribuyen a diferenciar los diferentes decorados
de la acción, a hacerlos contrastar, en relación o no con las diferencias visuales,
rítmicas, etc.” Como la frontera es porosa, los sonidos de acción también contribuyen
a la diferenciación entre escenas. También debemos tener en cuenta la
reverberación o respuesta acústica de sala: este es un elemento que no es un
sonido en sí, sino un procesado (natural o de postproducción) de los sonidos que
forma parte del ambiente general y de la sensación de realismo e inmersión. La
reverberación permite además marcar el montaje separando las escenas que tienen
diferentes acústicas de sala.

Los sonidos-acción “normales” (pasos, roces, abrir puertas y ventanas…) se pueden


grabar en sonido directo (se suelen necesitar entonces varios micrófonos, unos para
diálogos y otros para diferentes EDS) y luego necesitan un montaje en
postproducción. Se pueden también hacer por especialistas de Foleys que generan
los efectos de sala utilizando diferentes aparatos y trabajando en post-
sincronización, es decir, viendo la imagen por sonorizar y generando los efectos de
sala en sincronía. Actualmente, si no se dispone de especialistas, se pueden generar
los efectos de sala a partir de librerías que se trabajan para hacer coincidir el sonido
con la acción en pantalla.

Los sonidos-acción “especiales” (disparos, explosiones, puñetazos) suelen estar


siempre recreados en postproducción, sin utilizar elementos de sonido directo.

Añadimos una categoría en negativo cuando tenemos silencio ambiente o sonido


acción (directo) fortuito o casual. Esto es el caso de muchas producciones de
plateau como las sitcom, donde no hay atmósferas ni elementos de decorado sonoro,
y puede haber algún sonido acción que se grabe fortuitamente pero sin intención
expresiva, ya que los micrófonos están colocados para grabar los diálogos.

25
ROOM TONE

Un “Room Tone” o “presence” es la grabación del sonido característico de un


lugar, mientras éste se encuentra en silencio, no lo debemos confundir con el
ambiente, ya que el ambiente es la atmósfera sonora que se crea de un determinado
espacio, y no el silencio del mismo.

Un Room Tone desde un punto de vista práctico lo forma la interacción del espacio
en donde grabamos con el propio micrófono, el ruido que exista tanto en la
localización como en los aparatos electrónicos utilizados para su grabación. Por lo
tanto si cambiamos de posicion nuestro micrófono tendremos un room tone diferente,
al igual que si cambiamos de aparatos para grabarlo, por ejemplo otro micrófono,
otros previos etc.

La importancia del room tone se muestra a la hora de editar los diálogos de


cualquier escena, durante el proceso de edición tendremos que hacer frente a
cambios de plano en una conversación, el montador de vídeo normalmente creará
una escena de diálogo montada plano contraplano, en esta situación como mínimo
tendremos que usar dos tomas de sonido (una por personaje al menos) para que los
diálogos estén sincronizados, al realizar la edición del diálogo nos podemos encontrar
con espacios de silencio, o diferencias en el perfil de ruido de cada toma, creando
una indeseable distracción para el espectador ya que se notara la edición y el cambio
de toma, en éste caso podemos limpiar el ruido de una de las dos tomas y añadir el
room tone de la otra, de esta manera el cambio de plano (y por tanto de toma) es
mucho más imperceptible.

Otra situación en la que nos puede hacer falta el room tone es cuando en la toma
tenemos ruidos indeseados en espacios en los que debería haber “silencio”, un
golpe antes de que el actor hable o un coche pasando son algunos ejemplos típicos,
en este caso en edición normalmente cortamos dicho ruido y añadimos el room tone
para reemplazar el espacio sin sonido que nos ha quedado consecuencia de la
edición, de esta forma el corte no se percibe.

la forma más fácil de grabar un room tone es dejando unos segundos de silencio
antes de empezar cada toma, normalmente con tan solo unos cuantos segundos (de
5 a 15 por ejemplo) es suficiente para eliminar sonidos indeseados, y creando un
bucle del room tone tambien deberia ser suficiente para las tomas de diálogo. Como
te hemos dicho anteriormente si cambiaras la posición del micrófono por ejemplo,
tendrías un sonido diferente por lo que grabando antes de cada toma unos segundos
de silencio (por ejemplo antes de la claqueta) te aseguras de que el room tone es el
mismo de la toma de diálogo.

También es posible grabarlo antes o después de la toma, cuando no moleste al resto


del equipo por ejemplo, si lo grabas con los mismos equipos que usaste en las tomas
de diálogo y sobre todo con la misma configuración de la toma, es muy probable que
pueda servirte, sin embargo puede variar un poco y quizas te haga falta procesarlo,

26
ecualizando por ejemplo para que se parezca más a la toma original. La ventaja de
hacerlo después es que puedes hacerlos mucho más largos, lo que puede servirle al
montador de ambientes para reforzar la localización.

Es posible que también te hayas dado cuenta que si en la toma de diálogo hay
largos pasajes de silencio entre los personajes también pueden servirte como
un room tone, lo importante al final es que la edición sea imperceptible.

EFECTOS DE SALA/FOLEY

El sonido de una película que no pertenece ni al diálogo, ni a la voz en off, ni a la


música, y que se añade normalmente en el proceso de posproducción. Los efectos
de sonido se combinan con frecuencia en una banda E (efectos), que después se
combina con las bandas M (música) y D (diálogos). La grabación del sonido ambiental
normal resulta difícil de controlar y de registrar con fidelidad. Los efectos de sonido
pueden crear lo que parece el sonido propio de un lugar de manera que esos ruidos
contribuyan también al impacto dramático de la escena. Puede introducirse sonidos
sincronizados con las acciones de los personajes de una forma precisa e impactante.
Los archivos de efectos sonoros, que pueden ser independientes del estudio o formar
parte de él, disponen de un gran número de cintas, discos y bandas ópticas que
incluyen una inmensa variedad de ruidos, desde disparos de armas de fuego,
explosiones de bombas y clamores de guerra hasta el murmullo de los árboles, el
azote del viento y las tormentas atronadoras de los grandes espacios abiertos.
Aunque algunos ruidos se registran específicamente para una película concreta,
algunos estudios disponen de sofisticadas consolas de efectos de sonido en las que
se almacena una cantidad inmensa de sonidos que pueden añadirse directamente a
la banda de efectos.

En la actualidad, se dispone de efectos de sonido y de sistemas de montaje de


sonido informatizados; los más avanzados emplean además sonido digital. Dichos
sistemas permiten una manipulación creativa y sencilla de sonidos programados e
innumerables regrabaciones sin pérdida de calidad. Los instrumentos electrónicos,
especialmente el sintetizador, han inaugurado en los últimos años una nueva área en

27
el campo de los efectos sonoros cinematográficos. Los responsables de los efectos
de sonido, especialmente el de los movimientos corporales, se denominan artistas
Foley, caminantes Foley o mezcladores Foley en homenaje a Jack Foley, el creador
del sistema moderno para producir esos efectos sonoros para el cine.

El montador de sonido o montador de efectos de sonido es el individuo responsable


del ensamblaje y la mezcla de todos estos sonidos.

El creador de los efectos sonoros en el cine fue Jack Donovan Foley, más conocido
como Jack Foley. Se le atribuye la invención de añadir a las películas efectos de
sonido naturales y cotidianos de las personas y objetos tales como pasos, aleteo de
pájaros u objetos moviéndose en superficies, entre otros ejemplos. Estas creaciones
de sonido se realizan de acuerdo a la imagen que se está emitiendo para darle un
toque más realista. Los efectos de sonido tienen que grabarse paralelamente a la
película porque no pudieron ser grabados en el momento de la filmación.

En la gran mayoría de los casos el foley se acaba convirtiendo en un arte, un arte en


desarrollo. No es un proceso fácil y requiere de mucha imaginación para llevar a cabo
procesos asombrosos... Como crear el sonido de un ser inexistente en el mundo real,
el despegue de una nave espacial...
Los nuevos sistemas digitales nos permiten la reproducción del más mínimo detalle
sonoro, primando su realismo y su definición; Por este motivo ya no hablamos de
diseño de sonido sino de arquitectura del mismo. Los efectos sala (los foley) dejan de
ser meros ruidos ocasionales y se convierten en auténticos decorados sonoros que
acompañarán toda la acción de los personajes, hasta el más mínimo detalle. La
textura del suelo por donde andan los intérpretes, la textura de los ropajes que los
visten, el material del que están hechos los objetos que tocan o mueven e incluso el
aire que respiran los actores son obsesiones del efectista en estos momentos.
Reproducir sonidos cotidianos no es nada sencillo si hay que hacerlo de forma
artificial. Las personas encargadas de esta parte (Foley Artist) suelen ser los grandes
olvidados de la industria cinematográfica. Sin embargo, tienen un papel fundamental
ya que han de estudiar y conocer a la perfección los sonidos y los materiales, e
incluso seguir innovando constantemente, para encontrar nuevos sonidos que
puedan innovar, mejorar o ensalzar los que ya conocían.

Los efectos de sonidos Foley son grabados por varios motivos. Para un equipo de
sonido en directo muchos de los sonidos se escapan o no es posible grabarlos tal
cual debido a las condiciones de la grabación (sonido ambiente) además, sería
imposible estar continuamente siguiendo a los personajes para grabar los pasos, el
ruido de los caballos al caminar, dos espadas luchando etc. En otras ocasiones los
sonidos grabados no se reproducen tal cual se quiere o necesita en la película y por
ello, se les da más vida en los estudios de grabación.

El lugar destinado a grabar los efectos sonoros son estudios dedicados a tal fin que
han de contar con un espacio amplio para poder crear distintas superficies y

28
espacios, como suelos de cemento, césped, arena etc para poder recrear los pasos
o distintos movimientos, así como contar con gran cantidad de materiales y
accesorios. El aislamiento acústico y el tratamiento de las salas son otras
características de estos lugares para evitar que los ruidos externos puedan "colarse"
en el interior además de evitar la reverberación de la sala.

Para crear los efectos sonoros de una película el equipo de foley sigue una “hoja de
ruta” en la que se detallan todos los sonidos necesarios para grabar y sus
características.

Artistas de Foley. Ben burtt recreo más de 800 sonidos para Star Wars para poder
adecuarlos a objetos y criaturas, entre ellos se encuentra la conocida distorsión de
los sables láser, que se daba al usar un cable de audio sin aislante sobre una
televisión de tubo. Burtt, además, logró dos nominaciones a los Óscar con su
fascinante trabajo para la película de animación Wall-E. Y es que hablar de animación,
en este caso, es hablar de efecto sala, puesto que es casi lo mismo. La animación es
uno de los géneros que más depende del efecto Foley, y, además, en el que más se
puede jugar con la creatividad. Jack Donovan Foley fue el creador del foley entre sus
trabajos destaca el de Espartaco, José Caldararo con películas como El secreto de
sus ojos. Los "foley artist" Kiku Vidal y Edgar Vidal recogen el Motion Picture Sound
Editors, USA: 2008 al mejor foley por su intervención en la película "EL ORFANATO".
En España el extraordinario Luis Castro fue una eminencia durante décadas.

Clasificación de los efectos de sonido. 1) Ruido diegético/objetivo: el que suena tal


como es. Puede ser el de ambiente general (viento, lluvia, tráfico) sin necesidad de
ser sincrónico. 2) Ruido no diegético/subjetivo: se produce para crear una situación
anímica sin que el objeto productor se vea. Por ejemplo, el tictac de un reloj, pasos
lentos o puertas que chirrían. 3) Ruido descriptivo: el inventado para producir sonidos
irreales, fantásticos o sobrenaturales. Por ejemplo, las voces de extraterrestres en las
películas de ciencia ficción.

Una producción de Foley tiene una fuerte preparación.


1- Visionar y anotar todos los sonidos. Apuntando en qué momento aparecen, o
realizando una clasificación acorde por grupos.
En ese proceso inicial anotamos que vamos a necesitar reconstruir, para así
hacernos una idea de todo lo necesario para afrontar la grabación.
2- Materiales. Hacer acopio de materiales necesarios para recrear ese sonido es un
paso fundamental. De ello dependerá la veracidad de nuestra recreación. La mayoría
de los estudios especializados contienen un gran almacén que casi parece un rastro
desfasado. No importa el aspecto del “instrumento”, importa su sonido a la hora de
golpearlo, arrastrarlo, mojarlo o sacudirlo.
3- Microfónica y acotación de espacios. Según los materiales que fuésemos a
emplear vamos a necesitar un espacio de seguridad mayor, es importante mantener

29
proximidad con la microfonía sin ponerla en riesgo, podemos romper material de
estudio con mucha facilidad.
4- Grabación. El proceso de interpretación, el artista foley se convierte en un
intérprete más de la banda sonora, y dependerá de su habilidad de recrear e integrar
sonidos para conseguir los efectos más reales y sorprendentes. Es muy común el
trabajo por capas donde para conseguir un mismo sonido empleamos distintas
grabaciones. Ejemplo: una con más ataque, otra con más sonido de metal, y otra con
mucho volumen. Sumando todas podemos obtener el resultado esperado que de otra
forma no podríamos transmitir con un único elemento.

SOUND TRACK/BANDA INTERNACIONAL/BANDA SONORA (EN TV


MÚSICAS+EFECTOS/FX)

Banda sonora (soundtrack en inglés) hace referencia a la parte sonora de una


proyección audiovisual, ya esté compuesta por diálogos, sonidos ambientales,
música y cualquier otro tipo de sonido, sea real o sintético. Normalmente se asimila
con la música en el cine, pero también puede utilizarse en cualquier otro producto
audiovisual, como los videojuegos, los programas de televisión y los productos
derivados.
Habitualmente se entiende como banda sonora toda aquella música, tanto vocal
como instrumental, que se emite conjuntamente con la película cinematográfica. Si
bien en un principio se puede considerar la banda sonora como la música compuesta
expresamente para una película, incluso en la época del cine mudo, lo cierto es que
la banda sonora propiamente dicha nace con la aparición del cine sonoro.
Aunque se grabe sonido directo, siempre hay que grabar aparte los efectos sala
para poder hacer la llamada “banda internacional” o soundtrack, donde además de
los efectos sala, tendremos la música y los ambientes (es decir, todo menos los
diálogos).
En países donde se habla un idioma distinto de aquel en el que se rodó la película,
se doblan los diálogos en su idioma y se hace una nueva mezcla de sonido con el
doblaje y la banda internacional.
Los dos sistemas iniciales fueron el Vitaphone, creado por las compañías Bell
Telephone y Western Electric en 1927, y más tarde el sistema Sistema Photophone,
creado por las compañías RCA y General Electric, en 1928.
La banda sonora de una película, en su sentido físico, puede ser de dos tipos:
magnética u óptica. En el primer caso, una o varias bandas de grabación magnética
discurren por los bordes de la tira de película. Al ser leídas estas líneas por un aparato
en sincronía con la proyección, se generan los sonidos de manera similar a como lo
haría un lector de casetes. En el caso de las bandas sonoras ópticas, se trata de
zonas de oscuridad y luz en uno o dos lados de la cinta de la película. Las distintas
intensidades de luz, se convierten luego en impulsos eléctricos creando el conjunto
de la banda sonora.

30
También se utilizan los sistemas de sonido digital, que actualmente comienzan a ser
comunes en las proyecciones cinematográficas y que responden a los estándares de
proyección digital 1080p, 2K, UHD, 4K y 8K, ya en vigor.
La imagen muestra una película en el antiguo celuloide, ampliando donde se alojaba
la banda sonora dentro de la película.

Se puede entender, además, por Banda Sonora Original: BSO (Original


Soundtrack: BSO), todo aquel compendio de elementos sonoros diseñados en
exclusivo para la película.

Después de lo anterior, tenemos dos grandes ramificaciones:

- El score (música incidental o música cinematográfica), que comprende


aquellas pistas compuestas para la cinta y que suelen ser orquestadas,
instrumentales y extradiegéticas (no percibidas por los personajes) que atienden al
discurso expresivo de la película y suelen contar con la autoría de compositores de
renombre (Ennio Morricone, Hans Zimmer, Danny Elfman).

- El soundtrack, que por lo regular comprende canciones preexistentes elegidas


por el director para formar parte de la historia, y por su naturaleza, pueden ser
incidentales (forman parte de la acción de los personajes) o extradiegéticas.

Una banda sonora, por lo general, suele tener la siguiente estructura:

● Tema de entrada/inicio/cabecera. Suele ser el tema o canción que da


comienzo a la película o serie para la que ha sido compuesta. Opening o Main Title,
en inglés.

● Música de fondo/incidental. Son el conjunto de temas que representan el


grueso de la composición dentro de una banda sonora. Pueden ser instrumentales o
cantados (canciones). También puede haber canciones o temas de autores diferentes
al que compuso en origen la obra musical (compositor); a una canción de ese tipo se
le llama canción insertada.

● Tema de salida/cierre/final. Suele ser el tema o canción que suena junto con
los créditos finales de la película o serie para la que ha sido compuesta.

31
● Leitmotiv. Recurso empleado para simbolizar una emoción, un objeto, un
personaje o protagonista (Bond).

● Música de fondo o incidental: Conjunto de temas que se adaptan a la acción


(cine de terror).

La banda sonora forma parte integral del mensaje audiovisual y sirve generalmente
para:

-Remarcar las acciones

-Transmitir información

-Aumentar la sensación de realidad

-Ayudar a transmitir emociones

La banda sonora puede recoger dos tipos de sonido:

•Directo. Sonido tomado durante la grabación. Este tipo de sonido se utiliza


fundamentalmente en las grabaciones no profesionales, en los documentales y en los
proyectos de video experimental, artístico y doméstico. El propio hecho de que la
grabación de sonido se efectúa sobre la grabación original de vídeo hace que durante
el montaje el sonido aparezca fragmentado.

•Grabado. Todo aquel sonido que puede ser tomado antes, durante o después de
la grabación de las imágenes. Esto incluye la grabación o "doblaje" de los diálogos
de los personajes, bien por los mismos actores que interpretan los distintos papeles
o bien por actores especializados en doblaje, sobre todo cuando los diálogos se
traducen a otros idiomas.

Se incluye en este apartado el sonido de los efectos especiales, elaborado


normalmente durante la fase de post-producción del proyecto. Es el modo más
habitual de añadir sonido a una producción audiovisual.

El sonido grabado incluye también a la música, que es aquello que normalmente


asimilamos con la banda sonora original (BSO) o música cinematográfica,
compuesta expresamente para una película.

DOBLAJE

Es el proceso de grabar y sustituir voces de un medio cinematográfico, televisivo o


radiofónico para su internacionalización. Consiste en sustituir los diálogos hablados
por los actores en un idioma original por otros diálogos idénticos o similares en otro

32
idioma. En el caso de los videojuegos también puede referirse al proceso de añadir
voces grabadas por actores de voz en cambio de diálogos por escrito, aunque por la
naturaleza misma de los videojuegos, no necesariamente nos podemos referir como
doblaje. Hay varias discusiones al respecto sobre si llamarlo o no doblaje y algunos
simplemente desean acuñar el término "versión" y dejar el término doblaje
exclusivamente para cine y televisión.

El doblaje se describe a sí mismo como el proceso de regrabación de líneas de


diálogo, habladas por un actor durante la producción original, para mejorar la calidad
de audio o reflejar los cambios de diálogo. La música también es doblada en una
película después de que su edición se haya completado.

Filmes, vídeos y a veces videojuegos son doblados en el idioma local para el


mercado extranjero. En algunos países el doblaje es común en películas estrenadas
en cines, series de televisión, dibujos animados y anime (o series Manga) según sea
su distribución en el extranjero.

Para doblar una película o cualquier otro producto de video, se quita la voz de los
diálogos originales y se sustituye por otra de algún otro actor que diga lo mismo, o la
misma idea, en el idioma que se quiera doblar. Un buen doblaje se da con la
capacidad para editar y sincronizar con precisión la imagen al sonido.

Entre la Espada y la Pared (1933), fue la primera película doblada al español y en


1942 la Metro Goldwyn Mayer manda, desde Nueva York a La Ciudad de México, el
primer elenco de actores de doblaje, para las caricaturas de Tom y Jerry

Los doblajes son más utilizados en películas o programas que sean dirigidas a un
público infantil, por la misma dificultad que presentan los niños para leer subtítulos.
Por lo mismo, Disney ha sido considerada la compañía que más ha esmerado en el
doblaje de sus productos.

Con la llegada del cine sonoro, algunos países, principalmente por razones políticas
ligadas al nacionalismo propio de la época, escogieron el doblaje como forma de
fortalecimiento de su identidad y un cierto control de la información. Entre los países
que escogieron el doblaje como forma principal de reproducción pública se
encuentran España, Francia, Alemania e Italia.

En la actualidad, existen dos diferentes doblajes al español: el que es únicamente


para España y el doblaje Latinoamericano que es conformado por actores de
diferentes países como México, Argentina, Colombia, Venezuela, Chile, entre otros.
Para lograr que el doblaje latinoamericano se adapte a todos los países y no cause
ninguna confusión, se suele cuidar que no se usen términos locales, por ejemplo:
gaseosa, casillero, goma de mascar y pañuelo en lugar de refresco, locker, chicle y
kleenex, que son términos utilizados en México. México y Argentina son los que
tienen más cargos en el doblaje latinoamericano. En el caso de los programas

33
infantiles y juveniles, México es el que ha doblado más proyectos, secundado por
Argentina.

El doblaje es criticado por personas que aprecian el cine como arte y no como
entretenimiento, diciendo que éste le quita la autenticidad de las obras en su idioma
original y más cuando el doblaje no es bueno, pues se pierde la sincronización de la
voz con los labios del personaje que está hablando en la imagen. Los pocos
defensores opinan que los subtítulos tapan parte de la imagen y que distraen al
espectador.

¿Por qué en nuestro país se hizo más popular el doblaje audiovisual que en otras
zonas de Europa? Parte de esa popularización fue debido a la época del franquismo,
ya que al doblar las películas que llegaban a nuestro país se conseguían dos
aspectos: propaganda y censura. En muy conocida la anécdota de que Grace Kelly
y Donald Sinden en Mogambo eran hermanos en vez de matrimonio para evitar de
ese modo el adulterio. Este es un ejemplo del objetivo que décadas atrás tenía el
doblaje en nuestro país, nada que ver con lo que ocurre en nuestros días.

Con el paso de los años la industria del doblaje ha ido creciendo a pasos
agigantados en nuestro país y en la actualidad no sólo se doblan películas, sino
diferentes piezas audiovisuales que consumimos en España en distintos
formatos: series, programas extranjeros, anuncios, videojuegos… . En España se
prefiere el doblaje a los subtítulos porque convierten las obras en más accesibles a
la población a la hora de seguir los diálogos, es más fácil enganchar al espectador
y se consigue que éste se fije más en los elementos gestuales o estéticos de la
trama. También es una manera de modificar las referencias culturales
adaptándolas a las de nuestro país.

Estructura y montaje

El sonido y la música cumplen una función estructural esencial en el manejo de la


continuidad (y la discontinuidad) del montaje visual (Payri y Prósper 2011). Para José
Nieto (1996: 75) la interrelación de la música con el montaje produce dos efectos
claves: en primer lugar cabe la posibilidad de que la música resalte o no las
transiciones entre planos y en segundo lugar que se convierta en el recurso básico
para mantener la continuidad de la narración. De hecho, la música, especialmente la
extradiegética, ha servido a lo largo del tiempo para dotar de continuidad estructural
a fragmentos aislados de acontecimientos o secuencias. Por ejemplo, en el sumario
o secuencia de montaje (Canet y Prósper, 2009: 256) que está formado por una
sucesión de diversos fragmentos de imágenes, la música es esencial para dotar de
continuidad y lógica al conjunto (Reisz, 1960: 104).

Las transiciones no son solamente elementos visuales, sino también se puede


utilizar el sonido como complemento para establecer qué tipo de transición tenemos.

34
Es muy importante la siguiente apreciación de Nieto (1996:118): “Recordemos que la
música, con su sola aparición e independientemente de su contenido expresivo,
modificará la imagen introduciendo algún elemento dramático o estructural, lo
queramos o no. El control de esta faceta de la música lo obtendremos eligiendo
cuidadosamente el punto exacto en que ésta debe comenzar.”

Efectivamente el momento en que comienza la música, así como el momento en que


acaba, resulta determinante para el efecto que producirá y mucho más en el caso de
una transición que puede convertirse en un instante privilegiado donde se informe al
espectador del desarrollo de la historia precisamente a partir de dar por finalizado un
periodo y marcar el comienzo de otro.

Además de las funciones decorativas y de relleno, Román (2008: 125-130) distingue


varias funciones estructurales: una función unificadora (dar unidad a la película), una
función transitiva (dar continuidad en el paso o transición de una secuencia a otra o
de un plano a otro), y dos funciones que llama estructuradoras: 1- marcar un cambio
de plano o de secuencia, 2- dar continuidad en secuencias que se producen
simultáneamente en la historia. Añade la función delimitadora (enmarcar la película
completa sirviendo de introducción en los títulos y de final o coda en los créditos).
José Nieto es más preciso en cuanto al análisis de la música con el montaje (2003:
56-79), y en particular sobre el papel de la música en su relación temporal: 1- la
coarticulación de la música respecto a los diálogos (2003: 56-60) y a la acción (2003:
112-117), 2- la coarticulación de la música respecto a los cambios de plano y de
escena, teniendo en cuenta el punto y tipo de inicio, evolución y punto y tipo de
conclusión de la música (2003: 60-73).

Continuidad

La primera tarea en la postproducción del sonido es la creación de la continuidad a


partir del sonido directo y de los ambientes y atmósferas que se añaden. En particular,
el cine y el audiovisual convencionales se basan en la creación de escenas a partir
de múltiples tomas, siendo el vaivén entre plano y contraplano el ejemplo más general
de fragmentación en planos de cualquier escena: el plano y el contraplano se hacen
en tomas separadas cuyo sonido hay que homogeneizar para crear un “plano sonoro”
que una los diferentes planos.

Plano sonoro. El plano sonoro es un plano especial de narración. Determina la


situación, ya sea temporal, física o de intención de los distintos sonidos. Hay 4 tipos
de planos sonoros:

35
- Planos espaciales de narración. Denotan el lugar donde se produce la acción
y los cambios que la afectan. Por ejemplo, que se oiga el viento indica que es un
sonido captado en exteriores, el piar de los pájaros, puede situarnos ante una imagen
sonora campestre, etc.
- Planos temporales de narración. Un sonido puede situar una determinada
acción en el tiempo (pasado, presente, futuro), incluso, intemporalidad (tiempo no
definido) y atemporalidad (fuera del tiempo). Por ejemplo, en las ambientaciones
futuristas casi siempre se recurre a músicas y efectos sonoros electrónicos.
- Planos de intención. Como su propio nombre señala, encierran una
intencionalidad concreta, es decir, quiere remarcar algo. Los planos de intención,
normalmente, suelen situar al oyente ante una introspección:incursión en el sueño o
la fantasía, etc. Por ejemplo, en muchos dramáticos (en la época en que aún no había
televisión y la gente estaba enganchada a la radionovela), para indicar que un
determinado personaje se sumergía en una recreación onírica; se utilizaba un
desvanecimento del sonido y algún efecto (unas campanillas o un cascabel). Cuando
el sueño había terminado, el sonido volvía a desvanecerse y se escuchaba al
personaje/actor desperezarse.
- Planos de presencia. Indican la distancia aparente (cercanía o lejanía) del
sonido con respecto al oyente, situando a éste en lo que llamamos plano principal.
La distancia "supuesta" entre la fuente sonora y el oyente se establecen cuatro
escalones: 1) Primer plano: es aquel plano sonoro de presencia que sitúa, en
profundidad sobre un plano imaginario, a la fuente sonora junto al oyente, es decir,
en el plano principal. Algunos autores también lo llaman plano íntimo o primerísimo
plano para expresar su fuerza dramática. 2) Plano medio o normal: es aquel plano
sonoro de presencia que sitúa, en profundidad sobre un plano imaginario, a la fuente
sonora a una distancia prudente de la oyente. De modo, que el sonido resultante, se
percibirá como cercano al oyente. Es decir, la fuente está cercana al plano principal,
aunque no en él, como en el primer plano. 3) Plano lejano o general: Sitúa a la fuente
sonora a cierta distancia del oyente, creando por tanto, gran sensación de
profundidad. 4) Plano de fondo o segundo plano: Es un plano sonoro de presencia
generado por varios sonidos, distribuidos de modo que unos suenan siempre en la
lejanía, con respecto a otros situados en primer término, por ello, se llama también
plano de fondo. El segundo plano acentúa la sensación de profundidad con respecto
al plano general.

Chion habla de linearización temporal de las imágenes por los sonidos (2012, § 22)
respecto “al sentimiento de encadenamiento temporal, y que constituye un fenómeno
propio del cine sonoro, en virtud del cual, imágenes sucesivas, que, en el cine mudo
podrían ser percibidas como vistas diversas, no sucesivas en el tiempo, de un mismo
proceso global, adquieren, al ser acompañadas de un sonido realista”. De hecho, la
primera tarea en la postproducción de sonido es la homogeneización del sonido
diegético (directo, wildtracks y elementos añadidos) para crear la linearización
temporal. Chion insiste en este fenómeno indicando que hay un desdoblamiento
temporal (2012, §23) ya que el espectador percibe una continuidad en el sonido
mientras que los planos visuales indican una discontinuidad (esta opinión de Chion

36
no está basada en ninguna evidencia perceptiva experimental, y puede ser un tema
de estudio).

Chion también acuña el término de indiscontinuidad o indiscontinuo (2012, §27) para


indicar el “sentimiento de continuidad (de tiempo, de acción, de percepción) por
medio de su interrupción o de su intermitencia, particularmente sirviéndose de los
sonidos.”

Encabalgamiento

El encabalgamiento ocurre cuando el sonido de una escena se prolonga o se


anticipa en otra escena contigua: es un desfase del montaje en el que el sonido
cambia en un momento diferente a la imagen.

El anticipo del sonido es el tipo de encabalgamiento más frecuente, y consiste en


adelantar el sonido de la segunda escena sobre la primera. En general, el
encabalgamiento no es total sino que suele ser un elemento el que se anticipa (la voz
o algún elemento sonoro significativo), mientras que el sonido ambiente cambia
cuando cambia el plano como se ilustra en el gráfico siguiente:

El encabalgamiento de anticipo puede tener varias funciones:

■ condensar el montaje superponiendo elementos de varias escenas


■ crear un enlace semántico introduciendo un elemento sonoro que tiene sentido
en dos escenas

Condensación

Una de las principales funciones del anticipo del sonido es condensar el montaje.
Para presentar una escena (o más aún una obra audiovisual), el montaje clásico suele
utilizar un primer plano general de situación para indicar dónde transcurre la escena,
y luego puede haber varios planos de situación más cerrados para indicar dónde nos

37
situamos dentro del lugar general hasta tener unos planos que se centran en los
personajes que llevan la acción.

Clásicamente, la acción o los diálogos solo empiezan cuando tenemos un plano que
nos presenta a los actores que la llevan a cabo. Si anticipamos el sonido de la acción
a los planos iniciales de situación, condensamos el montaje, ya que el espectador
está viendo los planos de situación pero al mismo tiempo ya está oyendo los diálogos
o la acción sin necesidad de esperar a visualizarla. Además, el anticipo crea un nexo
más fuerte entre el plano de situación inicial y el plano final de la acción ya que el
sonido nos está indicando que la acción está transcurriendo en ese momento y en
ese lugar.

En el capítulo 1×03 de la serie House, tenemos un ejemplo clásico de reducción del


montaje, con un primer plano general de exterior que nos indica el lugar de la ciudad
y el ambiente, y un segundo plano de interior de la habitación del personaje que está
hablando. Oímos la voz del personaje desde el plano exterior de situación (o de
presentación) con lo que condensamos unos segundos el montaje. El sonido
ambiente sólo cambia con el cambio de plano visual.

Enlace narrativo. El anticipo del sonido para crear un encabalgado genera un


enlace narrativo, generalmente la escena de donde emana el sonido “influye” en la
escena donde se ha superpuesto el sonido encabalgado.

Mezcla, edición y mastering

La postproducción de audio engloba todo los procesos posteriores a la grabación.


Es decir, tras importar nuestros archivos de audio, decidimos las que vamos a usar y
en qué orden. El siguiente paso sería editarlos, cortarlos, nivelarlos, corregir los
posibles errores buscando obtener un resultado uniforme. Cuando ya hemos

38
realizado la edición ahora viene el paso de mezcla, que trata de nivelar todo y jugar
con los planos para no confundir al oyente.
Mezclar es el proceso de combinar todas las bandas de sonido individuales de
diálogo, sonido y efectos sonoros en la banda de sonido máster compuesta.
Este proceso se realiza en una sala o estudio en la que se proyectan las imágenes
de la película sobre una pantalla con un contador de metraje debajo.
Por último una vez editado y mezclado vendría el retoque final, la masterización que
equilibra y conforma, para así poder escucharlo a un volumen aceptable en cualquier
reproductor de audio de nuestro entorno. La masterización busca equilibrar los
sonidos puesto que la respuesta de los altavoces de casa no es igual ni parecida a la
de nuestro coche. De esta manera el audio no pierde sus propiedades.

Diferencia entre mezcla y masterización La diferencia entre mezcla y masterización


es uno de los conceptos que más suele confundir, porque son términos que a veces
se usan intercambiablemente y porque la línea que divide a ambos procesos puede
ser bastante difusa en algunos casos.

Empecemos por entender cada proceso:

- ¿Qué es la mezcla de audio?


Es un proceso cuyo objetivo principal es lograr un balance equitativo en el audio. Ya
sea este de frecuencias, de niveles, de la ubicación de cada sonido en el panorama
estéreo (paneo). Una vez terminada la mezcla tenemos nuestra pieza lista para
publicar, a falta del último proceso (el mastering).
Durante la mezcla se trabaja con el sonido “en bruto” producto de la grabación, es
decir que lo que recibimos son las pistas a las que no se le aplicó ningún proceso
previamente y empezamos con una serie de pasos que buscan que todo esté en su
lugar y ocupe su espacio adecuadamente.
Otra cosa que se trabaja en la mezcla es la aplicación de efectos como reverb, delay,
ecos, paneos creativos, etc . La elección de los efectos tiene mucho que ver con el
estilo y con lo que busca el editor, productor…
La realidad es que una producción musical se empieza a mezclar incluso durante la
grabación, puesto que según el micro que usamos ya estamos dándole un matiz e
importancia a ese sonido.
Esto ya es un proceso de mezcla porque las decisiones las tomamos teniendo en
cuenta que cada cosa tenga su lugar y se corresponda con lo que esperamos
escuchar. Una grabación donde no se escuche en absoluto la voz y mucho ambiente
puede destrozar nuestra mezcla.

- ¿Qué es la masterización?
La masterización es un proceso en el cual se pulen detalles de la mezcla y se llevan
a un volumen comercialmente aceptable. La particularidad de la masterización es que
durante este proceso se decide también el orden de los clips, la aplicación de
fundidos (fades), la inserción de meta-datos necesarios para la identificación de la
obra (como los códigos ISRC) y se decide también el espaciado de las canciones (la
cantidad de segundos de silencio entre temas).

39
En su origen, la masterización era un proceso que se hacía únicamente para discos
completos, sin embargo también se suele masterizar pistas separadas o proyectos
de pocas canciones que no van a ser incluidas en un disco. La importancia de la
masterización radica en una perspectiva fresca que otorga un control de calidad al
proceso de mezcla.

Con el nacimiento de la auto-producción y de los discos grabados en condiciones


semiprofesionales la masterización se ha vuelto una necesidad puesto que las
mezclas requieren casi siempre alguna mejoría para ser aptas para su reproducción
satisfactoria en los distintos medios de escucha, sin embargo cabe destacar que
tampoco se puede hacer magia con una canción mal mezclada durante la
masterización porque los recursos son limitados y no es la idea del proceso.

Entonces ¿Cuál es la diferencia entre mezcla y masterización?


Haciendo una analogía con la cocina, la mezcla sería el proceso donde una vez ya
decidimos que vamos a cocinar procedemos a obtener la materia prima (grabación)
para posteriormente desarrollar el paso intermedio donde mezclamos los
ingredientes en función de las proporciones (mezcla) para posteriormente darle los
retoques finales como ornamentación y presentarlo en el plato (masterización).

Señal masterizada y sin masterizar. Para seguir con la analogía, así como podemos
comer directamente de una olla podemos mezclar sin masterizar, pero no podemos
masterizar sin mezclar. Un estudio de mastering no tiene nada que ver con uno de
mezcla, puesto que son equipamientos y propósitos bien distintos.

DISEÑO/DISEÑADOR DE SONIDO

En la industria cinematográfica de EEUU, se llama Sound Designer al responsable


de la planificación y realización de ciertos sonidos específicos de una película.
Walter Murch (originalmente montajista), fue el primero en ser denominado con este
título, por su trabajo en la película Apocalypse Now de Francis Ford Coppola, en
1979.1 En este film fue el responsable del montaje y el trabajo meticuloso aplicado a
la creación de las bandas de sonido, hizo que el director considerara que había
aportado tanto al clima y la historia de la película, que no podía ser llamado solo
"sonidista". En ciertas películas esta tarea queda a cargo del sound re-recording
mixer o del supervising sound editor.
Ya en el campo concreto del mundo cinematográfico anglo-americano, algunos de
los más reconocidos diseñadores de sonido (Sound Designers) son Walter Murch,
Alan Splet, Gary Rydstrom, Randy Thom, Ben Burtt, Ren Klyce, David Farmer, Richard
Beggs, Eugene Gearty, Christipher Scarabosio, Christopher Boyes, Ethan Van der
Ryn, Dane A. Davis y Owe Svensson.

40
Director de sonido en cine. En Argentina, el rol de diseñador de sonido es ocupado
por el Director de Sonido. Él es el encargado de todo el sonido de una película, con
excepción de la música. Entre las tareas que realiza está la de coordinar el trabajo del
sonidista y el microfonista (ambos trabajan en la captura de sonido directo durante el
rodaje), los editores de diálogos, de ambientes (o atmósferas), de efectos, la
grabación de sonorización (foley) y doblajes (ADR), así como también la grabación de
ambientes adicionales. Finalmente es quien trabaja en conjunto con el operador de
mezcla y el director de la película, decidiendo las cuestiones estéticas, formales,
funcionales y espaciales de la película, sin perder de vista los estándares técnicos
requeridos.
Diseño sonoro. El concepto de Diseño sonoro suele ser utilizado para referirse al
acto creativo de sugerir ideas para una obra cinematográfica, televisiva, teatral o
multimedia. En esta línea, se suele pensar en el diseñador de sonido, como el creador
estético de este elemento narrativo audiovisual.
En el significado de la palabra "Diseñador" encontraremos que diseñar se refiere a
un proceso que implica Programar, Proyectar, Coordinar, Seleccionar y Organizar una
serie de factores y elementos con miras a la realización de objetos. Algunos de estos
pueden estar destinados a producir comunicación.
Por lo tanto, se puede afirmar que el diseño sonoro es la acción de Programar,
Proyectar, Coordinar, Concebir, Seleccionar y Organizar una serie de armados
sonoros en función de comunicar una idea, hacer verosímil un espacio virtual y
trasmitir determinadas sensaciones al espectador de un producto audiovisual.
Es preciso resaltar que este proceso, requiere de consideraciones técnicas,
funcionales y estéticas para lograr su cometido. Esto significa que si el registro sonoro
durante el rodaje no es bueno, no arribaremos a un buen producto final y el diseño
habrá fallado. Si el productor no invierte el dinero necesario para realizar el sonido de
una película, el diseño estará limitado. Si en la mezcla final no se entienden los
diálogos, el vuelo poético fracasó. Si una película está técnicamente perfecta, cumple
con todos los estándares, pero no logró conmover al espectador o sacudirlo de la
butaca, hay algo que se desperdició.
El Diseño Sonoro de un film debe comenzar con la escritura del guion, ser tenido en
cuenta por el director a la hora de transponer la historia al guion cinematográfico, ser
cuidado celosamente por el productor y los demás integrantes del equipo de rodaje,
comenzar a concretarse en la edición de imagen y concluida por los postproductores
de sonido. Todas estas etapas son supervisadas y coordinadas por el director de
sonido.
Los directores de sonido, más reconocidos de Argentina son Nerio Barberis
(actualmente en México), José Luis Diaz, Guido Berenblum, Leandro de Loredo,
Martin Grignaschi y Federico Esquerro. En España Marc Sardà, Jaime Aroca y Alex
Rocasolano entre otros.

41
42

También podría gustarte