Cine y TV Digital Manual Tecnico
Cine y TV Digital Manual Tecnico
Cine y TV Digital Manual Tecnico
/ CINE Y
/ TELEVISIÓN
/ DIGITAL
MANUAL TÉCNICO
Jorge Carrasco
C • M U N I
CACIÉN
ACTIVA
frmsM
» 003
UNIVERSITAT DE BARCELONA. Dades catalográfiques
Carrasco, Jorge
I. Títol II. Col lecció: Comunicación activa ; 6 III. Col lecció: Comunicación activa. Cine
1. Cinematografía (Técnica) 2. Televisió digital 3. Processament d'imatges 4. Electrónica digital
5. Mitjans de comunicació digitals
ISBN: 978-84-475-3457-9
Queda rigurosamente prohibida la reproducción total o parcial de esta obra. Ninguna parte de esta publicación,
incluido el diseño de la cubierta, puede ser reproducida, almacenada, transmitida o utilizada mediante ningún
tipo de medio o sistema, sin autorización previa por escrito del editor.
» 005
» 006
ÍNDICE
Prólogo
por José Marta Aragonés 25
Introducción
por ]Jorge Carrasco 27
» 7
índice
3. La resolución..................................................................................................................... .......67
> Definición............................................................................................................................67
> Cine y televisión................................................................................................................... 68
Resoluciones HDTV.......................................................................................................... ......68
> Cambio de relación de aspecto (aspect ratio)............................................................... ......69
»8
índice
5. El muestreo ...................................................................................................................... 89
> Muestreo total y parcial................................................................................................. 89
> De la televisión en blanco y negro al color................................................................... 89
> Luminancia y crominancia............................................................................................ 90
> Las limitaciones del espacio radioeléctrico.................................................................. 92
> El submuestreo o muestreo parcial............................................................................... 92
> Submuestreo analógico................................................................................................. 93
> TV 4:2:2........................................................................................................................ 93
> Cine 4:4:4...................................................................................................................... 94
> Reducción de flujo de datos.......................................................................................... 94
> Pérdida de calidad efectiva........................................................................................... 94
»9
índice
» 10
Indice
Peso y bitrate..........................................................................................................................121
> Peso o tamaño....................................................................................................................121
> Flujo de datos o bitrate...................................................................................................... 121
> Cálculo del peso y el bitrate.............................................................................................. 122
> Redondeo...........................................................................................................................123
> Cuidado con la "b" ........................................................................................................... 125
> GigaBytes por hora............................................................................................................125
Formatos comerciales............................................................................................................ 126
> Submuestreo............................................................................................................. 126
> Compresión....................................................................................................................... 127
> 2 estándares, muchas etiquetas.......................................................................................... 127
Recapitulación....................................................................................................................... 129
8. La compresión 131
> La necesidad de compresión..............................................................................................131
> Origen de la compresión....................................................................................................131
> Codees............................................................................................................................... 131
> MXF.................................................................................................................................. 132
> Familias de códecs.............................................................................................................132
> Familias de compresión.....................................................................................................133
> Dentro del cuadro (intraframe)......................................................................................... 133
> Entre varios cuadros (interframe)...................................................................................... 133
> Diferencias entre familias.................................................................................................. 134
> Compresiones pro y prosumer........................................................................................... 135
> I-Frame...............................................................................................................................135
> Tendencias..........................................................................................................................135
Recapitulación........................................................................................................................ 136
9. Sonido.................................................................................................................................... 137
> La importancia del sonido..................................................................................................137
> Peso del sonido.................................................................................................................. 137
> Estándar SDTV.................................................................................................................. 138
> Estándar HDTV................................................................................................................. 138
> Bitrate.................................................................................................................................138
> Sonido en el cine................................................................................................................138
> Sonido óptico (banda internacional).................................................................................. 139
> Sonido digital.....................................................................................................................139
> Sonido digital en proyección digital.................................................................................. 140
»11
índice
» 12
Indice
» 13
índice
» 14
índice
1. Montaje...................................................................................................................................213
Generalidades......................................................................................................................... 213
> Mesa de montaje de cine.................................................................................................... 213
> A-BRoll.............................................................................................................................. 214
> Variedad de ENL................................................................................................................214
> Sistemas abiertos o cerrados.............................................................................................. 215
> Diferencias de sistemas y versiones................................................................................... 215
> La duda del montador.........................................................................................................216
> Cualquier programa es bueno............................................................................................ 216
> Cualquier máquina no es suficiente.................................................................................. 216
> Streams.............................................................................................................................. 217
> Codecs de edición............................................................................................................. 217
> Procesos destructivos y no destructivos............................................................................ 217
> Renderizados, lealtime effects, on the fly.......................................................................... 218
> ¿Dónde se guardan los renderizados?............................................................................... 218
> Exportación....................................................................................................................... 219
> Renderizados y código de tiempo..................................................................................... 219
> Media y proyecto...............................................................................................................219
> Offline, online....................................................................................................................219
> Conformado...................................................................................................................... 220
> Proxies o ficheros de baja resolución................................................................................220
La ingesta de material............................................................................................................221
> Ingesta................................................................................................................................ 221
> La importancia de la ingesta online.................................................................................. 221
> Percepción y calidad......................................................................................................... 222
> Codecs de edición y postproducción online......................................................................222
> Codecs nativos de cámara para la edición........................................................................ 223
> Modos de ingesta.............................................................................................................. 224
» Captura y volcado......................................................................................................... 224
» Importación y exportación............................................................................................ 224
» 15
índice
» 16
Indice
2. Postproducción.................................................................................................................. ....247
> Formatos para DI............................................................................................................... 247
> ¿Excepciones?................................................................................................................... 248
> ¿Por qué sin comprimir?............................................................................................... .... 248
> Ingesta online.................................................................................................................... 249
> Límites al trabajo sin compresión................................................................................. ...250
> RAID................................................................................................................................251
> Tipos de RAID.................................................................................................................. 251
> SAN.............................................................................................................................. ....252
> Capacidad de cálculo del software................................................................................ ... 252
> Etapas de la postproducción: renderizados................................................................... .. 253
> Incrustación de imágenes generadas por ordenador (CGI)........................................... ....255
> Broadcastsafe................................................................................................................ ....255
> Superwhite y pedestal.................................................................................................... ... 256
> LUTs de visionado y exportación................................................................................. ....256
> LUT 2D y 3D.................................................................................................................. 257
> Procesos de intermediación en cine.............................................................................. ...258
> Masterizado final: el negativo digital o DSM............................................................... ..258
> Copias de seguridad...................................................................................................... .. 259
> Otras opciones para el backup...................................................................................... .. 260
»17
Indice
» 18
índice
» 19
índice
ANEXOS
3. La rasterización.................................................................................................................... .....321
» 20
índice
» 21
índice
» 22
Indice
» 23
» 024
PRÓLOGO
» 25
PRÓLOGO
La migración al cine digital nos tiene que poner las cosas mas fáciles y
evidentemente así será para quien tenga conocimiento de él. Pero esto sólo es la
base, lo realmente importante es el desencadenante que se produce con el cruce
de la aportación de tus conocimientos y experiencias, cuando experimentas en
otras tecnologías.
Todas las experiencias vividas con la tecnología fotoquímica tienen su equi
valencia en el mundo digital. Buscarlas, encajarlas dentro del puzle de la meto
dología de trabajo te facilitará tu adaptación y ayudarás al enriquecimiento del
cine digital.
» 26
INTRODUCCIÓN
Jorge Carrasco
Barcelona, mayo de 2010
» 27
» 027
CONTENIDOS DE LA OBRA
IV. Distribución
Una vez terminado el trabajo en la máxima calidad posible del máster digital, es
necesario transformarlo para que se adapte a los diferentes sistemas de emisión
y distribución.
» 29
CONTENIDOS DE LA OBRA
V. Anexos
Con el fin de no entorpecer la lectura fluida del texto principal, aquellas
partes que se considera merecen una especial atención se han incluido en
anexos separados para un consulta más cómoda.
» 30
» 031
PARTE I:
FUNDAMENTOS TEÓRICOS
DE LA IMAGEN DIGITAL
Cuatro palabras antes de comenzar
En el mundo profesional del audiovisual digital, y pese a lo que pudiera parecer,
trabajamos con estándares muy sólidos. En concreto, con sólo cuatro posibles
formatos, dos para cine digital (DC) y dos para televisión de alta definición
(HDTV).
Todos se definen por cuatro, y sólo cuatro palabras o parámetros que los defi
nen y enmarcan: resolución, muestreo, profundidad de color (o bits) y cadencia.
Los dos formatos de HDTV se conocen como 1.080 y 720, o en ocasiones
como Full HD y HD Ready, respectivamente.
Los cuatro parámetros, bajo la Recomendación 709 de la Unión Internacional
de Telecomunicaciones (ITU), son:
Formatos HDTV
Los dos formatos de cine digital se conocen como 2K y 4K, y el estándar DCI
los define como:
Formatos DCI
4K 4.096x2.160 4:4:4 12
p
2
» 33
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» 34
1. Definiendo la calidad objetiva
» definiendo la calidad
La calidad objetiva se puede medir técnicamente en función de sus cuatro
parámetros básicos. Hay otro tipo de calidad, subjetiva, que depende de los
valores artísticos de la obra audiovisual. Pero en este libro no entraremos en ella.
La calidad objetiva en digital es fácil de definir. La base de toda imagen digital
es el píxel (contracción del inglés picture e7ement). El píxel es el ladrillo básico
sobre el que se asienta la calidad de una imagen, su mayor o menor exactitud con
el objeto representado. Cada uno de ellos nos da una “muestra" de la realidad
que queremos representar. Sumando el número total de muestras, y la calidad
intrínseca de éstas, podemos hablar técnicamente, objetivamente, de calidad.
Por eso, en el fondo, hablar de calidad objetiva en digital no es más que
contar píxeles. Y para todo ello, como veremos a lo largo del libro, no usaremos
más que sencillas operaciones aritméticas. A partir de ahí definiremos todos
los posibles formatos, estándares, ficheros o señales que nos ofrece la industria
audiovisual. Dado que este libro pretende ser una ayuda para el profesional con
experiencia previa, creo que es necesario, antes de adentrarnos en la definición
de la calidad digital, un somero repaso de lo que hasta ahora, en el mundo del
audiovisual, entendíamos por calidad.
» 35
1. DEFINIENDO LA CALIDAD OBJETIVA
» Estándares y flexibilidad
A pesar de la utilidad de los estándares, la gran ventaja de cualquier sistema
digital es su flexibilidad. En este libro hablaremos de multitud de formatos,
ficheros y señales, pero no hay que olvidar que las posibilidades del sistema
digital son infinitas. En cualquier momento se puede pensar en un nuevo for
mato, adecuado para un trabajo o un evento específico, simplemente añadiendo
o quitando un determinado número de píxeles.
Esto permite, también, un futuro muy amplio y libre para explorar.
Entendiendo que una imagen digital sólo depende de dos factores funda
mentales, su resolución y profundidad de color, más la cadencia y el muestro de
la imagen en movimiento, cualquier combinación es posible.
Cine, televisión y vídeo trabajan con la misma materia: imagen y sonido en mo
vimiento. Sin embargo, históricamente han usado normas, formatos y soportes
de grabación diferentes. Y se han encontrado y separado más de una vez.
La misma aparición del “vídeo" lo prueba. En un principio, la información
televisiva no se podía almacenar. Todos los programas eran en directo, no había
cintas ni magnetoscopios, ni montaje (más allá de la edición o mezcla de los
directos). Si algo se quería guardar, o se precisaba para hacer un montaje, era
necesario realizar una copia a cine (un kinescopiado), con medios en ocasiones
tan rudimentarios como colocar una cámara de 16 mm delante de un monitor.
Pero a partir de los años sesenta y setenta se empezó a desarrollar la gra
bación magnética de las señales de televisión: el "vídeo" propiamente dicho,
palabra que hoy en día se usa en un sentido más amplio. Esto supuso un cambio
no sólo técnico, sino artístico y creativo. Pero separó de nuevo cualquier relación
entre el cine fotoquímico y la televisión electrónica, pues los kinescopiado se
volvieron caros e innecesarios.
» 36
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Sucede, sin embargo, que en la actualidad las dos áreas están convergiendo
otra vez en una misma dirección: "lo digital’’.
Eso no significa que acabemos con un único formato, pues hay implicaciones
comerciales que lo impiden: el cine siempre tendrá la vocación de ofrecer "algo
más” que la televisión. Por otro lado, la televisión exigirá una mayor estandari
zación, pues su tecnología debe ser compatible con los millones de televisores
instalados en los hogares.
Cada uno de estos ámbitos ha tenido su propia “evolución digital”, y sólo en
los últimos años han empezado a encontrarse.
A todo ello, un nuevo jugador entra en escena: internet, al que la mayoría
ve como el nuevo medio de distribución, y el de más futuro. ¿Unirá internet
en uno solo el mundo del cine y la televisión? No me atrevería a responder a
esa pregunta, pues las implicaciones comerciales y tecnológicas pueden ser tan
caóticas como el vuelo de una mariposa.
No obstante, lo que es evidente es que estos mundos se entremezclan cada
vez más.
Pero para entender este proceso, pasemos primero a hacer un breve repaso a
estas dos industrias hermanas, y a cómo han ido evolucionando hasta el punto
donde ahora se encuentran.
B3T Quien ya conozca la evolución y los estándares del mundo del cine y la televisión
tradicional, puede pasar directamente al capítulo 2.
» 37
1. DEFINIENDO LA CALIDAD OBJETIVA
» Fotoquímico
El fotoquímico es un sistema muy físico. La calidad final vendrá condicionada
por dos razones puramente físicas:
• el ancho de la película
• la calidad de la emulsión
» La resolución en fotoquímico
Como veremos, el término “resolución" es ambiguo. En este libro, entenderemos
“resolución” como el número de píxeles de una imagen. En el caso del fotoquími
co, esta definición no es posible. ¿Cómo estimar entonces la resolución?
Se trata de un tema muy estudiado, a través de pruebas y tests. La mayoría
de los expertos coinciden en que el negativo tiene una resolución de entre 150 y
180 líneas por milímetro cuadrado. Si consideramos que el tamaño de la imagen
de un negativo de cine es aproximadamente 25 x 19 mm, tendremos que sería
equivalente a cerca de 3.750 x 2.850 píxeles de resolución horizontal.
En este caso, al reducir el tamaño de la película y del cuadro impreso,
disminuye la resolución. En el caso de un negativo de 16 mm, con un cuadro
» 38
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» 39
1. DEFINIENDO LA CALIDAD OBJETIVA
» 40
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» La cadencia
Una característica del cine (y del audiovisual en general) es que realmente
nunca grabamos una imagen en movimiento, sino diferentes imágenes fijas
que permiten recrear la sensación de movimiento. Nunca tomamos toda la
realidad, sino fragmentos sucesivos de la misma que luego nuestro cerebro
reconstruye (engañándonos, en realidad) como un todo. Un matemático diría que
el audiovisual es un sistema discreto antes que continuo: quantos, antes que on
das...
Técnicamente, se captan 24 imágenes o fotogramas por segundo (“fps”, o
también “ips”, images per second, imágenes por segundo), con el resultado
de obtener 24 instantes diferentes' de la misma acción en el intervalo de un
segundo. Gracias al fenómeno conocido como “persistencia retiniana”, nuestro
cerebro “recrea'' la sensación de movimiento necesaria para la acción.
Los últimos estudios indican que la persistencia retiniana no existe como tal, sino que
la sensación de movimiento se forma en el cerebro por otras causas. Pero el término ha
devenido un lugar común, y por eso lo mantengo.
» Negativo y positivo
En cine se utiliza un sistema negativo/positivo para poder realizar múltiples
copias, totalmente comparable al proceso de las cámaras de fotos tradicionales.
» 41
1. DEFINIENDO LA CALIDAD OBJETIVA
» Pérdidas de calidad
Hay que apuntar que este proceso es muy laborioso y, debido al material y la
maquinaria usada, muy sensible a errores, defectos y pérdidas de calidad.
Para tirar una copia positivada el proceso es conocido como “de contacto":
el negativo ha de ser proyectado sobre el positivo virgen para que éste quede
grabado. Este proceso se realiza mecánicamente, por lo que el negativo pue
de dañarse. No suele aguantar más de un número determinado de copias an
tes de que el negativo quede irreversiblemente inutilizado. Pero sucede que mu
chos estrenos en salas suponen cientos o incluso miles de copias a nivel mundial.
Por esa razón, el negativo original, conocido como OCN (siglas en inglés
de negativo original de cámara), se protege realizando una copia intermedia
en material positivo de alta calidad conocida como interpositivo o lavender.
De este lavender se tiran a su vez equis copias nuevamente negativas, que se
conocen como internegativos. De estos internegativos se tiran finalmente las
copias positivadas que veremos en las salas.
El negativo de cámara de 35 mm es ciertamente un soporte fantástico de
grabación, pero dada esta serie de procesos a los que se somete, y siendo cada
uno de ellos destructivo en cuanto a la calidad, la copia positivada apenas
retiene una tercera o cuarta parte, si cabe, de su calidad original. Y, aún más,
pierde parte de esta calidad a cada paso de proyección, pues aparecen rayas
y partículas de polvo, a lo que se suma el propio deterioro de la emulsión, que
por ser material de rápido consumo, no tiene una excesiva calidad intrínseca.
» 42
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Para más inri, la calidad de su sonido, embutido en unos límites físicos muy
pequeños, será siempre limitada.
Trabajar con negativo supone además un importante coste. Al del material
virgen hay que sumar el del relevado, tratamiento, almacenaje, tiraje de copias,
entrega y distribución en las salas y, posteriormente, su recogida, almacena
miento y destrucción controlada.
» 43
1. DEFINIENDO LA CALIDAD OBJETIVA
» 44
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Grabación analógica
Las señales analógicas de televisión se basan en la grabación y manejo de
ondas electromagnéticas. Aquí no trabajamos con negativo ni con emulsiones,
sino que usamos un “chip captador” (sensor imagen). La tecnología ha cam
biado con los años, pero este sensor ya está dividido regularmente en equis
elementos electrónicos igualmente fotosensibles, colocados en forma de rejilla,
que anticipan los píxeles digitales.
1. DEFINIENDO LA CALIDAD OBJETIVA
/ Grabación analógica /
La luz se convierte en diferentes voltajes eléctricos
+i
posible en tiempo real: el espectador recibe la obra al mismo tiempo que se crea,
cosa que es imposible en el medio cinematográfico.
Básicamente, una intensidad lumínica alta logra un mayor valor en la co
rriente eléctrica: un tono blanco. Una intensidad pequeña obtiene un escaso
valor en voltios: un tono negro. Una intensidad media nos daría valores medios,
los llamados tonos grises.
Hay que señalar que todos los sensores captadores son analógicos, por lo que
la televisión analógica y la digital difieren tecnológicamente en un solo aspecto
fundamental: el almacenamiento de datos.
En analógico, los datos se guardan de manera electromagnética, mientras
que en digital se hace en forma de bits.
» Estándares analógicos
Para su transmisión, la corriente que sale de los sensores se envía de manera
analógica, línea a línea. El número de líneas verticales es lo que delimita la
resolución de un formato.
En el caso de la televisión analógica, la señal PAL contaba con 625 líneas,
la NTSC un poco menos (algo más de 500) y el sistema SECAM un poco más
(superior a 700).
» 46
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Hay que señalar que el hecho de que existan diversas normativas se de
bió principalmente a una cuestión comercial, dé licencias, patentes y royalties.
El NTSC es un sistema americano, el PAL es alemán y el SECAM, francés. Na
die quería pagar licencias a otros estados, algo que los hizo desde el principio
altamente incompatibles.
» Cadencia
Otra de las cosas que diferencia la televisión del cine es la cadencia. En los
sistemas NTSC la cadencia es de 60 ips (60 campos que, como veremos, equi
valen a 30 imágenes completas o cuadros por segundo). En PAL y SECAM, son
50 campos por segundo. ¿Por qué esta diferencia? ¿No se podía haber adoptado
una cadencia igual a la de cine? Actualmente, sí sería posible, pero hay que
tener en cuenta que la televisión se inició en la década de 1930, mucho antes de
la invención de la informática, la electrónica y los procesos de miniaturización.
En realidad, la cadencia NTSC es de 59,97 ips, pero es un lugar común redondear a 60,
sobre todo en el mundo analógico. Si hablamos de cadencias digitales, hay que ser más
cautos, como veremos más adelante.
» 47
1. DEFINIENDO LA CALIDAD OBJETIVA
Esta división está tomada de la propia naturaleza de nuestro ojo, pues en la retina
tenemos miles de células sensibles a estos tres colores, llamados conos. No obstante,
nuestra retina tiene también receptores conocidos como bastoncillos, sensibles a la
intensidad lumínica general, de ahí su mayor precisión.
Es un sistema “aditivo" que permite recrear toda la gama de colores visible con
la combinación de estos tres, llamados “primarios” por esa razón.
» 48
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Suma aditiva
Un amarillo puro, por ejemplo, se consigue con los máximos niveles (100 %) de
rojo y verde y el mínimo (0 %) de azul. Si le sumamos valores de azul, el amarillo
tenderá a ir a blanco, que se conseguirá con los tres primarios al máximo.
La representación típica del sistema aditivo RGB es el círculo cromático (véa
se página 392).
» La cuantificación digital
En el mundo de la televisión, el analógico estaba lleno de problemas sobre todo a
la hora de la transmisión y el almacenamiento. Al ser una señal radioeléctrica y
electromagnética, ésta podía alterarse debido a múltiples causas presentes en la
misma naturaleza. Si la onda varía su forma original, se producen aberraciones
o pérdidas que afectan a la imagen mostrada.
Incluso el mero hecho del paso del tiempo podía degradar la información
analógica almacenada en una cinta, por muy cuidada que fuera su conservación
o por poco que se utilizara. Así, una señal que había alcanzado un blanco
luminoso, podía convertirse fácilmente en un gris o, más comúnmente en los
sistemas en color, adoptaba una coloración distinta a la original.
Otro defecto destacable del analógico era lo que se conoce como "pérdida
por generación" o copia. Una simple copia de una cinta a otra producía pérdidas
o alteraciones.
Para solucionar estos problemas, los ingenieros adoptaron la tecnología di
gital. La base consiste en sustituir las muestras en forma de onda por informa
ción binaria.
» Ventajas digitales
La principal ventaja de la información binaria es que sólo presenta dos estados:
0/1, o vacío/lleno. No hay variaciones de onda ni diferentes amplitudes. Aun
» 49
1. DEFINIENDO LA CALIDAD OBJETIVA
cuando la señal sea muy débil, mientras sea legible se podrá diferenciar entre 0
y 1. El margen de error prácticamente se elimina.
La información binaria, que es la misma que se utiliza en la tecnología
informática (IT, Information Technology), permite una mayor seguridad en la
transmisión y almacenamiento de datos. Se elimina también la “pérdida por ge
neración”, pues las copias digitales son clónicas unas de otras, incluso después
de muchas generaciones (el límite en este caso lo marca la calidad del soporte).
Asimismo, su almacenamiento en cinta permite una mayor durabilidad (aun
que no infinita). Y, desde hace no mucho, la eliminación de la cinta como formato
de grabación y archivo permite almacenar audio y vídeo digital en discos du
ros como cualquier otra serie de datos binarios de manera no lineal. Es lo que
conocemos como “entorno IT".
» Sistema binario
En definitiva, la señal deja de ser analógica (continua) para ser numérica (dis
creta). La amplitud de la señal analógica se sustituye por un número exacto,
codificado de forma binaria en una sucesión de unos y ceros.
/ Grabación digital /
Los electrones se convierten en código binario
Binario
E1 valor 15, por ejemplo, equivale en binario a 0001111. El número 241 equivale
a 11110001. Debido a los protocolos informáticos, el error es prácticamente
inexistente. Como hemos dicho antes, aun en el caso de que la señal se deteriore
o se debilite, siempre y cuando no se borre, no se podrá confundir entre un 1 y
un 0. De ahí su fiabilidad.
Además, la cuantificación numérica permite almacenar más información en
menos espacio.
» 50
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
>> Compatibilidad
» El bitrate
Un bit es la información básica en digital: un bit nos indica si está lleno o
vacío, 1 o 0. Cuanta más información tengamos, más bits necesitaremos para
almacenarla. Si en analógico usábamos los ciclos por segundo (hercios) para
calcular la calidad de la imagen, en digital usaremos los bits con el mismo
objetivo. Por esa razón, dejamos de hablar en puridad de "ancho de banda” y
pasamos a hablar de bitrate o flujo de datos. Como es obvio, cuanta más calidad
tenga una señal digital, más información precisará y por tanto se obtendrá un
bitrate más grande.
Por poner un ejemplo, una señal SD PAL, que según decíamos tiene un ancho
de banda de 13,5 MHz por canal, tiene, en digital, un bitrate o flujo de datos de
» 51
1. DEFINIENDO LA CALIDAD OBJETIVA
unos 53 mbs (megabits por segundo) por canal. El cálculo es igual de sencillo,
y lo explicaremos más adelante.
» 52
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
/ Estándar de digitalización /
Hoy en día también es posible digitalizar los fotogramas en formatos más po
pulares como los ttífs (véase el anexo correspondiente a los ficheros de imagen
digital).
Una vez obtenido el “transfer” digital desde el negativo a los ficheros dpx, éstos
se tratan infográficamente en el ordenador para conseguir los espectaculares
resultados que vemos hoy en día en nuestras pantallas. También se terminan en
soporte digital los procesos finales y la colorimetría (finishing y colorgrading),
pues las herramientas digitales son mucho más potentes, sencillas y flexibles.
Todo este proceso o conjunto de procesos es lo que se conoce como intermedia
ción digital o Digital Intermedíate (DI).
» 53
1. DEFINIENDO LA CALIDAD OB]ETIVA
» La conexión indie
Tras esta primera “revolución digital”, surgió una nueva basada en los conteni
dos. A alguien se le ocurrió que, además de filmar los fotogramas dpx previa
mente escaneados, se podían filmar o kinescopiar ficheros digitales captados
por cámaras de vídeo.
El proceso, evidentemente, no tenía tanta calidad como el tradicional, pero
era bastante más barato de rodar, debido al alto coste que tiene el negativo
virgen y los trabajos de laboratorio. Este proceso se expandió sobre todo cuando
empezaron a surgir cámaras de vídeo digitales (formato DY hoy obsoleto) que,
pensadas para el consumidor no profesional, tenían no obstante una calidad
suficiente a un precio imbatible. Eran equipos conocidos como gama baja o
prosumer: mezcla de profesional y consumer, o consumidor.
Muchos cineastas independientes vieron que con formatos como el DV, pri
mero, y más tarde el HDV o sistemas HDTV podían obtener resultados iguales
o superiores a los formatos económicos del fotoquímico (8 y 16 mm), a mejor
precio y con mayor facilidad de uso.
» 54
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Distribución digital
» 55
» 56
2. Parámetros digitales
» La “sopa de letras”
Una de las cosas que más confunden a quien se adentra en el mundo del audio
visual digital es la aparente “sopa" de cifras, códigos y formatos que rodean
toda su tecnología.
Hay dos razones para esta “selva” o “sopa de letras”. La primera, es que la
mayor parte de la información suele estar en inglés, y se usan con profusión
acrónimos, contracciones, tecnicismos, sinónimos, metonimias y hasta lugares
comunes y sobreentendidos.
El término “mpeg”, por ejemplo, es el acrónimo de Motion Pictures Expert
Groups, o grupo de expertos en imágenes en movimiento. Es ciertamente un
organismo internacional, pero por lo general sobreentendemos que hablamos
de un tipo de códec (contracción de codificador/descodificador) que usamos en
la compresión de una señal de vídeo. En algunas ocasiones, incluso, se usa
mpeg como antagónico de 2K (en la distribución digital en salas), por lo que
estamos ante un uso distinto de la palabra, una metonimia. También podemos
señalar que H.264 o VC1 (cifras y siglas) son también códecs de la familia mpeg
(puros tecnicismos de la industria). O que dentro de los diferentes códecs de la
familia mpeg, encontramos el popular mp3 de audio, el mpeg2 típico del DVD,
el mpeg4 (como el citado H.264) o incluso el mpeg 1, que también conocemos
con el sinónimo de VCD. Y, además, con el tiempo, alguno de estos significados
puede llegar a cambiar.
Es lógico, pues, que el no iniciado se desanime.
» Conceptos fundamentales
Sin embargo, no es todo tan complicado como parece si tenemos claros cinco
conceptos fundamentales. Al igual que para valorar la calidad de un formato
fotoquímico dijimos que se basa sólo en dos conceptos (calidad de la emul
sión y tamaño del fotograma), o en el caso del analógico en el número de
muestras/hercios que portaba una señal, la calidad de un formato digital se
basará también sólo en estos cinco conceptos. Teniéndolos claros, apenas ne
cesitaremos poco más para poder desentrañar el mayor de los galimatías.
» 57
2. PARAMETROS DIGITALES
• Resolución
• Muestreo
• Profundidad de color
• Cadencia
• Compresión
» 58
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
será un formato “profesional" (lo que no obsta para que en ocasiones se use en
contenidos profesionales).
A esta circunstancia se unen intereses comerciales. Siendo el DV un formato
con sus propios parámetros, algunos fabricantes rizan el rizo y ofrecen soluciones
“customizadas”. Es el caso del formato DVCAM de Sony o el DVCPro 25 de
Panasonic, que, aun siendo los dos formatos DV tienen pequeñas diferencias
que los distinguen.
¿Son estas pequeñas diferencias algo sustancial? Generalmente no, pues
apenas afectan a la calidad objetiva. Por lo general, se trata de estrategias
comerciales destinadas a crear mercados cautivos: si una empresa opta por una
cámara DVCAM, tendrá también que terminar comprándose un magnetoscopio
DVCAM y un editor DVCAM. Esto puede ser, y de hecho es, un inconveniente
grave, pero por otro lado hay que reconocer que precisamente la competencia
entre marcas es la que ha hecho evolucionar tanto el sector en los últimos años.
» 59
2. PARÁMETROS DIGITALES
de plano. Por eso en este campo las soluciones abiertas, no propietarias, son
las que tienen todas las oportunidades para imponerse..., aun contando con el
inconveniente de una continua actualización.
El único límite actual está en la conexión que llega a cada hogar. Cuanto
mayor sea la velocidad de conexión de los hogares, mayor calidad objetiva se
ofrecerá en los contenidos.
Una cámara o un equipamiento que cumpla con la recomendación 701 podrá tra
bajar en cualquier cadena de producción de alta definición a lo largo del mundo.
En este libro no hablaré de los estándares y formatos de televisión SD (como el
Betacam, el DV el DVCAM o el DVCPRO), excepto cuando sea necesario. Tam
poco me centraré en las soluciones dirigidas al consumidor o usuario doméstico,
como las populares videocámaras handycam, por ejemplo, o los teléfonos, PDAs
y otros equipamientos móviles (mobile) que empiezan a ofrecer grabación en
vídeo. El motivo es que en este segmento doméstico (Consumer) hay una enor
me oferta de muchos fabricantes con un infinidad de modelos. No obstante,
señalaré que estas cámaras y soluciones domésticas comparten evidentemente
la misma tecnología que las profesionales (el segmento “pro"), sólo que ofrecen
un mejor precio a costa de sacrificar la calidad. Para analizarlos, no se necesitan
conocimientos distintos que los expresados en este libro.
A partir de esta base, y de una manera un tanto arbitraria quizá, pero creo que
práctica, situaré todos los estándares internacionales y formatos comerciales en
» 60
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
la misma línea que esta normativa HDTV Por debajo de ella, el segmento prosu-
mer, y por encima, los equipamientos de mayor resolución (High Resolution,
HR), en función siempre de su calidad objetiva o técnica.
Prosumer es una contracción de los
términos ingleses professional & con-
sumer: a medio camino entre los for
matos del vídeo doméstico (de usuario
final o consumidor) y los formatos más
profesionales.
También se los conoce como "HD
de gama baja” o "HDi'ndie”. Son for
matos que, sin llegar a los estándares
broadcast de calidad, ofrecen una más
que interesante relación calidad/pre
cio.
HR se refiere en este caso a los tér
minos High Resolution o formatos
de mayor o más alta resolución (que
el HDTV). Es una convención como
cualquier otra, pero sirve para dejar claro que estamos ante soluciones que
superan las normativas internacionales de HDTV También se los conoce como
formatos 2K (por su resolución), o UHD, de Ultra High Definition si hablamos del
ámbito puramente televisivo (UHD será la televisión estándar dentro de quince
o veinte años, pero ya se está investigando en estos momentos).
Esta división es puramente arbitraria y no es compartida por todos los pro
fesionales, pero sirve para conseguir un poco de claridad en esta "selva” de la
que hablaba al comienzo del libro.
Y esta división la haré en función de los cinco parámetros ya citados: resolu
ción, muestreo, color, cadencia y compresión.
» Normativa HDTV
La Recomendación 701 define la señal estándar de televisión de alta definición
(HDTV) con los siguientes parámetros:
» 61
2. PARÁMETROS DIGITALES
>> Resolución
Resolución (Resolution) es el número de píxeles totales que tiene nuestra imagen.
Como siempre usamos un formato rectangular, sólo tendremos que multiplicar el
número de píxeles (o columnas) horizontales por el número de píxeles (o líneas)
verticales para saber su resolución: P(h) x P(v).
Es comprensible que cuantos más píxeles tenga una imagen, la representa
ción de la realidad será más exacta y por tanto más calidad tendrá.
La alta definición HDTV sólo admite dos resoluciones: 1.080 y 720. En cine
digital, el uso más común (recordemos que no hay normativas en el estricto
sentido de la palabra) son otras dos: 2K y 4K.
» Muestreo
El muestreo (Sampling) nos dirá cuántos de estos píxeles son efectivamente
contabilizados.
El muestro es un concepto más difícil de entender, y tiene que ver con la
propia evolución histórica de la televisión. Simplemente cabe anotar ahora que,
por una razón de compatibilidad con los antiguos monitores en blanco y negro
y necesidades de reducción de ancho de banda para un mejor aprovechamiento
del limitado espectro radioeléctrico, en algunas ocasiones se elimina parte de
la información que capta la cámara para hacerla más manejable.
Habrá entonces dos tipos de muestreo: total, que conocemos como RGB, y
parcial, que llamamos YUV Dentro del muestreo parcial encontraremos además
algunas variantes, en función de cuánta información dejemos fuera para reducir
el flujo de datos.
» 62
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Por lógica, un muestreo total siempre tendrá mejor calidad que un muestreo
YUV
» Profundidad de color
La profundidad de color (Colordepth o Bitdepth) nos hablará del rango dinámico
de una señal; esto es, la cantidad de matices de luz y color que podremos ob
tener. Digitalmente, este rango se mide en bits: cuantos más bits apliquemos
para cuantificar una señal, más matices de colores tendremos, y, por ende, más
calidad en la representación.
El mínimo de profundidad de color es de 8 bits por canal (24 bits en total).
Es también el estándar HDTV Pero, como veremos, empiezan a aparecer en el
mercado cámaras y herramientas de postproducción que pueden trabajar con
profundidades de 10 y 12 bits, y no están lejos los 14 bits. Esto significa una
mayor riqueza cromática y mejores texturas en nuestras imágenes.
» Cadencia
La cadencia o frecuencia de fotogramas se refiere al número de imágenes fijas
o instantáneas que tomamos para representar la realidad.
Como hemos dicho más arriba, la cadencia típica del cine es de 24 fps,
pero, por razones tecnológicas, la televisión adoptó otras diferentes, que han
continuado dentro de la normativa HDTV por necesidad de compatibilidad con
los equipamientos anteriores.
Pero la cadencia no nos habla sólo del número de imágenes por segundo, sino
también de su tipología o "barrido". En este caso, hay dos: barrido progresivo o
entrelazado (o más comúnmente interlazado, del inglés interlaced). Son también
características heredadas de la televisión tradicional que hay que conocer.
» Compresión
Por último, la compresión es un elemento que se añade por una razón de eco
nomía o coste. Dada la enorme cantidad de datos que es necesario manejar en
televisión y cine digital, en ocasiones se comprimen con la intención de reducir
peso (tamaño en Bytes del fotograma) y flujo de datos (o cantidad de bits por
segundo), para conseguir herramientas más ágiles y baratas.
La compresión no es nunca una solución “estándar”, es decir, dentro de la
recomendación ITU, sino una serie de soluciones tecnológicas que ofrecen los
diferentes fabricantes de cámaras o de equipos de postproducción.
Sí existen, sin embargo, normativas para la compresión de emisión y dis
tribución, es decir, la que se aplica a las señales de televisión que se emiten
» 63
2. PARÁMETROS DIGITALES
digitalmente vía área, por satélite o por cable. Asimismo, están estandarizadas
las aplicadas a los formatos de distribución digital como el DVD o el Blue Ray,
así como las copias digitales (virtualprínts) en salas de cine.
El objetivo último de toda compresión es reducir el peso y flujo, pero sin una
pérdida "aparente” o subjetiva de la información que recibe el espectador. La
eficiencia será más alta cuanto mayor sea la compresión y menor la pérdida de
información relevante.
La búsqueda constante y actual de mayor eficiencia en la compresión por
parte de la industria es lo que hace que, en este aspecto, no podamos hablar de
dos o tres tipos únicos de compresión, sino de bastantes más. Sobre todo si nos
fijamos en el mundo de internet.
» 64
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» 65
» 066
3. La resolución
» Definición
La resolución es un concepto sencillo: indica el número de píxeles de los que
está formada una imagen digital. A mayor número de píxeles, mayor resolución,
lo que significa mayor calidad.
/ Resoluciones /
4.096 p(h)
En este gráfico se muestran las resoluciones de cine digital Full Aperture, no las ya
mencionadas del DCI. Las diferencias se explican más adelante.
» 67
3. LA RESOLUCIÓN
» Cine y televisión
En el gráfico anterior podemos ver todas las resoluciones estandarizadas propias
del mundo de la televisión y el cine.
Como ya apunté, las resoluciones de televisión siempre son más precisas.
En el caso del cine digital, nada nos impediría digitalizar un fotograma a una
resolución tipo 3K (3.072 x 2.240), por ejemplo. O incluso en el futuro podamos
trabajar con resoluciones de 8K (8.192 x 5.980).
Tampoco nadie nos impide, en internet, formatear una obra en una reso
lución extraña, como 1.345 x 713. Pero nunca serían resoluciones estándares,
profesionales, Broadcast.
Resoluciones HDTV
Hay que señalar que, a día de hoy, la inmensa mayoría de las cadenas de televisión
emiten en SD, y, por eso, aún no está fijada totalmente la normativa general de la HDTV
Pero de los cuatro parámetros, sólo la cadencia parece todavía en discusión. Hay un
intento de crear una nueva y única cadencia, 23,976 fps, en progresivo, pero no parece
que vaya a salir adelante. Véase el anexo “Non Drop Frame / Drop Frame".
»68
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Dos estándares
Que haya dos tipos de resoluciones estándar, y no sólo una, se debe a pe
culiaridades del mundo audiovisual en un tiempo de transición. En un primer
momento, la Rec. 701 hablaba de un formato 1.080 interlazado y otro 720 progre
sivo (hablaremos de estos términos en el capítulo dedicado a la cadencia), que
ofrecían una calidad visual muy similar. Sin embargo, hoy también se admite el
formato 1.080 progresivo, que es claramente superior a los otros dos.
En la actualidad, el mercado ofrece equipamiento en las dos resoluciones,
dependiendo generalmente del fabricante, pero la tendencia cada vez más clara
es trabajar con el formato 1.080, pues proporciona más información y, por ende,
más calidad, en especial si es en modo progresivo.
No obstante, el formato 720 no debe descartarse, sobre todo en lo concer
niente a la transmisión de la señal. Al tener menos información, puede ser
más eficientemente comprimido, y ocupar menor “ancho de banda” o bitrate
(algo menos de la mitad que el 1.080). Esto lo convierte en una opción óptima
para algunos canales de distribución, como internet o la televisión digital te
rrestre. También es menor el coste de fabricación de los televisores y, cosa no
despreciable, se pueden fabricar de menor tamaño: ¿quién va a instalar un 32
pulgadas en la cocina de su casa? Hablaré de ello en la parte dedicada a la dis
tribución.
» 69
3. LA RESOLUCIÓN
» HD Ready y Full HD
Comercialmente, se crearon dos etiquetas de cara al usuario no profesional que
han tenido cierto éxito: HD Ready y Full HD.
En las tiendas de electrodomésticos no suelen hablar de tecnología, así que
parecía más fácil explicarlo con estos nombres. HD Ready sería el monitor
que permite una resolución de 720 (un mínimo de 1.280 x 720 píxeles) y Full
HD aquel que permite la reproducción en formato nativo de una señal 1.080 (un
mínimo de 1.920 x 1.080 píxeles de resolución).
¿Eran necesarias estas etiquetas? Lo eran, porque a pesar de que, como
digo, sólo tenemos dos resoluciones de televisión, estos monitores se basan en
tecnología informática, donde las posibles resoluciones son mucho más amplias:
VGA, XGA, SXGA, etc. Lo veremos un poco más adelante. A la postre, hoy se
asocian HDReady al 720, y HDFull al 1.080.
Sería conveniente, aunque poco probable, que los estándares futuros de cine digital (8K)
coincidieran con los de la televisión UHDTV Una vez más, estarán en juego las cuestiones
comerciales.
» Formato de pantalla
El cine no comparte ni tamaño de pantalla ni relación de aspecto con la televi
sión.
» 70
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Surgieron así los formatos panorámicos, de los que ha habido varios ejemplos.
Pero, a día de hoy, y abandonado el académico, el cine suele trabajar con sólo
tres relaciones de aspecto: 1:1,66, 1:1,85 y 1:2,35. Y el primero de ellos está en
franco abandono.
El formato televisivo 16/9 o 1,78 es muy similar al cinematográfico 1:1,85, pero no son
iguales. La diferencia estriba en un 4 %; es pequeña, pero puede producir efectos inde-
seados si no se tiene en cuenta.
» 71
3. LA RESOLUCIÓN
» Resolución horizontal
Al haber diversas opciones, en cine se adoptó la costumbre, mucho antes de que
se popularizara la alta definición, de nombrar los ficheros no por el número de
líneas o píxeles verticales, sino por el número de píxeles horizontales. El número
de píxeles horizontales siempre permanecería inalterable, y el de los verticales
vendría dado por la relación de aspecto que escojamos.
En cine lo usual es encontrarnos, pues, con dos resoluciones: 2K y 4K. "K”,
en este caso, no es más que la inicial de "kilo”. Y kilo, en informática, sabemos
que significa no 1.000 (103), sino más exactamente 1.024 (2a).
2K es entonces 2 x 1.024, lo que da un total de 2.048 píxeles de resolución
horizontal. Si hemos decidido, por ejemplo, que nuestra película tenga una
relación de aspecto de 1:1,85, basta con hacer una simple operación para obtener
una resolución vertical de 2.048/1,85 = 1.107 píxeles (el redondeo es obligatorio,
pues no podemos contar con decimales de píxel).
De la misma manera, 4K significa 4 x 1.024 = 4.096 píxeles de resolución
horizontal.
2K y 4K son pues las cifras que notan la resolución en el mundo de la
cinematografía digital.
» Recomendación DCI
En la actualidad estamos en medio de un proceso de digitalización de todas
las salas de proyección de cine del mundo. Al contrario que en la televisión, no
hay organismos internacionales que supervisen el proceso y hagan recomenda
ciones técnicas de formatos. En este caso, han sido las grandes compañías de
producción y distribución de cine norteamericanas con sede en Hollywood (las
conocidas como majors) las que han sacado adelante una iniciativa de estanda
rización que, a día de hoy, parece ser la que está alcanzando más consenso. Es lo
que se conoce como Digital Cinema Initiative, requisitos DCI (DCI Compliment)
o simplemente DCI, que veremos con detalle en los capítulos dedicados a la
distribución (parte IV del libro).
La normativa DCI ha decidido optar por sólo dos formatos de pantalla: el 1,85
y el 2:39, abandonando definitivamente el resto, y dentro de los dos tamaños
citados: 2K y 4K.
En el caso del 2K, y para que quepan correctamente estos dos aspects ratios,
el formato contenedor tendrá un máximo de 2.048 x 1.080 píxeles (es decir, muy
semejante al 1.080 de la televisión).
Si la película es de formato 2,39 (se han redondeando las cifras, por el motivo
antedicho), la parte visible será 2.048 x 858.
» 72
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
4K (4.096x2.160)
» 73
3. LA RESOLUCIÓN
» E-Cinema
Los datos citados son la propuesta de la recomendación DCI, también llamada
incorrectamente “D-Cinema". Actualmente, las majors dominan casi el 80 %
de la taquilla mundial, así que probablemente será lo que veamos. La también
potente asociación de exhibidores norteamericana (conocida como NATO, siglas
en inglés de la Asociación Nacional de Propietarios de Cines) no quiso dejarse
imponer una norma que podría favorecer exclusivamente a los proveedores
de contenidos, por lo que finalmente la DCI se presentó a la SMPTE para su
normalización.
SMPTE son las siglas de Sooiety of Motion Picture and Televisión Engineers o Saciedad
de Ingenieros de Televisión e Imagen en Movimiento. La SMPTE ejerce como agencia
de normalización, privada y norteamericana, pero internacionalmente reconocida como
neutral. En España actuaría la AENOR, la Agencia Española de Normalización, o en
Francia la AFNOR. Los países de la UE suelen actuar de manera coordinada, si bien no
ha ocurrido así en el tema del cine digital.
Un único estándar para el cine puede ser una buena idea, pero tampoco hay
que descartar otros estándares, como el E-Cinema (Electronic Cinema), que
utiliza resoluciones propias del HDTV y que es mucho más económico y, en
ocasiones, el único utilizable. Por ejemplo, en el caso de retransmisiones de
eventos musicales o deportivos directamente en las pantallas de cine, algo
que está teniendo mucho auge y con gran respuesta de público. Al ser una
retransmisión vía satélite por medios televisivos, siempre tendremos que pensar
en HDTV y no en 2K. No hay cámaras de televisión ni unidades móviles ni en
general ningún equipo televisivo broadcast que trabajen con resoluciones 2K o
4K. Así pues, será 1.080 o 720.
Dado que en ocasiones se usan proyectores más baratos, que pueden conte
ner una señal HD, se habla de cine 1,4K, o 1,3K (que corresponderían al formato
720 o HD Ready).
Hablaré de ello más extensamente en la parte IV dedicada a la distribución.
» Full Aperture
Las resoluciones DCI mencionadas son las que finalmente verá el espectador
en la pantalla. No obstante, es usual trabajar en la industria del cine con el for
mato conocido como Full Aperture (FA), Open Gate o, en castellano, "ventanilla
abierta". También es común llamar a este formato Súper 35 mm.
» 74
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» 75
3. LA RESOLUCIÓN
No hay que confundir el Full Aperture, FA, con el Full Frame, FF. Éste es un término que
se usa en el mundo de la fotografía tradicional, pero que ya se está incorporando a las
soluciones más avanzadas de cine digital. Se hablará de ello en la parte dedicada a la
cámara, en la sección de los sensores captadores.
» Captación 2K / 4K
Las cámaras de HDTV como hemos dicho, tendrán siempre una resolución má
xima de 1.920 x 1.080 líneas.
En el caso de las cámaras de la categoría que llamamos de HR pueden darse
dos opciones: una, que mantengan esta resolución pero amplíen otras calidades,
como el muestreo o la profundidad de color.
La otra opción es que ofrezcan resoluciones superiores, del tipo 2K y 4K.
Estaríamos entonces ante cámaras específicas de cine digital, con sensores con
mayor número de píxeles que los tradicionales HD. Por este motivo, la grabación
siempre será en soporte rígido (IT), sea en tarjetas o en discos duros, pues no
existen magnetoscopios (VTR, Video Tape Recorder) para grabar señales más
allá de las 1.080 líneas HD.
» 76
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
• 1.080
. 720
• 2K (DCI para distribución / FA para producción)
• 4K (DCI /FA)
caso del cine, notar que es posible trabajar con ventanilla abierta (FA) en producción,
pero que finalmente optaremos por la ventanilla definitiva en distribución (DCI).
Sin embargo, el mercado nos ofrece algunas cifras y nombres más. No son, en
realidad, resoluciones propias de formato, sino de "visionado" o de monitoriza-
ción. Es decir, afectan en el momento de visualizar los trabajos, no de trabajar
con ellos (al menos en un entorno profesional). Analicémoslas.
» VGA y otros
Ya vimos el caso de las etiquetas Full Hd y HD Ready.
La necesidad de informar debidamente al consumidor final se debe a que,
como hemos dicho, en el momento actual se cruzan las tecnologías audiovi
suales tradicionales con la informática. La informática desarrolló sus propios
estándares de visualización de contenidos, basados inicialmente en el VGA
(Video Graphic Array o matriz de gráficos de vídeo).
También en informática se trabaja con píxeles, y también, como veremos,
con el sistema de color RGB. Por eso son totalmente compatibles. Pero, como
sabemos, las pantallas de los ordenadores pueden tener diferentes resoluciones
y tamaños, en función de la tarjeta de vídeo de que dispongamos y de la diagonal
del monitor.
En 1988, IBM propuso un estándar de gráficos al que se sumaron los fabrican
tes de "clónicos PC”. IBM ya no tiene la importancia en la industria informáti
ca que tenía entonces, pero el esquema sigue vigente. Este estándar era el VGA,
que implicaba una resolución de 640 x 480.
Con el tiempo, las capacidades de las tarjetas de vídeo aumentaron y se fueron
diversificando. El primero de ellos, el extended Graphics Array (XGA), seguido
de otros que iban superando su resolución: Super VGA (SVGA), Wide VGA
(WGA), extended VGA (XGA), Ultra XGA (UXGA), etc. Surgió así un número
diferente de resoluciones, mucho más amplio que el propio de la televisión y
del cine, con relaciones de aspecto distintas al mundo audiovisual (4/3, pero
también 5/4,16/10, 8/5, 3/2, etc.). Porque, repetiré una vez más, la informática y
el audiovisual siguieron caminos diferentes en sus inicios y sólo se encontraron
más tarde.
» 77
3. LA RESOLUCIÓN
» 78
» 79
3. LA RESOLUCIÓN
Por esa razón, es conveniente trabajar siempre con monitores "nativos” para
el formato que estemos trabajando.
Haré una pequeña tabla de equivalencias
>> Megapíxeles
Ultimamente, es común encontrarse en algunas cámaras de cine digital con una
cifra de “megapíxeles" en referencia a la resolución del sensor. Esta costumbre
viene heredada del mundo de la fotografía, y se obtiene sumando el número
total de fotodiodos que tiene el sensor (imager).
Por ejemplo, en ocasiones se señala como “3 CCD de 2 megapíxeles” que
riendo indicar que consta de tres sensores de tipo CCD, cada uno de ellos de
1.920 p(h) x 1.080 p(v).
La confusión es más evidente en cámaras con un único sensor. La cifra de
“12 megapíxeles", o “21 megapíxeles”, no nos puede dar una idea exacta de la
resolución nativa de la herramienta si se desconocen otros datos, como el tipo
de máscara Bayer de que dispone.
Por otra parte, tampoco es correcto asociar un “fotodiodo”, que es lo que
contiene un sensor, a un píxel, que es lo que forma una imagen.
En definitiva, el uso de “megapíxeles" en el mundo del audiovisual es más
un elemento comercial que técnico, y puede llevar a confusiones.
Profundizaremos en estos conceptos al hablar de cámaras.
Recapitulación
» 80
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
• En cine, esta relación es más flexible, pero lo habitual es trabajar con dos
relaciones: 1,85 y 2,39.
• En televisión, nos referimos a la resolución por el número de píxeles (o
líneas) verticales, mientras que en cine solemos usar el número de píxeles
horizontales.
• Actualmente, en HD tenemos dos resoluciones: 1.080 y 720, mientras que
en DC tenemos otras dos: 2K y 4K. Fuera de estas cuatro, no se considera
un formato profesional de trabajo.
• En el futuro, pueden aparecer nuevos formatos de alta resolución (6K, 8K...)
o ultra alta definición (UHDTV) que superen estos estándares.
» 81
» 082
4. Profundidad de color
» Etapa A/D
Hemos visto antes que los sensores captadores de las cámaras electrónicas
están divididos en fotodiodos que a su vez producen variaciones en pequeñas
corrientes al ser excitados por una intensidad lumínica (por los fotones presentes
en la luz). Hemos visto también que se precisan tres sensores, uno por cada color
primario, para lograr una representación pancromática.
En una cámara digital, este esquema se mantiene. El sensor o los sensores
producen siempre variaciones en la intensidad de microcorrientes. Pero si en
una cámara analógica estas variaciones se guardan tal cual en la cinta, en una
digital se interpone un paso previo, una etapa que convierte la señal analógica
en digital, cuantificándola en bits. Este es el proceso o etapa A/D, y es clave en
la calidad digital que proporcione.
/ Niveles de bits /
4. PROFUNDIDAD DE COLOR
valores (negro absoluto y blanco absoluto) tendríamos una imagen poco reco
nocible, sólo los contornos, sin ningún tipo de matiz. A medida que ampliemos
la gama de tonos, obtendremos más definición.
Si usáramos el sistema decimal, lo natural hubiera sido convertirlo en múlti
plos de 10: 100, 1.000, 10.000 tonos. Pero como hemos dicho, el sistema que
empleamos es el binario, por lo que es lógico usar sus múltiplos: 2, 22, 23, 24,...,
28, que nos proporcionarán, respectivamente, 2, 4, 8,16, 32, ..., 256 niveles.
¿Cuál es el límite? El ojo humano es muy sensible, una herramienta de preci
sión perfeccionada a lo largo de millones de años de evolución. Sería impensable
alcanzar su grado de exactitud a una tasa de bits manejable. Así pues, es nece
sario un compromiso. Este compromiso debe ponderar, por un lado, conseguir
una representación creíble de la realidad; y por el otro, un flujo de datos, una
cantidad de información manejable por nuestras herramientas.
» El estándar 8 bits
El grado de compromiso para el mundo de la HDTV se fijó en 8 bits por canal: en
realidad no son ocho bits, sino que 8 es el exponente: 28 = 256 niveles o tonos
de gama.
Como hemos dicho, en color contamos con tres canales, por lo que si calcu
lamos el número de combinaciones posibles de colores tenemos que 256 x 256
x 256 = 224 = 16.777.216 diferentes tonos de colores representa bles (los cono
cidos 16 millones de colores que nos muestran nuestros ordenadores).
Estamos, pues, ante una señal de 8 bits de profundidad de color. Más exac
tamente, sería una señal de "24 bits”; al hablar de 8 bits damos por supuesto
que nos referimos a la profundidad de color por canal.
» 84
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Se suele hablar de bits por canal, y no del total de bits, pues el número de canales puede
variar. Una imagen en blanco y negro, por ejemplo, sólo tiene un canal. O puede haber
una imagen con los tres canales de color primarios más un cuarto, el "alfa”, que permite
albergar una información de transparencia.
Si, por ejemplo, el chip capta mucha intensidad de luz, cercana a su límite, el
conversor A/D le asignará una cifra alta entre el 0 y 255 (el 0, en binario, también
es un valor): digamos 232. Si llega poca luz, el conversor le asignará un número
bajo: 16, por ejemplo. Un gris intermedio lo cuantificar con el valor 178...
» Canales separados
Hablamos de “gris medio”, pero como hemos dicho que trabajamos en un sis
tema RGB, este “gris" en realidad es un rojo, o un azul o un verde intermedio.
Lógicamente, ni las ondas ni los bits se “tiñen” de ningún color, pero nuestros
dispositivos asocian este número a uno de los tres canales.
Pero, por otra parte, al ser pura información numérica, es fácil “reasociarlos”,
trabajar con ellos. Podemos decirle a nuestro ordenador que invierta los canales
y de una manera sencilla tendremos una imagen negativa, donde el azul se
convierte en amarillo, el rojo en can y el verde en magenta.
Este punto es clave para entender las enormes posibilidades de trabajo en
postproducción que permiten las herramientas digitales. Es lo que se conoce
como “trabajo por componentes (de color)”, terminología ya usada en analógico
(véase página 393).
» 10, 12 bits
¿Qué pasaría si nuestro conversor A/D, aprovechando la gran sensibilidad de
nuestro captador, decidiera darnos más posibilidades? Sería entonces una cuan-
tificación de nivel superior: por ejemplo, de 10 bits por canal.
El número de niveles o grados por canal sería entonces de 1.024 (210, del
0 al 1.023). 2 bits más, como vemos, nos multiplican exponencialmente las
posibilidades, pues ya no serían 16 millones de posibilidades de color, sino más
de mil millones (1.0243 = 1.073.741.824) de posibles tonos o colores distintos.
La magia de la cuantificación binaria por canales es que para aumentar
significativamente el número de colores nos basta con añadir dos bits más a la
señal, es decir, sólo un 20 % más de información.
8 bits por canal proporciona una gran fiabilidad con respecto a la represen
tación de la realidad. Por eso, 8 bits es el estándar de la industria televisiva, y
será asimismo el que necesitemos para trabajar en alta definición para televisión
(HDTV).
»85
4. PROFUNDIDAD DE COLOR
» Otras terminologías
A esta característica la llamamos indiferentemente profundidad de color, gama,
contraste o, muy comúnmente, rango dinámico (Dynamic Range). En cine el
término apropiado es latitud, que se entiende como el número de pasos de
diafragma o stops que permite capturar un negativo.
En electrónica de consumo (televisores y proyectores), el rango dinámico se
expresa en ocasiones en una relación tipo 1.000:1,2.000:1,4.000:1, etc. Se podría
asociar 4.096:1 a un rango dinámico de 12 bits, y 1.024:1 a uno de 8 bits, pero
no es exacto, pues aquí la terminología no está clara. Hay varias maneras de
» 86
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
“vender” una cifra así. Se puede referir a una medición ANSI o FF (dos formas
de medir el contraste), y los fabricantes no se ponen de acuerdo en el uso de
una única terminología.
Además, en el contraste de un proyector (incluso profesional) hay que con
siderar la luz ambiente, el material donde se proyecta, así como la potencia
lumínica del proyector. Un proyector de poco contraste pero mucha luminosi
dad puede ofrecer una mejor respuesta que otro de mayor contraste pero menor
potencia lumínica.
La equivalencia no es exacta, pues son dos señales distintas. Una fórmula en uso es:
n° dB = 6,02 x n° bits + 1,76. Una señal de 8 bits sería equivalente a 6,02 x 8 + 1,76 aprox
50 dB.
» 87
4. PROFUNDIDAD DE COLOR
Recapitulación
» 88
5. El muestreo
» 89
5. EL MUESTREO
hemos dicho, consta de sendos canales para los tres colores primarios. ¿Como
reproducir entonces la sensación de “blanco y negro”?
Esta necesidad era una condición sine cua non para el mundo de la televisión.
Al contrario que en el cine, donde un proyector sirve tanto para copias en blanco
y negro como en color, los televisores en blanco y negro no podrían reproducir
las señales de televisión en color. Era necesario adquirir un nuevo aparato para
poder verlas.
Este dilema (de alguna manera semejante a la actual transición entre SD y
HD) planteaba tres problemas comerciales. El primero, que no se podía obligar a
los espectadores a adquirir nuevos equipamientos. Los organismos reguladores
exigían que las nuevas emisiones en color fueran compatibles con los televisores
monocromos ya instalados en los hogares. El segundo problema es que a las pro
pias cadenas de televisión no les interesaba perder audiencia. Querían empezar
a emitir en color, pues suponía una gran mejora técnica, pero estas emisiones
deberían ser captadas también por todos los espectadores, no sólo por aquellos
con capacidad económica suficiente para adquirir un nuevo televisor en color.
Y el tercer problema, no menos importante, en aprovechar adecuadamente el
espacio radioeléctrico, sin eliminar operadores.
» Luminancia y crominancia
La solución aparentemente más sencilla (una mezcla ponderada al 33 % de las
tres señales) no era visualmente correcta. La razón es que el ojo humano es más
sensible al color verde que a los otros dos primarios, quizá debido a nuestros
orígenes selváticos como primates. Una ponderación por igual de los tres colores
primarios no equivaldría a la sensación de contraste entre blancos y negros tal
como la percibe nuestro cerebro.
Por esa razón, y tras diversas pruebas técnicas, se convino en la señal en
blanco y negro más apropiada, a la que a partir de ahora llamaremos luminancia
(luminance, cuyo símbolo es la letra y griega mayúscula, Y), y era un balance de
los tres canales en la siguiente proporción:
» 90
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
U = Y-R
V = Y-B
C=U+V
Y-U = Y-(Y-R) = R
» 91
5. EL MUESTREO
» 92
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Bajo este razonamiento se decidió que una vez obtenida la señal YUV, la
luminancia era intocable pero que las otras dos señales, que juntas formaban
la crominancia, se podían reducir a la mitad sin que el "ojo desnudo” apreciara
una pérdida significativa de la calidad.
Es lo que la técnica llama submuestreo (subsampling) o muestreo parcial, y
entra dentro de las recomendaciones ITU 609 (para SD) y 701 (para HD), siendo
el estándar internacional de la televisión. Por esta razón se entiende que toda
señal YUV de televisión está submuestreada.
» Submuestreo analógico
En términos numéricos, la señal SD analógica tiene un canal Y con una cantidad
de muestras de 13,5 MHz, mientras la señal U tiene sólo la mitad, 6,75 MHz y V
otros 6,75 MHz.
En HDTV la señal Y tiene 75 MHz, U = 37,5 MHz y V = 37,5 MHz.
Como U + V = C, se dice entonces que el muestreo de luminancia Y es igual
al de crominancia C, en ocasiones referida en una señal multiplexada como la
subportadora de color (insistiendo una vez más en que crominancia no es la se
ñal de color, sólo una parte de ella).
» TV 4:2:2
En digital se utiliza una convención numérica conocida como 4:2:2. Lo único que
quiere decir de manera muy arbitraria (se podían haber elegido otros números,
como 10:5:5) es que de cada 4 muestras de Y, sólo obtendremos 2 de U y otras 2
de V.
4:2:2 es el equivalente digital al espacio de color analógico YUV (si bien se
usan indistintamente). En ocasiones también encontramos las siglas Y Pb Pe,
que se refieren al muestreo parcial para señales de alta definición.
» 93
5. EL MUESTREO
» Cine 4:4:4
Como ya hemos dicho, el cine digital es siempre un formato 4:4:4, y como tal
siempre se transfiere así a los archivos que maneja. 4:4:4 es sinónimo de RGB.
» 94
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Número de muestras
Si pensamos en digital, la reducción de muestras se realiza en el número de
muestras horizontales. Siempre mantendremos la resolución vertical.
En una señal HD 1.080, sabemos que cada canal RGB necesitará 1.920 x 1.080
píxeles o muestras para un “sampleo" (del inglés sampling) completo. Habrá pues
1.920 x 1.080 = 2.073.600 muestras del canal rojo, otras tantas del canal verde
y otras tantas del canal azul.
Sin embargo, en 4:2:2 tendremos 1.920 x 1.080 muestras de luminancia, y
sólo 960 x 1.080 de la señal U y otras 960 x 1.080 muestras o píxeles activos del
canal V
Evidentemente, esto no quiere decir que haya “huecos" entre píxeles, sino
que una muestra U ocupa el espacio de dos. Como veremos, a pesar de que
visualmente es apenas apreciable, este hecho puede producir distorsiones y
falta de precisión en procesos de postproducción. Un caso típico es el uso de un
chroma key o incrustación por llave de color, que siempre será más preciso, con
bordes más definidos, trabajando sobre soportes RGB que sobre soportes YUV.
» 95
5. EL MUESTREO
» 4:2:0 y 4:1:1
Además del estándar 4:2:2, la industria ha desarrollado equipamientos pensados
para el consumidor final o incluso prosumer que eliminan aún más la informa
ción de crominancia. Y también en formatos de distribución como el DVD o los
vídeos a los que accedemos a través de internet. La idea es reducir aún más el
flujo de datos para tener una señal más manejable, que pueda caber en cintas o
soportes más pequeños y que necesiten menos potencia en ordenadores caseros
en el momento de la edición.
Son señales a las que también podemos calificar de “espacio color YUV”, con
submuestreo, pero no son brodcast o profesionales. Son soluciones comerciales
ofrecidas por la industria, pero no admitidas (si bien toleradas) por las normativas
internacionales y las cadenas comerciales. La calidad, una vez más, se resiente,
pero a favor de un flujo de datos más reducido (un 33 % de ahorro sobre 4:2:2 y
un 50 % sobre el RGB).
Es por ejemplo el muestreo parcial 4:1:1. En este caso, por cada 4 muestras
de luminancia, sólo obtendremos 1 de la señal U y 1 de la señal V
Una imagen de HD 1.080 con muestreo 4:1:1 nos daría entonces
Hay otra cifra más común: 4:2:0. En este caso es preciso recordar que la intuición
numérica debe obviarse y, asimismo, que el uso de esta numeración en base 4 es
puramente arbitraria. 0 no quiere decir que carezca de información de la señal V
sino que su lectura es distinta. Una señal 4:1:1 aplica el mismo submuestreo en
todas las líneas de resolución, mientras que 4:2:0 lo hace alternando las líneas:
en una, obtendrá 480 muestras de U y 0 muestras de V y en la siguiente lo alter
nará: 0 muestras de U y 480 de V En sistemas interlazados, 4:1:1 submuestrea
cuadro a cuadro, mientras 4:2:0 lo hace campo a campo.
Esto es útil para los sistemas interlazados, pero también para los progresivos,
por lo que la tendencia es abandonar el submuestreo 4:1:1. En cualquier caso,
4:1:1 y 4:2:0 tienen la misma cantidad de información.
Para entender estos conceptos, interlazado y progresivo, cuadro y campo,
tenemos que seguir avanzando y pasar a definir el último de nuestros cuatro
términos básicos: la cadencia y su barrido.
Para profundizar aún más sobre otras cifras, como 3:1:1 o 4:4:4:4, véase el anexo corres
pondiente.
» 96
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Recapitulación
• Una señal digital en color contará siempre con tres canales. Cada uno
de ellos tendrá un número de muestras igual al de los demás para poder
representar fielmente la realidad. Es el sistema conocido como muestreo
total, RGB o 4:4:4.
• Sin embargo, en el mundo de la televisión (y exclusivamente en él) se
permite reducir una parte de la información con objeto de asegurar la
compatibilidad con equipos antiguos, ahorrar costes y aprovechar mejor
el espacio radioeléctrico. Es lo que se conoce como muestreo parcial de la
señal, YUV o 4:2:2.
• En formatos de gama baja o de distribución se puede reducir aún más la
información (4:2:0, 4:1:1) para una mejor relación calidad/coste.
» 97
» 098
6. Cadencia y barrido
La cadencia
» Cadencia ideal
El número de imágenes por segundo (images per second, ips o fotogramas/frames
por segundo, fps) es lo que conocemos por cadencia o framerate.
Este número también nos habla de calidad, pues es evidente que cuantas más
imágenes por segundo mostremos, mayor será la fidelidad de la representación
real. Si tenemos un número escaso de imágenes, se producirá el efecto conocido
como "parpadeo" o fliqueo (del inglés flicker) de la imagen, con la sensación de
que se desvanece entre dos fotogramas.
Lo primero es señalar que la cadencia siempre ha sido un compromiso entre
calidad y economía. Análisis técnicos indican que la cadencia ideal para una
representación “real", sin sensación de parpadeo, estaría en torno a los 72 ips.
Pero por razones económicas nunca se ha ofrecido esta cantidad de fotograma
Actualmente, tampoco ningún estándar de cine o televisión alcanza este núme
ro, pero no es descartable que lo pudiera hacer en el futuro. La tecnología actual
digital lo permite y en digital el capítulo de costes no se encarece tanto como
en fotoquímico.
» Cadencia en el cine
En cine el compromiso viene dado, una vez más, por el coste del material Rodar
con cadencias muy altas significa aumentar proporcionalmente el gasto en
negativo. De la misma manera, las ya de por sí voluminosas copias positivadas
(cuatro o cinco rollos de gran tamaño) también aumentarían, complicando su
distribución en las salas.
Durante los primeros años se probaron diferentes cadencias, siendo la más
popular la de 16 fps de la mayoría de las películas del cine mudo. Para evitar
el parpadeo, se proyectaba hasta tres veces cada fotograma. Sin embargo, aun
así era más que evidente. Posteriormente, se optó por el compromiso de rodal
» 99
6. CADENCIA Y BARRIDO
» 100
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
La cadencia tradicional del NTSC es siempre 29,97 ips. Sucede sin embargo que por
comodidad se redondea esta cifra a 30 ips. Para profundizar sobre este tema, véase el
anexo Non Drop Frame
» Cadencia HD
Con la tecnología digital actual, la frecuencia de la corriente alterna es indife
rente, pues ya no se precisa para una sincronización de la señal. Por esa razón,
dado que los sistemas HD vienen a superar las viejas diferencias entre NTSC
y PAL, sería conveniente que se estableciese una única cadencia para todas
las producciones, bien sea 24, 25 o 30/29,97. No obstante, hay implicaciones
comerciales y de compatibilidad con los sistemas antiguos que hacen que, a día
de hoy, esta cadencia universal no esté definida.
Por ello, la inmensa mayoría de los equipos actuales permiten, además del
trabajo multiformato en SD y HD, escoger entre todas las diferentes cadencias
admitidas.
» 23,976
Las pequeñas diferencias entre las cadencias en cine y en televisión generan,
no obstante, grandes problemas. Por ejemplo, cuando queremos adaptar para
televisión una película rodada en cine 24 ips.
La transferencia entre los 25 ips del PAL y los 24 ips no es muy problemática
(un 4% de diferencia temporal). Suele hacerse respetando todos los fotogramas
» 101
6. CADENCIA Y BARRIDO
» 102
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
El barrido
/ Barridos /
Interlazado (i)
La imagen la componen dos campos de líneas: pares e impares
» 103
6. CADENCIA Y BARRIDO
Resaltar que el interlazado es, como el espacio de color YUY propio del mundo televisivo:
en cine no existe el rodaje interlazado, sino que siempre se trata de imágenes completas sin
separacion de campos.
Así pues, una imagen de 1.080 i (i de interlazada) está compuesta de dos campos
diferentes cada uno de ellos de 540 líneas. Uno corresponderá a las líneas impa
res o superiores (even, up): 1, 3, 5, 7, 9.......................hasta 1.079; y otro a las líneas pares
o inferiores (odd, down): 2, 4, 6, ..., hasta 1.080.
» 104
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» 105
6. CADENCIA Y BARRIDO
» Limitaciones a la obturación
Hay que tener en cuenta otro aspecto relacionado con la captación fotográfica: la
obturación. Generalmente, la obturación en cine y televisión no es muy rápida:
1/48, 1/50, 1/60 de segundo. Esto provoca el efecto filage, como una mancha
borrosa en el fotograma si el objeto se mueve a gran velocidad (en el mundo
infográfico CGI se habla de motion blur para referirse a este efecto). Para evitarlo,
la solución es obturar a mayores velocidades: 1/250 de segundo nos daría una
imagen perfectamente definida del objeto en acción, sin filage. Pero, al hacerlo,
lo que obtendríamos es otro efecto indeseable: el llamado "estroboscopio".
» 106
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Cadencias interlazadas
Hasta hace pocos años, se notaba la cadencia de televisión como 25i, o 29,97i.
Posteriormente, al popularizarse las cámaras con opción progresiva, se hablaba
de 25i y de 25p. Pero para evitar confusiones, actualmente se ha optado por
notarlo más correctamente como 50i/25p, ya que las cadencias interlazadas
realmente generan 50 imágenes por segundo (si bien campos, y no cuadros).
Esta “nueva" terminología nos obliga a ser cuidadosos. Hay que tener cui
dado, por ejemplo, con los redondeos del NTSC. Hoy en día se puede grabar en
59,94i, en 59,94p e incluso en 60p. Y para complicarlo aún más, en ocasiones
se usa 60p como redondeo de 59,94p (notándolo como drop frame, 60p DF o
similar, véase el anexo), y en ocasiones no. Hay que leer muy bien los manuales,
no queda otra opción.
» 107
6. CADENCIA Y BARRIDO
» Televisión i/p
En el caso de la televisión, también es posible trabajar en la actualidad con el
doble de cadencia. El único problema en este caso sería el de la transmisión de
la señal.
Hay que tener en cuenta que una cadencia de 50p (50 cuadros completos
progresivos) supone exactamente el doble de datos que la misma señal 50i (50
campos, 25 cuadros). La limitación del espacio radioeléctrico impediría doblar
la cadencia de una señal 1.080. Pero, sin embargo, no podemos olvidar que una
señal 720 tiene algo menos de la mitad de bitrate que el 1.080, por lo que al
gunos expertos señalan que el 720 50p (o 60p) puede ser una alternativa muy
interesante al 1.080 50i, con igual flujo de datos.
La adopción de estas altas cadencias supondría la desaparición definitiva
del barrido interlazado (en ningún caso se prevén cadencias de 100i o 120i).
» 108
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
6. CADENCIA Y BARRIDO
NOTA: en este gráfico no se ha incluido la cadencia 30p/30p NDF por ser poco habitual
en los sistemas profesionales. Se encuentra, no obstante, en algunos equipamientos
domésticos.
Recapitulación
» 110
7. Definición de formatos: peso y flujo
Formatos estandarizados
• Resolución
• Profundidad de color
• Muestreo
• Cadencia
De manera general podemos decir que los dos primeros son los verdaderamente
importantes para definir de manera objetiva la calidad de un formato. Y los otros
dos son particularidades heredadas de la evolución histórica, tanto del cine
como de la televisión.
En el terreno práctico nos encontramos con dos tipos generales de formatos
(señales, ficheros, sistemas..., como se quiera decir).
• Estándares
• Comerciales
Los primeros son aquellos definidos por organismos internacionales (ITU, SMPTE,
ASE/EBU...) que velan por la compatibilidad.
» Compresión
Los segundos son soluciones que los fabricantes introducen en el mercado
por cuestiones comerciales, generalmente ofertando diferentes relaciones ca
lidad/precio. En este ámbito empezaremos a hablar de códecs de compresión,
» 111
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
pues los estándares televisivos siempre se definen sin compresión (1:1, uncom-
pressed, none).
La compresión será el quinto elemento importante de un formato comercial.
Se deja al arbitrio de las empresas el uso de códecs de compresión que
flexibilicen los flujos de trabajo. Estos códecs pueden ser “abiertos" (accesibles
a todas las soluciones) o “propietarios" (exclusivos de una marca o empresa),
dependiendo de la política comercial de su desarrollado!
» Formatos TV
La compatibilidad es crítica sobre todo en el mundo de la televisión. No podíamos
pensar en un mundo donde el consumidor tuviera que elegir su televisor en
función de los canales que desea ver. Todos los emisores deben trabajar con los
mismos estándares para facilitar el acceso de la audiencia.
Por eso, la industria de la televisión mundial trabaja con dos estándares digi
tales: SDTV o definición estándar (Standard Deñnition) y HDTV o Alta Definición
(High Defnition). En el momento actual, estamos en pleno proceso de transición
entre estos dos estándares, por lo que lo más común es que el equipamiento
siempre sea compatible entre ambos.
» SD analógico
En el mundo analógico de la televisión se establecieron hasta tres sistemas de
televisión: NTSC, PAL y SECAM.
NTSC son las siglas del National Telecomunication Standard Committee,
que es el organismo encargado de ordenar el espacio radioeléctrico en Estados
Unidos. NTSC es el conjunto de normas de la televisión en ese país, en muchos
países americanos dentro de su órbita de influencia, en Filipinas y otras partes
» 112
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
de Asia y, muy importante, en Japón (es importante porque gran parte de las
grandes industrias de equipamiento tienen su sede en ese país).
PAL son las siglas (Phase Alternating Liné) de un sistema de origen alemán
desarrollado por Telefunken. Mejora el sistema de color del NTSC y tiene una
resolución mayor (625 líneas frente a las 525 del NTSC). Como ya indicamos,
la cadencia es también diferente, esta vez por los motivos técnicos expuestos:
59,94i para el NTSC y 50i para el PAL. Es el sistema europeo por excelencia. Al ser
adoptado asimismo por Gran Bretaña, es también mayoritario en sus antiguas
colonias, excepto Canadá. Otros países como China, Argentina o Brasil también
lo adoptaron.
Hay algunas diferencias entre los países, las cuales nos llevan a hablar de PAL-B, PAL-G,
PAL-H...; no obstante, todos son compatibles de una forma u otra.
» SD digital
El paso de los sistemas analógicos a los digitales podía haber sido un buen
momento para crear un solo estándar, pero no fue así. No obstante, el sistema
SECAM desaparece (no hay un SECAM digital) y los países con estas normas
optan por el PAL.
Así pues, en definición estándar digital nos encontramos actualmente con
dos estándares bien definidos: NTSC y PAL.
Una manera también corriente de notarlos es SD 576 (para el PAL) y SD 480
(para el NTSC).
Formatos SDTV
» 113
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
Formatos HDTV
• Una emisión 1.080 ocupa el mismo bitrate que dos de 720, con la consi
guiente ampliación de la oferta.
• Los televisores 720 (conocidos popularmente como HD Ready) son más
baratos y más pequeños que los de 1.080 (Full HD).
• El menor flujo de datos del 720 permitiría aumentar la cadencia, lo cual
incrementaría la “resolución dinámica” de este formato. Hoy en día, es
difícil contar con sistemas 1.080 50p, pero sí existen soluciones 720 de 50
y hasta 60 imágenes progresivas.
» 114
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
• 720p
• 1.080 i/p
» ¿Otros formatos?
En ocasiones, en el ámbito de internet podemos ver formatos como el HD 480p.
¿Existe realmente un formato de alta definición de sólo 480 líneas verticales?
En realidad, este supuesto "formato de alta definición” no es tal. Era sólo un
truco publicitario para atraer a la audiencia. También es habitual encontrarse
dispositivos de fotografía digital que ofrecen la posibilidad de grabación de vídeo
con formato VGA (640 x 480). ¿Es el VGA un estándar profesional? Tampoco.
¿Por qué sucede todo esto? Hay que insistir en que la HDTV sólo admite dos
formatos: 720p y 1.080i/p. Las cámaras de fotos no son herramientas broadcast
(si bien algunas empiezan a ofrecer opciones HD 720 o 1.080, que sí serían
HDTV), y los responsables de marketing de algunas empresas tampoco son
personas fiables en cuestiones técnicas, claro. Pero la cuestión de fondo viene
por el uso de los nuevos sistemas de distribución.
» El mundo IPTV
La televisión por internet (IPTV, Internet Protocol TeleVision, o televisión bajo
el protocolo de internet) no tiene ningún estándar, porque tampoco lo necesita.
O al menos no tan marcadamente como la televisión tradicional.
En primer lugar, el tamaño o resolución de las pantallas viene definido por
la industria informática, no por la de la televisión. Y esta resolución aumenta
a medida que los procesadores y las tarjetas de vídeo lo permiten. No existen
límites a la vista.
En segundo lugar, y por esta misma razón, la relación de aspecto no ha de ser
única. Si en HD sabemos que siempre tendremos una relación de 16/9, nadie nos
impide colgar en internet un formato con una relación cuadrada 1/1, una muy
apaisada 3/1, o una vertical 2/3. El ordenador puede leer esa señal y mostrarla,
bien de forma nativa o ajustándola a la pantalla, escalándola.
El último término importante en IPTV es el ancho de banda. La televisión
tradicional está limitada por el espacio radioeléctrico. La IPTV por el ancho de
banda de internet que llegue a los hogares, que como sabemos crece cada año.
La televisión tradicional presenta además otro inconveniente: tiene que emitir
» 115
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
una única señal que todos los receptores entiendan. Esto obliga a usar para
las emisiones digitales un único tipo de códec, el cual será descifrado por el
receptor situado en nuestra casa. No se puede pensar de la noche a la mañana
en cambiar el códec de emisión, pues obligaría a cambiar todos los receptores.
En internet, en cambio, sí sería posible: es posible hacer una emisión con dos
formatos diferentes, donde el espectador elige el más adecuado a su conexión.
También se pueden realizar actualizaciones casi automáticas del software re
productor de nuestro ordenador. Esto supone una gran ventaja, pero también un
inconveniente: la selva de los diferentes códecs y reproductores que nos ofrece
ahora mismo la red: Windows Media Player, Quick Time, iTunes, Real Media Pla-
yer, Divx, etc., cada uno con sus diferentes algoritmos y códecs de compresión.
Dado que el futuro de la televisión, del cine y del audiovisual en general
está en internet, habrá que estar atentos a estos posibles cambios. Pero te
niendo en cuenta el poder de la industria televisiva, tanto en producción de
contenidos como en fabricación de herramientas, es lógico pensar que a la
larga se impongan los formatos propios del HDTV a la IPTV y no al revés.
Mientras tanto, ningún formato inferior a 720 puede ser considerado alta
definición. Y cualquiera que sea diferente a 720 o 1.080, tampoco se puede
considerar profesional o broadcast.
» Cine
El caso del cine es un poco más peculiar.
Hasta ahora, en su formato fotoquímico, era un sistema muy universal: en
casi cualquier parte del mundo se contaba con un proyector de 35 mm y un
lector de sonido óptico. Por eso se hablaba del 35 mm como "paso universal".
Con la digitalización, surge el problema de las diferentes soluciones comer
ciales posibles. Como ya hemos comentado, al contrario que el mundo de la
televisión y la radio, el cine no tiene un organismo internacional que vele por
sus estándares.
Por esa razón, lo común en esta industria es mirar hacia el lado de los
productores de contenidos. A nivel mundial, casi el 80 % de la recaudación se
genera por producciones salidas de Hollywood, California, Estados Unidos, por
lo que la industria de cine ha de tener en cuenta sus propuestas. Esto tiene
una implicaciones comerciales y políticas que, sin ser éste el libro que las trate,
no hay que perder de vista. Por ejemplo, países como China, India, Egipto o
Nigeria, que son grandes productores de largometrajes de gran éxito comercial
en sus territorios y zonas de influencia (allí el contenido norteamericano no tiene
apenas mercado), podrían también impulsar sistemas propios más acordes con
» 116
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
sus intereses. No les faltaría razón, pero se perdería entonces una de las grandes
virtudes del cine: su universalidad de acceso.
Asociada a esa falta de estandarización internacional, el cine digital puede
presentar una serie de formatos que varían unos de otros, si bien ligeramente.
Reseñando esta salvedad, me detendré sólo en los estándares más comunes en
el trabajo cinematográfico actual.
» Digitalización de fotoquímico
Una de las maneras comunes en el trabajo cinematográfico actual es rodar con
material fotoquímico y transferir los fotogramas posteriormente a información
digital.
Éste es un sistema originalmente desarrollado por Kodak en los años noventa
(Cineon), y para ello se almacenaba la información no en una cinta de vídeo
sino en discos duros en forma de secuencias de ficheros o imágenes. A partir
de ese desarrollo se originó el formato DPX (Digital Picture eXchange), que es
el que normalmente se usa en la actualidad para esta transferencia.
Es decir: un largometraje de 90 minutos a 24 fps nos resultaba en 24 x 60 x 90
= 129.600 ficheros dpx; individuales, pero numerados correlativamente.
Actualmente, la mayoría de los largometrajes comerciales se ruedan con
Ventanilla Abierta (Full Aperture), con una relación de aspecto cercana al 1,33,
así que normalmente se transfiere esta información tal cual, bien a 4K o a 2K.
Así pues, tendríamos los siguientes formatos de digitalización:
» 117
7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0
» Captación digital
Si la opción es rodar directamente en digital, entonces hablamos de cámaras de
alta resolución, que superan los estándares definidos para la HDTV
Tal como explicamos, el estándar HDTV se acota por las cifras 1.080/4:2:2/8
bits, con cadencias de la zona NTSC o PAL (60i o 50i, generalmente). Cualquier
opción que supere este estándar ya sería considerado HR. Bien pudiera ser
aumentando la resolución (de 1.080 a 2K, por ejemplo), el muestreo (total 4:4:4,
en vez de parcial) o la profundidad de color (1 0 , 1 2 bits). O todas estas opciones
juntas.
Aquí nos encontramos generalmente con una limitación técnica: grabar
en cinta o en soporte rígido (disco duro, tarjeta, memoria RAM...). Las cintas
estándares tienen limitado su flujo por sus propias características físicas. Es
difícil aumentar su capacidad y/o velocidad sin cambiar también el aparato
reproductor y grabador o la propia cinta. Asimismo, la cinta se asocia al medio
televisivo, por lo que tiende a trabajar con sus formatos (1.080 en vez de 2 K).
Por esta razón, si trabajamos en cinta podemos hacerlo en 4:4:4 o 10 bits, pero
difícilmente en 2K o 12 bits. Sería pues una HD "aumentada", como el caso del
HDCAM SR, que graba 1.080/4:4:4/10 bits
Formatos HR
» 118
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
ticulado la opción 23,976 progresiva. Las cadencias 30p y 29,97p no son nada
aconsejables. En inglés se usa el término “unusable" para estas dos opciones,
pero no porque sea una mala solución, inutilizable, sino porque es poco útil
(sería la correcta traducción de unusable). El 30p es una cadencia tan válida
como cualquier otra, y técnicamente superior por su mayor resolución dinámica
a 24 o 25p. Lo que sucede es que su conversión a estas dos cadencias es
muy deficiente. Hemos visto en el anexo correspondiente que la técnica del
“pulldown”, es aplicable al 29,97 entrelazado, no al progresivo. Para pasar de 30p
a 24p sólo tenemos malas opciones: o bien eliminar 6 fotogramas por segundo;
o bien recalcularlos todos mediante complejos algortimos (con la pérdida de
tiempo, y en ocasiones de calidad, que supone); o bien acelerarlos (con pérdida
de sincronía con el audio)... Dado que en salas de cine nos pedirán 24p y en
la zona PAL 25p (o 50i), rodar a 30p sólo es válido para distribución en la zona
NTSC o bien para internet, por lo que profesionalmente, suele evitarse.
No obstante, algunas cámaras domésticas lo utilizan. Y también muchos
modelos de las novedosas DSLR-HD (cámaras de fotografía fija con opción HD).
Esto se debe al origen de muchos de estos modelos, Japón, que siendo de la
zona NTSC no advierte este problema. Afortunadamente, los fabricantes están
corrigiendo este problema ofreciendo opciones 24 o 25 progresivas mediante
actualizaciones de firmare o en nuevos modelos.
» 119
7 . DEFINICIÓN GE FORMATOS: PESO Y FLU]0
Bayer con un solo sensor) al mundo audiovisual (que generalmente trabaja con
3 sensores). Tradicionalmente, un formato “nativo” 4K FA exigiría 4.096 x 3.112
muestras por cada canal, es decir, un total de 38.240.256 muestras; o lo que
es lo mismo, un sensor de mínimo 38 megapíxeles (o 3 sensores de casi 13
megapíxeles cada uno).
Esto no sucede con la Red One (ni otros modelos propuestos), por lo que su
formato 4K debe entenderse como "interpolado" o submuestrado. Este hecho
puramente técnico es independiente de la calidad o no que puedan demostrar
estos equipos.
Usando esta terminología, Red y otros fabricantes se han apresurado a ofrecer
más modelos con diferentes resoluciones: 3K, 4,5K, 5K, etc., en función no del
formato del fichero sino del sensor (más o menos megapíxeles, que en realidad
son "más o menos fotodiodos").
» Distribución digital
Lo que sí es importante es que el fichero que finalmente se exhiba digitalmente
en las salas de todo el mundo, el "fichero o formato de distribución", sea siempre
el mismo, para evitar errores y confusiones en las cabinas de proyección.
Ya hemos comentado la falta de organismos internacionales de estandariza
ción, así que una vez más se mira a Hollywood para buscar soluciones.
Allí, a principios de este siglo, seis de las más grandes compañías de produc
ción y distribución cinematográficas (conocidas como “estudios" o majors) se
agruparon para intentar promover una iniciativa común en busca de un único
formato de exhibición. Crearon la Digital Cinema Initiative, conocida como DCI,
y propusieron los siguientes estándares de distribución:
Formatos DCI
» 120
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Peso y bitrate
» Peso o tamaño
» 121
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
Hay que tener siempre en cuenta esta relación 1 Byte = 8 bits. La sigla B mayúscula
se refiere a Byte, mientras la b minúscula es bit. No siempre están claros estos datos en
algunas especificaciones técnicas.
El bitrate es un dato muy importante para saber qué tipo de conexiones nece
sitaremos para transportar la señal, para almacenarla y para procesarla (CPU,
GPU y demás procesadores).
Por lo general, aunque no siempre, una mayor tasa o bitrate implica una
mayor calidad. Pero lo que siempre implicará es una mayor exigencia en nuestras
herramientas. Es importante conocer el bitrate del formato con el que deseamos
trabajar para poder optimizar nuestros recursos.
2. Muestreo. Debemos recordar que precisamos tres canales RGB para una
información de color.
Por esa razón, un muestreo completo 1.080 RGB precisa multiplicar por tres
el número de píxeles de resolución, pues siempre tendremos un píxel rojo, otro
verde y otro azul para logar una señal.
» 122
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Redondeo
Ahora es necesario volver a tener en cuenta que en informática trabajamos con
un sistema binario, no decimal. Por esa razón, kilo no es sinónimo de mil (103),
» 123
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
» 124
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» 125
7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0
HD1.080 RGB 1.920 x 1.080 4:4:4 10 7,42 23,976/25p 1,39/1,45 gbs 652 GB
Formatos comerciales
No obstante, sea cual sea la técnica utilizada, estos formatos han de ser total
mente compatibles con los estándares internacionales anteriormente explica
dos. Es decir, que las herramientas deben poder des-submuestrear y descompri
mir los datos para volver a obtener la señal estándar esperada, generalmente a
través de una interfaz de entrada y salida normalizada.
Obviamente, también es lógico deducir que por muy eficaces que sean los
métodos para reducir la información, siempre se perderá algo de calidad. Por
definición, una señal sin comprimir o sin submuestrear siempre tendrá una
calidad superior a la que sí lo está.
» Submuestreo
A partir de un estándar normalizado, un fabricante puede decidir sacrificar un
poco más los canales U, V de la señal YUV Es lo que quedó explicado al final
» 126
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
del capítulo 5 y en los anexos, cuando hablamos del muestreo 4:2:0 y 4:1:1. Con
esto se consigue reducir aún más la señal YUV hasta un 25 %.
Estos muestreos parciales se usan sobre todo en los aparatos para el con
sumidor y los “prosumer", pero se entiende que un equipo profesional ha de
trabajar, como mínimo, en 4:2:2.
También se entiende como un submuestreo la técnica conocida como raste-
rización, que se explica igualmente en un anexo.
» Compresión
La otra forma de reducir el flujo de datos es comprimir todo este caudal de in
formación, mediante complicadas técnicas de cálculo, que permiten reducir a
la mitad, a una cuarta parte o incluso a una veinticincoava parte, o más, el flujo
original.
Los métodos son diversos, y por ello les dedicaremos el siguiente capítulo.
Esta combinación de submuestreo y compresión, juntos o por separado, es lo
que fundamentalmente origina la diversidad de formatos de HD y DC que se
encuentran en el mercado.
Así pues, si a los cuatro pilares de la tecnología audiovisual (resolución,
muestreo, color y cadencia) les sumamos el submuestreo y la compresión, que
altera el flujo de datos final, obtendremos los diferentes formatos comerciales
de HD y DC existentes en el mercado.
Dependiendo de los avances de estas industrias, pueden aparecer nuevos
formatos, o desaparecer algunos considerados obsoletos.
» 127
7 . DEFINICIÓN DE FORMATOS: PESO Y FLU]0
Al hablar de cine digital hablamos del punto de vista técnico, refiriéndonos a equipa
mientos de alta gama tipo HR. Huelga decir que se puede hacer "eme" con cualquier
herramienta, incluso con un móvil.
» 128
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
A este cuadro hay que añadirle los ficheros DCI que se proyectarán en las salas comercia
les. A sus características ya conocidas, la única compresión admisible será con el códec
jpeg2000, con un bitrate variable dependiendo del tamaño. De éste y otros formatos de
distribución hablaremos en la cuarta parte del libro.
Recapitulación
» 129
» 130
8. La compresión
» Origen de la compresión
La compresión se realiza internamente mediante los camascopios en una etapa
inmediatamente anterior a su grabación en cinta. Y, por lo general, estas mismas
cámaras ofrecen salidas de audio y vídeo estandarizadas que ofrecen la señal
descomprimida o descodificada, devuelta a su formato original, para su posterior
trabajo en postproducción. Son las salidas tipo HD-SDi.
» Códecs
Los códecs son soluciones industriales que suelen tener una licencia o patente
comercial detrás. Cuando esto es así, forman parte del secreto tecnológico de
las empresas y se consideran por tanto como "códecs propietarios” o cerrados.
Necesitaremos tener licencia tanto para la codificación como para la descodifi
cación o el simple visionado en nuestro ordenador.
» 131
8. LA COMPRESIÓN
» MXF
Para intentar una armonización de todos los equipos de trabajo, la industria
está embarcada en la consecución de un protocolo MXF (Media eXchange File)
que permita el uso de cualquier códec por cualquier equipamiento.
MXF no es un códec en sí, sino lo que se denomina un "empaquetador", o una
forma de almacenar la información dentro de un fichero informático. El protocolo
MXF determina dónde se situará la información de cabecera, la imagen, los
diversos canales de audio, el código de tiempo y el resto de metadatos. La idea,
todavía pendiente de un acuerdo general, parece estar ya calando en toda la
industria, lo cual acabaría con las "guerras de códecs" de años anteriores que
producían tantas incompatibilidades.
» Familias de códecs
En el ámbito de los códecs nos encontraremos aquellos que se utilizan en la
grabación (en las cámaras y/o magnetoscopios de estudio); aquellos otros que
solemos usar en la edición y postproducción; y finalmente aquellos que se usan
para la distribución y emisión de la señal.
Siendo lógicos, lo ideal sería trabajar siempre sin compresión. Pero esto
encarecería inevitablemente todos los equipamientos y complicaría el manejo
de tanta información.
En la captación, el “embudo" de este problema es el almacenaje de datos.
En cinta (con magnetoscopios), es muy difícil lograr un magnetoscopio que no
comprima la imagen. En el momento actual, y desde hace relativamente poco,
» 132
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Sí empieza a ser posible una captación sin compresión en las cámaras que ya
no usan los magnetoscopios tradicionales en cinta. Estos dispositivos utilizan
sistemas de grabación no lineal en soporte rígido (tarjetas de memora, discos
duros, etc.). Con una conexión adecuada entre cámara y dispositivo grabador,
que soporte el flujo de datos completo, sin comprimir, esta opción puede ser
posible en la actualidad, y es más que probable que, poco a poco, se imponga
en el futuro a medio y largo plazo. Cualquier disco duro que permita un flujo
continuo de un mínimo de 800 mbs nos permitiría grabar sin comprimir una
señal 1.080 25p, por ejemplo.
» Familias de compresión
Los algoritmos y códecs que intervienen en una compresión son muy técnicos, y
explicarlos sería más propio de una carrera de ingeniero de telecomunicaciones
que de este breve manual. Sin embargo, es bueno saber varias cosas sobre la
compresión.
La primera de ellas es que existen dos grandes familias de compresiones: la
intraframe y la interframe.
» 133
8. LA COMPRESIÓN
» 134
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
eficiente, que logra reducir los flujos originales de manera muy significativa
conservando una apariencia visual más que aceptable.
Sin embargo, una compresión interframe nunca será tan eficiente como una intra.
También requiere una mayor potencia de cálculo en los equipamientos, sobre todo si
se quiere hacer a “tiempo real". Que trabajemos sobre ficheros interlazados tampo
co ayuda a la compresión interframe. Por último, en un inicio, no era posible
una edición precisa al corte con códecs que trabajasen con GOP (si bien este
problema ha sido resuelto de diferentes maneras por los fabricantes de software).
» I-Frame
En algunos casos, es posible trabajar con compresiones tipo interframe sólo con
cuadros I, comportándose en ese caso como una compresión intraframe. Es el
caso del reciente códec de Panasonic AVC HD Intra, basado en el códec AVC
HD, que es interframe, de la familia mpeg4.
» Tendencias
En cuanto a las tendencias, se observa que para tratar los altos flujos de datos
del HD y cine digital, el mpeg2, excelente para las señales SD, está un tanto
obsoleto. Hoy en día se empieza a sustituir por la familia de códecs basados
en el mpeg4, mucho más eficiente (pero también más exigente en el cálculo),
que permite reducir el flujo a las cifras exigidas por la emisión de una manera
más correcta. El mpeg4 se basa en algoritmos de compresión con matemática
» 135
8. LA COMPRESIÓN
de ondículas (wavelets), pero más que eso es un “contenedor” que pretende ser
reconocible por todas las herramientas y equipamientos. El mpeg4 pretende
ser universal, escalable y adaptable a todos los entornos, además de incorporar
metadatos e incluso posibilidades de interacción 3D.
A medida que haya equipamientos de captación IT, sin cinta, y la tecnología
informática avance, será posible también una captación sin compresión.
En el caso de la captación en cámaras HR para cine digital, la tendencia es
trabajar sin comprimir, o con escasa compresión. En caso de llevarla, siempre
será intraframe. También se une la tendencia de trabajo con datos "en bruto”.
Esta opción es conocida como RAW (hablaremos de este tipo de formato RAW
en uno de los anexos).
En el caso de la distribución digital de cine en salas, la normativa DCI no
admite la codificación interframe, optando por una intra con el novedoso y
muy eficiente códec jpeg2000 (hablaremos de todo ello con más detalle más
adelante).
En el caso de la televisión profesional o broadcast, el códec usado en SD es el
mpeg2, mientras en HD usará una variante del mpeg4. Como dijimos, el mpeg4
es más un “contenedor”, pues admite muchas variantes o diferentes formas de
analizar y codificar la señal. La que parece que está ganando terreno es la conoci
da como H.264; algunas emisiones de satélite ya han optado claramente por ella,
y es más que probable que se adopte en la TDT-HD de la mayoría de los países.
En internet depende mucho del reproductor: windows media player, quick
time, real time, divx, flash player... Aquí la variante es mayor, pero todo tiende
también al mpeg4. Volveremos a este tema en la última parte del libro.
Recapitulación
» 136
9. Sonido
» 137
9. SONIDO
» Estándar SDTV
En el caso del sonido para televisión, el estándar en la normativa PAL es de dos
canales (estéreo) con un muestreo de 48 kHz y 16 bits.
48.000 hercios sería el número total de muestras, y 16 bits determinaría la
calidad de cada una de ellas.
Según el teorema de Nyquist, se entiende que una señal por debajo de los
40 kHz no reproduce todos los sonidos que es capaz de percibir el oído humano (el
ámbito de la música profesional, por ejemplo, trabaja a 44,1 kHz). La profundidad
de bits, al igual que en la imagen, puede ser aumentada para lograr una mayor
riqueza: 24, 36, etc.
El estándar es estéreo, con una mezcla balanceada para izquierda y derecha
(L/R). No obstante, la mayoría de los camascopios tiene la posibilidad de grabar
hasta cuatro pistas de audio independientes. E incluso algunas emisiones de
televisión convencionales emiten cuatro pistas (sistema dual: cuatro canales
comprimidos en dos). Esto permite, por ejemplo, la emisión simultánea de dos
versiones idiomáticas del mismo contenido.
>> Bitrate
En ocasiones, el sonido también se puede notar con un “bitrate". Es típico de
los sistemas basados en códecs mpeg, como el HDV o el AVC-HD. Se dice
entonces que cada canal de sonido “corre" a 256 o 326 kbs o equis (kilobits por
segundo). Lógicamente, mayor bitrate supondrá mayor calidad y peso y menor
compresión.
» Sonido en el cine
El sonido ha sido uno de los aspectos que más ha evolucionado en el cine desde
sus comienzos, pero también uno de los que más ha chocado con sus límites
físicos.
» 138
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Sonido digital
En los años ochenta, la digitalización llegó al mundo del sonido y se vio la
oportunidad de mejorar la calidad sonora de los largometrajes.
El problema era la falta de espacio que ofrecía el soporte. Diferentes empresas
ensayaron soluciones digitales, y finalmente fueron tres las que consiguieron el
consenso de la industria.
Y poco más se puede hacer con el sonido en una copia digital. Señalar tam
bién que, una vez más, las consideraciones comerciales, patentes y licencias
incluidas, primaron sobre una estandarización digital abierta y universal. Ac
» 139
9. SONIDO
tualmente, una sala precisa hasta tres lectores y descodificadores distintos, cada
uno de los cuales genera sus propios royalties.
» 140
» 141
PARTE II:
CAPTACIÓN
» Captación: las cámaras y algo más
» 143
PARTE II: CAPTACIÓN
» Límites en la captación
Partamos de que la cámara ideal no existe.
Lo ideal sería poder captar la mayor cantidad de información sin ningún tipo
de compresión ni pérdida. Es decir, trabajar con señal de muy alta resolución
(4K o incluso 8K), con muestreo total RGB, mucha profundidad de color (12, 14,
16 bits... ) y a una cadencia alta sin interlazado que evite el parpadeo y el filage
(48 o incluso 72 fps).
Sin embargo, la cantidad de información, su bitrate, sería tan alto que, hoy
en día, con la tecnología disponible, resulta casi imposible o terriblemente
incómodo para un rodaje profesional.
Ya conocemos las posibles opciones para bajar el bitrate: reducir algunos
de los cuatro parámetros básicos (rasterizado, submuestreo, etc.) o añadir una
compresión a los datos.
La aplicación de estas técnicas es lo que abre el amplio abanico de solu
ciones profesionales que los broadcasters nos proporcionan. Por eso, ya no sólo
tendremos que fijarnos en el “formato”, sea HD 1.080/720 o 2K/4K, sino también
en las soluciones comerciales que nos ofrece una cámara u otra. Y éstas han de
aparecer claramente en sus especificaciones técnicas.
» Coste total
Por otra parte, en el coste de una producción no influye sólo el soporte, sino toda
la cadena. Hay que tener en cuenta que diferentes cámaras y diferentes formatos
» 144
PARTE II: CAPTACIÓN
La línea de la luz
Para poder elegir y discernir entre la muy diversa oferta de cámaras existentes en
el mercado, recomiendo seguir el mismo camino que sigue la luz y ver qué tipo
de elementos clave de la calidad nos podemos encontrar.
Nos encontraremos con elementos ineludibles, comunes a todas las cámaras,
que son básicamente tres:
• El conjunto óptico
• La separación tricromática
• El sensor
» 145
PARTE II: CAPTACIÓN
» Conjunto óptico
Como "conjunto óptico” nos referimos no sólo a las lentes u objetivos, sino
también a los filtros que puedan usarse. Estos filtros pueden colocarse delante
del objetivo, o detrás, como ocurre con los filtros infrarrojos (IR) o la rueda de
filtros neutros (ND) o de balance de color usual en muchas cámaras de vídeo.
El filtro infrarrojo es muy usual en los sistemas digitales, no tanto en los
fotoquímicos (donde se usan casi siempre los ultravioletas, UV). Ello se debe
fundamentalmente al hecho de que los sensores digitales son muy sensibles
a las frecuencias infrarrojas de la luz, no visibles al ojo humano. Estos filtros
permiten mejorar los resultados visibles y evitar aberraciones cromáticas.
Los filtros usuales en fotografía quedan a criterio del director de fotografía
(DOP director of photography). Algunos lo usan con naturalidad, acostumbrados
al trabajo fotoquímico o de vídeo tradicional, y otros, dado las numerosas po
sibilidades de la intérmedicación digital, prefieren “filtrar" en postproducción.
Ambas mecánicas de trabajo son válidas, pero hay que tener en cuenta que los
filtros físicos no son reversibles: su efecto queda fijado indisolublemente a la
señal.
En el mundo del cine en España, se suele usar operador como sinónimo de director de fo
tografía, siendo el segundo operador el encargado de manejar la cámara; en el mundo del
vídeo, un operador o camarógrafo (o simplemente “cámara”) es el encargado del manejo
de la cámara, y el término “iluminador” se usa como sinónimo de director de fotografía.
En inglés, además de DOP también es usual encontrar la palabra cinematographer.
» 146
PARTE II: CAPTACIÓN
» Separación tricromátrica
Como ya hemos entendido en la primera parte, la información pura y dura carece
de color: son sólo unos y ceros, que nos proporcionan los diferentes niveles de
“grises". Para reproducir la sensación de color es necesario diferenciar los colores
primarios rojo, verde y azul.
Es lo que se conoce también como tri-estímulo (tristimulus).
Es preciso, pues, separar los tres colores básicos, y esto se realiza mediante
sólo tres técnicas:
• Prisma dicroico
• Máscara Bayer
• Foveon
» Sensor
Tras pasar por un proceso u otro de separación de color, la luz llega por fin
al sensor. Para un mejor estudio, en el término “sensor" (imager) incluiré no
sólo la rejilla de elementos fotosensibles, sino también, en la etapa conversora
analógico digital (A/D), el filtro anti-aliasing (AA filter), que consiste por lo
general en una fina película transparente que recubre el sensor. El filtro AA
también se conoce como filtro óptico de paso bajo (OLPF en sus siglas en
inglés).
» RAW
Lo que tendríamos justo después de la etapa A/D es una información en bruto
o en crudo (RAW) de lo que el sensor ha captado.
La forma de tratar esta información depende de las soluciones técnicas de
cada equipo en concreto, de sus elementos particulares. Dado que aquí la luz ya
se ha convertido en información digital, hablaríamos de la línea de datos (véase
más adelante).
» 147
PARTE II: CAPTACIÓN
en blanco y negro) puede ser considerado una cámara apta para un trabajo
audiovisual.
Por ello en este apartado tendremos que incluir no sólo el segmento tradicio
nal de cine y vídeo, tanto profesional como doméstico, sino también el campo
de la visión artificial y la incorporación de las cámaras de fotografía fija con
capacidad de grabación en vídeo.
Ni que decir tiene que también se incorporan nuevos dispositivos móviles de pequeño
tamaño, como las cámaras que incorporan los teléfonos móviles o PDAs: si tiene una
óptica y sensor, es una cámara.
La línea de datos
Una vez obtenidos los datos digitales, los equipamientos modernos ofrecen una
alta variedad de opciones, pero todas siguen un camino lógico.
Los datos RAW podemos guardarlos tal cual, para un posterior procesamiento
en postproducción, o bien mandarlos a la etapa llamada "matriz", que convierte
esos datos en una señal entendible por el resto de equipamiento televisivo: es
decir, la convierte en un estándar.
Este estándar puede ser exclusivo del mundo del cine digital (RGB o XYZ, 12
bits, 24/48 fps y diferentes resoluciones y relaciones de aspecto de pantalla), o
» 148
PARTE II: CAPTACIÓN
» Monitorización
El principal escollo de una señal no HDTV es su monitorización. Los monitores
estándar de la industria están pensados para una conexión HD-SDi. Sólo en los
últimos tiempos están apareciendo monitores que superan esa norma (2K, 10
bits), y que permiten conexiones no estándares en el mundo de la televisión,
como el HDMI u otras de tipo informático (Ethernet, USB, etc...)
Por eso la mayoría de las cámaras que graban en formatos no estándares
HDTV incorporan una etapa de matriz para proporcionar una salida de visionado.
Esta salida, si es de calidad, permite igualmente su captación externa.
» Almacenamiento
El almacenamiento puede ser interno (en los camascopios) o externo.
Generalmente, si es interno, suele ir acompañado de compresión, que será ade
más, por lo general, una solución comercial de cada casa. Si la grabación es
externa se puede pensar en una grabación sin comprimir, o elegir el códec más
apropiado.
Tanto interna como externamente, la grabación puede optar por un sistema
lineal (cinta) o no lineal (soporte rígido IT).
» Dispositivos I/O
Tanto para la monitorización como para la grabación externa, las cámaras han
de contar con dispositivos de entrada y salida (I/O, Input/Output interface), que
pueden ser, como hemos dicho, estandarizados o no.
Se suelen considerar de entrada y salida si hablamos de un camascopio, pues
en algunos de ellos se puede usar el magneto como grabador externo. Si no es
así, evidentemente, sólo contará con salida.
Las entradas y salidas y las diferentes conexiones (interfaces) nos dan siem
pre una idea de la calidad del dispositivo. Por ello he incluido un anexo.
Pasemos a dar una visión más concreta de cada elemento, tanto de los comunes
como de los particulares.
» 149
» 151
1. Elementos comunes a todas
las cámaras
» Concepto MTF
Se puede medir la calidad final de una cámara con el cálculo conocido co
mo Modulation Transfer Function (MTF), que analiza cada una de las etapas.
Generalmente, se muestra con un dato de "resolución en pares de líneas" por
milímetro (no confundir con la resolución entendida como número total de píxe-
les). A mayor número de pares de líneas, mayor calidad.
Sin embargo, no siempre los fabricantes proporcionan este dato, y no siempre
es fiable. Por otra parte, son reacios a dar más datos de los precisos (como la
» 151
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
composición de sus filtros AA). Así pues, nunca está de más recurrir a pruebas
de cámara en diferentes condiciones o consultar testeos realizados por profesio
nales independientes.
Y tampoco podemos olvidarnos de que, dentro del concepto MTE hay que
incluir el resto de procesos necesarios para mostrar la obra al espectador. En el
caso de la televisión, por ejemplo, la emisión por antena, la recepción y el tipo
de monitor. El tiraje de copias, la calidad del proyector y el tamaño de la pantalla
en el caso de una obra cinematográfica.
En este capítulo hablaremos de los tres elementos que más influyen en la
calidad final de los datos y que son comunes a todas las cámaras.
Las lentes
Las lentes son el ojito derecho de todo buen director de fotografía. Lentes de
fectuosas o mediocres logran resultados defectuosos y mediocres, aparte de
complicar el rodaje y estrechar los recursos creativos. Ahora bien: tienen un
precio. Fabricar una buena lente es caro, y fabricar una buena lente para el re
ducido mercado profesional (cientos, quizás algunos pocos miles de unidades)
es mucho más caro que fabricar millones de lentes para el mercado final o de
consumidor. Las lentes profesionales de cine se diseñan además específicamen
te para un trabajo muy exigente. Son muy luminosas, pues la obturación típica
(1/48) es crítica. Esta luminosidad, además, se ha de mantener en todo el juego
de lentes: si tenemos un 50 mm con f1.4, también necesitaremos un 24 mm y
un 135 mm con esa abertura. Los diafragmas son precisos, incluyendo pasos
intermedios (tercios, medios o incluso cuartos). Y están diseñados para trabajar
con otros accesorios profesionales, como el portafiltros o matte box y la rueda de
foco follow íocus). Por eso, las lentes profesionales son, por definición, de mejor
calidad que las demás, pero el precio de un buen conjunto de lentes puede ser
incluso superior a la propia cámara.
Por otra parte, el mercado final es mucho más sensible al precio que a la
calidad, por lo que es normal que en muchas cámaras pensadas para este
mercado se sacrifique hasta cierto punto la calidad de las lentes.
La conclusión es sencilla: la diferencia de precio del equipamiento audio
visual, dado que la tecnología específicamente digital es compartida por la
mayoría de los equipos, estará cada vez más en las lentes que en las cámaras.
En este libro no hablaremos de las lentes y su complicado mundo (en ocasio
nes, muy subjetivo), ni tampoco de fotografía. Es aconsejable tener unos cono
» 152
PARTE II: CAPTACIÓN
» Luminosidad
La luminosidad es también crítica. Una lente no es cien por cien transparente, y
siempre se pierde un porcentaje de la luz proveniente del exterior. En lentes de
focal variables (zoom), este hecho es más evidente pues se incrementa el número
de lentes internas y, por ende, la pérdida de luminosidad. En este sentido, una
óptica de focal fija (prime) siempre será preferible a otra de focal variable (zoom).
La luminosidad viene determinada por la apertura del diafragma, cuya me
dición se ha estandarizado con los "pasos f" o "f. ratio” (de focal ratio): f1,4,
f2,8, f5,6, etc. Como se sabe, cada paso de diafragma supone un incrementar o
disminuir por dos la cantidad de luz entrante.
"Focal ratio" indica con ese número que debemos dividir la focal (distancia de la lente
al objetivo, por ejemplo 50 mm) por él (por ejemplo, 2.8) para obtener el diámetro del
diafragma (en el ejemplo, 50 mm/f 2,8 = 17,86 mm, que será el diámetro de ese diafragma
en esa lente). La abertura (apertura en inglés) es pues un concepto ligeramente diferente
a la focal ratio, e influye en cuestiones tales como la profundidad de campo.
Los pasos f (f stops) tienen esta terminología un tanto complicada debido a que
el diafragma es un mecanismo casi circular. El área de un círculo es PI por el radio
al cuadrado. Si queremos aumentar el área de un círculo al doble, no tenemos que
multiplicar por 2, sino por raíz cuadrada de 2. Por ejemplo: f11 x 1,4142... = fl6
F11 tiene el doble de área que f16, y deja pasar el doble de luz.
» 153
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Variedad focal
Con variedad focal nos referimos a las distintas aberturas del ángulo de visión
(en inglés se suelen usar las siglas FOV de Field of Vision). Se mide en milímetros,
siendo la distancia entre el elemento captador (sea fotoquímico o electrónico) y
la lente. Valores más altos reducen el ángulo de visión (teleobjetivos) y valores
más bajos lo amplían (angulares).
Hay juegos de lentes intercambiables de focal fija (un único FOV) y lentes de
focal variable conocidas también como “zooms" (con varios FOV).
» 154
PARTE II: CAPTACIÓN
La palabra “fija” se usa indistintamente para señalar una óptica con focal fija (por ejem
plo, 50 mm; prime, en inglés) como una lente unida indisolublemente a la cámara, no
intercambiable (fxed).
» Lentes no intercambiables
Incorporar una lente fija supone, principalmente, un gran ahorro de coste en el
equipamiento.
El gran problema de estas lentes, aparte de su inferior calidad y la pérdida
de luminosidad asociada a un zoom, es su limitada variedad focal. Siempre
estaremos limitados en el uso tanto en teleobjetivos como en angulares abiertos.
El caso de los teleobjetivos puede ser crítico, por ejemplo, si deseamos realizar
documentales de naturaleza o eventos en directo, donde por lo general la cámara
se sitúa a gran distancia del objeto a fotografiar.
También se limita mucho la distancia angular en espacios pequeños. Hay
que señalar que estas cámaras, además del uso de ópticas fijas, suelen contar
con sensores de pequeño tamaño (1/2, 1/3 de pulgada). Esto reduce aún más la
distancia focal mínima con la que podemos trabajar, lo que dificulta el trabajo
en interiores con espacios reducidos.
Como dijimos, gran parte del mercado prosumer ofrece ópticas fijas, pero tam
bién se pueden encontrar cada vez más soluciones de esta gama que permiten
el uso de ópticas intercambiables.
» 155
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Ópticas intercambiables
En la gama profesional (broadcast) y alta (high end) del equipamiento, las ópticas
son siempre intercambiables. El fabricante suele vender el equipamiento con
una solución práctica como es un zoom estándar que cubra las distancias focales
más usuales.
Por lo general, este objetivo variable bastará para la mayor parte de la pro
ducción televisiva, donde los operadores están acostumbrados al trabajo con
zoom, incluso para la operación de enfoque.
Si deseamos usar la cámara para un trabajo más exigente o específico, po
demos recurrir a un juego de ópticas fijas intercambiables o incluso un zoom de
mayor calidad (mejor definición y luminosidad). Debido a que han de ser muy
luminosos y mantener el diafragma a lo largo de todas las distancias focales,
estos zooms suelen ser muy caros, pesados y voluminosos. Tanto éste como los
juegos de ópticas fijas, debido a su alto coste, se suelen encontrar en alquiler en
las casas de servicio.
Al igual que hay juegos de óptica para 35 y 16 mm, también encontraremos
ópticas para SD y HD. Son distintas no sólo por la mayor definición del HD,
sino también por el cambio de relación de aspecto (de 4/3 a 16/9) y tamaño de
sensor. En ningún caso es aconsejable trabajar con ópticas SD en cámaras HD.
Lo contrario sí es posible, siempre y cuando tengamos en cuenta el factor de
multiplicación (que limitará sobre todo en los angulares).
» Compatibilidades
Por tradición, las ópticas cinematográficas son siempre las de mayor calidad vi
sual. Además, los directores de fotografía están acostumbrados a ellas y conocen
las diferencias entre los distintos fabricantes.
» 156
PARTE II: CAPTACIÓN
» La profundidad de campo
Uno de los temas que más salen a la palestra cuando se trata de la cinemato
grafía digital es la diferencia que muestra en cuanto a la profundidad de campo
(Depth of Phocus, DOP) con respecto al cine tradicional.
La profundidad de campo es un concepto puramente óptico y se define como
aquellas partes del ángulo de visión que se encuentran a foco en un determi
nado encuadre. En realidad, técnicamente, sólo un punto determinado a una
distancia exacta está "a foco”. Pero se entiende que en las distancias próxi
mas a ese objeto tienen una pérdida mínima de nitidez y visualmente parecen
igualmente enfocadas. Llamamos campo focal o profundidad de campo a ese
espacio alrededor del foco objetivo que todavía percibimos como “enfocado”, y
"círculo de confusión" al límite existente entre lo enfocado y lo desenfocado en
los límites exteriores del campo focal.
La profundidad de campo será mayor "por detrás" del foco (aproximadamente
2/3) que por delante (1/3).
La mayor o menor profundidad del campo focal tiene que ver con tres elementos
ópticos:
» 157
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» 158
PARTE II: CAPTACIÓN
del cuerpo óptico y es indiferente que el sensor sea pequeño o del tamaño de
una cartulina.
» 159
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» El “look” cinematográfico
Se asocia una corta profundidad de campo al "look” cinematográfico, y una
mayor profundidad a un “look” televisivo.
» 160
PARTE II: CAPTACIÓN
Esto es cierto debido a lo que hemos hecho notar: los sensores con tamaño
más pequeño obligan a usar focales más abiertas y, por tanto, mayor PDC.
Pero las últimas cámaras digitales de HR empiezan a ofrecer una respuesta
muy similar debido al gran tamaño de sus sensores, equivalentes al tamaño del
fotoquímico. De ahí que la respuesta del foco se aproxime.
puristas que afirman que, incluso a igual tamaño del sensor, el fotoquímico
tendrá una PDC menor, pues los elementos fotosensibles se distribuyen en capas (una
para cada color), y este grosor, siquiera mínimo, también influye en la PDC. Teóricamente
se podría dar por cierto, pero no sabría decir hasta qué punto es apreciable esa mínima
diferencia.
Lo que no se puede afirmar es que un "look” tenga mayor calidad que otro. Ni
técnica, ni subjetiva o estéticamente.
Ciertamente, el creador cinematográfico con talento usa la profundidad de
campo de manera artística. En sistemas HD con sensores pequeños, el creador
se siente limitado, pues no puede "desenfocar" los elementos que a su entender
carecen de interés en el encuadre, para fijar la atención del espectador en los
enfocados. También es cierto que los desenfoques ópticos crean una textura
muy peculiar, que también puede ser usada creativamente.
Existen soluciones sencillas como retirar la cámara para usar focales más
largas, o trabajar con menos luz para abrir el diafragma. Pero no siempre son
posibles. A veces se recurre a un trabajo en postproducción, con un sabio uso
multicapa o con nuevos y sorprendentes plugins que simulan el desenfoque
óptico cada vez con mayor verosimilitud. Pero es laborioso y ralentiza el proceso
de postproducción.
Por otra parte, los defensores a ultranza del "look" cinematográfico olvidan
con frecuencia los problemas de foco que presentan los campos focales estre
chos. No es inusual que en primeros planos se vea a foco los ojos, pero no
la nariz o las orejas del protagonista: ¿es ése un efecto creativo deseado? No
siempre, desde luego. En ocasiones lo que desea el creador cinematográfico es,
precisamente, lo contrario: una mayor profundidad de campo.
En cuanto al componente "subjetivo” de asociar PDC en una dialéctica cine
versus televisión, tenemos el ejemplo clásico del estilo de Orson Wells, que
deseaba trabajar con amplios campos focales, obligando incluso, en su tiempo,
al rediseño de algunas ópticas. O encontramos uno más reciente en la obra de
George Lucas, en los últimos episodios de la saga Star Wars, donde el uso con
profusión de CGI (imágenes generadas por ordenador) y VFX (efectos digitales)
en muchos de los fondos y decorados dejaría de tener sentido sí se ofrecieran
» 161
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
• Primero, por lo que ya hemos dicho del campo focal más amplio: no es tan
crítico, pues aunque la figura se mueva un poco de su marca inicial, puede
seguir a foco dentro de la profundidad de campo.
« Segundo, porque se suele trabajar con mucha luz, sobre todo en los platos
de televisión. Con diafragmas más cerrados, se obtiene mayor profundidad
de campo y menos problemas de enfoque.
• Tercero, porque es habitual, tanto en plato como en exteriores, trabajar
con un zoom y no con lentes fijas. Con un zoom, la manera normal de
enfocar es que el operador ponga al máximo el teleobjetivo, tome foco y
luego abra para componer el plano. Con ópticas fijas, propias del rodaje
cinematográfico, eso no es posible: es necesario medir para enfocar. Es
imprescindible la figura del foquista.
» 162
PARTE II: CAPTACIÓN
» Mala visualización
Otro de los “vicios" del operador de cámaras de televisión es fiarse de su pequeño
visor para el foco, acostumbrado como está al uso del zoom. Pero ni estos visores,
ni las pequeñas pantallas de LCD que algunas cámaras incorporan, son fiables
para tan crítica labor. Esto es sobre todo importante en las cámaras prosumer,
pues suelen incorporar pequeños LCD que ni siquiera tienen la resolución nativa.
Fiarse de esas pequeñas pantallas para enfocar es más que arriesgado.
Tanto es así, que la mayor parte de los nuevos equipamientos incorporan
ayudas de enfoque en el propio LCD para facilitar la tarea del operador.
La mejor solución es contar con un buen foquista con experiencia. Y llevarse
también un monitor externo suficientemente grande, que nunca viene mal,
pues en ocasiones el director o el asistente de vídeo o de edición en rodaje
pueden apreciarlo al instante y advertir al operador (en caso de un problema de
backfocus, por ejemplo, donde el foquista está "ciego”).
La ventaja del digital con respecto al cine es que una correcta monitorización
no sólo es imprescindible, sino que resulta cien por cien fiable en el caso de
cámaras digitales, pues lo que se ve en la pantalla es exactamente lo mismo
que se graba. En cine, no se sabe nada hasta que se revela y positiva la toma. El
visor de la cámara (la lupa) no permite al operador saberlo siempre con precisión,
y se ha tenido que desechar más de un plano por problemas de foco, incluso un
día o dos de trabajo completo por un problema con el backfocus.
» 163
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Backfocus
El backfocus, dicho mal y pronto, es un reajuste focal entre la lente y la cá
mara que se realiza en la montura. En ocasiones, una montura defectuosa o una
dilatación en la misma (por efecto de la variación de la temperatura) altera la
distancia focal y, por tanto, también el plano focal de la lente.
Sucede entonces que medimos el objeto, ajustamos el anillo del foco a esa
distancia, pero el resultado sale desenfocado. En el caso del uso de zoom en te
levisión, podemos cerrar para enfocar pero al abrir perdemos el foco. El resultado
son imágenes borrosas, a pesar de que se ha tomado una medición “correcta".
Algunas cámaras digitales, sobre todo las que usan el bloque dicroico para
la separación del color (véase el siguiente apartado), tienden a calentarse mu
cho. Este calentamiento puede provocar desajustes en el backfocus (el término
técnico es “descolimación”). Si el desajuste es leve, es más que probable que el
operador no lo aprecie en su pequeño visor. De ahí, una vez más, la necesidad
de un monitoreado de la señal en una pantalla grande.
La única manera de evitar esto es, una vez más, un poco de exigencia y
profesionalidad. Comprobar a cada cambio de lente, y también, si es posible,
entre plano y plano, que el objetivo esté bien colimado.
Recapitulación
• Las lentes son el primer obstáculo con el que se encuentra la luz, y por eso
ha de intentarse conseguir la mayor calidad en las mismas, algo que tiene
un coste a considerar.
• En general, las ópticas más luminosas y con focales fijas dan mayor calidad
y nitidez que las menos luminosas y/o focal variable (zooms).
• La distancia focal y el diafragma influyen de manera decisiva en la “pro
fundidad de campo” de una imagen.
• Las cámaras de gama baja suelen contar con el inconveniente de no poder
intercambiar lentes, con lo que limita creativamente el tipo de planos que
pueden usar.
» 164
PARTE II: CAPTACIÓN
La s e p a r a c i ó n t r i c o l o r
» Prisma dicroico
El “bloque dicroico” es un conjunto de filtros y espejos que se sitúa justo después
de la lente y antes de los tres sensores captadores.
» 165
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
Los filtros dicroicos tienen la particularidad de filtrar las ondas de luz por su
longitud (ergo, colores) dejando pasar determinadas longitudes y reflejando
otras; los espejos redireccionan los haces hacia los otros sensores.
La característica principal de este sistema es que exige un sensor diferente
por cada color, pero por esa misma razón precisa sensores de menor tamaño
individual que un sistema con un único sensor con máscara Bayer.
El diseño de este prisma debe ser muy preciso, pues los tres sensores deben
tener el mismo plano de enfoque con respecto a la lente.
Y recordemos una vez más que lo que se obtiene de cada sensor es una señal
eléctrica, que carece de "colorimetría". Tendremos, pues, tres señales eléctricas.
» Máscara Bayer
El nombre se toma de su inventor, el ingeniero de Kodak Bryce E. Bayer, que
inventó esta solución para poder trabajar con un único sensor. En este caso, la
división cromática no se realiza por prisma, sino que se utiliza un único sensor
de gran tamaño donde se ha incrustado un máscara compuesta por sucesivos
“microfiltros” de los colores primarios. Esto hace que a cada píxel del sensor sólo
llegue un componente primario de la luz (véase página 395, arriba).
» 166
PARTE II: CAPTACIÓN
La señal que sale de este sensor es la conocida como “datos en bruto" o, más
comúnmente, RAW.
Esta interpretación es el proceso conocido como demosaico (demosaicing).
En función de cómo se realice, tendremos una imagen de mayor resolución que
otra, dependiendo de si aplicamos interpolación (submuestreo) o no. Posterior
mente, podremos optar por formatear la imagen en un fichero estándar.
Volveremos a tratar este tema en el siguiente apartado, dedicado a los sensores.
» Ventajas y desventajas
Ambos sistemas, Bayer o prisma, son válidos para una correcta fotografía digital.
Cada fabricante opta por uno o por otro por motivos técnicos o comerciales.
Hay que señalar, eso sí, que un sistema con un solo sensor siempre será más
barato que uno con tres, consumirá menos energía y ocupará menos espacio,
permitiendo cámaras más pequeñas.
Tradicionalmente, en televisión siempre se han usado cámaras con tres sen
sores. La tecnología en este sentido está muy consolidada. Uno de los problemas
asociados es el calentamiento de la cámara, que puede ser una fuente de ruido
indeseado en la imagen. El prisma dicroico es también una importante fuente
de calor. Y al subir la resolución de SD a HD se precisan sensores mayores, lo
cual explica los problemas de calentamiento de muchas cámaras HD. El calor
del "bloque dicroico” puede tener un efecto colateral importante, que es la des
colimación o desajuste en el backfocus, debido al calentamiento de las partes
metálicas de la montura.
Principalmente por esta razón, el exceso de calor, la opción de un solo sensor
con máscara Bayer se está extendiendo mucho, sobre todo en las cámaras
HR. Los sensores también se calientan, y lo hacen de manera proporcional a
su tamaño. Pero el bloque dicroico siempre se calienta mientras el diafragma
esté abierto y le llegue luz. Un sensor único se calentará más por ser más grande,
pero lo hará fundamentalmente en el momento de activarse.
Una tecnología con un solo sensor también ofrece la “ventaja relativa” de
que su tamaño se aproxima, o incluso supera, el tamaño del fotograma en
35 mm. Y, como ya hemos explicado, esto permite que reproduzca la respuesta
de profundidad de campo del fotoquímico. La industria no ofrece en la actualidad
un sistema de tres sensores con un tamaño S35 mm o superior, estando el límite
en los 2/3 de pulgada. Y es poco probable que el futuro traiga un desarrollo de
este tipo, pues el calor producido derivaría en una herramienta impracticable.
Un argumento más a favor de un futuro sin bloque dicroico.
» 167
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Foveon
Un último avance sobre la división tricromática son los sensores Foveon. Se
trata de una tecnología de la que se viene hablando hace tiempo, pero que en la
actualidad no está operativa en ninguna cámara de HD o cine digital, pero sí en
cámaras de fotografía digital. Dado que muchas de estas cámaras empiezan a
ofrecer opción de grabación HD, seguramente pronto veamos soluciones Foveon
para cine y televisión (véase página 395, abajo).
En este caso, la separación cromática se realiza "en vertical". No existe
ningún tipo de máscara Bayer ni microfiltro de color. En el chip Foveon, las
capas superiores de cada diodo son sensibles al azul, las intermedias al rojo
y las profundas al verde. Esto permite fotodiodos de mayor tamaño y que los
defensores de esta tecnología hablen de resoluciones verdaderamente nativas:
un Foveon de 12 millones de fotodiodos permite una resolución nativa,1x1,
de 12 megapíxeles RGB (3 canales con 12 millones de muestras en cada uno de
ellos).
Los detractores, no obstante, hablan de una menor sensibilidad de este tipo
de sensor con respecto al CMOS o al CCD.
No es descartable ésta u otras tecnologías para cámaras del futuro.
Recapitulación
» 168
PARTE II: CAPTACIÓN
Los sensores
» CMOS y CCD
En su origen, las cámaras de televisión trabajaban con tubos de imagen, una
tecnología actualmente en desuso. Después se desarrollaron los primeros senso
res planos, con tecnología CCD (dispositivo de doble carga, en inglés). Permitían
un uso más robusto de las cámaras, más eficiente que los tubos. Posteriormente,
los CMOS (semiconductor complementario de metal-óxido) aparecieron en otros
ámbitos de la industria, y, en los últimos años, se aplican también con éxito a
soluciones profesionales de televisión y cine. En este capítulo no hablaremos de
la tecnología Foveon, pues, a día de hoy, no hay aplicaciones en el terreno de
imagen en movimiento.
Tanto el CCD como el CMOS han evolucionado en el tiempo y ofrecen pe
queñas variantes. Si bien tradicionalmente se consideró el CCD de mejor calidad,
hoy en día los CMOS se han puesto muy a la par y ofrecen ventajas adicionales.
Una de ellas, el menor coste de fabricación. No obstante, en un mercado en
continua evolución, ambas tecnologías son plenamente válidas y compiten sin
obstáculos.
» Capturar fotones
Todos los sensores se basan en la misma idea: aprovechar las particularidades de
algunos elementos semiconductores (aleación de silicio) que pueden convertir
la energía presente en la luz (fotones) en corriente eléctrica (electrones). Esto
es aplicable a cualquier CMOS o CCD (o Foveon) en cualquier dispositivo de
captación electrónica. Hablamos del cine, de la televisión, pero también de la
fotografía o de aplicaciones industriales y científicas (visión artificial).
» 169
1. ELEMENTOS COMUNES A TOGAS LAS CÁMARAS
Un sensor (imager) está compuesto por equis celdillas en forma de rejilla que
se denominan fotodiodos. El material del que están hechos permite capturar la
energía presente en la luz (fotones) y convertirlos en un flujo de electrones.
Una gran intensidad de la luz implica un mayor número de fotones y, por ende,
una mayor corriente eléctrica en forma de electrones. Situaciones con baja
luminosidad emiten pocos fotones y por tanto contaremos pocos electrones a la
salida.
Generalmente, y dado que casi todos los sensores usan el mismo material
base (silicio), lo que tenemos que entender es que un fotodiodo podrá captar
más fotones en función de su área o tamaño.
» Resolución y sensibilidad
Una vez que se conoce este funcionamiento, lo primero que tenemos que pensar
es que un sensor determinará los dos parámetros más importantes de una
imagen digital: su resolución o número total de píxeles, y su sensibilidad o
» 170
PARTE II: CAPTACIÓN
» 171
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
& Muchas de las medidas que se usan en la tecnología de los sensores no utilizan el
sistema métrico decimal, sino que tienen origen en el sistema "imperial" anglosajón.
Una pulgada son 25,4 mm (el tamaño de un pulgar medio, al parecer). Curiosamente,
16 mm equivalen casi precisamente a 2/3", si bien tiene un origen distinto.
» 172
PARTE II: CAPTACIÓN
» 173
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» 174
PARTE II: CAPTACIÓN
>> Ruido
En la imagen electrónica el ruido es aquella parte de la información que no se co
rresponde con la realidad que se quiere mostrar, originada por imperfecciones de
los procesos de captación. En fotoquímico, el ruido toma el nombre de "grano",
y se origina por una deficiente exposición de los elementos fotosensibles o un
excesivo forzado en el relevado.
El origen del ruido en sistemas electrónicos tiene dos fuentes, y según cuál sea se
habla de patrón fijo de ruido (fixed pattern noise) o ruido aleatorio (random noise).
» 175
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» SNRyRD
Sin embargo, con las tecnologías actuales es precisamente este patrón fijo el
más sencillo de eliminar. El reseteo no es exacto ni igual en todas las celdillas,
pero sí toma valores estables, es decir, se comporta siempre igual. Básicamente,
se trata de “filtrar" este ruido fijo, eliminándolo. Con ello, sin embargo, perdemos
parte del rango dinámico verdaderamente eficiente, por lo que el valor técnico
que debería aparecer en un equipamiento profesional no es el RD, sino la relación
señal ruido (SNR en sus siglas en inglés).
Por lo general, con el filtrado (dither) del pattern noise, se pierde 1 stop
(6 dB, 1 bit) en el rango dinámico. Mejores o peores filtros (realizado por micro
procesadores y el firmware de cada cámara) pueden mejorar o empeorar esta
cifra.
Hay que tener en cuenta también la cuantificación digital (etapa A/D). Esta
se realiza de forma similar a los pasos de diafragma, en valores dobles o mitades.
Si, por ejemplo, contamos con 100.000 electrones, el primer bit se reser
vará para cuantificar 50.000 electrones, el segundo 25.000, el tercero 12.500 y
así sucesivamente. Teóricamente, podríamos aplicar una etapa A/D de gran ca-
» 176
PARTE II: CAPTACIÓN
lidad, por ejemplo 12 bits. Pero es fácil calcular que el valor del último de esos 12
bits correspondería a tan solo 51 electrones. No sólo son pocos para tenerlos en
cuenta, sino que también sería un valor muy contaminado por el ruido fijo. Por es
ta razón, lo más sensato es desechar los dos últimos valores de la conversión. De
ahí que generalmente la etapa A/D procese con mayor profundidad (14 bits, por
ejemplo) que el formato final de salida (un RAW de 12 bits, por ejemplo). Y de ahí
que el valor del rango dinámico, RD, y la relación señal / ruido (SNR) difieran.
Los fabricantes varían el tipo de información que ofrecen en sus especifica
ciones, incluso en cámaras del mismo fabricante. Unos hablan de HRD, otros de
SNR, otros de latitud en stops, otros de lux a determinados diafragmas, otros
de bits, otros de micrones (tamaño de los fotodiodos) y otros incluso de electro
nes a plena carga. Hay que ponderar todas esas cifras para poder hacerse una
idea de la sensibilidad real del sensor.
» Fill Factor
Un último dato a tener en cuenta si hablamos del tamaño del fotodiodo es el Fill
Factor, o factor de llenado. Por delante del fotodiodo siempre hay una microlente
(microlens, microlenticular array) que intenta que la celdilla capte todos los rayos
de luz, con independencia de su ángulo de origen. Esto optimiza también el
uso de toda la variedad de distancias focales de los objetivos (véase página 396,
arriba).
Éste puede ser un elemento del Fill Factor. El otro, más importante aún, es
que no toda el área del fotodiodo es verdaderamente sensible a la luz, pues una
parte de él está dedicado a otros usos electrónicos. Para entenderlo es preciso
hablar de las dos tecnologías que actualmente se utilizan: el CCD y el CMOS.
El Fill Factor también puede influir en temas como el aliasing (véase más adelante). Y, por
lo general, es un dato que los fabricantes suelen ocultar, pues es parte de sus secretos
industriales.
» 177
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
inglés), es el propio de las cámaras de televisión desde hace décadas, pues sus
tituyó a los tradicionales tubos. El CMOS (Complementary Metal-Oxide Semi
conductor) es una tecnología que se ha aplicado más recientemente al mundo
audiovisual.
Tanto si se trata de CCD como de CMOS pueden optar por máscara Bayer o
por prisma dicroico para la separación de colores.
Siempre ha habido, y habrá, defensores de una y otra tecnología. Pero en
mi opinión, y en la de muchos, actualmente ambas se encuentran a la par en
cuanto a prestaciones se refiere.
Es necesario conocer, eso sí, su arquitectura, pues las dos tecnologías tienen
sus ventajas y desventajas.
» 178
PARTE II: CAPTACIÓN
/ Arquitectura CMOS /
1. El fotodiodo convierte
sus propios electrones
en carga eléctrica
» Ventajas y desventajas
Esta diferencia de diseño nos puede ir señalando algunas ventajas y desventajas
entre ambas tecnologías (señalando, una vez más, las diferencias mínimas entre
ellos).
• Fill Factor. Dado que el CMOS precisa espacio para otros transistores, a
igual tamaño de fotodiodo, el CCD tendrá un Fill Factor mayor que el CMOS.
Esto significa mayor rango dinámico y menor ruido inherente.
« Consumo y tamaño. Los CCD precisan de otros procesadores unidos al sen
sor, mientras que los CMOS no. Esto implica un menor tamaño en los se
gundos, menor consumo y menor calentamiento. En este aspecto, los CCD
pueden resultar más sensibles al ruido aleatorio, producto de ese calor
(random noise).
• Producción. Los CCD son menos tolerantes con los errores de fabricación.
Un único fotodiodo puede estropear el rendimiento de toda una columna.
Por el contrario, los CMOS pueden ser operativos con más de un elemento
defectuoso. Esto facilita su diseño y fabricación, abaratando el coste.
• Por la razón expuesta, el patrón fijo de ruido de un CMOS puede hacerlo
más ruidoso que en un CCD. Exige un mejor filtrado, pero al mismo tiempo,
» 179
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» 180
PARTE II: CAPTACIÓN
» Contaminación (smear)
Los CCD son inmunes a esta distorsión, pues permiten un global shutter per
fectamente progresivo. Sin embargo están afectados por lo que se conoce como
"contaminación lumínica” (smear). Esto sucede cuando un foco de luz muy in
tensa se dirige directamente al sensor. La o las celdillas se cargan de electrones,
desbordándose incluso, y afectando al resto de las celdillas de su columna. Apa
rece entonces en la imagen una línea horizontal sobre toda la columna. Este
artifacts no aparecerá nunca en un sensor CMOS.
» 181
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
/ Corrigiendo el smear /
IT (Interline Transfer)
1. El fotodiodo transfiere
sus electrones a la
columna vertical
de registro...
1. El fotodiodo transfiere
la carga a un segundo
sensor habilitado como
zona de descarga...
» 182
PARTE II: CAPTACIÓN
Es raro encontrar una herramienta, siquiera fotográfica, con un CCD simple; normal
mente son siempre ya, como mínimo, IT.
» Tecnologías equivalentes
Como hemos visto, tanto el CCD como el CMOS presentan ventajas e incon
venientes. Y los defectos asociados a su arquitectura se han ido solucionando
a lo largo de los años. Por esa razón, actualmente, se consideran tecnologías
plenamente operativas con el mismo nivel de calidad. Y se espera que mejoren
con el paso de los años (Live MOS, back-light CMOS, etc.).
» 183
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
Por lo general, los fabricantes son reacios a hablar de la resolución "real" de sus
sensores. Y hay que fiarse de la resolución “aparente", la que proporciona la
salida.
La interpolación es algo negativo, si bien los resultados pueden ser funciona
les. Los mayores inconvenientes suelen venir por un aumento del ruido (sobre
todo con malas condiciones lumínicas) y una falta de definición en planos con
objetos que presenten líneas verticales u horizontales muy definidas (aliasing
y/o moaré), y en general cualquier objeto que precise nitidez y detalle, como en
planos generales de espacios abiertos.
La interpolación es una solución de alguna manera similar pero diferente del
rasterizado. El rasterizado es un submuestreo que utiliza el “truco" de considerar
una relación de aspecto del píxel diferente a la cuadrada 1:1, “ensanchando" la
imagen; mientras la interpolación se inventa nuevas "muestras”. Existen cáma
ras en las que a una resolución rasterizada se le añade, además, interpolación.
Los sensores pueden llegar incluso a ofrecer una resolución superior a la nativa
del formato que ofrecen. Esto se debe, fundamentalmente, a que estos sen
sores se fabrican de manera industrial con medidas estándares, también para
las cámaras de fotografía fija, visión artificial y otros usos. Los fabricantes de
cámaras digitales de cinematografía aprovechan estas soluciones y las imple-
mentan en sus dispositivos. Si "sobran" algunos píxeles, lo que hacen es hablar
de "píxeles activos" dentro del propio sensor.
Este aspecto es muy común en los CMOS, pero no en los CCD (una vez más,
por sus diferentes diseños).
» 184
PARTE II: CAPTACIÓN
que tener en cuenta que si se usa un windowed, esto puede influir en la distan
cia focal del objetivo que se utilice. Al reducir el tamaño del sensor, hay un factor de
multiplicación de la focal.
» Sobremuestreo
En oposición al submuestreo, existe la técnica conocida como sobremuestreo
(super-sampling, bining). Consiste básicamente en que un píxel en la imagen
toma la información no de una única celdilla o fotodiodo, sino de dos o más.
Esta técnica, todavía no existente a día de hoy en el mundo profesional del
cine o la televisión, ya se implementa en sensores industriales y científicos y
en algunas cámaras fotográficas (Súper CCD o CCD-S/R de Fuji). El objetivo es
reducir el aliasing y, mucho más interesante, obtener imágenes de mayor rango
dinámico (Higher Dinamic Range images).
El sobremuestreo es una de las técnicas de mayor futuro y recorrido en
los próximos años, pues promete superar los famosos 11 stops de latitud del
fotoquímico, permitiendo HDRi de 12, 14 o incluso 16 pasos de diafragma.
» 185
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
Rojo: 188
Verde: (35 + 57 + 63 + 88)/4 = 177
Azul: (115 + 56 + 87 + 121)/4 = 95
De esta manera, se consigue una triple muestra de color por cada píxel. Y por
ello, de sensores con máscara Bayer de 12 mpx (4.096 px(h) x 3.100 px(v)), se
pueden conseguir ficheros 4K con un peso de 36 MB (y superiores, dependiendo
de su profundidad de color).
¿Se podría considerar un fichero nativo con este tipo de demosaico? Perso
nalmente, pienso que no, pues sería confundir a los técnicos: para mí siempre
será un submuestreo o interpolación. Sin embargo, lo que importa al final es
el resultado, y si mediante éste u otros procesos de demosaico se consiguen
resultados visuales óptimos, habrá que considerarlo una herramienta de trabajo
estándar. En este caso, la profundidad de color / sensibilidad que nos pueda pro
porcionar el sensor es clave, pues si el sensor tiene una gran respuesta (digamos
12 bits), se puede obtener una resolución superior a 8 bits con muy buena calidad.
Este, y no otro, es el modelo que propone RED, fabricante de las cámaras Red
One, Epic, Scarlet y otras, a las que atribuye altas resoluciones (4K, 5K, 6K) que
no son realmente nativas. Pero otros fabricantes están siguiendo esta línea.
» 186
PARTE II: CAPTACIÓN
» Máscara stripped
Esas máscaras citadas (RGBW, BRBG, CMYW) son propuestas, todavía no insta
ladas en ninguna herramienta de captación. Pero sí se ha implementado ya en
algunas cámaras de cine digital un tipo de máscara diferente a la tradicional,
con igual número de fotodiodos de los tres colores, en bandas (stripped) (véase
página 397, arriba).
En ocasiones, los píxeles se distribuyen diagonalmente sobre el sensor. Esta
tecnología (actualmente usada por Sony y Panavision, pero no descartable en
otros fabricantes) se puede considerar nativa si cada píxel toma el valor del
conjunto de los tres fotodiodos RGB o si, como sucede en algunos casos, se
realiza un sobremuestreo.
La disposición de las columnas puede ser también en diagonal.
» Aliasing
La traducción de este término al castellano es el de “solapamiento", pero
siempre se usa el término en inglés. Se produce un efecto de aliasing cuando la
información “baila" entre dos o más fotodiodos anexos. En televisión se conoce
como el "efecto moaré” y también como "ruido mosquito".
» 187
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
En ocasiones, y cuando no queda más remedio, se usan soluciones más burdas: una sería
desenfocar ligeramente la imagen, o colocar un filtro de suavizado (soít) en la lente; y si
se hace en postproducción, se aplica un efecto de suavizado (blur) a la zona afectada.
Ambos sistemas, obviamente, no son muy recomendables en cuanto a calidad.
Recapitulación
» 189
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» ISO y ganancia
Tanto en la tecnología CMOS como CCD, la etapa A/D es independiente del
sensor. Recordemos: del sensor sólo sale una corriente eléctrica. Pero esa señal,
muy débil, se amplifica para su lectura.
Una característica propia del mundo de la fotografía digital son los valores
ISO, que no se usan en el mundo audiovisual, donde sí es común el valor de
"ganancia”. Los ISO recogen la tradición de los carretes de negativo fotoquímico
(valores ASA o ISO, que se expresan en múltiplos de 100,200,400, etc.), mientras
que la ganancia lo hace en decibelios (-3 dB, 0 dB, 3 dB, 6 dB, etc.).
» 190
PARTE II: CAPTACIÓN
» Límites
Los valores ISO que ofrecen algunas cámaras son “aproximaciones” no estanda
rizadas a los valores ISO tradicionales (sí estandarizados) que nos puede ofrecer
un fotómetro profesional, por ejemplo. La terminología es sólo una ayuda, y es
conveniente examinar los equipos previamente para ver la correlación real.
En fotografía digital, actualmente se pueden alcanzar valores ISO relativa
mente altos sin que se llegue a "apreciar" el aumento de ruido generado. A
eso ayudan los procesadores A/D diseñados para ello, que funcionan también
como discriminadores y eliminadores del ruido. Sin embargo, por la propia ca
racterística aleatoria de distribución del ruido, éste siempre será más visible y
apreciable en las imágenes en movimiento, pues "baila" de manera más evi
dente. Y tampoco los filtrados pueden ser tan efectivos como en la fotografía
fija, pues se maneja un número de bits por segundo enormemente más elevado.
Por las razones expuestas (aumento de ruido y estrechamiento del RD), el
uso de ISO o ganancias no es muy recomendable. No obstante, con sensores
y fotodiodos más grandes, la ganancia ISO puede ser más efectiva que en
fotodiodos más pequeños, pues el nivel de ruido inherente es también menor.
» Matrización
Tras la etapa A/D ya tenemos “digitalizada la realidad", es decir, convertida en
una sucesión de unos y ceros que corresponde a un determinado número de
píxeles o muestras con su característico detalle y precisión. Este proceso debe
repetirse tantas veces por segundo como determine la cadencia que hayamos
elegido (24, 25, 30...) para tener una imagen en movimiento en nuestro cerebro.
» 191
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» Correcciones de gama
Una de las características de las cámaras digitales modernas es que, si bien
la matrización es un proceso estándar y, generalmente, automático, hoy en día
podemos "tocar” algunos de sus parámetros para obtener algunos efectos de
fotografía. Es lo que se conoce como “corrección de gama” o “curvas de gama".
» 192
PARTE II: CAPTACIÓN
No todas las cámaras tienen estas opciones, pero suelen incluirse por defecto
en las cámaras high end o de alta gama. Algunas de estas correcciones vienen
por defecto (del tipo "cinelook I, cinelook II..." que se encuentran en algunos
aparatos), y son seleccionables sin más a través de los menús internos de las
cámaras. Pero el operador experimentado también puede adentrarse más en
esos menús y producir sus propias "curvas” personalizadas.
No se debe confundir este proceso con el trabajo logarítmico (véase el anexo).
Una corrección de gama nunca saldrá de los estándares internacionales esta
blecidos, sino que variará las relaciones de colores y contrastes siempre dentro
de estos límites.
» 193
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
Una vez más, hay que contar con la particularidad de que el ojo humano es
más sensible al contraste en las zonas medias que en las altas o bajas. Esto
quiere decir sencillamente que podemos apreciar las diferentes tonalidades de
una piel (si es morena o clara, si se ha ruborizado, si ha tomado el sol) mejor
que las diferencias entre gamas de blancos de una nube o, mejor aún, que las
sutilezas de una zona sombreada o en oscuridad.
“Tocando" la curva de respuesta de la matriz podemos aumentar los niveles
de detalle y contraste en estas zonas medias, pero con la condición de perderlos,
comprimiéndolos, en las otras zonas.
Más detenidamente, se puede diseñar una curva que pueda subir los medios,
comprimir los bajos pero mantener los altos. Las posibilidades son infinitas.
La terminología puede variar en cada cámara. Generalmente, las correccio
nes en los medios se llaman midtones, grey o simplemente gamma’, los bajos
aparecen como master, lift o pedestal: los altos como whites, gain, white knee
o simplemente knee. En equipos de postproducción también se usan diferentes
terminologías, dependiendo del fabricante. Pero siempre nos referiremos a las
zonas bajas, medias o altas.
» 194
PARTE II: CAPTACIÓN
» Irreversibilidad
Hay que tener en cuenta una cosa: cualquier cambio o corrección que aplique
mos en esta etapa es irreversible. Si variamos la dominante roja de una toma,
por ejemplo, esta variación quedará unida a la señal y será la base de todo el
trabajo posterior.
Por esta razón, muchos operadores prefieren trabajar poco con los menús
internos y dejar el resto de correcciones para el trabajo posterior en postpro
ducción. Pero otros, sin embargo, quizá por su experiencia profesional, prefieren
llegar a la posproducción con la imagen lo más semejante posible a lo que será el
resultado final.
Ambas opciones, por descontado, son válidas, siempre y cuando todos los
implicados sean conscientes de que las correcciones en la matriz, las ganancias
y otros circuitos internos alteran irreversiblemente la señal obtenida.
» 195
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» Ventajas RAW
Para los defensores del RAW, su principal ventaja es que este tipo de decisiones
clave se pueden tomar en una sala de montaje, en un ambiente relajado y
tranquilo lejos del estrés de un rodaje. Los ajustes, además, podrán ser más
finos y calibrados. Y, sobre todo, trabajamos con todas las posibilidades que nos
ofrece el sensor, sin el recorte inevitable que supone la etapa de matriz, o el paso
a un formato de 8 bits.
También se señala que la compresión del RAW (en códecs como Redcode,
CineForm y otros) es más “limpia", genera menos ruido, que la compresión de
una señal matrizada.
Lo ideal en este caso sería trabajar; como en fotografía digital, con ficheros RAW sin
comprimir. Pero dado el enorme flujo de datos que se genera, resulta poco más o menos
que impracticable en situaciones de rodaje real. No obstante, es posible y así sucede
en algunos equipamientos de visión artificial, y si la miniaturización de las tecnologías
sigue avanzando, su implementación en cine y televisión podría no estar lejos.
» Desventajas RAW
Sin embargo, hay también algunas desventajas. La principal es que la señal
RAW no se puede monitorizar. Al no estar matrizada, no se puede conectar a un
monitor para visualizarla. Es necesario, como hemos visto, pasar los datos RAW
por una matriz, siquiera temporal, para poder visionarios. Estas salidas sí están
matrizadas, e incluso tienen ya el ajuste de temperatura de color u otros que
» 196
PARTE II: CAPTACIÓN
hayamos seleccionado, cosa que los datos RAW no tienen. No es, pues, fiable
al 100%, ni para temas de color ni de contraste. Sí lo es, por contra, para el
encuadre y para el foco.
» Reversibilidad
Los ajustes de monitorización no alteran el RAW original. Se incorporan al
fichero como metadatos, que pueden ser interpretados automáticamente por los
softwares licenciados y ser mostrados en la pantalla. Pero incluso así, podemos
volver a retocar todo lo que deseemos en el fichero original para resetear los
ajustes propios del '‘matrizado” (nitidez, contraste, saturación, temperatura de
color...). Lo que no podríamos recuperar es un ISO o ganancia nativa, pues ya
vimos que era una etapa previa a la digitalización. Si el ISO o ganancia no es
nativa, sí se puede recuperar, pues como hemos visto es posterior a la etapa A/D
y, por tanto, posterior al flujo RAW.
También la cámara puede originar al mismo tiempo que el fichero RAW otros
matrizados, referenciados o de menor resolución (proxies, espejos), que permitan
una rápida visualización o un premontaje en un ordenador de rodaje, sin que
sea necesario procesar el RAW original.
» Tiempo real
Al formato RAW se le ha llamado "negativo digital” precisamente por esta
característica. Igual que el fotoquímico, es necesario "revelarlo y positivarlo”,
procesarlo en definitiva, para poder trabajar con él.
Por lo general, los operadores provenientes del campo de la cinematografía
se sienten a gusto con el workflow o flujo de trabajo RAW. Se asocia el disco
duro o la tarjeta de memoria donde se almacenan los datos al “chasis” de 35 mm
donde va el negativo. Cuando la memoria se llena, se cambia el “chasis”.
Por el contrario, los operadores provenientes de la televisión encuentran este
flujo de trabajo un tanto engorroso, acostumbrados como están a poder mo-
nitorizar la señal original, con la certeza de que lo que ven en el monitor es
exactamente lo que se almacena en el archivo.
Por descontado, el trabajo RAW es específico del mundo cinematográfico.
No existe por ahora una cámara con grabación en RAW que pueda, al mismo
tiempo, incluirse en una cadena de producción televisiva estándar (no se puede
conectar a una mesa de edición RAW o una unidad móvil RAW como otra
puramente HDTV).
» 197
2. ELEMENTOS DIFERENCIADORES EN CADA CAMARA
Almacenamiento y salidas
>> Camascopios
» 198
PARTE II: CAPTACIÓN
Se habla de “entorno IT” cuando todo el proceso se hace en digital y sin cinta (no lineal).
» Tipos de compresión
Como ya hemos explicado, las compresiones no son estándares. Cada fabricante
presenta sus propias soluciones, y es libre de ofrecer o no los códigos al resto de
la industria.
Con la introducción de la grabación no lineal, este problema de patentes
planteaba muchos problemas, por lo que se ha intentado establecer un criterio
común, que llamamos MXE Media eXchange File no es un códec sino un “pro
tocolo de empaquetamiento’’ informático que permite que diferentes equipos
(cámaras, equipos de grabación IT, editores no lineales, postproducción y distri
bución) entiendan la información contenida en el fichero y, si disponen de las
licencias pertinentes, trabajen con los códecs nativamente. Incluso, la extensión
del MXF ha abierto además estos códecs, y la mayoría de los fabricantes optan
por una política de códecs abiertos, no propietarios, empaquetados con formato
MXE
No obstante, algunos códecs siguen siendo propios de determinados equipos,
plataformas (MAC, Windows) o fabricantes. Será tema para el siguiente capítulo.
» 199
7
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» Cadena HDTV / DC
La etapa de matriz es básica en la cadena de producción de televisión debido
a que las emisiones en directo lo requieren. Por esta razón, lo más usual es que
todas las cámaras digitales ofrezcan señales estándares HDTV de 1.080 o 720.
Esto descarta las resoluciones superiores (2K, 4K), que, al no provenir del ámbito
televisivo, no tienen salidas estandarizadas.
Esto no quiere decir que el 2K o el 4K siempre trabajen en RAW. La información
se puede matrizar y guardar, por ejemplo, como secuencias de ficheros dpx o tiff,
con un espacio de color diferente al televisivo (SuperRGB, Adobe, Apple o, más
corrientemente, XYZ, que es el específico del DCI). Pero también una señal 2K/4K
se puede grabar como un formato de vídeo (quick time, windows media...). Pero
en este caso, ambas soluciones SIEMPRE se grabarán en formato no lineal, sin
cinta. La razón es que todos los magnetoscopios que se fabrican en la actualidad
están estandarizados a una señal HDTV y no existen magnetos ni 2K ni 4K.
» Tipos de salidas
Una cámara tendrá, por lo general, todas o algunas de estas salidas (interfaces
I/O):
Para cualquiera de las dos primeras es necesario que la cámara pase por la etapa
matriz. Para la segunda, puede hacerlo o no.
El tema de las salidas, su cableado e identificación merece un anexo aparte
(véase el anexo correspondiente), pues es muy común usar el nombre de la
salida como identificación del formato. Por ejemplo, si decimos que la cámara
proporciona una salida HD-SDi, deducimos que se trata de una señal 1.080 o
720, interlazada, YUV y con una cadencia estandarizada; si se ofrece salida Dual
Link, entendemos que es una señal RGB.
» 200
PARTE II: CAPTACIÓN
» 201
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
/ Salidas HDV /
» 202
PARTE II: CAPTACIÓN
Finalmente, hay una última opción, que es que nuestro ENL reconozca per
fectamente el fichero almacenado y podamos pasarlo directamente a la línea de
tiempo sin necesidad de importación o log & transfer. Sería una solución Direct
to Edit, directa a la edición.
Trataremos más ampliamente estas opciones en la parte dedicada a la post
producción.
» Salida HDMI
High Deffition Multimedia Interface es un desarrollo de la industria pensado
principalmente en el consumidor final. Permite la interconexión en alta defi
nición entre todas las herramientas domésticas de alta definición: televisores,
handycam, reproductores BlueRay, consolas de videojuegos, receptores de TDT, etc.
La conexión en sí es excelente, con un alto flujo de datos sin comprimir,
incluso con resoluciones de 2K 3D estereoscópicas y superiores. Los inconve
nientes son el precio del cable, su mala interface de conexión (con conectores
muy frágiles y sin ligazón de seguridad para evitar su desconexión fortuita y/o su
desgaste) y lo limitado de su máxima longitud sin pérdida (actualmente, sobre
los cinco metros).
No obstante, se ve de manera habitual en muchas cámaras domésticas y
de la gama prosumer. Incluso, los fabricantes de tarjetas capturadoras ya han
implementado soluciones de captura.
Las conexiones HDMI pueden incluir, o no, una protección anticopia conocida
como HDCE En ese caso, se permite el visionado pero no la copia.
» Conexiones Ethernet
Las conexiones firewire y usb, muy comunes, están limitadas por su escaso
ancho de banda, 400 mbs. En algunas cámaras HR y otras de visión artificial se
implementan salidas aún más rápidas, de tipo Ethernet o Giganet. Esto permite
la transmisión de muy altos flujos de datos, incluso de señales HD o 2K sin
comprimir.
» Memorias búfer
En ocasiones, sobre todo en cámaras de alta resolución o equipos especiales
de elevada cadencia, el flujo de datos resultante puede superar la capacidad de
transmisión de las salidas .
Suele pasar en sistemas 4K sin comprimir (8 gbs o superior) o en cámaras de
alta velocidad (500, 1.000 o más imágenes por segundo).
» 203
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» 204
PARTE II: CAPTACIÓN
Otra solución propietaria fueron los Digital Disc de los equipos XDCAM de Sony.
Se trataba en realidad de un DVD-RAM para almacenamiento de datos, con
una capacidad cuatro veces superior a los normales, pues eran de doble capa y
doble cara. Pero se precisaban igualmente lectores fabricados o licenciados de
Sony para su lectura y acceso.
Huelga decir que la razón de estas soluciones propietarias es puramente
comercial, no tecnológica.
Por el contrario, la adopción de tarjetas estándares de la industria IT, cada vez
más extendida, permite extraer estas memorias de la cámara e introducirlas en
la bahía correspondiente de la mayoría de los ordenadores, que las reconocerán
como una tarjeta de almacenamiento más. Podemos proceder entonces como
deseemos: bien traspasar los datos a otro disco duro, realizar un log & transfer
o bien una edición Direct to Edit, tal como ya hemos comentado.
Esta tendencia también se puede ver en los fabricantes señalados: Panasonic
ya tiene en el mercado cámaras prosumer con grabación en tarjetas SD, no P2; y
Sony también ofrece cámaras con formato XDCAM y grabación en tarjetas tipo
XpressCard (el nombre comercial de estas cámaras es XDCAM-EX).
Por compatibilidad y economía, estos sistemas abiertos parecen ser los que
más se desarrollarán en el futuro próximo, pues estas tarjetas aumentan su ca
pacidad y velocidad de transferencia cada pocos meses, disminuyendo a su vez
el precio, como ocurre en general en toda la industria informática.
» 205
» 206
PARTE III:
MONTAJE
Y POSTPRODUCCIÓN
» 208
» Premisa fundamental
Una vez elegida la cámara para nuestra producción, tendremos que pensar una
vez más en el flujo de trabajo que vamos a usar en el resto de la cadena de
producción.
La premisa ineludible en este trabajo, y que debe guiar todos nuestros pasos,
es única:
» Conversiones
A la hora de cualquier intermediación se realizan numerosos transfer y/o conver
siones de formatos. También, exportaciones y renderizados de material. Todas
estas transformaciones se pueden calificar como:
» 209
PARTE III: MONTAJE Y POSTPRODUCCIÓN
>> Upconversion
Esta palabra puede llevar a engaño. Realizar una upconversion no significa
aumentar la calidad de la imagen: sólo se trata de aumentar la calidad del
formato de trabajo.
Un ejemplo puede ser pasar de una señal grabada en cámara de 1.080/4:2:2/8
bits, a una de 1.080/4:4:4/12 bits. La calidad de la imagen no aumenta, pues es
la cámara la que marca la calidad nativa. No la hemos convertido en algo de
igual calidad a lo grabado por una cámara 1.080/4:4:4/12 bits.
Lo que hacemos con esta upconversion es seleccionar un formato de trabajo
más robusto y flexible para nuestra postproducción.
>> Crossconversion
Este proceso ocurre cuando la conversión no altera la calidad.
Un ejemplo sería un cambio de cadencia de 24 a 25 fps sin pérdida de
fotogramas.
También sucede cuando capturamos en el ordenador con la misma calidad
con que se grabó en digital. Sería el caso de un fichero grabado en cinta por
una cámara HDV (mpeg2, 4:2:0, 8 bits a 25 mbs), el cual pasamos al ordenador
a través del cable firewire convirtiéndolo en un fichero con extensión ,m2t, que
es exactamente mpeg2, 4:2:0 8 bits a 25 mbs.
Se considera también una crossconversion pasar de un fichero sin compresión
(1:1) a otro igualmente sin compresión. Por ejemplo, una secuencia de TIFFs a
una secuencia de TGAs.
» Downconversion
Aquí siempre se produce una pérdida de calidad.
Hay una downconversion cuando, por ejemplo, pasamos de un formato sin
comprimir a uno comprimido. Aun cuando la compresión se anuncie "sin pérdida
aparente”.
Hay downconversion pasando de HD a SD, de RGB a YUV de 30 fps a 15 fps,
de 12 a 8 bits, etc.
En el trabajo profesional sólo se debería realizar un proceso de downconver-
sion a la hora de distribuir la señal.
» Etapas de la cadena
Una vez grabado el material, la mayor parte de las producciones siguen un
proceso similar: montaje, postproducción y masterizado para distribución.
» 210
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» Terminología
Por montaje o edición entendemos que
se trata del proceso de ordenar o em
palmar sucesivamente todos los pla
nos que tendrá la obra.
Montaje es un término más "cine
matográfico" que "edición”, más tele
visivo (al menos en España). Pero el
trabajo es el mismo y el operador siem
pre se llamará “montador”. En inglés
se usan más los términos de editing y
editor, pero en televisión el "editor” es
el responsable de contenidos de un programa informativo. Si el montaje se hace
en directo para televisión, al operador se le denomina también “mezclador".
Los medios fotoquímicos para la postproducción son muy escasos. Se limitan por lo
general al conformado (corte de negativos y transiciones); a la creación de los cartones
de crédito; a algún que otro trabajo sencillo de composición, y al etalonaje de luces (o
colormaster, por la herramienta que se usa habitualmente).
Dado que hoy en día es casi irrelevante el soporte original de grabación (fo-
toquímico o digital), se tiende a considerar como intermediación digital (DI)
» 211
PARTE III: MONTAJE Y POSTPRODUCCIÓN
Generalidades
» 213
1. MONTAJE
» A-B Roll
En televisión las mesas de montaje con sistemas con cinta eran conocidas como
AB Roll. Constaban de uno o dos magnetoscopios reproductores (players) y un
grabador (recorder), además de una mesa de edición que los controlaba. Los dos
players eran necesarios para, por ejemplo, encadenar dos planos.
Las mesas de edición se fueron sofisticando, permitiendo algunos efectos
digitales y el trabajo con EDL sencillas (Editing Decissions List o lista de cortes),
pero sin llegar a las posibilidades de una auténtica edición por ordenador.
En los equipos económicos ni siquiera era posible elegir el cuadro exacto del
empalme, contando con una desviación de más menos equis frames.
» Variedad de ENL
Avid fue la primera marca que sacó una edición ENL aceptable para el mercado.
Fue su famoso Film Composser, pionero de sistemas ENL, y que le valió un Oscar
de la Academia de Hollywood.
Actualmente hay múltiples soluciones, pero en general todas han adaptado
la interface propuesta por Avid: dos monitores (player y recorder, heredando la
» 214
PARTE III: MONTAJE V POSTPRODUCCIÓN
» 215
1. MONTAJE
Excluiremos de esta afirmación, claro está, los programas pensados para el usuario final
o doméstico, que tiene muy limitadas sus capacidades de montaje.
» 216
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» Streams
Es común en los programas ENL y de postproducción hablar de streams (flujos)
como sinónimo de calidad o potencia de cálculo.
Un stream se refiere a la posibilidad de visionar una pista de vídeo a máxima
resolución, sin compresión, en nuestro ordenador. Lo mínimo que le podemos
exigir a una solución ENL es que nos muestre dos streams en HD para un
montaje cómodo. Aunque no siempre es posible.
El cálculo es sencillo: una señal HD 1.080 4:2:2 25p corre a unos 800 mbs;
si se trata de RGB 4:4:4 (que es como internamente trabajan los ordenadores)
hablamos de 1,2 gbs. Con cadencias superiores, como 29,94p, nos acercamos a
los 1,5 gbs. Luego si queremos asegurar dos flujos o streams HD, necesitaríamos
una herramienta capaz de gestionar cerca de 3 gbs por segundo como mínimo.
» Códecs de edición
Todavía hoy resulta difícil para un ordenador manejar dos streams de HD 1.080
RGB sin comprimir. Por ello los fabricantes de soluciones más representativos
ofrecen códecs específicos para la edición.
Como norma, abierta a excepciones, diremos que estos códecs son muy útiles
en la edición, y que en ocasiones sirven para todo un flujo de trabajo televisi
vo, incluso en HD. Pero si pretendemos la máxima calidad para proyectar en
pantallas de cine, donde cualquier defecto se amplifica, siempre se recomienda
trabajar sin compresión.
Una vez más, aquí podemos encontrarnos con soluciones de códecs abiertas
o cerradas.
» 217
1. MONTAJE
» 218
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» Exportación
Cuando hemos terminado una fase de un trabajo y deseamos pasar a la siguiente,
es posible hacerlo mediante la exportación de toda o parte de la línea de tiempo.
Esta exportación también es generada por la ENL y se considera asimismo
un renderizado.
» Media y proyecto
En una labor de montaje, tendremos dos datos bien diferenciados. Por un lado,
los clips de audio y vídeo que trabajamos. Es lo que se conoce como ficheros o
archivos de media (media o essence, en algunos textos en inglés).
Por otro lado, tendremos la información propia del montaje, que se guarda
con la extensión propia de cada programa ENL, en forma de proyecto.
El proyecto en sí suele ocupar muy poco espacio, apenas unos KiloBytes. Lo
que realmente ocupa espacio son los media. Pero la ventaja de la ENL es que
podemos borrar tranquilamente los media del disco duro con la seguridad de
que, si conservamos el proyecto y las cintas o discos originales con los brutos
de cámara, siempre podremos recuperar todo el trabajo.
» Online, online
Se dice que un montaje es online cuando la calidad de los media con los que
trabaja es la del máster final, preparada para emitir o proyectar. Si el montaje
» 219
1. MONTAJE
está realizado sobre clips capturados a una resolución menor que la calidad
que tendrá al final, se entiende que es un montaje Offline, que será necesario
recapturar o reimportar para los siguientes procesos.
No se suele traducir estas dos palabras, Online y Offline. Tampoco hay que confundirlas
con premontaje o diferentes versiones de montajes, antes del montaje definitivo o final.
Pueden existir premontajes online, y también montajes definitivos en calidad Offline.
El montaje OFFLINE se suele hacer cuando el peso y tamaño de los ficheros online
(sin comprimir, o con códecs de producción) ocuparían mucho espacio en el
disco duro, y agotarían los recursos de la máquina (RAM, procesador, tarjeta de
vídeo).
» Conformado
Se entiende como conformado (conform) el convertir un proyecto Offline en otro
online.
Esto se realiza generalmente mediante la recaptura (batch capture) o reim
portación (batch import) de los clips originales, eligiendo esta vez como opción
de ingesta un códec de producción o sin compresión.
Una vez más recordar la importancia de que los ficheros offline hayan man
tenido el código de tiempo original, que es el que los referencia con los nativos
de cámara (de ahí el cuidado al trabajar con renderizados, que pierden esta
referencia). También el sentido común nos indica que el conformado ha de ser
anterior a cualquier tipo de efecto o trabajo de postproducción. No tiene sentido
corregir el color o ajustar máscaras sobre una calidad offline.
» 220
PARTE III: MONTAJE Y POSTPRODUCCIÓN
La ingesta de material
» Ingesta
Llamamos ingesta (ingest) al proceso de introducir la imagen y sonido grabadas
en el ordenador donde realizaremos el montaje y la postproducción.
Es un proceso clave en un correcto flujo de trabajo, pues será entonces cuando
determinemos cuál será nuestro formato de trabajo final para todo el proceso de
postproducción.
» 221
1. MONTAJE
Pero trabajar con estos ficheros significa un gran consumo de recursos, tanto
en disco duro como en proceso de cálculo. Podríamos plantearnos un online
sin compresión en una producción pequeña, como un spot publicitario de 30
segundos, donde el material grabado puede llegar a ser de 20 minutos, no más.
Pero a partir de cierta cantidad de metraje, el montaje online sin comprimir se
convierte en una odisea.
De esta manera, hay producciones que permiten un online comprimido (es
decir, sin la máxima calidad) y se pueden considerar perfectamente profesiona
les. Es el caso de la mayoría de las producciones de televisión. En el proceso
de distribución de estas producciones (analógico, TDT, cable, satélite, etc.) la
señal perderá ya de por sí mucha de su calidad, por lo que la diferencia de ca
lidad entre un formato sin compresión o un buen códec profesional de edición,
posiblemente no será apreciada por el espectador.
» 222
PARTE III: MONTAJE Y POSTPRODUCCIÓN
ahorrar espacio en el disco duro pero también un montaje ágil, con efectos en
tiempo real o renderizados cortos en duración. Son códecs que crean ficheros
"seguros”, robustos y fiables en las posibles transformaciones, minimizando el
añadido de ruido y artefactos a los renderizados, y evitando el riesgo de ficheros
corruptos.
Cualquiera de las soluciones profesionales del mercado es buena. Lo único
que debemos tener en cuenta es su compatibilidad con el resto de programas
del flujo de trabajo. No todos estos códecs son abiertos, sino que están limitados
por sus desarrolladores. Esto implica que podemos optar en la ingesta por un
determinado códec, realizar el montaje y luego descubrir que nuestro programa
auxiliar de corrección de color no reconoce ese códec. O (más habitual), que este
programa está licenciado por el desarrollador del códec para su lectura, pero no
para su exportación o render.
Una vez más, tendremos que estar atentos a las especificaciones de cada pro
grama, y acumular experiencia para evitar tediosos (y en ocasiones destructivos)
procesos de transferencia y cambio de códec.
» 223
1. MONTAJE
» Modos de ingesta
Básicamente, la ingesta se puede hacer de cuatro maneras, dependiendo del
formato de grabación:
a) Captura
b) Importación
c) Directo to Edit
d) Log & tranfers
• Captura y volcado
El término "captura" (capture) va asociado en los ENL a la inclusión de los datos
desde el magnetoscopio al ordenador. Se realiza a través de las llamadas tarjetas
capturadoras con entradas y salidas estandarizadas HD- Sdi, Dual Link y otras.
Hace tiempo, muchos programas ENL sólo reconocían determinadas tarjetas
capturadoras, e imposibilitaban la captura con otras marcas. Una vez más, una
opción cerrada o propietaria. Pero en la actualidad se tiende cada vez más
a la plena compatibilidad entre todos los fabricantes, principalmente por la
paulatina desaparición de las cintas y las capturadoras.
También se habla de captura cuando se usa el popular cableado de tipo
ñrewire, común en muchos equipamientos prosumer. En este caso, se puede
optar por hacer una simple transferencia de datos o importación, convirtiendo
la señal del camascopio es un fichero clónico (por ejemplo, de HDV a .m2t),
o bien cambiar el formato de edición (por ejemplo, de HDV a ProRes). Para
este volcado no necesitaremos una tarjeta capturadora, sino simplemente una
conexión estándar ñrewire reconocible por la ENL.
El proceso inverso, del ordenador a la cinta, se llama "volcado" (edit to tape,
print to tape).
• Importación y exportación
Cuando usamos cámaras con grabación sin cinta, procederemos a importar
(import) los ficheros a nuestra ENL. Esto implica una recodificación de todos los
datos del clip original hasta el clip que manejará el ENL.
Podemos realizar una importación offline y, posteriormente, realizar un con
formado a online con la herramienta batch import.
» 224
PARTE III: MONTAJE Y POSTPRODUCCIÓN
• Direct to Edit
Recientemente, la implementación de los protocolos MXF ha permitido mejorar
el trabajo con ficheros no lineales, evitando la importación pura de datos y su
transcodificación.
Si los ficheros grabados por la cámara son compatibles con nuestro ENL bajo
el mismo protocolo MXE podemos incorporarlos directamente a nuestra línea de
tiempo y empezar a editarlos. Generalmente, esta posibilidad se conoce como
Direct to Edit.
Muchos ENL trabajan ya así: permiten incluir en su línea de tiempo cualquier tipo de
fichero no propietario o para el que tenga su licencia. No obstante, otros programas
como Avid requieren, para determinados ficheros, una importación que conlleva una
transcodificación a sus propios códecs de trabajo.
• Ventajas y desventajas
Es evidente que la captura o importación de ficheros supone una pérdida de
tiempo considerable con respecto a las soluciones Direct to Edit.
» 225
1. MONTAJE
Como siempre, optar por una solución u otra dependerá del tipo de trabajo y de nuestras
posibilidades en cuestión de tiempo y recursos.
• Telecine y kinescopiado
El telecine es la herramienta tradicional de conversión de cine a televisión. En
principio es más barato y económico, y permite la conversión en tiempo real. Su
límite suele estar en los 8 bits de profundidad de color y resolución HD.
» 226
PARTE III: MONTAJE Y POSTPRODUCCIÓN
• Cinevator
Una variante reciente del kinescopiado, basado en tecnología LED, es la cono
cida con la marca comercial de Cinevator.
La ventaja competitiva con que apareció en el mercado es que realizaba la
transferencia digital/fotoquímico en tiempo real, tanto de audio como de sonido.
Y también que lo podía hacer directamente en copias positivadas, sin necesidad
de interpositivo o internegativo.
Esto supuso una revolución en muchas producciones independientes, así co
mo documentales y cortometrajes, pues ahorraban costes.
• Escaneado y filmado
El escaneado láser es un desarrollo posterior, de mayor calidad (desde 8 a 12 bits,
y con resoluciones de 2K, 4K e incluso 6K y superiores) pero más lento y costoso.
Se escanea cada fotograma individualmente y es transferido a un fichero indi
vidualizado, generando una secuencia de imágenes numerada. Generalmente,
estos ficheros son de tipo dpx (digital picture exchange, heredero del Cineon de
Kodak), pero también hay opciones como tiff o tga (véase el anexo).
» 227
1. MONTAJE
• Otros transfers
Nada nos impide colocar una cámara digital delante de una pantalla donde se
proyecta una película para hacer un "transfer" digital (este sistema es el usado
habitualmente para piratear películas). También podríamos colocar una cámara
de 35 mm delante de un monitor de televisión para lograr un “kinescopiado".
Sin embargo, estos procesos no son los habituales en la industria, pues no
obtienen la misma calidad de imagen que el escaneado/filmado o el telecina-
do/kinoscopiado. No obstante, estos remedios "caseros" se utilizan en ocasiones
para lograr texturas subjetivamente muy interesantes, o para abaratar costes en
producciones de baja calidad.
• Calidad y textura
Las transferencias fotoquímico digital pueden tomar también un valor artístico,
no sólo técnico. No me refiero sólo al uso de herramientas de corrección de color
o de viñeteo y máscaras, sino a la propia textura de cada soporte.
Se puede grabar unas imágenes en calidad DV para luego transferirlas por
kinescopiado casero a Súper 8 mm, posteriormente tratarlas en digital para
terminar en una copia en 35 mm y en una cinta HD. El objeto sería lograr
un textura especial, que va tomando "grano” y artefactos de cada uno de los
procesos.
Igualmente, algunos especialistas prefieren el telecinado o el Cinevator para
formatos frágiles como el HDV antes que un filmado láser. Éste tendría más
calidad, pero por esa misma razón se verían más sus defectos. Un telecinado los
suaviza y logra un textura muy interesante.
Y, no hay que olvidarlo, la experiencia, el buen gusto y el conocimiento técnico
del operador encargado del transfer es un punto siempre a tener en cuenta.
» 228
PARTE III: MONTAJE Y POSTPRODUCCIÓN
En este orden incluimos una gran variedad de ellas, siendo las más determi
nantes las dedicadas a los efectos digitales y la animación.
» Efectos
Gran parte del desarrollo cinematográfico de los últimos años se debe a los
efectos digitales. Lejos quedan los efectos de Superman, MaryPoppins o Chitty
Chitty Bang Bang, que eran poco más o menos lo que se podía hacer con la
truca convencional.
Hoy en día se puede hacer volar un vaca con facilidad, hacer estallar un
edificio de cincuenta plantas o recrear el impacto de un meteorito en la Tierra con
grandes dosis de credibilidad (al menos visualmente, no sé si argumentalmente).
Estos efectos se generan en ordenador y posteriormente se integran sobre
las imágenes reales. Para preservar su calidad, se renderizan en formatos de
gráficos sin comprimir RGB como son los tiff, tga, bmp, png y otros, prefiriendo
aquellos que tienen un canal alfa o de transferencia (en ese caso, en ocasiones
se dice que son formatos 4:4:4:4).
Es útil tener una idea siquiera general de estos ficheros gráficos, por lo que se incluye
un anexo.
« Animación
Dos de las técnicas tradicionales de animación son el dibujo animado, cartoon,
y la animación paso a paso stop motion. Hoy en día, todas estas producciones se
realizan por medios digitales, salvo algún estudio que continúa con las técnicas
tradicionales de lápiz y papel.
e Cartoon
Se puede distinguir en la animación 2D tradicional (diríamos tipo Disney) o la 3D
más actual (tipo Pixar). Ambas se generan por ordenador, si bien con programas
y tecnologías distintas. Pero el resultado final es en los dos casos secuencias de
ficheros gráficos (generalmente tiffs de 16 bits con canal alfa).
Estas secuencias de ficheros (el término coloquial es “chorizo”, aludiendo al
embutido típico del país), una vez generadas, pasan por los procesos tradicio
nales de montaje, postproducción y masterización.
En ocasiones, algunos programas pueden generar también clips de vídeos.
Es otra opción que agiliza el proceso con pérdida de calidad (mucha o poca
dependiendo del códec).
» 229
1. MONTAJE
• Stop Motion
Esta técnica se realizaba tradicionalmente con cámaras de cine que permitían
imprimir fotograma a fotograma. Pero actualmente éstas se han sustituido de
manera masiva por cámaras fotográficas reflex.
— Es un sistema mucho más flexible
/ Proceso largometraje 35 mm /
y económico. Las fotografías se toman
en RAW de 12 bits o en Tif de 16
bits para continuar con todo el proceso
normal de montaje y postproducción.
En este caso, las fotografías no gene
ran canal alfa, pero se puede añadir
posteriormente.
Si optamos por la opción RAW de
bemos asegurarnos de que nuestro
equipamiento lea el RAW de la foto
grafía, pues suelen ser propietarios, y
los sistemas de postproducción tradi
cional no están preparados para se
cuencias de ficheros RAW, pero sí para
Tifs o Dpx.
» 230
PARTE III: MONTAJE Y POSTPRODUCCIÓN
Proceso de montaje
» Montaje tradicional
En la actualidad, la mayoría de los
programas de edición no lineal inclu
yen muchas herramientas que supe
ran las propias de un montaje conven
cional (corte y transiciones simples,
como encadenados y cortinillas). Pue
den considerarse como completas he
rramientas de composición 2D, 3D e
incluso de colorimetría (colorgrading)
y masterización (finishing).
Los equipos específicos de postpro
ducción están mejor preparados para
estas tareas, por lo que hay que valorar
el tipo de trabajo que se va a realizar (y,
diremos una vez más, las condiciones
ideales de trabajo no se dan nunca).
En este apartado hablaremos sólo
de un montaje simple, sin postproduc
ción.
» 231
1. MONTAJE
» Mezclas de sonido
Tradicionalmente, el sonido siempre
se ha postproducido o mezclado apar-
te, con otras herramientas y otros pro
fesionales. En cine es casi obligatorio. En televisión también, pero es cierto que
para noticias, pequeños reportajes y algún que otro tipo de programa, actual
mente el montador de imagen también hace la mezcla de sonido.
Por esta razón, los programas ENL actuales incluyen varias pistas de sonido,
plugins, herramientas y efectos varios para una “correcta" postproducción de
audio. Señalar, eso sí, que no son las herramientas apropiadas y que montar
imagen y montar sonido son dos oficios diferentes que requieren de preparación
y experiencia distintas.
» 232
PARTE III: MONTAJE Y POSTPROOUCCIÓN
» Transiciones y colas
Las transiciones suceden cuanto el clip entrante y el saliente comparten algunos
fotogramas en un efecto determinado. Los efectos más comunes, heredados del
lenguaje cinematográfico, son los encadenados, los fundidos y las cortinillas.
La principal característica de las transiciones es que precisan de colas (hand-
les). La cola es la parte de los fotogramas del clip que se necesita para el efecto
de la transición.
» 233
1. MONTAJE
» Encadenados y fundidos
Los encadenados se basan en reducir progresivamente la luminosidad del plano
saliente de 100 a 0 %, y subir la del entrante de 0 a 100 %.
Si el encadenado se hace sin clip saliente, sobre un negro, se llama “enca
denado a negro” o “fundido”, indistintamente. Si es de salida, "sale de negro” o
“abre a".
También es posible fundir o abrir desde otros colores que no sean el negro,
siendo el blanco el más común.
Académicamente, la diferencia entre corte y transición implicaba una dife
rencia de tiempo entre un plano y el siguiente: por corte se montaban los planos
en una misma secuencia, y por transición entre diferentes secuencias. Era una
diferencia narrativa y artística. Sin embargo, hoy el lenguaje audiovisual admite
muchas más interpretaciones, y lo que antes podía considerarse un error de
gramática cinematográfica hoy sólo se considera una opción artística.
Como éste es un libro técnico, no entraremos en subjetividades. Sin embargo,
es necesario señalar que en digital las transiciones no tienen un coste económi
co, pero sí lo tienen en truca de laboratorio, y en ocasiones puede ser muy
elevado. Esto también explica que antes el uso de transiciones y encadenados
no fuera tan común como ahora.
» Encadenados fotoquímicos
Los encadenados se pueden realizar sin mucho problema en la truca de labo
ratorio. Sin embargo, dada la respuesta no lineal del fotoquímico, la gradación
de la luminosidad no es tampoco lineal: empieza suavemente y termina más
rápidamente (o viceversa).
Algunos programas ENL incluyen la opción de este tipo de encadenado
no lineal, denominándolo de diversas formas. Ayuda al montador de cine a
» 234
PARTE III: MONTAJE V POSTPRODUCCIÓN
hacerse una idea de cómo será en pantalla grande. También algunos lo pueden
preferir para las producciones pensadas para proyectar digitalmente, sin pasar
por laboratorio, por simple estética.
» Cortinillas
La otra transición más común son las cortinillas. Los dos clips no se encadenan
o pierden luminosidad, sino que se superponen el uno al otro.
Puede ser una superposición simple, donde el clip entrante va apareciendo
gradualmente desde un extremo al otro, hasta tapar el clip saliente. Pero también
puede "empujar” (push) al clip saliente haciendo que desaparezca de un extremo
al otro.
El filo entre las imágenes de los dos clips (edge) se puede parametrizar. Puede
ser simple, sin anchura, pero también se puede elegir una determinada anchura,
angulación, color, forma y punto de entrada y salida, degradación del filo, etc.
» Cortinillas 2D y 3D
Además de las señaladas, hay una amplia variedad de cortinillas que ofrecen
diferentes resultados, parametrizando fundamentalmente la forma, la anchura,
el color y el degradado del filo, así como la forma de entrar o salir: desde un
borde lateral, desde uno horizontal, desde una esquina, desde el centro, desde
un determinado punto, con forma de estrella, de rombo, de óvalo, etc.
Si además se modifica la perspectiva de alguno de los clips, sugiriendo un
canal de profundidad (canal Z) o deformándolo para adaptar formas esféricas o
de otro tipo de volumen, se dice que es un cortinilla 3D (pero no deja de ser una
simulación, no es realmente un objeto 3D).
» 235
1. MONTAJE
» Montaje televisivo
En muchos casos, con este trabajo de
edición ya se puede dar también por
terminada la postproducción. Un típi
co ejemplo es un reportaje televisivo.
En este tipo de trabajos la postpro
ducción se limita fundamentalmente
al añadido de cabeceras y créditos (ge
neralmente prediseñados), algún gráfi
co más o menos elaborado y textos
con identificaciones de los personajes
o entrevistados. Se aplica también un
ligero etalonaje, y en ocasiones se llega
a corregir algún plano mal balancea
do o fuera de la obturación correcta.
» 236
PARTE III: MONTAJE Y POSTPRODUCCIÓN
Conformado
Estas colas pueden parecer pocos segundos, pero, en una producción de larga duración,
puede haber miles de cortes, miles de subclips. Si añadimos 2+2 segundos de cola por
clip, la cantidad total puede superar fácilmente la hora: es necesario tenerlo en cuenta
sobre todo pensando en el disco duro.
» 238
PARTE III: MONTAJE Y POSTPRODUCCIÓN
cinta en nuestro VTR, nuestro ENL puede capturar por error (nuestro error, no el
suyo) un clip equivocado.
La identificación debe figurar claramente en la etiqueta de la cinta y también
en las preferencias de captura. Es una dinámica de trabajo imprescindible, pues
muchos trabajos pueden contar con decenas de cintas y realizarse a lo largo de
muchas semanas.
Aprovechando que la mayoría de las cintas no superan la hora de grabación,
un buen protocolo de trabajo es que el operador de cámara identifique cada
cinta con los dos primeros dígitos, empezando la grabación no en 00, sino en
01, 02, 03 y así sucesivamente. Si las cintas son de más de una hora, se pueden
identificar igualmente como 10, 20, 30... Esto, claro está, es responsabilidad del
cámara y del productor, pero facilita mucho el trabajo de montaje.
Si queremos trabajar con offline de montaje, el Rec Run será nuestra opción.
El Rec Run produce un TC continuo, pero con una salvedad: si por alguna
razón se pierde el sincronismo (al sacar una cinta, o al visionar y rebobinar
hacia adelante en demasía), y la cámara encuentra una zona virgen en la cinta,
inmediatamente volverá a poner el contador a 00. Esto será interpretado por
nuestra ENL como dos cintas diferentes, lo que resulta cuando menos engorroso.
Para evitar este problema (además de ser rigurosos en el trabajo), está la
opción de empistar previamente la cinta de cámara, grabándola completamente
con el objetivo tapado. Así nos aseguraremos de que nunca se produzcan cortes
en el TC.
También es posible “linkar" dos o más cámaras para que tengan el mismo TC,
mediante la opción de genlock. Es muy útil en grabaciones multicámara de even
tos en directo, pues una vez en nuestra ENL la sincronización será inmediata.
Y también es posible compartir de la misma manera el TC de una cámara
con el equipo de sonido autónomo. De nuevo, facilitará enormemente la sincro
nización.
» 239
1. MONTAJE
» Identificación de fichero IT
Al grabar en IT, la cámara genera un nombre, que puede ser aleatorio y conse
cutivo, o se puede señalar por menú. Este será el nombre que veremos siempre.
Sin embargo, en ocasiones, además de este nombre (panorámica.uno.mov,
por ejemplo), internamente el sistema de archivos maneja otro nombre menos
usual (por lo general, una combinación de números y letras como MXF0002AZ
345HG.mov).
El primer nombre es el que mostrará nuestra ENL, y podremos modificarlo
sin problemas si nos apetece, pues la ENL no se equivocará en la identificación.
Pero también a través del sistema operativo de nuestro ordenador podremos
acceder al segundo, si bien es aconsejable no cambiarlo nunca.
Sucede de manera parecida en ciertos ENL a la hora de la ingesta: dentro del programa
se identifica el clip con un nombre, y fuera de él, en el sistema operativo, con una
combinación de letras invariable.
» Tipos de fichero IT
Cualquier grabación en soporte rígido de un clip de audio y vídeo es un fichero
IT. Actualmente, muchos dispositivos permiten capturar imágenes en movi
miento: teléfonos móviles, cámaras de vigilancia, webcams, cámaras de fotos,
etc. Generalmente, este tipo de dispositivos grabarán los archivos con códecs y
extensiones universales (para Windows tipo .avi o .wmp, para Apple tipo .mov)
de una manera sencilla, sin prácticamente metadata asociada.
Los cámaras más profesionales utilizan los protocolos profesionales MXE y
por lo general suelen adoptar una estructura de subcarpetas.
En cada carpeta irá un tipo de fichero: en unas el audio, en otras el vídeo, en
otras unproxie (si la cámara lo genera), en otra un thumbnail o viñeta de identi
ficación, en otra metadatos, en otra el canal de audio para comentarios del ope
rador, etc. No hay una única estructura de subcarpetas para todos los archivos.
» 240
PARTE III: MONTAJE Y POSTPRDOUCCIÓN
» Lenguajes de metadata
En la actualidad los editores ENL pueden realizar un sinfín de operaciones con
los planos: pueden trastocar su cadencia (time relapsed o re-timing), pueden
aumentar o disminuir la pantalla (resize), mover el punto central (move anchor
point), voltearlos horizontal y/o verticalmente (ílip, flop), tocar parámetros de
color (color correction), generar cortinillas 3D, etc.
» 241
1. MONTAJE
» Estándares comerciales
Como es habitual, una vez más por motivos comerciales, no hay un único
estándar. Avid creó en su momento el formato OMF (Open Media Framewoik, en
versión 1 y 2), que posteriormente amplió y mejoró en el actual AAF (Advanced
Authoring Foimat). Este archivo de metadata está abierto actualmente a otros
fabricantes, pero eso no quiere decir que sea adoptado por ellos.
En las plataformas Apple, la tecnología usual es la XML (basada en los
protocolos de internet, extended Markup Language). Muchos programas de
edición y postproducción también entienden este lenguaje.
En ocasiones, este código XML se puede manejar mediante scrípts (pequeños
"guiones" o instrucciones informáticas que pueden ser interpretadas por un
software en concreto).
De nuevo, antes de tomar una decisión sobre qué lenguaje de metadata utili
zar, hay que leer las especificaciones de todas las herramientas que encontremos
en la línea de producción.
» 242
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» 243
1. MONTAJE
» 244
PARTE III: MONTAJE Y POSTPROOUCCIÓN
» Consolidado
Una herramienta que se suele conocer como “consolidado” (consolídate), pero
que también puede tener otros nombres, dependiendo de la ENL, sirve para
seleccionar, de todo el material ingestado, sólo aquella parte usada en el montaje
(con colas o sin ellas).
Se utiliza para "limpiar” de ficheros el disco duro antes de empezar la post
producción, para hacer copias de seguridad o para trasladar todo el material de
un equipo de trabajo a otro. Si se usan ficheros referenciados, también es útil
hacer un consolidado.
» 245
» 246
2. Postproducción
» 247
2. POSTPRODUCCIÓN
>> ¿Excepciones?
En ocasiones, podemos realizar una downconversion antes de la postproduc
ción. Un ejemplo puede ser la realización de programas para televisión estándar
SD con cámaras HD. Personalmente aconsejaría realizar siempre una postpro
ducción HD para terminar igualmente en un masterizado HD. A partir de él,
realizaríamos una downconversion a SD en el formato que pida la cadena de
televisión.
Pero en ocasiones lo que se hace es una ingesta de material online en SD,
continuando el flujo de trabajo en SD, incluyendo el masterizado. Dado que ése
sería el formato final de emisión / exhibición, se podría considerar correcto. Es
una forma de trabajar que se ha venido realizando en estos años de transición
entre el SDTV y la HDTV, generalmente debido a que muchas empresas tenían
un equipamiento de montaje y postproducción SD por amortizar.
Aun así, sería aconsejable aprovechar el trabajo de edición a fin de realizar una recaptura
en HD para una masterización HD. La televisión estándar es una tecnología obsoleta que
desaparecerá en los próximos años, por lo que contar con un máster HD será interesante
de cara a futuras reemisiones.
/ Compresión /
Pérdida de calidad producida
por la excesiva compresión de una imagen
» 248
PARTE III: MONTAJE Y POSTPROOUCCIÓN
» Ingesta online
Dicho esto, lo más común es que a la hora de hacer un ingesta online del material
nativo de cámara realicemos una upconversión. Esto se debe a que la mayoría
de los sistemas actuales de captación sufren una compresión, un submuestreo,
un máximo de 8 bits o las tres cosas juntas.
En la actualidad no existe ninguna cámara que grabe los datos sin comprimir, RGB y
hasta 12 bits de profundidad. Lo cual no quiere decir que no aparezca una en el futuro
próximo, pues como hemos visto en la parte dedicada a la cámara, el embudo actual no
nace en el sensor, sino en el manejo y almacenamiento de los datos.
» 249
2. POSTPRODUCCIÓN
Una salida HD.SDI Dual Link nos proporcionaría la misma posibilidad, pero en
4:4:4.
Una última posibilidad, de aún mayor calidad, es la ingesta en vivo y en RAW
de los datos provenientes del sensor. Esto lo permiten algunas cámaras a tra
vés de interfaces informáticos, como Giganet, Ethernet y otros. Sería el máximo
de calidad alcanzable, pero, por contra, necesitaríamos cantidades ingentes de
almacenamiento.
» 250
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» RAID
Una solución al "embudo" de los discos duros es disponerlos en modo RAID. Esta
palabra es el acrónimo en inglés de “conjunto redundante de discos baratos"
(redundant airay of inexpensive disks), y como su nombre indica no opta por
incrementar la capacidad de transferencia de un solo disco (mejor y por tanto
más caro), sino por distribuir el flujo de datos entre una serie de discos de menor
velocidad (y por tanto más baratos).
Antes de la conexión con los discos duros, hay una etapa en la que se
distribuyen los datos en los diferentes discos duros. Si, por ejemplo, tenemos
una RAID de dos discos, y nos llega un flujo de 1,2 gbs, podemos mandar sólo 0,6
gbs a cada disco, permitiendo una grabación y lectura muy ágil. Y si disponemos
de 4 discos, el flujo que llegaría a cada disco sería sólo de 0,3 gbs.
» Tipos de RAID
Lo anterior sería una RAID 0: se distribuye el flujo entre el número de discos que
disponemos.
Pero también podemos aprovechar esta estructura para grabar dos veces la
misma información, haciéndonos con un respaldo o copia de seguridad ins
tantáneo. Sería lo que se conoce como RAID 1.
Mayores niveles de RAID (2, 3, 4...) nos permiten aumentar nuestro nivel de
seguridad, haciendo copias con mayor protección. Un nivel RAID 1 simplemente
hace una copia del material en otro disco duro; pero si éste falla, se puede perder
la información que guardaba. En niveles superiores de RAID, esta información
se distribuye en todos los discos duros, de manera que, aunque uno de ellos falle
físicamente, se pueda recuperar toda la información a partir del resto de discos.
» 251
2. POSTPRODUCCIÓN
» SAN
Los límites de la RAID son los flujos de datos entre el distribuidor y la interface o
conexión a la CPU. El mayor problema que nos encontramos a la hora de trabajar
en HD o 2K es que la arquitectura informática de usuario actual está diseñada
para flujos de hasta 1,5 gbs. Como vemos, muy cerca del límite de 1,2 gbs que
hemos señalado para la señal estándar HD1.080 o 2K 4:4:4. (No obstante, ya
se está hablando en la industria IT de un estándar de 3 gbs, que sería de gran
ayuda para toda la industria audiovisual.)
Soluciones más profesionales, no estándares, permiten arquitecturas y cone
xiones extremadamente rápidas, incluyendo en ocasiones sistemas operativos
no usuales (UNIX y otros). Por eso muchas herramientas de postproducción
de alta gama se venden con estaciones de trabajo específicas, previamente
comprobadas por las casas.
La opción más común en muchas empresas de postproducción es el trabajo
con SAN ultrarrápidas. No sólo permiten, como hemos visto, el trabajo multitarea
en diversos equipos de trabajo, sino que aseguran unos altísimos flujos de datos,
permitiendo sin problemas incluso varios streams HD sin compresión.
» 252
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» 253
2. POSTPRODUCCIÓN
» 254
PARTE III: MONTA]E Y POSTPRODUCCIÓN
» Broadcast safe
Algo a tener en cuenta cuando se trabaja para televisión, es el pequeño "recorte”
de la señal que sufre la imagen tanto por arriba (blancos) como por abajo (negro).
Es lo que se conoce como broadcast safe, que se podría traducir como "margen
(de seguridad) profesional”.
Básicamente, lo que se hace es constreñir los valores de la señal de 8 bits no
entre 0 y 255, sino entre 16 y 235. Por debajo de 16, se considera todo negro, por
encima de 235, todo blanco.
» 255
2. POSTPRODUCCIÓN
Si está dentro de estos márgenes, se considera una "señal legal"; si los supera
(en brillo o en saturación) hablaríamos de una señal ilegal que no se visionaria
correctamente en los. televisores e incluso podría provocar trastornos visuales y
hasta jaquecas.
» Superwhite y pedestal
El broadcast safe es obligatorio tenerlo en cuenta, pues también lo tiene en
cuenta el emisor. Sin embargo, si queremos realizar un máster para otro tipo
de canal (por ejemplo, una proyección digital en salas, o incluso un transfer
a fotoquímico) podremos aprovechar todo el rango de la señal. De hecho, es
ampliamente recomendable hacerlo.
En ese caso hablamos de jugar con los niveles de superwhite (a partir de 235)
y de pedestal o tift (por debajo de 16).
» 256
PARTE III: MONTAJE V POSTPRODUCCIÓN
» LUT 2D y 3D
El ejemplo que he puesto antes es claramente una LUT 2D, en dos dimensiones
o parámetros. Esto se debe a que siempre trabajamos con un mismo espacio de
color: RGB, el propio del mundo de la televisión y la informática.
La diferencia se puede dar en la profundidad de color: 8, 10, 12 bits... "Aco
modar" una señal de 10 bits a un monitor de 8 bits es básicamente jugar con la
curva de niveles, dando más importancia a los valores bajos, medios o altos de
una señal (como se ha explicado en la primera parte).
Sin embargo, en el mundo del cine esto cambia.
Si hablamos de fotoquímico, ya sabemos que la respuesta del negativo no es
lineal, sino logarítmica. Las emulsiones tienen además diversas respuestas al
color. Eso significa que una corrección de niveles de intensidad podría, siquiera
levemente, trastocar también el tono del color.
Lo mismo pasa en el espacio de color propuesto para el DCI. Es un espacio
de color de mayor y de diferente respuesta que el RGB, y se conoce como XYZ
(véase página 398, arriba).
En la intermediación digital trabajamos siempre en espacio de color RGB,
pero sabemos que el máster final DCI (el conocido como DCM, Digital Cinema
Master) será en XYZ. Aquí, una ligera variación en la saturación o en la lumi
nosidad de un color puede suponer un cambio en el tono, pudiendo originar
virados indeseados en el DCM que no hemos apreciado en nuestro monitor. Hay,
pues, que entender estos espacios en “tres dimensiones", y trabajar con LUTs
3D específicamente diseñadas para estos entornos.
Una correcta calibración de los monitores, y el uso de LUTs 3D estandarizadas
y comprobadas, permitirán que lo que el operador de postproducción ve en la
pantalla de su estación de trabajo sea también lo que observará el espectador
en la sala de cine.
Hablaremos más ampliamente del estándar DCI en la IV parte del libro, "Distribución”.
» 257
2. POSTPRODUCCIÓN
» 258
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» Copias de seguridad
Dado su valor, tendremos que proteger
el DSM para ponerlo a salvo de una po
sible pérdida. Los soportes informáti
cos actuales son tan nuevos que des
conocemos realmente su durabilidad
y fiabilidad. Un disco duro se puede
romper, desmagnetizar, corromper, su
frir el ataque de virus informáticos o
estropear internamente e impedir el
acceso a los datos. Por contra, sus da
tos se pueden clonar infinitamente sin
perder calidad. Por lo tanto, la prime
ra medida sería realizar una copia de
seguridad.
» 259
2. POSTPRODUCCIÓN
Aún más: ¿podemos estar seguros de que dentro de veinticinco años, incluso
en condiciones ideales de conservación, los datos informáticos almacenados en
estos sistemas (discos duros, DVD) seguirán ahí? Rotundamente, no: no lo sa
bemos. Incluso corremos el riesgo de la obsolescencia tecnológica: que desapa
rezcan los sistemas de lectura apropiados. Quien todavía conserve un flopydisk
de cinco pulgadas, o incluso un disquete de tres y media, sabrá de lo que hablo:
hoy ya no se venden sus cabezas lectoras, ya no podemos acceder a esos datos.
Recientemente se han dejado de fabricar magnetos VHS, y no sabemos si dentro
de veinticinco años se venderán todavía lectores DVD.
Lo más probable es que dentro de veinticinco años toda una filmoteca quepa en un
aparato del tamaño de una uña, que se situará no en un lugar físico, sino virtual, en
alguna nube de la galaxia internet.
» 260
PARTE III: MONTAJE Y POSTPRODUCCIÓN
Incluso, como hemos visto, el fotoquímico sirve para guardar los datos de manera digital.
Por eso muchas productoras optan por un escaneado a negativo del DCM aun
en el caso de que no se haya previsto una distribución en salas.
» 261
» 262
PARTE IV:
DISTRIBUCIÓN
» 264
» El nuevo mundo multicast
Una vez terminados los procesos de postproducción, incluidas las mezclas de
sonido, tenemos en nuestro poder un máster digital listo para la distribución.
Hasta no hace mucho, el número de "ventanas” de distribución era muy
limitado: pantalla grande y televisión, fundamentalmente. Sólo hacía falta tirar
copias positivadas y disponer de una cinta estándar (generalmente, Betacam
analógica) para poder distribuir nuestra obra. En ocasiones también se tiraban
algunas copias en 16 mm para circuitos de arte y ensayo, reposiciones y alquiler.
A estas ventanas tradicionales se sumó hace ya décadas el vídeo (Home
video), primero con las cintas analógicas tipo VHS o Betamax, y luego con el
DVD.
Hoy en día, a estas ventanas se suman otras nuevas, que implican además
nuevos formatos por la inclusión del HD y la estereoscopia 3D.
También la distribución en cine se está digitalizando, con su correspondiente
adaptación de estándares.
La normativa, tan estricta en el mundo de la televisión gracias al ITU y otros
organismos, no abarca el amplio mundo de internet, que además cambia cada
poco tiempo. En esta última parte intentaré dar una idea de lo que conocemos
como multicast o distribución múltiple, pero sin entrar en detalles técnicos de
ingeniería de telecomunicaciones que están más allá de los objetivos del libro.
Estudiaremos aquí las especificaciones y/o recomendaciones para las cuatro
vías de distribución que se ofrecen en la actualidad:
• Televisión convencional
• Vídeo doméstico (Home video)
® Televisión bajo protocolos de internet (IPTV)
• Distribución digital en salas de cine
» 265
» 266
1. Televisión convencional
Generalidades técnicas
» 267
1. TELEVISIÓN CONVENCIONAL
El apagón analógico
» 268
PARTE IV: DISTRIBUCIÓN
Cuando se produzca el apagón definitivo, los canales usados por estas señales
estarán libres para otra posible ocupación. Es lo que se conoce como "dividendo
digital". Siendo un recurso tan escaso, este dividendo es ahora mismo objeto
de disputa entre los operadores de televisión (para aumentar canales o cali
dad, de SD a HD) y los de telefonía móvil.
Espacio radioeléctrico
» 269
1. TELEVISIÓN CONVENCIONAL
» 270
PARTE IV: DISTRIBUCIÓN
TDT = DUB-T
TDT en España
..........................................................................................................................................................................................................................................
» 271
1. TELEVISIÓN CONVENCIONAL
Calidad teórica
Una de las ventajas del multiplex es que se puede variar el bitrate asignado a
cada una de las emisiones.Es una manera de emitir algunos programas con
mayor calidad / bitrate, restando calidad a las otras señales del multiplex.
Esto se realiza, por ejemplo, cuando en determinados momentos se quiere
ofrecer un producto premium, como un largometraje de estreno en televisión. Se
aumenta el bitrate hasta los 8 mbs, por ejemplo, restando del resto de emisio
nes un megabit. Estas otras emisiones pueden ser programas de poca calidad
(teletienda, repeticiones, timoconcursos, anuncios pseudopornográficos, etc.) o
contenidos “amigables" para el mpeg2, como son los dibujos animados con
colores planos que se pueden comprimir con muy bajo bitrate.
» 272
PARTE IV: DISTRIBUCIÓN
Interactividad en la TDT
Además de imagen y sonido, una emisión en TDT puede incluir gran cantidad
de datos, que están estandarizados bajo la normativa MHP (Multimedia Home
Platform). Estos datos pueden ser genéricos, como la guía electrónica de pro
gramación (EPG, que muestra la parrilla de todas las emisiones), o soluciones
específicas como teletienda, teleasistencia, comunicación municipal, uso de
DNI electrónico, señales encriptadas y otras.
La TDT se puede usar como una pequeña “internet” de primer nivel, donde no
llegan la red telefónica o para usuarios no expertos, implementándose interfaces
sencillos manejables desde el mando a distancia.
Para conseguir una completa interactividad es preciso contar con un canal de
retorno. Éste puede ser a través del cable telefónico, internet, móvil, vía wifi, etc.
» 273
1. TELEVISIÓN CONVENCIONAL
Pero además este disco duro puede servir para el almacenaje de imagen y da
tos emitidos en el MUX simultáneamente a los canales de televisión. Esto es útil,
por ejemplo, para el sistema de vídeo bajo demanda (VOD, Video over Demand)
a través de la TDT. A diferencia de un VOD por internet, donde se puede acceder
casi inmediatamente al contenido seleccionado, en la TDT es necesario enviar el
contenido previamente al set top box y tenerlo allí almacenado a disposición del
usuario casero. El envío de los contenidos se realiza gracias a la flexibilidad del
MUX, aprovechando aquellos horarios (generalmente de madrugada) de poca
audiencia donde se emiten contenidos de baja calidad. Bajando el flujo de datos
de estas emisiones, se transmiten contenidos para el VOD que se guardan en
los discos duros del usuario. Este contenido está debidamente encriptado para
que sea necesario el uso de una llave o clave (key) para su visionado.
La calidad de estos contenidos premium puede ser incluso mejor que la de
las emisiones. Nada impide subir el flujo de datos o la resolución, ofreciendo
contenidos de alta definición cuando el resto de canales son SD.
TDT de pago
» 274
PARTE IV: DISTRIBUCIÓN
En ocasiones, no son sólo condicionantes comerciales los que se imponen sobre los
puramente técnicos. También pueden existir cuestiones políticas que incidan sobre la
tecnología. La TDT española es un ejemplo de ello. Un mal ejemplo, diría yo.
Hasta ahora, el despliegue de la televisión digital terrestre se realiza bajo los es
tándares SD. Con todo, es perfectamente compatible con una señal HD, pues
sus especificaciones incluyen la relación de aspecto 16/9 y el sonido multicanal.
Sucede sin embargo que la codificación mpeg2 no resulta la más adecuada
para este tipo de señales. El perfil de un mpeg2 de HD 4:2:0 de distribución
estaría entre los 15 y los 25 mbs (como el HDV). Esto significaría que sólo habría
cabida para una emisión por MUX.
Para las señales HD se usa la codificación mpeg4, más eficiente que la
anterior. Un canal HD en mpeg4 4:2:0 puede precisar entre 8 y 12 mbs para que
se vea con la misma calidad que un mpeg2 (es más eficiente). Por lo general, la
versión o implementación del mpeg4 (recordemos que no es un códec, sino un
conjunto de normas) que se maneja es el H.264.
En la práctica, usando el mpeg4 a 8-10 mbs, podremos tener un canal HD
donde antes teníamos dos SD. Los canales HD de TDT se verán nativamente en
16/9 y con sonido multicanal 5.1.
Pero es preciso que el receptor acepte también este tipo de codificación, lo
que no siempre sucede. Gran parte de los codificadores pasivos que se han
instalado sólo descodifican señales mpeg2, por lo que no permiten la visión de
contenidos HD. Se necesita un codificador mixto (mpeg 2 y mpeg4) para ambas
señales a fin de poder acceder a todo tipo de contenidos.
La normativa en Europa tiende a que sean los televisores los que incluyan los codificado
res, como sucede en los televisores analógicos, que incluyen el sintonizador. En algunos
países, como Francia, la inclusión de un codificador interactivo y mpeg4 es obligatoria
para que pueda venderse en su territorio. No es algo que incremente significativamente
su coste, por lo que los fabricantes van ajustándose a estas necesidades y hoy algunos
televisores incluyen descodificador mixto, interactividad, ranura para TDT de pago e
incluso disco duro.
» 275
1. TELEVISIÓN CONVENCIONAL
3DTV
» 276
PARTE IV: DISTRIBUCIÓN
DVB-C y DUB-S
Además de la televisión de pago, la nueva IPTV empieza a competir con ellos. En España,
el canal promovido por Telefónica Imagenio se transmite vía ADSL, pero sus contenidos
no se diferencian mucho en el formato de los tradicionales canales de pago.
DVB-H
Una importante novedad y que todos los expertos auguran con gran futuro es
la emisión por televisión para teléfonos móviles y otros dispositivos portáti
les (PDA, reproductores de vídeo portátil, consolas de videojuegos, etc.), que se
engloban en las normas DVB-H (de handheld, portátil).
Aquí la cuestión técnica diferenciadora es el tamaño de la pantalla, que no
puede ser muy grande ni de gran calidad en estos dispositivos. Las resoluciones
que se manejan son del orden de QVGA (320 x 240) y VGA (640 x 480) como
máximo. Los archivos suelen codificarse con extensión ,3g, en referencia a la
última tecnología de transmisión de datos para teléfonos portátiles. Sus flujos
de datos son por eso muy bajos (1,5 mbs como máximo).
» 277
1. TELEVISIÓN CONVENCIONAL
» 278
2. Vídeo domés tico
DVD
» 279
2. V Í D E O DOMÉSTICO
» 280
PARTE IV: DISTRIBUCIÓN
El futuro ya
» 281
2. VÍDEO DOMÉSTICO
ROM es el acrónimo inglés para memoria de sólo lectura y se asocia a cualquier dis
positivo donde se graben datos que no pueden ser variados a posteriori. No obstante,
también se prevén Blu-Ray regrabables, que no serian técnicamente “sólo" ROM, pero
que tienen la misma finalidad de almacenamiento de datos.
» 282
3. IPTV: distribución por internet
Estándares
» 283
3. IPTV: DISTRIBUCIÓN POR INTERNET
Reproductores en internet
» 284
PARTE IV: DISTRIBUCIÓN
Códecs y reproductor
El ancho de banda
» 285
3. IPTV: DISTRIBUCIÓN POR INTERNET
Emisión en directo
» 286
PARTE IV/: DISTRIBUCIÓN
Servidores
» 287
3. IPTV/: DISTRIBUCIÓN POR INTERNET
streaming, si bien hay opción de descargarse los vídeos. Hay una gran cantidad
de alternativas a YouTube, que juegan con ofrecer una mayor calidad. En algunos
casos, cobran al proveedor de contenidos por sus servicios, mientras que otros
pagan un porcentaje de la publicidad que puede generar el contenido.
Otra forma de distribución de contenidos son las redes P2P (per to per, o per
sona a persona, en contraposición a redes comerciales B2B business to busi-
ness, entre empresas). Estas redes, mediante el software correspondiente, per
miten que los propios consumidores pongan a disposición sus ordenadores como
servidores. Cuando un usuario se descarga un contenido lo pone a su vez a
disposición del resto de usuarios. El programa se encarga de gestionar las des
cargas de la manera más eficiente a partir de los ordenadores conectados en
ese momento.
Estas redes P2P fueron pioneras en el intercambio de archivos, y supusieron
también la aparición de la piratería. Napster fue el primer ejemplo, y la causa
primera de la práctica liquidación de las empresas discográficas (aquellas que
basaban su negocio en la venta de un soporte físico). Una red P2P no tiene que ser
necesariamente gratuita, y existen alternativas de pago o que se financian con
publicidad.
En los últimos tiempos, las redes P2P están siendo sustituidas en las prefe
rencias de los usuarios por lugares de descargas masivas. Las redes P2P son
lentas, y en ocasiones los usuarios con el contenido apagan sus ordenadores o
se encuentran en usos horarios muy desacordes, por lo que la descarga se ra
lentiza, y más en contenidos no muy extendidos. Los sitios webs de alojamiento
masivo permiten a cualquiera subir grandes ficheros, permitiendo una descarga
más rápida por parte del resto de usuarios, al alojarse el contenido en servidores
permanentemente encendidos y con mirrors automatizados.
Sucede que estas páginas web eluden igualmente el control de derechos del
contenido. No exigen al que sube el vídeo que demuestre ser el derechohabiente,
por lo que fomentan una vez más la piratería. En ocasiones, estas páginas web
y sus servidores están situadas en otros países, sin posibilidad de ejercer una
acción legal efectiva.
No obstante, este método de distribución es muy efectivo para todos aquellos
contenidos libres de derechos o que el productor desee poner a libre disposición
del público.
» 288
PARTE IV: DISTRIBUCIÓN
Metacapas
Piratería y DRM
» 289
3. IPTV: DISTRIBUCIÓN POR INTERNET
» 290
PARTE IV: DISTRIBUCIÓN
» 291
» 292
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
Actualmente, las salas de exhibición de cine en todo el mundo (lo que aquí lla
mamos metonímicamente "cines" y en Estados Unidos y otros países theaters)
están pasando por su propio “apagón analógico” y reconvirtiéndose más o menos
rápidamente a un sistema de distribución de copias y proyección exclusivamen
te digital.
Los motivos son, una vez más, obvios: mayor calidad, mayor flexibilidad y
un importante ahorro en el tiraje y distribución de copias. Queda por ver si
también supone un ahorro para los exhibidores, pues el equipamiento requerido
es caro; pero dado su fácil manejo y las nuevas posibilidades de ingresos, todos
coinciden en que a medio o largo plazo también será una gran inversión.
» 293
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
» La necesidad de un estándar
El mundo digital ofrece una gran flexibilidad, pudiendo adaptar los sistemas di
gitales casi a las necesidades de cada sala. Pero, por el contrario, puede oca
sionar problemas en la distribución de contenidos: si cada sala dispone de su
propio sistema de proyección, el distribuidor deberá hacer decenas o centena
res de versiones digitales para un estreno, con lo que no aprovecha el ahorro
económico y de logística que supone la digitalización. Se corre además el peli
gro de caer en un sistema plagado de licencias y royalties, como sucedió en la
década de 1980 con la incorporación del sonido digital (Dolby, DTS, etc.).
Ya hemos comentado que a diferencia de la televisión, el mundo del cine no
tiene organismos estatales o supraestatales que puedan coordinar o impulsar la
adopción de un estándar. Por esta razón, y al igual que sucedió con la adopción
del 35 mm como estándar internacional, serán los proveedores de contenidos
los que impulsen la adopción de un estándar. La producción y distribución de
contenidos cinematográficos, a nivel mundial, está dominada ampliamente por
un pequeño grupo de estudios norteamericanos radicados en Hollywood, las
denominadas majors.
Los estudios norteamericanos funcionan de tres maneras: son productores ellos mismos,
son financiadores de otras películas y también son distribuidores. En ocasiones, incluso,
también poseen cadenas de exhibición. Las leyes antitrust norteamericanas impiden el
exceso de concentración en la cadena (producción + distribución + exhibición), pero no
sucede así en otras partes del mundo. La excelente factura técnica de sus producciones,
sumado a su red de distribución y un conocimiento perfecto del mercadeo y la promoción,
hacen que el dominio de Hollywood pueda llegar a parecer incluso agobiante.
Las "siete hermanas del cine" o siete majors son: Disney, Fox, Paramount, Sony Pictures
Entertainment, Universal, Metro Goldwyn Mayer y Warner.
» 294
PARTE IV: DISTRIBUCIÓN
» 295
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
El sistema DCI
» Terminología
Intentando armonizar todos los procesos de trabajo en la distribución, el DCI
distingue tres tipos de archivos:
» 296
PARTE IV: DISTRIBUCIÓN
En esta jerarquía, se espera que el DSM tenga una calidad superior al DCMD,
y que la compresión asociada al DCP no suponga una pérdida visual aparente,
de tal manera que al descomprimirse en el servidor y ser enviado al proyector
tenga la misma calidad que el DCMD original. Esta descompresión es conocida
también como DCMD*.
» DSM
Como indicamos, es el máster digital que tenemos al término de nuestro flujo
de trabajo. El máster digital se usará para hacer las copias para las televisiones
comerciales, para los DVD caseros o para los archivos que distribuiremos en
internet. Y también para realizar el DCMD, que es lo que nos ocupa.
Conociendo las especificaciones del DCMD, que ahora veremos, una produc
ción cinematográfica deberá intentar conseguir un DSM con igual o superior
calidad, pues en caso contrario estaríamos hablando de una upconveision DSM
a DCMD que no aportaría nada de calidad.
» DCMD
La versión 1.2 de las especificaciones usará secuencias de ficheros TIFF de 16
bits lineales (anteriormente, eran dpx de 10 bits logarítmicos, de calidad similar).
Hay que señalar varias cosas. En primer lugar, la profundidad de color real
es de 12 bits, no de 16. Pero sucede que los ficheros TIFF son de 8 o de 16
bits, no existiendo el específico de 12 bits. Se dice (página 29 del documento
referido) que esa información será colocada en los bits más signiñcativos (sic)
del formato, dejando los otros 4 bits en cero.
El espacio de color también difiere un poco. Siempre con muestreo completo,
la normativa DCI sigue la tradición del mundo cinematográfico de trabajar en
el espacio XYZ, ligeramente diferente al RGB.
» 297
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
» Cadencia 48 fps
No hay que confundir esta cadencia "doble" del formato 2K a 48 fps con la de la
estereoscopia, que es igualmente el doble al tratarse de dos flujos de imágenes,
pero que normalmente se nota como 24 (x 2) fps. Además, la frecuencia de re
fresco o de proyección de la estetoscopia es triple, así que la cadencia de
proyección desde el servidor puede alcanzar los 144 fps (24 x 2 x 3).
El aumento de la cadencia, más incluso que la resolución, es quizá la parte
con más desarrollo del cine digital. La cadencia de 24 fps se estima pobre
para una correcta visualización, pero se normalizó en su tiempo buscando un
equilibrio entre calidad y coste del material fotoquímico. Con los modernos
sistemas digitales, el tema del coste no es importante, por lo que se espera que
en aquellas producciones que se rueden también en digital se vea cada vez más
los 48 fps como cadencia de rodaje. Y, quizás, en el futuro, se aumente a 72 fps
o superiores.
» 298
PARTE IV: DISTRIBUCIÓN
» Sonido DCI
En el caso del sonido, y para huir del lastre de licencias del sonido digital
tradicional, se ha optado por incluir un sonido siempre sin comprimir a lo largo
de toda la cadena (DCMD, DCP y DCMD*).
El formato sería el estándar profesional PCM Wave Coding (ITU 3285 versión 1),
con 24 bits de profundidad y un muestreo de 48.000 o 96.000 hercios.
Se incluyen hasta 16 pistas de sonido. Actualmente se tienen asignadas 6 u
8, tal como sucede en las bandas sonoras actuales, dejando sin asignar el res
to de canales para futuras opciones (se habla de salas con altavoces en el techo
y debajo de las butacas, para aumentar la sensación inmersiva).
» 299
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
» DCP
El “empaquetado" de esta DCMD incluye tres aspectos: una inevitable compre
sión, la unión del audio, el sonido y los metadatos y la encriptación e inclusión
de DRM para la seguridad.
» Compresión en DCP
Para facilitar archivos manejables, los varios TeraBytes que puede ocupar el
DCMD se han de comprimir para realizar el delivery digital a un bitrate mane
jable.
La compresión se realizará siempre bajo el códec jpeg2000 (ISO/IEEC15444-1).
Éste es un códec de última generación, que usa algoritmos basados en ondículas
(wavelets) como muchos códecs mpeg4, pero que es por definición intraframe.
Ni el DCI ni el jpeg2000 admiten la codificación interframe.
» 300
PARTE IV: DISTRIBUCIÓN
» Seguridad
La seguridad de los sistemas DCI despertó la desconfianza de muchos exhibido-
res. El archivo DCP debe ir encriptado y sólo se puede acceder a su reproducción
si el exhibidor recibe permiso del distribuidor a través de una clave de control
(KDM, Key Delivery Manager). Algunos exhibidores veían con recelo el hecho
de que eso suponía un control externo de sus cabinas de proyección, o un in
tento de los distribuidores de tener datos en tiempo real de su negocio. Algunos
distribuidores, por su parte, no entendían tanta suspicacia... Está claro que el
negocio del cine, como todos los negocios, se basa en la confianza de los agentes
implicados.
Otra de las características iniciales de la recomendación DCI era la existencia
de un cableado especial entre el servidor y el proyector, para evitar fugas de
señal. Y la exigencia de que sólo se pudiera proyectar contenidos desde un
servidor en concreto. Muchos pensaban que este cable era otra forma de control,
pues sin KDM podría inutilizar toda una cabina, incluyendo el uso de otras
entradas para el proyector. Se perdía también la posibilidad de una gestión
más eficiente de las salas en complejos multiplex o megaplex, pues con copias
virtuales, no físicas, se puede cambiar de sala un contenido con sólo pulsar un
botón, optimizando los recursos del exhibidor: la más solicitada se exhibe en
la sala más grande, y los floppers (películas de gran presupuesto que fracasan)
pasan a la pequeña.
Actualmente se ha avanzado en este sistema y se permite una combinación
de proyector y servidor seguro sin necesidad de un cable, además de la nor
malización de un sistema de gestión en función del tipo de cine, bien sea para
una sola sala (SMS, Screen Management System) o de varias (TMS, Theatei
Management System).
Además del KDM, las copias virtuales DCP pueden incluir marcas forenses,
tanto en el audio como en el vídeo, para identificación de la fuente de una
posible copia pirata.
» 301
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
» 302
PARTE IV: DISTRIBUCIÓN
» Transmisión de datos
Los DCP se pueden transmitir al cine mediante cualquier sistema: bien en discos
duros, bien a través de internet o bien por satélite.
La transmisión por satélite da la posibilidad, hasta ahora lejana, de estrenos
mundiales el mismo día, desde un único centro emisor planetario. Con todo lo
que ello significa. Para algunos, la emisión vía satélite implica que las majors
"emitirán" unilateralmente sus contenidos de forma global desde una antena
situada en Hollywood, California. Antena de la que serán propietarios, claro.
¿Un cerrojo más a su ya mayoritario control de la distribución?
» La proyección
Además de la imagen y los 16 canales de sonido, se incluye información de
cabecera, un conteo de fotogramas, subtítulos, marcas forenses y poco más.
Desencríptar Reescalar
Reescalar
» 303
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
» 304
PARTE IV: DISTRIBUCIÓN
Hasta ahora, las salas de cine se han usado preponderantemente para la pro
yección de largometrajes de ficción, y ocasionalmente para documentales, con
una duración media de 90 minutos.
Pero con la instalación de proyectores digitales en las salas de cine, se
cambia completamente el paradigma. Ahora una sala de cine puede acceder a
una oferta de contenidos mucho más amplia.
» Cine independiente
Hay que señalar, también, que las majors consideran "contenido alternativo"
cualquier largometraje que ellos no distribuyan. Pero es negar sentido comercial
a multitud de producciones de otros países. En ese sentido, no asociaría la
palabra "independiente” a cine pensado para públicos minoritarios, o cine no
mainstream, sino simplemente al cine no distribuido por las majors y que, por
tanto, es susceptible de utilizar otros estándares diferentes al DCI.
Una de las limitaciones de la distribución del cine tradicional es el alto coste
de producción y manejo de las copias positivadas. Un delivery digital posibilita
otro tipo de distribución, y otro tipo de relación con los distribuidores. Entre
otras cosas, se deja de pensar en "copias” y “semanas”, para pensar en “pases"
y “sesiones”, abriendo una nueva forma de optimizar las salas de exhibición
que, por lo general, y salvo contadas excepciones, se encuentran vacías la
mayor parte de su tiempo útil, pues la mayor parte de su taquilla se concentra
en días festivos y fines de semana y casi exclusivamente por las tardes.
No obstante, los que piensan que la distribución digital del contenido devolverá el
cine independiente a las salas, olvidan que es fundamental manejar la promoción y la
publicidad tanto o más que tradicionalmente. Y que además lucharán también contra el
resto de contenidos alternativos que se pueden ofrecer en salas.
» E-Cinema
Hasta hace poco existían dos corrientes en la proyección digital en cines. Por
un lado, la iniciativa DCI que se apropió indebidamente del nombre D-Cinema y
la asoció a sus especificaciones técnicas: 2K / 4K, 12 bits, compresión jpeg2000.
Por debajo de estas especificaciones, se definiría entonces el E-Cinema ("E”
de Electronic). Generalmente son proyectores con una resolución próxima al HD
Ready / SXGA / WXGA, y que en ocasiones se nombran como 1,3K, o 1,4K por
su resolución horizontal.
» 305
4. LA DISTRIBUCIÓN DIGITAL EN SALAS
» Videojuegos
Otro de los contenidos propuestos para las salas de cine son los videojuegos,
que convierten las salas en lugares de competición en vivo.
Se espera un desarrollo muy amplio en este campo, pero está pendiente
de una apuesta de marketing que atraiga a los millones de aficionados a este
entretenimiento.
» 306
PARTE IV: DISTRIBUCIÓN
» Futuro próximo
Actualmente ya se están ensayando transmisiones estereoscópicas en directo.
Sucede sin embargo que ahora mismo no existe una estandarización para este
tipo de emisiones 3DTY por lo que productores y exhibidores se tienen que
poner de acuerdo para elegir algunas de las soluciones comerciales que ofrece
el mercado.
También se está ensayando la transmisión en directo a través de redes IR
Con redes de alta velocidad en este caso y por esta vía sí sería posible transmitir
contenidos con especificaciones DCI, como ya se ha demostrado.
» 307
» 308
ANEXOS
» 269
1. Resolución, definición,
percepción y MTF
» 311
1. RESOLUCIÓN, DEFINICIÓN, PERCEPCIÓN Y MTF
Pares de líneas
El teorema de Nyquist
» 312
ANEXOS
Es por eso que precisaremos, al menos, del doble de píxeles que de líneas para
una representación fiable. O dicho de otro modo, a partir de la mitad del número
de muestras (píxeles, en este caso) totales, la capacidad de representación
fidedigna cae en picado.
También se aplica en el mundo del sonido. El oído humano es capaz de distinguir
frecuencias sonoras entre 50 y 20.000 herzios, por lo que un sonido profesional siempre
tomará, como mínimo, el doble de muestras (44.100 en el caso de la música, y 48.000 en
el mundo de la televisión profesional).
» 313
1. RESOLUCIÓN, DEFINICIÓN, PERCEPCIÓN Y MTF
MTF
i
El epígrafe anterior es importante para entender que la “resolución óptica” o
"definición" o, si se quiere, la “definición" total de una imagen no viene deter
minado únicamente por las especificaciones físicas de su soporte (el fotograma
fílmico o el sensor captador digital).
Este concepto es lo que se conoce como la Modulation Transfer Function o
MTE Bajo ese término se encierra algo muy simple: cualquier proceso intermedio
altera la calidad total de un sistema. Y lo hace de manera multiplicativa o expo
nencial.
Pensemos en una cámara digital, por ejemplo. En este libro nos fijamos prin
cipalmente en las características del sensor y del formato de grabación para
definirlo. Sin embargo, entre la imagen y el espectador se interponen muchas
etapas, entre ellas: las condiciones atmosféricas (niebla, contaminación, hume
dad, calima...), los filtros, la lente, el filtro antialiasing, el filtro IR, el procesador
A/D, la calidad del compresor, la calidad de la interfaz de captura, la calidad
del software de edición y postproducción, la calidad del volcado o filmado, la
calidad de las copias, la calidad del sistema de proyección o de visionado...
Sucede que todos estos procesos son acumulativos. Si, por ejemplo, hemos
usado una lente defectuosa, toda la calidad se resentirá en un tanto por ciento.
Si luego realizamos una compresión defectuosa, que también hace perder otro
tanto por ciento, tendremos que multiplicar estas pérdidas.
Incluso en las mejores condiciones, es difícil obtener el 100 % de la calidad
teórica de un sistema. Para algunos, incluso un 90 % es mucho, y aceptan como
algo normal un 60 %. Pero si no somos cuidadosos en nuestro trabajo, en todos
y cada uno de los procesos, este mínimo se puede resentir aún más, con lo que
podremos quedarnos en un 20 o un 10 % de la calidad posible.
Pensemos que si hay cinco factores, cada uno con un MTF del 90 %, tendremos finalmente
un MTF global de 0.95, es decir, de menos de un 60 %. Pero si sólo un factor tiene un MTF
menor, pongamos un 60%, el resultado sería 0.94 x 0.6 = 0,39, menos de un 40%. De
ahí la importancia de cuidar todos y cada uno de los procesos en nuestro flujo de trabajo.
» 314
«NEXOS
Percepción
» 315
» 316
2. Visualización de la señal
• Forma de ondas
• El vectorscopio
• Color 3D
• Elhistograma
Los dos primeros son usuales en la televisión, tanto analógica como digital.
Si hablamos de herramientas físicas, existe el monitor de forma de ondas, que
aúna en un mismo aparato tanto la forma de ondas como el vectorscopio.
Los dos últimos son comunes en los equipos y el software de postproducción
avanzados.
Forma de ondas
» 317
2. VISUALIZACIÓN DE LA SEÑAL
Vectorscopio
El vectorscopio (vector scope) nos dará información tanto del tono de color
dominante como de la saturación.
Se presenta como un círculo que corresponde a la representación del círculo
cromático que ya conocemos, con los colores primarios (rojo, verde y azul) y sus
complementarios (cian, magenta y amarillo) situados de manera opuesta.
El vectorscopio complementa la información del MFO dándonos información
sobre la dominante de color de la imagen (el arco de los 360° donde hay más
información), así como de la saturación de los mismos (menor en la parte central,
mayor en la exterior).
» 318
ANEXOS
Color 30
Histograma
» 319
2. VISUALIZACIÓN DE LA SEÑAL
» 320
3. La rasterizacicm
Si una cámara con formato HDV 1.440, por ejemplo, ofrece una salida HD-SDi, inter
namente "desrasteriza'' la información para ofrecer una señal completa HDTV 1.920 x
1.080.
» 321
3. LA RASTERIZACIÓN
Por descontado, una señal rasterizada se considera de peor calidad que una
señal completa (Full Ráster).
» 322
4. Relación de aspecto del píxel
( P í x e l A s p e c t R a t l o , PAR)
PAR y Ráster
» 323
4. RELACIÓN DE ASPECTO DEL PÍXEL (PÍXEL ASPECT RATIO, PAR)
Pérdida de calidad
v/s e c o n o m í a
3:1:1
» 324
ANEXOS
» 325
4. RELACIÓN DE ASPECTO DEL PÍXEL (PÍXEL ASPECT RATIO, PAR)
En el caso del cine digital, siempre se trabaja con píxel cuadrado 1:1. Tanto en
producción como en distribución, pues las recomendaciones DCI de distribu
ción en salas entienden que los ficheros DCMP de distribución (copia digital
empaquetada, Digital Cinema Mastei Packing) siempre tendrán píxel cuadrado.
Técnicamente, y dado que el formato contenedor es siempre el mismo, im
plica el uso de bandas horizontales y verticales, o bien un recorte; y por tanto
un desaprovechamiento tanto del formato como de la proyección. Pero en este
caso, lo que se quiere evitar es el uso de diferentes ópticas (anamórficas o no)
en los proyectores digitales, así como errores en la descodificación de los DCMP
» 326
5. Barridos PSF, PN y otros
Hemos visto que existen dos tipos de barrido o lecturas del cuadro (frame): in-
terlazada o progresiva, que identificamos con las iniciales i/p, respectivamente.
Sin embargo, en ocasiones, junto al número de la cadencia, no aparecen
estas dos letras, sino otras como PSF; PN o similares: 25 psf, 24 PN...
Generalmente, se trata de barridos progresivos guardados de manera in-
terlazada, y las diferentes siglas son marcas comerciales (registradas) de los
diferentes fabricantes. PSE por ejemplo, es una marca de Sony, y PN es de
Panasonic.
En cualquier caso, para estas u otras siglas que puedan aparecer en el futuro,
siempre es conveniente recurrir a las especificaciones y manuales de las casas
fabricantes.
PSF
PSF son las siglas de Progressive Segmented Frame (cuadro progresivo seg
mentado). Es una solución que Sony ha introducido en el mercado con objeto
de armonizar mejor los sistemas interlazados (propios de la televisión) con los
progresivos, propios del cine. La grabación psf supone una captación progresiva
pero una grabación interlazada. Es decir: la imagen se divide en dos campos
como en el sistema interlazado, pero la captación de estos dos campos ha sido
realizada al mismo tiempo, de manera progresiva.
A todos los efectos, un fichero psf se considera progresivo.
» 327
5. BARRIDOS PSF, PN Y OTROS
PN
PA
» 328
Al hablar de la cuantificación en bits, hemos visto que a cada aumento de luz
en el sensor se produce un aumento en el número asociado entre 0 y 255 (para 8
bits), y lo hace de manera proporcional o lineal: si tenemos un nivel bajo de luz
correspondiente a un valor X, al doblar la cantidad de luz tendremos un valor
2X.
Dicho de otro modo, si partimos del nivel 0 (sin luz) y aumentamos un 15 %
la intensidad de la luz, el número resultante en 8 bits sería 39 (aprox.). Si
aumentamos otro 15 %, tendríamos un valor de 77, y así sucesivamente.
Fotoquímico logarítmico
» 329
6. CODIFICACIÓN LINEAL Y LOGARÍTMICA
Diferencias en la respuesta
Captación logarítmica
Sucede sin embargo, que nuestro ojo es también logarítmico y tiene, como el
negativo, una mejor respuesta en “altas luces" que en bajas. A plena luz del
día, podemos distinguir gran cantidad de matices de blancos y azules en un
cielo con nubes. Pero cuando oscurece, como dice el dicho, “todos los gatos son
pardos”.
Para intentar simular esta naturalidad, y además contar con algunos stops
más, algunas cámaras digitales de alta gama pueden ofrecer captar igualmente
en logarítmico o una simulación logarítmica (cada solución es diferente).
Monitorado y LUTs
» 330
ANEXOS
Todos los monitores y proyectores digitales actuales trabajan a 8 bits, pues es el estándar
informático. Pero empiezan a aparecer monitores de 10 bits para trabajos de colori-
metría (colorgrading). Las especificaciones DCI de distribución también indican que los
proyectores deben ser de 12 bits.
Imagen logarítmica
Tal como se vería
en un monitor lineal
Digitallzación DPX
» 331
6. CODIFICACIÓN LINEAL Y LOGARÍTMICA
Los DPX tenían esa ventaja de cuantificación superior a 10 bits frente a los
formatos tradicionales de 8 bits. Actualmente, sin embargo, ya hay ficheros
informáticos que permiten mayor información, como los TIFFs de 16 bits. Por
esta razón, en ocasiones se puede optar por un escaneado lineal a 16 bits en
lugar de por uno logarítmico de 10 bits. Los dos son perfectamente válidos, sin
pérdida de información.
LUTs 3D
Una LUT siempre será necesaria para visionar un fichero de 10 bits RGB o
superior en un monitor de 8 bits RGB. Sirve una simple una corrección de gama
2D o en dos dimensiones o ejes de coordenadas.
Sin embargo, el espacio de color del cine no es exactamente RGB, sino
uno de un espectro algo superior (wide gamut) conocido como XYZ. Tiene una
colorimetría un poco más amplia y diferente que el estándar RGB. Para hacer
una perfecta correlación entre este espacio de color y el monitor RGB, hay que
trabajar teniendo en cuenta este espectro mayor en tres ejes (de ahí el 3D). Cada
color RGB está definido por unas coordenadas de tono, saturación y brillo (Hue,
Satuiation & Lightness, HSL) muy definidas, que difieren del HSL concreto del
espacio XYZ. De ahí que se hable de LUTs 3D cuando se intercambia información
entre espacios de color con diferente espectro (gamut).
Las diferencias entre el espacio RGB y XYZ no son muy grandes, y afectan principalmente
a determinados tonos y amplitudes más que en una colorimetría general diferente. Puede
producir un teñido magenta suave en las sombras, por ejemplo, antes que una variación
brusca en los tonos de piel.
Una LUT correcta tiene que tener en cuenta siempre tres aspectos:
® El fichero original.
* El monitor o proyector que se usa para el visionado.
® El fichero final.
» 332
ANEXOS
Esto significa que la LUT debe adaptar el fichero original (un TIF de 16 bits,
por ejemplo) al sistema que estemos usando para visionar y tratar la imagen (un
monitor de 8 bits u otro de 10 bits), y al mismo tiempo contar con el fichero final
de exportación (sea un DPX de 10 bits log, o una cinta de formato HDTV).
» 333
» 334
Damos por supuesto que los monito
res informáticos y de televisión tienen
una gama absolutamente lineal (1),
cuando no es así. Su gama es “lige
ramente” logarítmica, con una correc
ción 2.2 (o su inversa, 1/2.2 = 0.45),
si bien se entiende tradicionalmente
que la gama 2.2 es lineal.
El origen de esta diferencia se de
be, una vez más, a los monitores de
tubo de rayos catódicos (CRT), los ori
ginales del mundo de la televisión pe
ro también de la informática hasta la
aparición de los monitores digitales.
La tecnología CRT, analógica, no
permitía una respuesta totalmente li
neal a los estímulos eléctricos. En con
creto, se perdía cierta parte de la in
formación en los medios que producía
una ligera curva cuantiñcada en una
respuesta logarítmica de 0.45.
Para compensar esta pérdida, las cámaras de televisión y las tarjetas gráfi
cas trabajan con una gama ligeramente compensada en estas zonas, con una
respuesta de 2.2.
El resultado de todo ello es que si grabo una imagen con gama 2.2 y se visiona
en un monitor que pierde 0.45, visualizo efectivamente una imagen totalmente
lineal:
2.2 x 0.45 = 1
» 335
7. LA GAMA 2.2
En ocasiones, para referirse a una gama 2.2 de visualización se dice que tiene una res
puesta REC 709 o REC 601, que como sabemos son las especificaciones internacionales
de televisión.
Gama en TU y en cine
Por defecto, también todos los equipamientos HDTV tienen una gama 2.2. En
cine digital, y en formatos propietarios no estandarizados, también se puede
trabajar con una gama pura 1. Técnicamente, el formato RAW no tiene correc
ción de gama 2.2, e internamente es una gama puramente lineal, si bien los
softwares que permiten visionar esos ficheros RAW tienen por defecto un preset
de trabajo 2.2, pues es el que espera recibir el monitor estándar.
» 336
8. La corrección de gama
Correcciones de gama
Gain, Gamma, Master son términos que algunos fabricantes (pero no todos) asocian a
"altas, medias y bajas” luces. Pero en otras ocasiones se refieren a los niveles en general.
Es imprescindible leer los manuales y especificaciones de cada herramienta.
» 337
8. LA CORRECCIÓN DE GAMA
Skin detail/correction
Skin es "piel" en inglés, y con esa palabra nos referimos a los tonos y niveles
que generalmente se asocian a la piel humana..., pero la piel humana caucási
ca: tonos anaranjados en niveles medios. Es un parámetro sobre el que cada
fabricante puede aplicar pequeñas variaciones.
El preset skin permite discernir un poco mejor que la simple corrección de
medios. Se puede dar el caso, por ejemplo, de querer tocar los niveles asociados a
un rostro, pero no a la pared que vemos detrás. (Ésta es la razón, por otra parte,
para pedir a los decoradores profesionales que no elijan paredes con colores
parecidos a los tonos de piel.)
El skin detail, sin embargo, es algo diferente que no se puede confundir:
aplica en los mismos valores un “sobrecontraste” que acentúa electrónicamente
la nitidez de la imagen (en este caso, en los tonos de piel). El circuito de detalle
(detail) y de skin detail se usa con cierta frecuencia en los entornos SD, pero no
es nada aconsejable en HDTV y en absoluto en cine digital, pues su superior
resolución y contraste aseguran esta nitidez.
» 338
9. Non Drop Frame / Drop Frame
» 339
9. NON DROP FRAME / DROP FRAME
• Contar uno a uno todos los cuadros, con la particularidad de que cuando el
TC nos señale una hora, en realidad tendremos un poco más de 59 minutos
y 56 segundos reales de material. Esto es lo que se conoce como NON
DROP FRAME.
« Intentar armonizar los cuadros con la duración real. Esto se hace ignorando
(drop) un cuadro cada 1000. Es un código de tiempo DROP FRAME. De esta
manera, cuando nuestro TC nos señale 1 hora, tendremos exactamente una
hora de material.
30 NOP, 30 DP
» 341
10. PULL DOWN
23,976p
29,97p: unusable
» 342
ANEXOS
Hay otras opciones, con análisis vectoriales de la imagen, pero son muy laboriosas e
imperfectas.
Por eso estas cadencias (29,97p, 30p) se consideran poco recomendables (un-
usable) para un trabajo que aspire a una difusión internacional.
» 343
» 344
11. Captación RAW
La grabación RAW es algo muy usado desde hace tiempo en la fotografía fija y
se está implantando en el cine digital sobre todo en aquellos equipamientos HR
especializados en producciones cinematográficas (como la Red One / Redcode
o la Genesis de Thomson / Filmstieam, etc.).
RAW no es una sigla, sino una palabra inglesa que se puede traducir como
“en bruto” o "en crudo”, sin tratar. Se refiere a utilizar la información digital
proveniente del sensor sin ningún tipo de mediación.
Matrización de la señal
» 345
11. CAPTACIÓN RAW
La razón del uso de RAW es evitar pérdidas de calidad. Una de las pérdidas
puede ser motivada por el hecho de que la mayoría de los formatos de vídeo
estándar son de 8 bits. Si nuestro sensor nos proporciona 10 o 12 bits, estamos
despreciando información muy útil para la postproducción. También hay que
anotar que la compleja etapa de matriz puede generar un ruido suplementario.
En RAW evitamos este ruido. También el RAW permite trabajar con un espacio
de color generalmente más amplio que el RGB, el sRGB o el YUV propio de la
televisión.
En cuanto a la compresión, la señal RAW se puede comprimir más eficiente
mente que una señal formateada, y puede hacerlo en ocasiones (siempre dentro
de unos límites) de una manera reversible, con recuperación completa de la
información original.
Trabajo en postproducción
Trabajar con un formato RAW no quiere decir que se prescinda del "formateo”.
Simplemente se deja esa etapa para la postproducción. Una vez tenemos la
información, la introducimos en nuestra estación de trabajo y la tratamos con
el software adecuado. Este software, generalmente de la misma casa que la
cámara, nos permite transformar el RAW en una imagen en movimiento. Es
ahí donde ajustamos niveles (brillo, contraste, saturación) y donde tenemos la
opción de pasarlo a un formato estándar.
Al no estar matrizada, datos como la temperatura de color, el espacio de color
o incluso el ISO (si no es nativo) son modificables a voluntad, pues se almacenan
puramente como metadatos.
Ficheros RAW
» 346
ANEXOS
Por esa razón, hay que contar de antemano con las herramientas de post
producción adecuadas a la cámara con grabación RAW. En resumen, el RAW
presenta ventajas indudables a la hora de preservar la información del sensor,
pero por otra parte complica y ralentiza las tareas de postproducción. Se pre
senta como una opción óptima para la cinematografía digital de calidad, pero
para la televisión es poco o totalmente (en el caso de directos) incompatible.
» 347
» 348
12» Entradas y salidas en una cámara
Cableado e información
Macho/hembra
» 349
12. ENTRADAS Y SALIDAS EN UNA CÁMARA
• RAW
• RGB
• YUV digital (HDSDi), por componentes
• YUV analógica (Y Pb PR), por componentes
• Señal Compuesta Y/C
• Compresión digital propietaria
• Mpeg4 de emisión digital
• Mpeg2 digital
• Señal RF emisión analógica
• al) HD.SDi
La conexión digital por excelencia es la SDI: Serial Digital Interface, o conexión
digital estandarizada. Es la que corresponde a la normativa ITU, sea en SD (609)
o HD (701). Siempre por componentes, es decir con sus tres señales (Y, U, V)
diferenciadas y sin compresión de ningún tipo, con una resolución máxima de
1.080.
Normalmente, si es una señal de alta definición se nota como HD.SDi.
El cable más común es del tipo BNC. Es un cable protegido con una malla
externa para evitar interferencias, y con un enganche en el cabezal que lo fija
al dispositivo, para evitar que un tirón accidental lo desconecte (en general, las
conexiones profesionales suelen llevar algún tipo de cierre de este tipo).
En algunas cámaras, para ahorrar espacio, se usa una conexión del tipo
miniBNC, con rosca de seguridad.
» 350
ANEXOS
• a4) HDMI
High Digital Multimedia Interface es un estándar propuesto en principio para el
consumidor final, como medio de conexión de todos los aparatos HD que pueda
haber en el hogar: monitores de plasma, consolas de videojuego, reproductores
Blue Ray, etc.
Lo incorporan también muchos ordenadores, sobre todo portátiles, como un
medio de conexión entre el ordenador y las pantallas de televisión y los pro
yectores.
Tiene también una versión miniHDMI, que es la que suelen presentar los
portátiles y las cámaras.
» 351
12. ENTRADAS Y SALIDAS EN UNA CAMARA
• a5) Y Pb Pr
Es la versión analógica de la señal HDTV transmitiendo la señal YUV
La conexión se suele ofrecer como un trío de cables con cabeza RCA y tres
colores diferenciados para evitar confusiones, que son el verde (Y), el azul (U) y
el rojo (V).
Físicamente, es igual al conocido cable A/V que tiene el color amarillo para la
señal compuesta de vídeo SD, el rojo para el canal izquierdo y el blanco para el
derecho.
Como hemos comentado, dado que físicamente es el mismo cable, no habría dificultad
para usar un cable A/V a fin de conectar terminales Y Pb Pr.
Sólo transporta vídeo, no audio ni metadata como código de tiempo. Está pre
sente en algunas cámaras prosumer, pensadas originalmente para el visionado
de la señal en monitores analógicos. También se puede conectar a algunas tar
jetas capturadoras. Ofrece una calidad estándar, pero al ser analógica y en un
cable no protegido contra interferencias, no se recomienda su uso profesional.
Sobre todo si el cable mide más de uno o dos metros. Tampoco el RCA es un
cabezal con cierre de seguridad.
En algunos camcordes de tipo handycam, para ahorrar aún mas espacio, el
cabezal que se conecta a la cámara puede ser diferente a los RCA, como un mini-
jack o una conexión multipin que suele ser una solución propietaria de la marca.
» 352
» 353
12. ENTRADAS Y SALIDAS EN UNA CÁMARA
Hay una gran variedad, con diferentes tipos de conexión (mono, estéreo,
balanceada...), tamaños y materiales.
En el mundo audiovisual se suele ver en conexiones de audio, existiendo
conversores a conexiones tipo XLR.
• a10) Multicore
Es un cable de gran grosor que se usa generalmente para cámaras de estudio o
para conectar camascopios a mesas de mezclas y unidades móviles.
Transmite la señal estándar ITU, sin compresión y por componentes, pero
incluye otros pines para el retorno de la señal, la comunicación entre la mesa y
el operador y el remoto desde la CCU (Unidad de Control de Cámara).
Su rango de transmisión en distancia es mayor que la mayoría de los cables,
por lo que es imprescindible en todos los directos televisivos.
» 354
ANEXOS
flujo de datos es el mismo (25 mbs). Además de la señal HDY se usa para algunos
modelos XDCAM y DVCPro-100. Panasonic tiene al menos un magnetoscopio
con este tipo de entrada para el formato referido.
“Firewire" o “firewire 400" es una marca registrada por Apple, por lo que esta
solución se conoce como IEEE 394 en entornos PC (refiriéndose al estándar 394
del Institute of Electrical and Electronics Engineers).
Sony denomina a esta conexión iLink, también una marca registrada, en la
mayoría de sus cámaras.
» 355
12. ENTRADAS Y SALIDAS EN UNA CÁMARA
» 356
13. Requerimientos del equipamiento
informático
Software
Esto ocurre por lo general tanto en el mundo del software como del hardware,
lo que ha democratizado enormemente la creación audiovisual. Programas y
soluciones que sólo eran asequibles para grandes empresas hace apenas unos
años, hoy pueden ser adquiridas por cualquier estudiante de secundaria.
No obstante, siguen apareciendo en el mercado soluciones con un elevado
precio. En general, se trata de novedades que permiten trabajar con más reso
lución, con más profundidad de cálculo, con más canales..., en definitiva, con
más información y en menos tiempo (incluso en tiempo real).
No son, por lo general, herramientas "mágicas" que permitan obtener resul
tados que otras herramientas de menor coste no alcanzan. Lo que sucede es que
en esta industria el tiempo es dinero, sobre todo en determinados ámbitos como
la publicidad. Estas herramientas permiten trabajar muy bien y muy rápido,
logrando en una jornada lo que otros programas tardarían tres o cuatro en hacer.
De ahí que tengan un precio superior, pero éste igualmente amortizable.
En ocasiones, se presentan novedades que les sitúan un par de años, o
menos, por delante de la competencia: correctores de color, por ejemplo, todavía
no eficientes en las soluciones ENL más aceptadas; herramientas para un trabajo
2K o incluso 4K en tiempo real; o, ahora mismo, soluciones para flujo de trabajo
3D y su exigente bitrate.
» 357
13. REQUERIMIENTOS del equipamiento informático
Plataformas
Hardware
Versiones
El sistema operativo sirve como base para operar con los programas. Ahora
mismo hay versiones de sistemas operativos que trabajan a 32 y 64 bits. Pero para
que sean funcionales tienen que estar instalados en arquitecturas diseñadas
para 32 o 64 bits. De nada sirve un SO de 64 bits en una plataforma de 32.
» 358
ANEXOS
Interfaz de usuario
Por descontado, trabajar con varios programas abiertos ralentiza todos los procesos.
» 359
13. REQUERIMIENTOS DEL EQUIPAMIENTO INFORMÁTICO
tarjeta de vídeo para ser mostrada por el monitor. Al terminar ese clip, seguirá el
mismo proceso con el siguiente.
Si el clip tiene añadido un efecto en tiempo real, el programa usará la CPU
para calcularlo antes de mandar la información a la tarjeta de vídeo.
Como ya señalamos, muchos programas muestran estos efectos o incluso los clips con
una resolución no real, sino inferior, con objeto de agilizar los procesos. Hay que tenerlo
en cuenta siempre a la hora de trabajar.
Cuellos de botella
Discos duros
» 360
ANEXOS
CPU y RAM
» 361
13. REQUERIMIENTOS DEL EQUIPAMIENTO INFORMÁTICO
Monitorado
Una tarjeta de vídeo y un monitor informático esperan recibir datos puros, sin
comprimir, que mostrar en la pantalla, píxel por píxel. Si el archivo está compri
mido, deberá ser la CPU la que previamente descomprima los datos.
Por esta razón, en compresiones muy exigentes podemos tener problemas de
visionado. Pasaba con altas calidades en ficheros de tipo interframe, como el
» 362
ANEXOS
mpeg2 y el mpeg4. La CPU debe almacenar y comparar todo un GOP para des
codificar y mostrar un sólo fotograma. Esto explica que los formatos intraframes
"corran” mejor, a pesar de tener bitrates más altos.
RGB progresivo
» 363
» 364
14. Tipos de ficheros de imagen digital
Dado que en algunos trabajos usamos ficheros de fotografía fija (stills), es nece
sario explicar un poco las diferencias. Existe una gran variedad, pero hablaremos
aquí de los más usuales.
Ficheros comprimidos o no
Al igual que en vídeo, los ficheros de fotografía fija se pueden comprimir o no.
Obviamente, para un trabajo de calidad intentaremos trabajar con ficheros no
comprimidos, pues esta compresión es siempre destructiva.
Resolución y calidad
Dado que en fotografía no hay estándares, el tamaño puede ser el que elijamos,
entendiendo que debemos elegir uno adecuado a nuestros estándares (sea HD,
2K u otros).
La resolución de pantalla será de 72 pp (puntos por pulgada), que es la de
nuestros monitores y proyectores. Una calidad superior sólo es perceptible en
copias impresas.
Igualmente, hay ficheros que permiten trabajar sólo con 8 bits, y otros que lo
amplían a 16 o 32 bits.
Ficheros comprimidos
Los más populares (y de los que hay que huir) son los jpeg y los gifs. También
existe la compresión jpeg2000 (jpeg2K, jp2), que se usa en el estándar DCI de
» 365
14. TIPOS DE FICHEROS DE IMAGEN DIGITAL
distribución digital en salas. Los dos primeros sólo llegan a 8 bits, mientras el
jpeg2000 puede alcanzar los 12 bits.
El jpeg tiene una compresión basada en la DCT (derivada del discreto coseno),
que es la base de muchos códecs. Es escalable y obtiene una gran relación
calidad/peso, pero la presencia de artiíacts (bloques de píxeles, solarizaciones y
banding, por lo general) hace desaconsejable su uso.
El gifs tiene la particularidad de que no se trata propiamente de una compre
sión, sino de una reducción del número de colores (color indexado), reduciendo
así el peso. Es muy útil con gráficos e imágenes de colores planos, pero inefi
ciente si hay degradados y una gran variedad tonal (es decir, la mayor parte de
las imágenes de cine o fotografía). A diferencia del jpeg, permite la inclusión
de un canal alfa o transferencia. En ocasiones se usa para la inclusión de créditos
y subtítulos.
Ficheros no comprimidos
Ficheros sin comprimir son el tiff, el tga, el bmp, pict, png... (no incluiré la ex
plicación de las siglas, pues no resultan de interés).
El más usado suele ser el TIFF (o TIF), pues además de la información de
imagen puede incluir transparencias (canal alfa) e incluso capas (reconocidas
por programas como Photoshop, After Effects y otros). BMP por ejemplo, es
una imagen sin comprimir pero sin canal alfa. El PICT es similar al BMP en
.plataformas Apple.
TGA fue un fichero propietario de la casa Targa, muy usado años atrás. La
calidad es igual al TIFF incluyendo el canal alfa, pero es mucho menos usual,
habiéndose sustituido por éste, pues el TGA exigía, en su inicio, el pago de ro-
yalties.
El TIFF puede llevar internamente una compresión, pero siempre será una
compresión reversible, no destructiva. Es útil, por ejemplo, si trabajamos con
gráficos o títulos de crédito: los fondos y colores planos se comprimirán sin
pérdida.
Otro fichero con el que se puede trabajar es el propio del popular programa
Adobe Photoshop, el PSD, y también con su variante de encapsulado postscript
(EPS), más compatible con otros programas. Obviamente, funciona perfecta
mente con programas de la marca Adobe (After Effects, Premiére, etc.).
» 366
ANEXOS
DPX
El fichero más típico de imagen fija en cine es el conocido como dpx, con una
cuantificación logarítmica de 10 bits (equivalente a 12 bits lineales).
Este fichero fue de uso común durante mucho tiempo, pues era la única
manera de aprovechar todo el rango dinámico del fotoquímico. Pero reciente
mente, el formato TIFF permite profundidades de colores de 16 bits (e incluso
superiores), que ya permiten teóricamente conservar todo el rango dinámico del
fotoquímico de 35 mm, y hacerlo de manera lineal, más cómoda para su trabajo.
RAU
» 367
» 368
15. Los codeos Avid DnxHd
» 369
15. LOS CÓDECS AVID ONXHD
DnxHD 36 mbs
» 370
ANEXOS
Otros códecs
Avid también tiene sus opciones sin comprimir, 1:1. Otros fabricantes tienen
sus propias formas de identificar las calidades. Es común el uso de las siglas
LQ, MQ, HQ (baja, media y alta calidad, en inglés) u otro tipo de identificación.
Otros incluso han incorporado opciones 4:4:4.
¿Qué codec es el mejor?, ¿cuál elegir? No queda más remedio que estar per
manentemente actualizado.
» 371
» 372
16. ¿Qué cámara comprar?
Como asesor y consultor de cine digital y alta definición me han hecho esta
pregunta multitud de ocasiones. Y siempre contesto de la misma manera: no
hay una cámara perfecta, depende del trabajo a realizar y del presupuesto del
que se disponga.
Actualmente, hay pocas cámaras en el mercado profesional y prosumer que
no cumplan las expectativas. Pero al mismo tiempo, las diferencias de carac
terísticas y precios sí son más que notables. Resulta complicado acertar en todos
los casos.
Por eso, creo que la elección de una cámara, sea para alquiler o compra,
debe ajustarse a una serie de preguntas y respuestas que todos debemos ha
cernos con las características técnicas delante. Responder estas preguntas nos
dará información sobre su calidad técnica y sobre su adecuación al trabajo que
pensamos realizar.
Considero interesante incluir estas preguntas a modo de resumen de esta
parte del libro dedicada a la captación.
La línea de la luz
Objetivos:
» 373
16. ¿QUÉ CÁMARA COMPRAR?
Nunca se debe olvidar que un buen objetivo es, quizás, el factor más impor
tante de la calidad de imagen, pues es el primer obstáculo que ha de atravesar
la luz. De nada vale contar con un supersensor o una gran calidad de ficheros,
si nuestra lente es deficiente.
Esta es una de las principales desventajas de los equipamientos prosumer: que carecen
de lentes intercambiables (con excepciones). También hay que señalar que fabricar una
buena lente es caro, más incluso que el resto de los componentes de una cámara, por
lo que si se quiere ajustar el precio generalmente se hará en este aspecto. Una lente
deficiente tendrá problemas de aberraciones, de flare, de nitidez, etc.
Los zooms fijos de las prosumer y la mayoría de los zooms que vienen con el kit estándar
de la cámara son poco luminosos. Y, en general, los zooms suelen ser de peor calidad
óptica que los fijos.
En cámaras profesionales, se puede optar por comprar el cuerpo y elegir un zoom de
mayor calidad. Pero el precio de éste puede doblar el coste sin problemas. Por lo general,
se monta el objetivo del kit y, para rodajes de calidad y presupuesto, se alquilan objetivos
distintos.
» ¿Qué montura?
Si es intercambiable, nos fijaremos en si tiene una montura estándar o exclusiva
de esa marca (o incluso de ese modelo en concreto). Una montura estándar
permite el uso de una gran variedad de lentes y marcas. Las propietarias suelen
limitar este rango. Es posible también que haya adaptadores que amplíen esta
opción.
Las monturas no estándar están en las cámaras prosumer. Se quiso dar la posibilidad de
lentes intercambiables a algunos modelos, pero al usar un tipo diferente de montura se
obliga a comprar sólo la lente del fabricante. Hay que evaluar su relación calidad/precio
en cada caso.
» 374
ANEXOS
Separación tricromática
» 375
16. ¿QUÉ CÁMARA COMPRAR?
He aquí uno de los desafíos actuales de las cámaras de alta gama: lograr con un solo
sensor la calidad que se ofrece con los tradicionales tres. Pero la situación actual es
confusa. Muchos fabricantes hablan de “megapíxeles" en sus nuevos sensores, y no
de "fotodiodos",
"fotodiodos",y yusan
usan
técnicas
técnicas
de demosaico
de demosaico
para ofrecer
para ofrecer
formatos
formatos
no nativos
no con
nativos con
relación a su sensor. Se habla de 2K o de 4K con demasiada facilidad, a mi entender...
Estas técnicas, si bien llevan tiempo implementadas en el mundo de la fotografía digital,
y seguramente sean la tendencia futura, aumentan el ruido y los problemas de aliasing.
Así pues, hay que ser muy cautos a la hora de leer todas las especificaciones.
Este es un dato que no todos los fabricantes revelan, pues lo consideran parte de su
secreto industrial. Averiguarlo no es demasiado problemático. El problema estriba en
que los ficheros RAW obtenidos suelen obligar al uso de su propio software para su
demosaico. Nuevamente, debemos fijarnos en el mundo de la fotografía profesional (de
donde procede el trabajo en RAW), donde se atisba una tendencia cada vez más clara
a poder usar diferentes programas para el demosaíco, no sólo la opción propietaria. Se
intenta también imponer el uso de un fichero “openRaw", un código abierto para todas las
cámaras. Adobe propone su propio formato DNG como opción abierta (con una variante
para cinematografía digital). Yo optaría, en la medida de lo posible, por estas soluciones
abiertas, para no condicionar el flujo posterior del trabajo (workflow, pipeline).
Sensor
» 376
ANEXOS
No es una característica demasiado importante, pero sí hay que tenerlo en cuenta para
determinadas producciones. El uso de ROI implica también reducir el tamaño del sensor,
lo que implica que se incrementa el factor de multiplicación.
» ¿Qué tamaño?
El tamaño total del sensor determinará qué ópticas son compatibles e influirá en
la profundidad de campo de los encuadres.
Lógicamente, sensores más grandes darán (en principio, véase más adelan
te) mejor calidad que los pequeños. Serán adecuados también para el uso de
angulares, pero, por contra, los sensores más pequeños aprovecharán mejor el
uso de teleobjetivos.
Las cámaras prosumer se diferencian precisamente por esta característica. Sus sensores
rara vez superan la 1/2", y las más económicas suelen ser de 1/3" o inferior. Las cámaras
de alta gama tienen, como mínimo, sensores de 2/3" o similar. Es un inconveniente tanto
para el uso de angulares, como comenté antes, como para la sensiblidad, como veremos
ahora.
» 377
16. ¿QUÉ CÁMARA COMPRAR?
sin duda.
>> ¿Cuál es su Fill Factor?
Además del tamaño, en el fotodiodo debemos valorar su Fill Factor. Es un dato
que no suele suministrarse, pero podemos deducirlo de la arquitectura del sensor.
Por lo general, un CCD tendrá un Fill Factor superior a un CMOS.
También anotar que, dentro del CCD, una arquitectura IT o Fill reduce el Fill
Factor de un CCD.
» 378
ANEXOS
Creo que en este campo se está evolucionando mucho, por lo que los nuevos modelos
siempre serán un poco mejor que los anteriores. En el mundo profesional actual, dos años
parece casi una eternidad.
» 379
16. ¿QUÉ CAMARA COMPRAR?
Vuelvo a decir que en mi opinión el rango dinámico es uno de los factores más importan
tes, si no el que más, de un sensor y, por ende, de una cámara. Ya considero salvado el
escollo de la resolución y de su almacenamiento, pues la mayoría de las cámaras cuentan
con sensores nativos de 1.080 que pueden trabajar en full ráster, sin interpolación. Por lo
que la mejora del RD es el campo que más veremos evolucionar en los próximos años.
La línea de datos
Hasta ahora el tope se situaba en 14 bits, pero ya se ven cámaras de mucha mayor
calidad, incluso entre las prosumer. Esta evolución se debe, evidentemente, a la propia
del mundo de la informática: chips cada vez más rápidos y baratos. Por esa razón, no
suele haber diferencias apreciables entre modelos.
Ésta es una cualidad de la que un buen director de fotografía sabrá sacar rentabilidad.
Hasta ahora está siendo auxiliado por la figura del Técnico de Alta Definición o del DIT
(especialista en intermediación digital). O por el supervisor de postproducción, etapa
muy ligada al uso de estas curvas. Pero en el futuro tengo claro que cualquier operador
que se precie tendrá que saber manejarlas por sí mismo, pues formarán parte de su estilo
como creador.
Ciertamente, complican la operativa y ralentizan el trabajo, por lo que no siempre es
posible su uso. Si no se saben usar, es mejor no tocarlas o recurrir a los presets, pues,
como comenté antes, alteran el formato de grabación original de manera irreversible.
» 380
ANEXOS
No obstante, todavía hay cámaras que sólo permiten trabajar en interlazado; personal
mente, las considero obsoletas.
» 381
16. ¿QUÉ CÁMARA COMPRAR?
Una política muy común en los broadcaster es discriminar sus modelos en función de
la cadencia. En las prosumer suelen venir con opciones determinadas en función de su
zona de venta, sean NTSC como PAL. Por eso, hay que tener cuidado si se compra o
se alquila una cámara en el extranjero. En realidad, es un capado por software, pues el
hardware es siempre el mismo en todos los casos. No lo hacen “para fastidiar”, como
alguna gente cree, sino para gestionar mejor su política de precios.
En las de gama alta de HDTV también se da esta diferencia, por el mismo motivo. Se
pueden encontrar hasta cuatro versiones de la misma cámara que sólo se diferencian
por este aspecto.
En las específicas de cinematografía digital HR, es un problema que raramente se ve,
pues ímplementar cadencias diferentes no es un gran inconveniente técnico.
Junto a las lentes y el pequeño tamaño del sensor, ésta es una de las características de
la gama prosumer, que, con pocas excepciones, suele ofrecer submuestreos del orden de
4:2:0 o inferiores.
Esto tenía cierto sentido hace unos años: al manejar menor información, se podía
almacenar en cintas más pequeñas y facilitaba su edición y postproducción en ordena
dores caseros. Sin embargo, hoy en día, con la grabación en soporte rígido y las mejoras
en la informática, carece de sentido y sólo se entiende por cuestiones comerciales. Hay
que tener en cuenta que todos los sensores ofrecen una salida original 4:4:4. Que ofrez
ca una opción 4:2:2 es casi obligatorio para su correcto monitorizado y armonización
con los flujos de trabajo televisivo, pero, en mi opinión, su conversión a 4:2:0 carece
actualmente de sentido (excepto en el mundo de la distribución, que es para lo que se
pensó originalmente).
» 382
ANEXOS
Salidas y almacenamiento
» 383
16. ¿QUÉ CÁMARA COMPRAR?
Una salida HD.SDi sin comprimir es obligatoria en los equipos de media y alta gama.
En el segmento prosumer se está implementado desde hace tiempo con regularidad, o
en su defecto se dispone de HDMI. Técnicamente, es mejor contar con un HD-SDi, pues
se adapta mejor a otros equipamientos profesionales. Pero también hay conversores
HDMI/HD.SDI.que pueden suplir este inconveniente.
Pero hay dos errores comunes en este segmento prosumer: que cuente con una salida
HD.SDI no obvia ni el pequeño tamaño del sensor ni la calidad de sus lentes y el resto de
los componentes; o, en el peor de los casos, que ni siquiera ofrezca una resolución nativa.
Por eso, no hay que considerar nunca que nos darán una calidad 100 % profesional. El
otro error es pensar que será práctico grabar esta señal en un ordenador u otro dispositivo
portátil para evitar el exceso de compresión o de submuestreo que ofrece este segmento.
Si se suma el precio de este equipamiento a lo engorroso que resulta en el rodaje, quizás
sea mejor optar por una cámara de alta gama, que a fin de cuentas saldrá más rentable.
El segmento prosumer es lo que es, está claro.
» 384
ANEXOS
El códec a usar es también muy importante, y otra vez nos sirve para diferenciar los
segmentos profesionales. En el prosumer, lo usual es trabajar con códecs interframe,
bien mpeg2 o mpeg4, cuantificados a 8 bits 4:2:0 y con bitrates entre 25 y 50 mbs.
Un poco más arriba, en la gama media, nos podemos encontrar los mismo códecs, pero
con mayor bitrate (ergo, menor compresión) y, quizás, 4:2:2.
En la gama alta el códec siempre será intraframe 4:2:2, lo que implica un bitrate más
alto. Tradicionalmente, Sony ofrecía su códec HDCAM a 144mbs y Panasonic el DVC Pro
HD a 100 mbs. Estos bitrates eran los soportados por las cintas tradicionales.
Con la aparición de los soportes rígidos, se podrá almacenar cada vez más con mayor
bitrate y menor compresión. Sony y Panasonic optaron por la alianza estratégica del
AVC-HD (mpeg4, pero I-frame), que cada casa personaliza en cada caso. También están
apostando claramente por los 10 bits en sus equipos de mayor calidad.
Los códecs de gama alta tienen la ventaja de poder trabajar, si se desea, Direct to
Edit. En los de prosumer, es conveniente una transcodifcación a códecs de edición más
robustos.
Otra opción interesante es precisamente implementar estos códecs de edición en
las cámaras, para evitarnos cualquier tipo de transcodificación. Es algo que sin duda
veremos cada vez más.
Sobre el contenido
No vale la pena engañarse: dada la situación del sector, con presupuestos menguantes,
los productores optan cada vez más por trabajar con equipamientos baratos, sin importar
la calidad, incluso en entornos de televisión comercial o incluso de cine digital. Es labor
del profesional insistir en que se respeten los mínimos de calidad broadcast, siempre y
cuando no se ponga en riesgo la viabilidad financiera del proyecto (que no debería incluir
el "sobresueldo" de algunos responsables, añadiría). Y, por descontado, a partir de un
mínimo, no hay cámara mala, sino operador ineficiente.
Un viejo dicho del oficio nos dice que hay tres elementos en cualquier trabajo: tiempo,
dinero y calidad. Pero que sólo se puede sacrificar dos de ellos a la vez. No se puede
producir bien, barato y en poco tiempo.
» 385
16. ¿QUÉ CÁMARA COMPRAR?
La compra de una cámara es siempre una cuestión delicada. Por lo general, siempre
es preferible el alquiler. Sucede sin embargo que los equipos prosumer (y algunos de
alta gama) han bajado tanto de precio que son fácilmente amortizables a poco que se
alargue un trabajo. Pero por contra, también se quedan rápidamente obsoletos. El alquiler
nos permite contar siempre con el último equipamiento, y poder elegir la herramienta
adecuada a cada una de nuestras producciones.
» 386
ANEXOS
Realizadores de prestigio como Win Wenders, Spike Lee o Abbas Kiarostami han usado
cámaras DV prosumer para algunas de sus producciones y han elogiado su versatilidad
y cercanía. Otros, como Josep Morder, un clásico del cine independiente francés, se
han atrevido incluso a rodar un largometraje con la cámara de un teléfono móvil. El
propio Morder descubrió con sorpresa que el excesivo jelly effect del pequeño aparato
daba a algunos de sus planos un aspecto “acuático” que supo aprovechar narrativa y
emocionalmente.
Este puede ser un ejemplo de “defecto convertido en efecto". Pero de ahí a meter todo
en el mismo saco, y defender el estilo youtube como un nuevo paradigma, o decir que
“es lo que la gente quiere”, hay un trecho. Al final, las imágenes deben defenderse por
sí mismas. Si hay que explicarlas o excusar su baja calidad por razones que no aparecen
dentro de ellas, malo. Aunque, claro, ésta es sólo mi opinión personal...
» Y por último...
No podemos olvidarnos de la pregunta que sirve para contextualizar el resto:
¿con qué presupuesto contamos?
» 387
PARTE IV: DISTRIBUCIÓN
» Futuro próximo
Actualmente ya se están ensayando transmisiones estereoscópicas en directo.
Sucede sin embargo que ahora mismo no existe una estandarización para este
tipo de emisiones 3DTV, por lo que productores y exhibidores se tienen que
poner de acuerdo para elegir algunas de las soluciones comerciales que ofrece
el mercado.
También se está ensayando la transmisión en directo a través de redes IP
Con redes de alta velocidad en este caso y por esta vía sí sería posible transmitir
contenidos con especificaciones DCI, como ya se ha demostrado.
» 307