Video Camaras
Video Camaras
Video Camaras
Digital video
Cámara digital
Video digital
Digital Video
El Digital Video (DV) es un formato estándar de video de gama doméstica, industrial y para
transmisión. Se basa en el algoritmo DCT y usa como protocolo de trasmisión de datos el IEEE
1394 o FireWire. Generalmente graba en una cinta de un cuarto de pulgada (con tres variantes:
Mini, M y L). Fue creado en 1996 como un estándar internacional según la norma IEC 61834, que
define el códec y el tipo de cinta. Fue desarrollado como formato digital de vídeo para un
entorno industrial, pero su excelente relación calidad-precio provocó que se haya convertido en
el formato predominante en el vídeo doméstico, como Mini-DV, y que hayan surgido versiones
profesionales, DVCAM y DVCPRO. Existe un formato tipo DV50, el Digital-S, basado en este
estándar, pero que se graba en cintas de media pulgada. Su popularidad ha provocado incluso
que sea base comercial para un formato económico de alta definición, el HDV, con el que solo
comparte el tipo de cinta.
1 Características técnicas
2 Versiones
o 2.1 DVC
o 2.2 DVCAM
o 2.3 DVCPRO
3 Importancia y usos
4 Véase también
5 Enlaces externos
Características técnicas
Cintas DV
De izq. a dch.: DVCAM-L, DVCPRO-M, Mini-DV.
El DV es un sistema de vídeo digital por componentes que utiliza un esquema de muestreo 4:2:0
en PAL y 4:1:1 en NTSC. 4:2:0 significa que las señales de diferencia de color o crominancia Cb y
Cr se submuestrean a la mitad, horizontal y verticalmente hablando. El resultado será que,
verticalmente, las muestras de color quedarán entre las líneas de luminancia. La frecuencia de
muestreo de luminancia es 13,5 MHz y las de crominancia 6,75 MHz. El DV tiene una
profundidad de color de 8 bits.
Para la compresión de vídeo, DV usa el algoritmo DCT con una compresión intraframe y una
relación 5:1. DV es conocido como DV25 porque el flujo de vídeo resultante es de 25 Mbps.
Añadiendo audio, información de pista y corrección de errores, el flujo total es de 29 Mbps o, lo
que es lo mismo, 3,6 MiB/s. El resultado de información es, aproximadamente, de 200 MiB por
minuto y unos 12 GiB por hora.
El formato DV graba audio PCM sin compresión. Tiene dos configuraciones posibles de audio.
Una permite grabar 2 canales de audio a 48 kHz y 16 bits, y la otra posibilidad son 4 canales a 32
kHz y 12 bits; 2 canales de audio original y dos de doblado (audio dubbing) realizado a posteriori
en postproducción. La calidad de la configuración de 2 canales, 48 kHz y 16 bit es ligeramente
superior a la del disco compacto (CD).
Conector Firewire
Versión 6 pines (izq) y versión 4 pines (dch).
Para la conectividad, el DV utiliza la interfaz IEEE 1394, también conocida como FireWire e
i.Link, que, si bien no es parte del formato en sí, está estrechamente ligada a éste. Cualquier
equipo DV, tanto doméstico como profesional, lleva un conector FireWire, que puede tener
conexión de 6 pines o de 4 pines. El FireWire también es usado como puerto serie para
ordenadores (aparte del USB). Equipos profesionales también pueden transportar la señal DV
por SDI (digital) o por los conectores analógicos de vídeo en componentes, aunque en este caso
habrá degradación de la señal por el paso digital-analógico.
La cinta usada para grabar DV tiene un ancho de 0,25 pulgadas (6,35 mm). Este tipo de cinta
tiene tres versiones distintas. La más conocida es la usada en la gama doméstica, la cinta Mini-
DV, que también usan algunos equipos profesionales y semiprofesionales. La rama profesional
tiene otras dos variantes, el tamaño M y el tamaño L. La Mini-DV tiene versiones de 30, 60 y 80
minutos. Las M y L tienen duraciones que van desde 12 a 276 minutos (siempre dependiendo de
si se trata de DV, DVCAM, ProfessionalDV o DVCPRO).
El éxito de este formato y la búsqueda de nuevos soportes ha llevado a JVC, Sony, Panasonic y
otros fabricantes a desarrollar nuevas posibilidades de grabación. DV se graba sobre un disco
duro portátil, en la propia cámara o en un estacionario. Sony ha creado la gama XDCAM, que
utiliza el Professional Disc como soporte. Se trata de un disco Blu-ray con capacidad para 23 GB.
XDCAM soporta los formatos DVCAM y MPEG IMX. Panasonic apuesta por la tarjeta de
memoria con el modelo P2, un tipo de PCMCIA que aloja en su interior cuatro memorias SD. Las
cámaras pueden llevar a la vez varias memorias e intercambiarse sobre la marcha.
Versiones
DVC
Digital Video Cassette o DVC es la versión genérica del formato. Existen dos tamaños de cinta:
DV y MiniDV. La segunda, más pequeña, permite hacer las cámaras más compactas y ligeras de
forma que se imponen en el mercado. Las características del DVC: muestreo 4:1:1 (NTSC) o 4:2:0
(PAL) con color a 8 bits, compresión 5:1 tipo DCT intraframe, flujo de vídeo de 25 Mb/s, 2 o 4
canales de audio PCM a 32 o 48 kHz y a 12 o 16 bits. Es la versión no propietaria, el estándar
acordado por la IEC. Todos los fabricantes distribuyen DVC con cinta pequeña Mini-DV,
quedando este nombre como la versión que se comercializa para uso doméstico.
Solo graba señal en la cinta Mini-DV o, en su defecto, en disco duro. Se diferencia de DVCPRO y
DVCAM en el ancho de las pistas que graba la cinta, que tienen 10 micras.
DVCAM
DVCAM es el nombre de la versión propia de Sony. Tiene las mismas características que el DV,
pero Sony amplió el ancho de pista a 15 µm y aumentó en un 50 por ciento la velocidad de cinta.
Esto repercute en confiabilidad desde el punto de vista mecánico (no aumenta la calidad de
imagen, como mucha gente piensa), pero también en que las cintas duren un tercio que las del
formato original. DVCAM puede grabar en cintas DVCAM y Mini-DV y reproduce DV y
DVCPRO (no desde el principio del formato).
DVCPRO
DVCPRO es la variante del DVC desarrollada por Panasonic. Al contrario que Sony, se apostó
fuerte por este formato y se ha convertido en una importante franquicia con tres versiones
desarrolladas hasta el año 2006. Su principal diferencia es que usa cinta con pistas de ancho de
18 µm y con otro tipo de emulsión, partículas de metal en lugar de metal evaporado (usado en
DV y DVCAM). Además, cuenta con una pista longitudinal de audio y otra también longitudinal
de control track para ayudar en edición, especialmente, edición lineal. Otra característica
respecto al audio es que únicamente permite la opción de 2 pistas a 48 kHz y 16 bits.
DVCPRO o DVCPRO 25 fue el primer DVCPRO desarrollado. Aparte de las pistas más anchas, de
las cintas de partículas de metal y de las pistas longitudinales, DVCPRO 25 tiene un muestreo
4:1:1 en PAL y NTSC.
DV50 es una versión de mayor calidad que creó JVC en cinta de (1/2") pulgada llamada D9 (Digital
S) con muestreo 4:2:2 a 50 Mb/s y compresión 3,3:1 utilizando dos codificadores de DV en paralelo
con 4 pistas de audio PCM, y que posteriormente adoptó Panasonic como mejora de su DVCPRO,
pensando no solo en cometidos ENG, sino en poder ofrecer aplicaciones de estudio. Lógicamente,
la capacidad de las cintas es la mitad de la proprocionada por DVCPRO 25.
DVCPRO HD o DV100 es una variación de DVCPRO 50 con resolución en alta definición. Usa el
mismo muestreo 4:2:2, pero, al ser HD, permite resolución 1080 y 720, tanto en progresivo como
en entrelazado (aunque el modo 1080/25p es falso, puesto que la captación es progresiva y
posteriormente almacenada de forma entrelazada). Mediante una compresión hasta 6,7:1, se
consigue un flujo de vídeo de 100 Mb/s. El formato admite además 8 pistas de audio.
Importancia y usos
El DVC fue creado para aplicaciones de vídeo digital para el mercado de consumo. Sony dominaba
el mercado analógico con Betacam SP y dominaba en el mercado digital de postproducción con
Betacam Digital aunque este formato era excesivamente caro para noticias ENG y, como
necesitaba una solución para noticias ENG en formato digital, creó el Betacam SX en MPEG-2 a 18
Mb/s. Panasonic, sin embargo, decidió aprovechar el formato DVC, sobre todo, como formato
más ligero en ENG para informativos. Creó su propia versión, el DVCPRO (a 25 Mb/s). JVC, en las
mismas fechas, creó el D9 (o Digital S) utilizando el doble procesado a 50 Mbps, con patrón de
muestreo 4:2:2 y ratio de compresión 3,3:1.
En 1998, tras un largo estudio, la SMPTE/EBU recomienda como formato digital ideal el del
esquema de 50 Mb/s, 4:2:2 y 3,3:1 presentado por JVC.
A esto reaccionan rápidamente Panasonic creando el DVCPRO 50 y Sony el MPEG IMX, buscando
los dos mantener la hegemonía del mercado de teledifusión y asimilando la lección del más
pequeño JVC que no tiene su misma capacidad financiera.
VIDEO DIGITAL
El video digital (en España, vídeo digital)1 es una representación de imágenes en movimiento
en la forma de datos digitales codificados, a diferencia del video analógico que representa estas
imágenes mediante señales analógicas.
Comercialmente, el video digital fue introducido en 1986 y destinado a los estudios de televisión
mediante el formato propietario D1 de Sony mediante el cual era grabada en forma digital una
señal video por componentes, de definición estándar, sin compresión. Los formatos de video
digital de la actualidad abarcan desde los formatos sin compresión hasta los formatos de video
comprimidos populares como H.264 y MPEG-4. Los estándares de interconexión para video
digital incluyen HDMI, DisplayPort, Interfaz Visual Digital (DVI) e Interfaz Digital Serial (SDI).
A diferencia del video analógico, el video digital puede ser copiado sin degradar su calidad. El
video digital puede ser almacenado en cinta magnética y en medios ópticos, como los discos DVD
y Blu-Ray, en medios informáticos o difundido a usuarios finales mediante transmisión por flujos
de video (streaming) a través de Internet para ser visualizado en computadores o televisores
inteligentes. En la práctica, el contenido de video digital de programas de televisión y películas
incluye una banda de audio digital. El término genérico de "video digital" debe distinguirse del
nombre Digital Video (DV), que es un tipo específico de video digital enfocado al mercado de
consumo.
Índice
1 Historia
2 Visión técnica general
3 Interfaces y cables
4 Estándares y métodos [11]
o 4.1 Codificación
o 4.2 Difusión
o 4.3 Almacenamiento en cintas
o 4.4 Almacenamiento en discos
5 Referencias
6 Véase también
7 Enlaces externos
Historia
Pese a ello, posteriormente el trabajo se centró más en las señales monocromáticas, hasta el año
de 1971, en el que se volvió a dar atención al vídeo a color. Los principales motivos para que el
procesamiento de video se realizara en forma digital, fueron la conversión de estándares para la
transmisión e intercambio internacional de programas de televisión, principalmente entre países
de Europa y América, debido a las diferencias entre los sistemas de televisión en ambos
continentes y la grabación magnética. En este último caso, debido a las variaciones que hay en la
velocidad de transporte de la cinta en los equipos de grabación y reproducción, se desarrolló el
corrector de base de tiempos en cual el video analógico captado por los cabezales de
reproducción, se convertía en digital y se almacenaba para leerlo posteriormente a velocidad
constante, eliminando así los errores en los períodos de línea y cuadro de la imagen, así como los
errores de fase en las señales de crominancia. 4
En el año de 1976, comienza a pensarse en un sistema digital de grabación de imagen, ya que los
productores de cine comercial deseaban que desarrollara un equipo grabador de video en el cual
no se perdiera la calidad de la imagen después de sucesivos copiados de imágenes en cinta
magnética. En marzo del año siguiente, el investigador japonés Yoshitaka Hashimoto y su grupo
comenzaron a investigar la posibilidad de desarrollar tal equipo en el centro de investigación de
Sony en Yokohama. Otro investigador japonés, Takeo Eguchi, quien estudiaba los principios de la
tecnología digital aplicada a la grabación de video en Estados Unidos, regresó a Japón y se
incorporó al grupo. En la exposición de 1979 de la National Association of Broadcasters (NAB,
Asociación Nacional de Difusores de Estados Unidos) Ampex, Sony y Bosch AG presentaron de
manera individual los frutos de sus esfuerzos. Un grupo de ingenieros de Sony visitó los Estados
Unidos en diversas oportunidades para convencer a sus pares de ese país para desarrollar un
estándar al respecto. 5
No sería hasta el año de 1986, con la introducción del estándar D1, destinado a la industria
televisiva, desarrollado las empresas Sony y BTS (consorcio formado por Philips y Bosch) y
aprobado por la asociación de profesionales del video SMPTE (Sociedad de ingenieros de
imágenes en movimiento y televisión), que el video digital comenzaría a tener presencia en los
estudios de televisión. Sony presentó ese año, su videograbador digital DVR-1000, basado en ese
estándar. 5Al año siguiente, SMPTE desarrolló un nuevo estándar llamado D2. Las máquinas en
formatos D1 y D2 se fueron introduciendo en los estudios de televisión, aunque de manera
paulatina debido a su costo elevado y las modificaciones de instalación técnica que exigían. En el
año 1989 Sony lanzó el DVR1, primer videograbador portátil de cinta en formato D2. 6El video
digital haría su aparición en el mercado de consumo con el formato QuickTime desarrollado por
la empresa estadounidense Apple Computer hacia 1990 y destinado a la plataforma informática.
Sin embargo, este formato requirió la digitalización de la fuente original de información de video
y la calidad no era la mejor. 7
En 1991, Panasonic propuso y estandarizó el formato D3. Pero 1993, en el Simposium Internacional
de Montreux, Panasonic presentó el formato D5, Ampex lo hizo con el sistema DCT y Sony,
aprovechando su experiencia con el sistema analógico Betacam, desarrolló y presentó una versión
digital que fue denominada Betacam Digital. Los tres sistemas trabajan con vídeo digital por
componentes, los dos primeros usan compresión de imagen y el último trabaja sin compresión. La
aparición de distintos estándares de compresión del video y el audio vinculado a este, a partir de
1993, por parte del grupo de trabajo denominado Moving Picture Experts Group (MPEG) hizo que
se adoptara la compresión de video para la grabación de imágenes y audio y posteriormente, para
la difusión de televisión. A partir de 1995, varios formatos digitales nuevos compitieron en el
mercado de la grabación de vídeo para producción televisiva con desigual fortuna. Ese año, la
empresa japonesa Japan Victor Company (JVC) presentó su sistema Digital-S estandarizado con el
nombre de D9 y Sony presentó el Betacam SX, variante del Betacam digital, que hacía uso de los
principios de compresión de imagen establecidos en los estándares del grupo de trabajo MPEG.
Panasonic respondió a este lanzamiento con su sistema DVCPro, a los que sucedieron DVCPro25
y DVCPro50 después del lanzamiento del formato Digital Video en 1995. Hoy en día, estos
desarrollos de grabadores de cinta han sido superados por las videocámaras de discos duros
internos o unidades de memoria flash removibles desarrolladas por fabricantes tales como Sony y
JVC. 8
Las cámaras de vídeo digital capturan imágenes mediante exploración entrelazada o por escaneo
progresivo. Una cámara digital de escaneo progresivo graba cada cuadro como una imagen
distinta, sin registrar campos. Así, un vídeo entrelazado captura el doble de campos por segundo
que el vídeo progresivo cuando ambos funcionan al mismo número de cuadros por segundo. Esta
es una de las razones por la que el vídeo tiene un aspecto "hiperreal", ya que dibuja una imagen
diferente 60 veces por segundo, al contrario que el cine, que lo hace a 24 imágenes progresivas
por segundo. Hablamos aquí de velocidades de reproducción para exhibición. Las cámaras de cine
tienen la habilidad de registrar a velocidades variables -por ejemplo, las explosiones en las
películas de acción se registran hasta a 300 cuadros (frames) por segundo, que al ser reproducidas
luego a 30 dan una excelente cámara lenta- y existe una cámara de vídeo digital llamada Varicam,
capaz de registrar hasta 200 cuadros por segundo.
Las videocámaras de escaneo progresivo son generalmente más deseables por las similitudes que
comparten con el cine. Ambos graban las imágenes progresivamente, lo que resulta en una
imagen más nítida. Ambos pueden rodar a 24 imágenes por segundo, lo que resulta en
movimiento "strobing" (hace borroso el objeto cuando hay un movimiento rápido). Así, las
videocámaras de escaneo progresivo tienden a ser más caras que sus homólogas entrelazadas.
Aunque el formato de vídeo digital solamente permite 29,97 imágenes entrelazadas por segundo
[o 25 en PAL], el vídeo progresivo a 24 imágenes por segundo es posible mostrando campos
idénticos para cada imagen, y mostrando 3 campos de una imagen idéntica para ciertos cuadros
de imagen. 9
El vídeo digital puede copiarse varias veces sin degradación en la calidad y puede ser procesado y
editado en una estación de edición no lineal. Este equipo frecuentemente puede importar video
tanto fuentes analógicas como digitales, pero no están pensado para hacer algo diferente a editar
vídeos. El vídeo digital también puede editarse en un computador personal que tenga hardware y
software adecuado. Usando una estación de edición no lineal, el vídeo digital puede manipularse
para seguir un orden, o secuencia, de clips de vídeo.
A pesar del software, el vídeo digital se edita generalmente en una configuración con abundante
espacio de disco. El vídeo digital con una compresión estándar DV/DVCPRO ocupa unos 250
megabytes por minuto o 13 gigabytes por hora.
El vídeo digital tiene un coste considerablemente más bajo que la película de 35 mm, ya que las
cintas pueden verse en el lugar de rodaje sin revelarse, y la propia cinta es muy económica
(alrededor de 3,5€ para una cinta MiniDV de 60 minutos, al por mayor, a diciembre de 2005). En
comparación, una película de 35 mm cuesta alrededor de 1200€ por minuto, incluyendo el
revelado.
El vídeo digital se usa fuera de la creación de películas. La televisión digital, incluyendo la HDTV,
comenzó a extenderse en la mayoría de los países desarrollados a principios de la década de 2000.
El vídeo digital también se usa en teléfonos móviles modernos y sistemas de videoconferencia. El
vídeo digital también se usa para la distribución en Internet de vídeo, incluyendo el vídeo
streaming y la distribución de películas entre iguales.
Existen muchos tipos de compresión de vídeo para servir vídeo digital sobre Internet, y en DVD.
Aunque el vídeo DV no está comprimido más allá de su propio códec mientras se edita, los
tamaños de archivo que resultan no son prácticos para la entrega en discos ópticos o sobre
Internet, con códecs como el formato Windows Media, MPEG2, MPEG4, Real Media, el más
reciente H.264, y el códec de vídeo Sorenson. Probablemente los formatos más ampliamente
usados para entregar vídeo sobre Internet son MPEG4 y Windows Media, mientras MPEG2 se usa
casi exclusivamente para DVD, proporcionando una imagen excepcional en el mínimo tamaño
pero resultando en un alto nivel de consumo de CPU para descomprimir.
La resolución más alta demostrada para la generación de vídeo digital, hasta el año 2007 era de 33
megapixels (7680 x 4320) a 60 imágenes por segundo (UHDV), aunque esto solo se ha
demostrado en una configuración especial de laboratorio. 10 La velocidad más alta se consigue en
cámaras de alta velocidad industriales y científicas que son capaces de filmar vídeo 1024x1024
hasta 1 millón de imágenes por segundo durante breves periodos de grabación.
Interfaces y cables
Se han diseñado muchas interfaces específicas para responder a los requisitos del vídeo digital sin
comprimir (a aproximadamente 400 Mbit/s):
El vídeo comprimido también se transporta usando UDP-IP sobre Ethernet. Existen 2 enfoques
para esto:
Estándares y métodos 11
Codificación
Todos los formatos actuales, que se enumeran debajo, están basados en PCM.
Difusión
Almacenamiento en cintas
Betacam, Betacam SP, Betacam SX, Betacam IMX, Betacam Digital o DigiBeta:
sistemas de vídeo comerciales de Sony, basados originalmente en la tecnología Betamax.
D1, D2, D3, D5, D9 (también conocido como Digital-S): estándares comerciales de
vídeo digital definidos por SMPTE.
DV, MiniDV: usado en la mayoría de las videocámaras basadas en cinta de vídeo
del mercado de consumo de hoy en día; diseñado para alta calidad y fácil edición; puede también
grabar datos de alta definición (HDV) en formato MPEG-2.
DVCAM, DVCPRO: usado en operaciones de difusión profesionales; similar al
formato DV pero generalmente considerado más robusto; aunque son compatibles con DV, estos
formatos manejan mejor el audio.
Digital8: datos en formato DV grabados en cintas compatibles con Hi8; en gran
parte un formato para el mercado de consumo.
MicroMV: formato para video MPEG-2, actualmente obsoleto.
D-VHS: formato para video MPEG-2, en una cinta similar a la del tipo S-VHS.
Almacenamiento en discos
Video CD (VCD)
DVD
HD DVD
Blu-ray
Sony ProDATA
Panasonic P2
RED Cam
XDCam
XDCam HD
CÁMARA DIGITAL
Una cámara digital es una cámara fotográfica que, en vez de captar y almacenar fotografías en
película química como las cámaras de película fotográfica, recurre a la fotografía digital para
generar y almacenar imágenes.
Las cámaras digitales modernas generalmente tienen varias funciones y contienen dispositivos
capaces de grabar sonido y vídeo además de fotografía. Actualmente se venden más cámaras
fotográficas digitales que cámaras con película.1
Una cámara digital SiPix junto a una caja de fósforos para mostrar la escala.
Índice
1 Historia
o 1.1 Cámaras fotográficas electrónicas analógicas
o 1.2 La llegada de cámaras fotográficas completamente digitales
2 Resolución de imagen
3 Calidad de la imagen
4 Coste del pixel
5 Métodos para capturar las imágenes
6 Mosaicos, interpolación, y aliasing del filtro
7 Conectividad
8 Integración
9 Almacenamiento de imágenes
10 Tarjetas de memoria
11 Baterías
o 11.1 Baterías portátiles
12 Dispositivos autónomos
13 Formatos
14 Véase también
15 Referencias
16 Enlaces externos
Historia
Los conceptos de digitalizar imágenes en escáneres y convertir señales de vídeo a digital anteceden
al concepto de tomar cuadros fijos digitalizando así señales de una matriz de elementos sensores
discretos. Eugene F. Lally, del Jet Propulsion Laboratory, publicó la primera descripción de cómo
producir fotos en un dominio digital usando un fotosensor en mosaico. 2 El propósito era
proporcionar información de navegación a los astronautas a bordo durante misiones espaciales. La
matriz en mosaico registraba periódicamente fotos fijas de las localizaciones de estrellas y planetas
durante el tránsito, y cuando se acercaba a un planeta proporcionaba información adicional de
distancias para el orbitación y como guía para el aterrizaje. El concepto incluyó elementos de
diseño que presagiaban la primera cámara fotográfica digital.
Texas Instruments diseñó una cámara fotográfica análoga sin película en 1972, pero no se sabe si
fue finalmente construida. La primera cámara digital registrada fue desarrollada por la empresa
Kodak, que encargó la construcción de un prototipo al ingeniero Steven J. Sasson en 1975. Esta
cámara usaba los entonces nuevos sensores CCD desarrollados por Fairchild Semiconductor en
1973. Su trabajo dio como fruto una cámara de aproximadamente 4 kg. que hacía fotos en blanco y
negro con una resolución de 0,01 megapíxeles. Utilizó los novedosos chips de estado sólido del
CCD. La cámara fotográfica registraba las imágenes en una cinta de casete y tardó 23 segundos en
capturar su primera imagen, en diciembre de 1975. Este prototipo de cámara fotográfica era un
ejercicio técnico, no previsto para la producción. La primera cámara digital que logró ser producida
fue la Cromemco Cyclops, que fue lanzada en 1975. La Cyclops tenía un sensor MOS con una
resolución de 0,001 megapíxeles.3
Las cámaras fotográficas electrónicas de mano, en el sentido de un dispositivo hecho para ser
llevado y utilizado como una cámara fotográfica de mano de película, aparecieron en 1981 con la
demostración de Sony Mavica (cámara de vídeo magnética). Este modelo no debe ser confundido
con las cámaras fotográficas más modernas de Sony que también usan el nombre de Mavica. Esta
era una cámara fotográfica analógica basada en la tecnología de televisión que grababa en un
"disquete de vídeo" de una pulgada por dos. Esencialmente era una cámara de vídeo que registraba
imágenes fijas, 50 por disco en modo de campo y 25 por disco en modo del marco. La calidad de la
imagen era considerada igual a la de los televisores de la época.
Las cámaras fotográficas electrónicas analógicas no parecen haber alcanzado el mercado hasta 1986
con la Canon RC-701. Canon mostró este modelo en las Olimpiadas de 1984, imprimiendo las
imágenes en periódicos. Varios factores retrasaron la adopción extensa de cámaras fotográficas
análogas: el coste (arriba de $20.000), calidad pobre de la imagen en comparación a la película, la
carencia de impresoras de calidad. La captura e impresión de una imagen requirió originalmente el
acceso a equipo como un framegrabber, que estaba más allá del alcance del consumidor medio. Los
discos de vídeo tuvieron después varios dispositivos lectores disponibles para ver en una pantalla,
pero nunca fueron estandardizados al impulso de las computadoras.
Los primeros en adoptarlas tendieron a ser del medio noticiario, donde el coste fue superado por la
utilidad y la capacidad de transmitir imágenes por líneas telefónicas. La calidad pobre fue
compensada por la resolución baja de los gráficos de periódico. Esta capacidad para transmitir
imágenes sin recurrir a satélites era útil durante las protestas de Tiananmen de 1989 y la primera
guerra del Golfo en 1991.
La primera cámara fotográfica analógica para venta a los consumidores pudo haber sido la Canon
RC-250 Xapshot en 1988. Una cámara fotográfica analógica notable producida en el mismo año era
el Nikon QV-1000C, que vendió aproximadamente 100 unidades y registraba imágenes en escalas de
grises, y la calidad de impresión en periódico era igual a las cámaras fotográficas de película. En
aspecto se asemejaba a una cámara fotográfica digital moderna réflex.
En 1991, Kodak lanzó al mercado su modelo DCS-100, el primero de una larga línea de cámaras
fotográficas profesionales SLR de Kodak que fueron basadas, en parte, en cámaras para película, a
menudo de marca Nikon. Utilizaba un sensor de 1,3 megapixeles y se vendía en unos $13.000.
La transición a formatos digitales fue ayudada por la formación de los primeros estándares JPEG y
MPEG en 1988, que permitieron que los archivos de imagen y vídeo se comprimieran para su
almacenamiento. La primera cámara fotográfica dirigida a consumidores con una pantalla de cristal
líquido en la parte posterior fue la Casio QV-10 en 1995, y la primera cámara fotográfica en utilizar
tarjetas de memoria CompactFlash fue la Kodak DC-25 en 1996.
El mercado para las cámaras fotográficas digitales dirigidas al consumidor estaba formado
originalmente por cámaras fotográficas de baja resolución. En 1997 se ofrecieron las primeras
cámaras fotográficas para consumidores de un megapixel. La primera cámara fotográfica que
ofreció la capacidad de registrar clips de vídeo pudo haber sido la Ricoh RDC-1 en 1995.
En 1999 con la introducción del Nikon D1, una cámara fotográfica de 2.74 megapixeles, que fue una
de las primeras SLR digitales, la compañía se convirtió en un fabricante importante, y, con un costo
inicial de menos de $6.000, era asequible tanto para fotógrafos profesionales como para
consumidores de alto perfil. Esta cámara fotográfica también utilizaba lentes Nikon F, lo que
significaba que los fotógrafos podrían utilizar muchas de las mismas lentes que ya tenían para sus
cámaras de película.
En 2003 se presentó la Digital Rebel de Canon, también conocida como la 300D, una cámara
fotográfica dirigida a consumidores de 6 megapixeles y la primera DSLR que tenía un costo inferior
a $1.000.
En 2008 se presentó en la Feria de Alemania, una cámara LEICA de medio formato con una
resolución de 37 megapixeles.
Resolución de imagen
La resolución de una cámara fotográfica digital está limitada por el sensor de la cámara
(generalmente un CCD o un Sensor CMOS) que responde a las señales de luz, sustituyendo el
trabajo de la película en fotografía tradicional. El sensor se compone de millones de “cubos” que se
cargan en respuesta a la luz. Generalmente, estos cubos responden solamente a una gama limitada
de longitudes de onda ligeras, debido a un filtro del color sobre cada uno. Cada uno de estos cubos
se llama un píxel, y se utiliza un algoritmo de mosaicismo e interpolación para unir la imagen de
cada gama de longitud de onda por píxel en una imagen del RGB donde están las tres imágenes por
píxel para representar un color completo.
Los dispositivos CCD transportan la carga a través del chip hasta un conversor analógico-digital.
Este convierte el valor de cada uno de los píxeles en un valor digital midiendo la carga que le llega.
Dependiendo del número de bits del conversor obtendremos una imagen con mayor o menor gama
de color. Por ejemplo, si se utilizase un bit tendríamos valores de 0 y 1, y podríamos representar
presencia o ausencia de luz, lo que supondría una imagen en blanco y negro puro.
Por otro lado, los aparatos CMOS contienen varios transistores en cada píxel. El proceso de
conversión digital se produce en la propia estructura del sensor, por lo que no se necesita un
conversor añadido. Su proceso de fabricación es más sencillo, y hace que las cámaras que utilizan
esta tecnología resulten más baratas.
La cantidad de píxeles resultante en la imagen determina su tamaño. Por ejemplo una imagen de
640 píxeles de ancho por 480 píxeles de alto tendrá 307,200 píxels, o aproximadamente 307
kilopíxeles; una imagen de 3872 píxeles de alto por 2592 píxeles de ancho tendrá 10.036.224 píxeles,
o aproximadamente 10 megapíxeles.
Según la experiencia fotográfica de los profesionales en dicho campo afirman que una fotografía
química realizada por una cámara compacta daría como resultado una fotografía de 30
megapíxeles.
Calidad de la imagen
La cuenta de pixeles comúnmente es lo único que se muestra para indicar la resolución de una
cámara fotográfica, pero esta es una idea falsa. Hay varios factores que afectan la calidad de un
sensor. Algunos de estos factores incluyen, el tamaño del sensor, la calidad de la lente, la
organización de los pixeles (por ejemplo, una cámara fotográfica monocromática sin un mosaico de
filtro Bayer tiene una resolución más alta que una cámara fotográfica de color típica) y el rango
dinámico del sensor.
A muchas cámaras fotográficas compactas digitales se las crítica por tener demasiados pixeles en
relación al pequeño tamaño del sensor que incorporan.
El aumento de la densidad de pixeles disminuye la sensibilidad del sensor. Pues cada pixel es tan
pequeño que recoge muy pocos fotones, y así para conservar la relación señal-ruido se deberá
iluminar más el sensor. Esta disminución de la sensibilidad conduce a cuadros ruidosos, calidad
pobre en sombras y generalmente a imágenes de pobre calidad si están escasamente iluminadas.
A la vez que la tecnología ha ido mejorando, los costes han disminuido drásticamente.
Midiendo el precio del pixel como medida básica de valor para una cámara fotográfica digital, ha
habido un continuo y constante aumento del número de pixeles comprados por la misma cantidad
de dinero en las cámaras fotográficas nuevas que concuerda con los principios de la ley de Moore.
Esta previsibilidad de los precios de la cámara fotográfica primero fue presentada en 1998 en la
conferencia australiana de PMA DIMA por Barry Hendy y designada la "Ley de Hendy". 8
Desde que las primeras cámaras digitales fueron introducidas al mercado, han existido tres
métodos principales de capturar la imagen, según configuración de hardware del sensor y de los
filtros de color.
El primer método se denomina de disparo único, en referencia al número de veces que el sensor de
la cámara fotográfica se expone a la luz que pasa a través de la lente. Los sistemas de disparo único
utilizan un CCD con un filtro de Bayer, o tres sensores de imagen independientes (uno para cada
uno de los colores primarios aditivos: rojo, verde, y azul) que se exponen a la misma imagen
mediante un sistema óptico de separación de imagen.
El tercer método se llama exploración porque el sensor se mueve a través del plano focal como el
sensor de un explorador (scanner) de escritorio. Sus sensores lineares o tri-lineares utilizan
solamente una sola línea de fotosensores, o tres líneas para los tres colores. En algunos casos, la
exploración es lograda rotando la cámara fotográfica entera; una cámara fotográfica con línea
rotativa ofrece imágenes de resolución total muy alta.
La elección del método para una captura dada, por supuesto, es determinada en gran parte por el
tema a ser fotografiado. Es generalmente inadecuado intentar fotografiar un tema que se mueva
con cualquier cosa que no sea un sistema de disparo único. Sin embargo, con sistemas de
exploración o multidisparo, se obtiene la más alta fidelidad de color y tamaños y resoluciones más
grandes. Esto hace de estas técnicas más atractivas para fotógrafos comerciales que trabajan con
fotografías de temas inmóviles en formato grande.
En la mayoría de las cámaras fotográficas digitales del consumidor actual, un mosaico del filtro de
Bayer se utiliza, conjuntamente con un filtro óptico del anti-aliasing para reducir el aliasing debido
al muestreo reducido de las diversas imágenes del primario-color. Un algoritmo de interpolación
cromática se utiliza para interpolar la información del color para crear un arsenal completo de
datos de la imagen del RGB. Las cámaras fotográficas que utilizan un acercamiento monoestable
3CCD del viga-divisor, tres-filtro multi-tiro a acercamiento, o el sensor de Foveon X3 no utiliza los
filtros del anti-aliasing, ni interpolación cromática.
El patrón del filtro de Bayer es un patrón de repetición del mosaico 2×2 de filtros ligeros, con verde
unos en las esquinas opuestas y rojo y el azul en las otras dos posiciones. La parte elevada de verde
se aprovecha de características del sistema visual humano, que determina brillo sobre todo del
verde y es más sensible lejano al brillo que a la tonalidad o a la saturación. Un patrón del filtro de 4
colores se utiliza a veces, implicando a menudo dos diversas tonalidades del verde. Esto
proporciona un color potencialmente más exacto, pero requiere un proceso levemente más
complicado de la interpolación.
Los valores de la intensidad del color no capturados para cada pixel pueden ser interpolados (o ser
conjeturados) de los valores de los pixeles adyacentes que representan el color que es calculado.
Conectividad
La mayor parte de las cámaras digitales se pueden conectar directamente a la computadora para
transferir su información. Antiguamente las cámaras tenían que conectarse a través de un Puerto
serial. El USB es el método más utilizado aunque algunas cámaras utilizan un puerto FireWire o
Bluetooth. La mayor parte de las cámaras son reconocidas como un dispositivo de almacenamiento
USB. Algunos modelos, por ejemplo la Kodak EasyShare One puede conectarse a la computadora
vía red inalámbrica por el protocolo 802.11 (Wi-Fi).
Una alternativa común es el uso de un lector de tarjetas que pueda ser capaz de leer varios tipos de
medios de almacenamiento, así como efectuar la transferencia de datos a la computadora a alta
velocidad. El uso de un lector de tarjetas también evita que la batería de la cámara fotográfica se
descargue durante el proceso de la transferencia directa, pues el dispositivo toma energía del
puerto USB.
Un lector de tarjetas externo permite un adecuado acceso directo a las imágenes en una colección
de medios de almacenamiento. Pero si solamente funciona con una tarjeta de almacenamiento,
puede ser incómodo el desplazamiento hacia adelante y hacia atrás entre la cámara fotográfica y el
lector. Muchas cámaras fotográficas modernas ofrecen el estándar de PictBridge, que permite el
envío de datos directamente a las impresoras sin la necesidad de una computadora.
Integración
La tecnología actual permite la inclusión de cámaras digitales en varios aparatos de uso diario tales
como teléfonos celulares. Otros dispositivos electrónicos pequeños (especialmente los utilizados
para la comunicación) por ejemplo dispositivos PDA, computadoras portátiles y teléfonos
inteligentes contienen a menudo cámaras fotográficas digitales integradas. Además, algunos
camcorders digitales incorporan una cámara fotográfica digital.
Almacenamiento de imágenes
Las fotos se almacenan en ficheros JPEG estándares o bien en formato TIFF o RAW para tener una
mayor calidad de imagen pese al gran aumento de tamaño en el archivo. Los archivos de video se
almacenan comúnmente en formato AVI, DV, MPEG, MOV, WMV, etc.
Casi todas las cámaras digitales utilizan técnicas de compresión para aprovechar al máximo el
espacio de almacenamiento. Las técnicas de compresión suelen aprovecharse de dos características
comunes en las fotografías:
los patrones: en una imagen es muy común encontrarse con zonas en las que
aparece el mismo color (o la misma secuencia) repetido varias veces (por ejemplo, una pared
blanca). Este tipo de áreas pueden codificarse de manera que el espacio de almacenamiento
necesario para ellas disminuya. Este tipo de compresión no suele conseguir grandes porcentajes de
disminución.
la irrelevancia: igual que la codificación mp3 se aprovecha de la incapacidad del
sistema auditivo para detectar ciertos sonidos (o la ausencia de estos), en las cámaras digitales se
puede utilizar una compresión que consiste en eliminar información que la cámara ha captado,
pero que el ojo humano va a ser incapaz de percibir.
Tarjetas de memoria
Baterías
Las cámaras fotográficas digitales tienen requisitos de alta energía, y en un cierto plazo el tamaño
ha llegado a ser cada vez más pequeño, que ha dado lugar a una necesidad en curso de desarrollar
una batería lo suficientemente pequeña para caber en la cámara pero capaz de accionarla por un
tiempo razonable.
Esencialmente existen dos amplias divisiones en los tipos de baterías que las cámaras digitales
usan.
Baterías portátiles
El primero son las baterías que tienen un factor disponible establecido de la forma, lo más
comúnmente posible baterías AA, CR2, o CR-V3, con las baterías del AAA en un puñado de
cámaras fotográficas. Las baterías CR2 y CR-V3 son de litio, y previsto pero no reutilizable.
También se ven comúnmente en camcorders. Las baterías del AA son más comunes lejano; sin
embargo, los acumuladores alcalinos no recargables son capaces de proporcionar bastante energía
para un muy corto plazo en la mayoría de las cámaras fotográficas. La mayoría de las baterías del
hidruro de níquel del AA del uso de los consumidores (NiMH) (véase también los cargadores y las
baterías) en lugar de otro, que proporcionan una cantidad adecuada de energía y son recargables.
Las baterías de NIMH no proporcionan tanta energía como las baterías del ion del litio, y también
tienden para descargar cuando no están utilizadas. Están disponibles en varios grados del amperio
hora (amperio hora) o del milli-ampere-hour (mAh), que afecta cuánto tiempo le dura
funcionando. Típicamente los modelos del consumidor del alcance medio y algunas cámaras
fotográficas del extremo inferior utilizan las baterías disponibles; solamente cámaras fotográficas
muy pocas de un DSLR los aceptan (por ejemplo, sigma SD10). Las baterías recargables del litio-ion
RCR-V3 están también disponibles como alternativa para las baterías no recargables CR-V3.
Dispositivos autónomos
Un dispositivo autónomo, tal como una impresora de PictBridge, funciona sin necesidad de una
computadora. La cámara fotográfica conecta con la impresora, que entonces las transfiere
directamente y las imprime. Los registradores de algún DVD y las televisiones pueden leer tarjetas
de memoria. Varios tipos de lectores de tarjetas de destello también tienen una capacidad de la
salida de la TV.
Formatos
Los formatos más usados por las cámaras fotográficas digitales para almacenar imágenes son RAW,
JPEG y TIFF.
Muchas cámaras fotográficas, especialmente las cámaras profesionales o DSLR, permiten descargar
el formato RAW (crudo). Una imagen RAW está formada por el conjunto de pixeles sin procesar (ni
siquiera la interpolación de color que requiere el filtro de Bayer) obtenidos directamente del sensor
de la cámara fotográfica. A menudo se utilizan los formatos propietarios de cada fabricante, tales
como NEF para Nikon, CRW o CR2 para Canon, y MRW para Minolta, cuyas especificaciones no
son conocidas. La firma Adobe Systems lanzó el formato DNG, un formato de imagen raw libre de
derechos que ha sido adoptado por algunos fabricantes.
Los archivos raw debían ser procesados ("revelados") en programas de edición de imagen
especializados pero con el tiempo los programas más usados, como Picasa de Google, agregaron el
soporte para poder editarlos. Editar imágenes en formato raw permite una mayor flexibilidad en
ajustes tales como modificar el balance de blancos, compensar la exposición y cambiar la
temperatura de color, porque tiene los datos de color sin interpolar, y además poseen mayor
profundidad de color que 8 bits por canal: dependiendo del fabricante pueden ser 10, 12, 14 o hasta
16 bits por canal. Esencialmente el formato raw permite al fotógrafo hacer ajustes importantes sin
pérdida de calidad de imagen que de otra manera implicarían volver a tomar la fotografía.
Los formatos para video son AVI, DV, MPEG, MOV (a menudo con el motion JPEG), WMV, y ASF
(básicamente iguales que WMV). Los formatos recientes incluyen MP4, que se basa en el formato
de QuickTime y utiliza nuevos algoritmos de compresión para dar un plazo de tiempos de
grabación más largos en el mismo espacio.
Otros formatos que se utilizan en las cámaras fotográficas pero no en las fotos son el DCF, una
especificación ISO para la estructura y la asignación de nombres de archivo interna de la cámara
fotográfica, DPOF que indica cuantas copias se deben imprimir y en que orden y el formato Exif,
que utiliza etiquetas de metadatos para documentar los ajustes de la cámara fotográfica y la fecha y
la hora en la que fueron obtenidas las fotografías.