Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

High Dynamic Range Image

Bildtechnik zur Vergrößerung des darstellbaren Helligkeitsbereichs (HDR); HDR steht für „high-dynamic range“ (hoher Dynamikbereich)
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 8. März 2009 um 03:29 Uhr durch Vux (Diskussion | Beiträge) (Artikel ist Lesenswert). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Ein High Dynamic Range Image (HDRI, „Bild mit hohem Dynamikumfang“) oder HDR-Bild ist ein digitales Bild, das die in der Natur vorkommenden großen Helligkeitsunterschiede detailgetreu speichern kann. Herkömmliche digitale Bilder, die dazu nicht in der Lage sind, werden hingegen als Low Dynamic Range Images oder LDR-Bilder bezeichnet.

HDR-Bilder können von Spezialkameras aufgenommen, als 3D-Computergrafiken künstlich erzeugt oder aus einer Belichtungsreihe von LDR-Fotos rekonstruiert werden. Bisher existieren nur wenige Ausgabegeräte, die zur Anzeige von HDR-Bildern fähig sind. Auf herkömmlichen Bildschirmen und Medien können sie nicht direkt dargestellt werden, sondern müssen mittels Tone Mapping in LDR-Bilder umgewandelt werden, indem die Helligkeitskontraste des HDR-Bildes verringert werden. Ungeachtet dieser Einschränkung können ausgehend von HDR-Bildern Über- und Unterbelichtungen vermieden, Bilddetails besser erhalten und weiterreichende Bildbearbeitungen vorgenommen werden. Nicht nur die Fotografie und Computergrafik, sondern auch Anwendungen wie die Medizin oder virtuelle Realität profitieren von diesen Vorteilen.

Falschfarbendarstellung der in einem HDR-Bild (oben) und einem LDR-Bild (unten) gespeicherten Helligkeit

Prinzip

Die meisten digitalen Bilder verwenden nur 256 Helligkeitsstufen (8 Bit) für jeden der Rot-, Grün- und Blau-Farbkanäle. Diese Farbtiefe reicht oftmals nicht aus, um die in natürlichen Szenen vorkommenden Helligkeitsunterschiede wiederzugeben. Höhere Farbtiefen werden üblicherweise kaum verwendet, da Bildschirme und Druckmedien zu deren Darstellung ohnehin nicht fähig wären.[1]

Die von einer Kamera oder einem Betrachter aus sichtbare Umgebung weist typischerweise einen Dynamikumfang (Verhältnis von größter und kleinster Leuchtdichte) in der Größenordnung von 10.000:1 auf. Der Dynamikumfang ist noch wesentlich größer, wenn eine Lichtquelle direkt sichtbar ist oder sowohl ein Innenraum als auch ein vom Sonnenlicht erhellter Außenbereich zu sehen sind.[2] Die menschliche visuelle Wahrnehmung ist in der Lage, sich Lichverhältnissen anzupassen, die über nahezu 10 Größenordnungen (ein Faktor von 1010) reichen; innerhalb einer Szene sind bis zu ungefähr 5 Größenordnungen gleichzeitig sichtbar.[3] In der Fotografie ist auch die Angabe des Dynamikumfangs in Lichtwerten (LW) gemäß folgender Formel üblich:[4]

 

Im Gegensatz zur visuellen Wahrnehmung leiden Fotografien, die mit herkömmlichen Digitalkameras erzeugt wurden, häufig an Über- und Unterbelichtungen. Beim High Dynamic Range Imaging werden Bilddateien mit einem Dynamikumfang erzeugt, der die in der Natur vorkommenden Helligkeiten in ihrer Gesamtheit erfassen kann. Die Pixelwerte stehen dabei in proportionalem Verhältnis zur tatsächlichen Leuchtdichte. Erst bei der Darstellung eines HDR-Bildes wird dessen Helligkeitsumfang eventuell reduziert. Auch wenn nach wie vor fast alle Bildschirme einen geringen Helligkeitsumfang besitzen, bieten HDR-Bilder Vorteile; so etwa bleiben ausgehend von HDR-Bildern Details in sehr dunklen und hellen Bereichen erhalten.

Geschichte und Anwendungen

Die physikalisch basierte Bildsynthese („Rendering“) war die vielleicht erste Anwendung von HDR-Bildern.[5] Die von Greg Ward ab 1985 entwickelte Rendering-Software Radiance verwendete intern Gleitkommazahlen zur Speicherung von Helligkeitswerten. Um die gerenderten Bilder speichern zu können, ohne dass Helligkeitsinformationen verloren gingen, entwickelte Ward das Radiance-HDR-Format.[6] Auch Paul Debevec befasste sich mit HDR-Techniken, als er zur Simulation von Bewegungsunschärfe bei einer Computeranimation bewegte Glanzlichter mit hohem Dynamikumfang abspeicherte.[7] Bereits 1968 hatten Oppenheim et al. in einem anderen Zusammenhang den ersten Tone-Mapping-Operator veröffentlicht;[8] die dort vorgestellten Prinzipien wurden von einigen neueren Operatoren wiederentdeckt.[9]

Die Anwendungen von High Dynamic Range Imaging umfassen folgende Bereiche:[10]

  • Bildsynthese. Bei physikalisch basierten Renderern müssen Helligkeitswerte mit einem hohen Dynamikumfang repräsentiert werden, um die Wechselwirkung von Licht und Materialien innerhalb einer kontrastreichen 3D-Szene korrekt zu berechnen. Bei Anwendungen wie der Architektursimulation müssen außerdem abolute radiometrische Werte berechnet werden, um Beleuchtungsverhältnisse korrekt einzuschätzen. Weiterhin ist es möglich, 3D-Szenen von HDR-Bildern beleuchten zu lassen (Image-based Lighting). Neuere Grafikkarten beherrschen rudimentäres HDRI in Echtzeit, was vor allem für Computerspiele interessant ist.
 
Vergleich einer Einzelaufnahme mit einer Kompaktkamera (links) und eines HDR-Bildes nach Tone Mapping (rechts). Die Bildausschnitte auf der rechten Seite wurden individuell dynamikkomprimiert.
  • Digitalfotografie. In der Digitalfotografie vermeiden HDR-Aufnahmen Über- und Unterbelichtungen und erlauben einen unproblematischen softwarebasierten Weißabgleich.[11] Hersteller haben den Dynamikumfang ihrer Bildsensoren zwar im Laufe der Zeit erhöht, der Dynamikumfang von HDR-Bildern wird jedoch bisher nur von wenigen Spezialkameras erreicht. Um HDR-Bilder mit herkömmlichen Kameras zu erzeugen, ist zusätzlicher Arbeitsaufwand erforderlich.
  • Bildbearbeitung. Neuere Versionen einiger Bildbearbeitungsprogramme können HDR-Bilder direkt bearbeiten. Dies erlaubt es, Helligkeits-, Kontrast- und Farbänderungen vorzunehmen, ohne dass es zu Verlusten in Form von gesättigten Pixelwerten kommt. Effekte und Filter wie etwa Weichzeichner wirken ausgehend von HDR-Bildern realistischer, insbesondere bei Glanzlichtern.
  • Digitales Kino und Video. Die Projektion von digitalen Kinofilmen mit mittelgroßem Dynamikumfang ist absehbar; Produktion und Bearbeitung derartiger Filme wird jedoch in einem HDR-Format erfolgen.[12] MPEG-4-kompatible Kodierungen für HDR-Videodaten wurden bereits vorgeschlagen.[13]
  • Virtuelle Realität. Herkömmliche Panoramabilder und virtuelle Umgebungen, die über das World Wide Web geladen und interaktiv erkundet werden, leiden besonders unter Über- und Unterbelichtungen. Wenn Panoramas als HDR-Bilder vorliegen, können die zu einem bestimmten Zeitpunkt sichtbaren Bildausschnitte individuell dynamikkomprimiert werden, was eine natürlichere Bildwirkung erzeugt.
  • Überwachungssysteme und maschinelles Sehen. Die Fähigkeit, gleichzeitig innerhalb und außerhalb von Gebäuden Bilddetails wiederzugeben, ist besonders bei Überwachungskameras sinnvoll.[14] Auch beim maschinellen Sehen ist die Robustheit von HDR-Kameras gegenüber extremen Lichtverhältnissen von Vorteil.
  • Medizin. In der Endoskopie besteht ein Bedarf an möglichst kleinen Bildsensoren, die auch bei geringer Helligkeit hochwertige Bilder liefern. So etwa liefert ein Prototyp eines im Rahmen des europäischen IVP-Projekts entwickelten Sensors bei kleinsten Abmessungen einen Dynamikumfang von über 100 dB.[15] Für die Augenheilkunde werden künstliche Retinae entwickelt, die bei sehbehinderten Menschen die Sehzellen der Netzhaut stimulieren und ebenfalls einen hohen Dynamikbereich aufweisen.
  • Architektur und Lichtdesign. Selbst ohne fotometrische Kalibrierung bieten HDRIs ein ausreichend präzises Abbild der Lichtverteilung in einer Szene. Indem maßstabsgerechte Architekturmodelle fotografiert werden, können so quantitative Aussagen über die Helligkeitsbedingungen in einem geplanten Gebäude gemacht werden.[16]

Speicherung

Kodierung

Es gibt zwei gebräuchliche Möglichkeiten, die Pixelwerte in HDR-Bildern geräteunabhängig zu kodieren. Idealerweise nähern sich HDR-Kodierungen dem nichtlinearen Sinneseindruck des Auges auf Helligkeiten an. Dadurch wird vermieden, dass unterschiedliche Helligkeiten im Bild mit scheinbar unterschiedlicher Präzision kodiert werden und es zu sichtbaren Farbabstufungen kommt.

Eine Möglichkeit ist die logarithmische Kodierung, die Helligkeiten gemäß folgender Formel quantisiert:

 

v ist hierbei die normalisierte kodierte Helligkeit, die Werte zwischen 0 und 1 annehmen kann. Aufeinanderfolgende Werte in dieser logarithmischen Kodierung haben ein konstantes Verhältnis von  , wobei N die Anzahl der Quantisierungsschritte ist.

HDR-Daten können auch mittels einer Kombination aus Mantisse und Exponent (als Gleitkommazahlen) kodiert werden. Aufeinanderfolgende Gleitkommazahlen haben kein konstantes Verhältnis, sondern folgen einem Sägezahn-artigen Verlauf. Damit die Farbquantisierung unsichtbar bleibt, darf die relative Abstufung (Differenz zwischen zwei aufeinanderfolgenden Helligkeitswerten, geteilt durch den Wert) 1 % nicht überschreiten.[17]

Weitere Eigenschaften von HDR-Kodierungen neben der relativen Abstufung sind der Farbraum und die Farbtiefe. Auf die Speicherung der absoluten Leuchtdichte (in der Einheit cd/m²) wird oft verzichtet; bei Fotografien wäre hierzu eine Kalibrierung mit Hilfe eines Leuchtdichte-Messgeräts erforderlich.

Formate

 
Ein JPEG-HDR-Bild, das hier dynamikkomprimiert angezeigt wird; die Datei enthält HDR-Daten

Von der Kodierung der Pixelwerte ist das verwendete Grafikformat zu unterscheiden, das bestimmt, in welche zusätzlichen Datenstrukturen die eigentlichen Bilddaten eingebettet werden. Einige HDR-Formate unterstützen mehrere Kodierungen.

Die von den meisten Programmen unterstützten HDR-Formate sind verlustfrei komprimiert. Es wurde jedoch auch eine Erweiterung des JPEG-Formates zur verlustbehafteten Speicherung mit geringer Dateigröße entwickelt.[18][19] Dieses „JPEG-HDR“-Bild speichert eine dynamikkomprimierte Version eines HDR-Bildes als gewöhnliche JFIF-Datei, fügt aber in einem zusätzlichen Marker ein Verhältnisbild hinzu, das die HDR-Informationen kodiert. JPEG-HDR ist ebenso wie andere JPEG-Formate für HDR-Bilder, etwa Kodaks ERI-JPEG oder das von der Software Panorama Tools verwendete FJPEG, zur Zeit (2009) wenig verbreitet.[20]

Die herstellerabhängigen, internen Dateiformate von Digitalkameras (Rohdatenformate oder Raw-Formate) bieten mit 10 bis 14 Bit pro Farbkanal eine etwas höhere Farbtiefe als gewöhnliche 8-Bit-Bilder, erreichen aber bei weitem nicht den Dynamikumfang von HDR-Bildern. Sie können noch als LDR-Formate[21] oder allenfalls als Medium Dynamic Range, Formate mit mittelgroßem Dynamikumfang, bezeichnet werden.[22] Auch die als IEC-Norm veröffentlichte scRGB-Kodierung weist nur einen mittelmäßigen Dynamikumfang auf.[23]

Die folgende Tabelle bietet einen Überblick über verschiedene bekannte HDR-Formate und die darin verwendeten Kodierungen.

Format Kodierung Komprimierung Farbraum Farbtiefe
(Bit pro Pixel)
Dynamikumfang
(Größenordnungen von 10)
Relative
Abstufung
Radiance HDR
(.hdr, .pic)
RGBE (logarithmisch) RLE RGB 32 76 1,0 %
XYZE (logarithmisch) RLE (CIE)XYZ 32 76 1,0 %
Portable Float Map
(.pfm, .pbm)
Gleitkomma keine RGB 96 79 0,000003 %
TIFF
(.tif, .tiff)
Gleitkomma keine RGB 96 79 0,000003 %
LogLuv24
(logarithmisch)
keine LogLuv 24 4,8 1,1 %
LogLuv32
(logarithmisch)
RLE LogLuv 32 38 0,3 %
OpenEXR
(.exr)
Gleitkomma Wavelet, ZIP RGB 48 10,7 0,1 %

Bilderzeugung

HDR-Bilder können auf drei verschiedene Arten erzeugt werden: durch direkte Aufnahme mit Spezialkameras, indirekt aus einer Reihe unterschiedlich belichteter LDR-Bilder, oder als künstliche Computergrafik.

HDR-Kameras

Digitale Bildsensoren, die ein Bild mit vollem Dynamikumfang direkt erfassen können, werden zur Zeit aktiv entwickelt. Zwar sind bereits einige dieser Produkte auf dem Markt, aber nur wenige umfassende Lösungen verfügbar.[24] Der Preis für HDR-Kameras bewegt sich im Bereich von 50.000 US-Dollar (2008).[25] Zu den vermarkteten oder entwickelten Produkten zählen:

  • Die Viper-Filmstream-Filmkamera der Firma Grass Valley weist mit drei Größenordnungen einen mindestens zehnmal höheren Dynamikumfang als herkömmliche Digitalkameras auf. Diese Kamera erfordert zur Speicherung der Videodaten Festplatten mit hoher Kapazität, was den mobilen Einsatz einschränkt.
  • SMaL Camera Technologies und Pixim haben CMOS-Sensoren mit VGA-ähnlicher Auflösung produziert, die Bilder mit einem Dynamikumfang von vier Größenordnungen in Videogeschwindigkeit erfassen können. Einige Hersteller bieten Fotoapparate und Überwachungskameras mit diesen Sensoren an.
  • Point Grey Research hat die LadyBug-Kamera entwickelt, die dank mehrerer Sensoren 75 % der Sphäre auf einmal mit über vier Größenordnungen fotografieren kann.
  • SpheronVR bietet die SpheroCam HDR an, die einen Zeilen-CCD enthält. Durch die automatische Rotation der Kamera sind Panoramabilder mit einem Dynamikumfang von 5,5 Größenordnungen in hoher Auflösung möglich.
  • Am Institut für Mikroelektronik Stuttgart wurde ein Sensor mit der Bezeichnung HDRC entwickelt, der das menschliche Auge in in Empfindlichkeit und Dynamikumfang übertrifft.[26] Der effektive Dynamikumfang beträgt 120 dB bei 50 Bildern pro Sekunde.[27] Dieser Sensor ist Teil eines von Omron angebotenen Entwicklerkits.
  • Für die professionelle Fotografie bieten einige Hersteller Kameras mit hohem Dynamikumfang an, etwa die Leica S1 Alpha/Pro, Jenoptik eyelike MF und LEAF c-most. Diese Kameras wurden entwickelt, um professionelle Fotografen zum Umstieg von Film auf Digital zu bewegen, da Filme einen höheren Dynamikbereich als herkömmliche Digitalbilder aufweisen. Zur Unterdrückung des Bildrauschens werden diese Kameras aktiv gekühlt.

Erzeugung aus Belichtungsreihen

Hauptartikel: HDRI-Erzeugung aus Belichtungsreihen

Mit etwas Aufwand ist es möglich, auch mittels herkömmlichen Digitalkameras HDR-Bilder zu erzeugen. Dabei wird von der Szene eine Belichtungsreihe aufgenommen, bei der jede Bildregion in mindestens einem der Einzelbilder korrekt belichtet wird. Die Einzelbilder werden anschließend per Software zu einem HDR-Bild kombiniert. Wichtig ist dabei, dass sich das Motiv zwischen den einzelnen Aufnahmen nicht bewegt. Obwohl es bis zu einem gewissen Grad möglich ist, Verwacklungen nachträglich zu korrigieren, wird die Verwendung eines Fotostativs empfohlen.

Damit aus der Belichtungsreihe korrekte Helligkeitsdaten berechnet werden, sind die Lichtwerte der Einzelbilder (oft ohnehin in den EXIF-Einträgen der Bilddateien gespeichert) sowie die opto-elektronische Übertragungsfunktion der Kamera erforderlich. Da die Übertragungsfunktion von den meisten Herstellern nicht veröffentlicht wird, sollte sie selbst ermittelt werden, idealerweise anhand einer Kalibrierungsszene mit möglichst vielen Grautönen.[28] Nach der Erzeugung des HDR-Bildes muss die Linsenstreuung (Lens Flare) der Kamera herausgefiltert werden, um übermäßige Lichtstreuungen im Bild zu vermeiden.

 
Aus einer Belichtungsreihe wird ein HDR-Bild erzeugt (in der Mitte Falschfarbendarstellung, rechts das Bild nach Tone Mapping). Durch HDRI sind gleichermaßen Details in hellen und dunklen Bildregionen erkennbar, ohne dass es zu störenden Über- oder Unterbelichtungen kommt.

Ein besonderes Problem mit fotografischen Techniken stellt die korrekte Aufnahme der direkt sichtbaren oder reflektierten Sonne dar, da es hier selbst bei kleinster Blende und Belichtungszeit zu massiven Überbelichtungen kommt. Die korrekte Leuchtdichte der Sonne kann mit Hilfe eines Neutraldichtefilters[29] oder indirekt durch unterschiedliche Beleuchtungen einer diffus reflektierenden Kugel[30] ermittelt werden.

HDR-Rendering

Hauptartikel: High Dynamic Range Rendering
 
Ein mittels Image-based Lighting gerendertes Bild. Der Hintergrund ist ein die 3D-Szene umschließendes HDR-Bild, das die künstlich modellierten Objekte im Vordergrund beleuchtet.

Neuere Grafikkarten unterstützen das hardwarebasierte Echtzeitrendern mit hohem Dynamikumfang, oft High Dynamic Range Rendering (HDRR) genannt. Dies ist besonders bei Computerspielen sinnvoll, bei denen der Spieler oft zwischen dunklen und hellen Szenen wechselt. Auch Grafikeffekte wie Linsenstreuung wirken mit HDRR realistischer. Die erreichbare Präzision und der Dynamikumfang ist aus Performancegründen beschränkt.

Eine wichtige Technik bei der Bildsynthese ist das Image-based Lighting (IBL). Hierbei wird eine Szene vollständig von einem HDR Environment Map (auch Light Probe) umhüllt. Environment Maps können am Einfachsten mit Hilfe von rotierenden Kameras mit Fischaugenobjektiv aufgenommen werden. Alternativ kann eine die Umgebung reflektierende Kugel fotografiert oder mehrere Einzelfotos per Stitching kombiniert werden. Um IBL mit bekannten Renderverfahren wie Monte-Carlo-Raytracing zu kombinieren, ist eine besondere Abtaststrategie der Environment Map notwending, damit das Bildrauschen gering bleibt. IBL lässt sich nicht nur dazu verwenden, um künstliche Szenen durch komplexe Lichtquellen zu beleuchten, sondern auch um reale (Film-)Szenen um künstliche Objekte zu erweitern. IBL wird mittlerweile von allen größeren 3D-Renderern unterstützt.

Darstellung

HDR-Ausgabegeräte

Diffus reflektierende Drucke sind prinzipiell LDR, da die maximale Helligkeit von der Umgebungsbeleuchtung abhängt. Um HDR-Bilder in Druckmedien darzustellen, müsste lichtemittierendes Papier erfunden werden. Es wäre allenfalls denkbar, Blendeffekte hinzuzufügen, um wie in der Malerei die Illusion eines helleren Lichtes zu erzeugen, als durch das Medium dargestellt werden kann.[31] Möglich ist auch die Aufnahme von gedruckten Bildern durch eine Kamera und anschließende Rückprojektion auf das Bild (siehe Superimposing Dynamic Range).[32] Folien und fotografische Filme besitzen zwar einen (möglicherweise bis zu 10-mal) höheren Dynamikumfang als Drucke, sind aber in der Anwendung problematisch.[33]

Kathodenstrahlröhrenbildschirme besitzen technisch gesehen einen hohen Dynamikumfang, weil sie zur Darstellung von sehr geringen, nicht mehr wahrnehmbaren Helligkeiten fähig sind. In der Praxis ist dies jedoch irrelevant, da ihre maximale Leuchtdichte zu gering ist, als dass HDR-Bilder mit der erwünschten Wirkung angezeigt werden könnten. Herkömmliche Flüssigkristallbildschirme hingegen sind zwar zur Darstellung von hohen Helligkeiten in der Lage, allerdings ist die Lichtstreuung in benachbarte Pixel recht hoch, was den effektiven Dynamikumfang begrenzt.[34]

Erste Prototypen von HDR-Anzeigegeräten existieren spätestens seit 2004.[35] Dazu gehört der HDR-Bildschirm DR37-P von BrightSide Technologies (vormals Sunnybrook Technologies, mittlerweile von Dolby übernommen). Bei diesem Bildschirm handelt es sich um einen LCD-Bildschirm, der nicht von einer gleichmäßigen Lichtquelle, sondern von einer Matrix aus Leuchtdioden mit individuell regelbarer Helligkeit beleuchtet wird. Bilddetails werden vom LCD-Bildschirm angezeigt, während die großen Helligkeitsunterschiede durch die Leuchtdioden moduliert werden. Die Leuchtdioden-Matrix kann eine geringe Auflösung besitzen, da Helligkeitsunterschiede in der Nähe von hellen Pixeln ohnehin durch die Punktspreizfunktion des Auges maskiert werden. Die Helligkeit des Bildschirms reicht von 0,015 bis 3000 cd/m²; damit beträgt der Kontrastumfang etwa 200.000:1.[36]

Weitere Entwicklungen von HDR-Ausgabegeräten sind vor allem im Digitalkinobereich zu finden. Die meisten digitalen Projektionssysteme für Kinos basieren auf der Digital Micromirror Device von Texas Instruments, einem Mikrospiegelaktor.[37] Dabei handelt es sich um eine hochauflösende Matrix aus elektronisch gesteuerten Spiegeln, die Licht entweder auf eine Leinwand oder auf einen Absorber spiegeln können. Helligkeitsabstufungen entstehen durch Pulsweitenmodulation. Der praktische Dynamikumfang kommerzieller Mikrospiegelaktoren liegt bei etwa 500:1.[37]

Tone Mapping

Hauptartikel: Tone Mapping
 
Ein HDR-Bild nach Anwendung vier verschiedener Tone-Mapping-Operatoren

Unter Tone Mapping, auch Tone Reproduction genannt, versteht man die Umwandlung eines HDR-Bildes in ein LDR-Bild, indem der Konstrastumfang verringert wird. Dies ist notwendig, um ein HDR-Bild angenähert auf einem herkömmlichen Anzeigegerät oder Medium darstellen zu können. Der naturgetreue Helligkeitseindruck geht dabei verloren. Umso wichtiger ist es, die besonderen Eigenschaften des HDR-Bildes, etwa den Detailreichtum in dunklen und hellen Bildregionen, so gut wie möglich beizubehalten. Tone-Mapping-Operatoren sind üblicherweise darauf abgestimmt, möglichst natürlich wirkende oder detailreiche Resultate zu erzeugen. Manche HDR-Software enthält jedoch auch Operatoren, die dem Anwender einen künstlerischen Spielraum lassen.

Man unterscheidet verschiedene Arten von Tone-Mapping-Operatoren. Die einfachsten Verfahren verarbeiten jedes Pixel unabhängig voneinander. Diese globalen Tone-Mapping-Operatoren sind vergleichsweise schnell und eignen sich daher für Anwendungen, bei denen das Tone Mapping in Echtzeit stattzufinden hat. Sogenannte lokale oder frequenzbasierte Operatoren sind in der Lage, Bilder mit einem besonders großen Kontrastumfang ohne übermäßigen Detailverlust zu komprimieren. Hierbei werden Bildregionen mit hohem Kontrast stark, Regionen mit geringem Kontrast weniger stark komprimiert. Derartige Verfahren erfordern besondere Techniken, um Bildartefakte wie Halos zu vermeiden. Schließlich gibt es noch gradientenbasierte Verfahren, die die Helligkeitsgradienten des HDR-Bildes abschwächen.

Dass viele Tone-Mapping-Operatoren auf Erkenntnissen über die visuelle Wahrnehmung basieren, liegt nicht zuletzt daran, dass der Mensch selbst das Tone-Mapping-Problem scheinbar mühelos löst.[38] So können Operatoren beispielsweise die helligkeitsabhängige Farb- und Schärfewahrnehmung simulieren, was besonders bei Nachtszenen zu realistischeren Ergebnissen führt.[39] Viele Tone-Mapping-Operatoren setzen absolute Helligkeitswerte voraus.

Ästhetische Gesichtspunkte

 
Beispiel für eine künstlerische Anwendung von Tone Mapping

Ein Problem bei der Darstellung von HDR-Bildern sind Haloartefakte, die häufig beim Tone Mapping mit einfachen lokalen Tone-Mapping-Algorithmen entstehen. Aber auch bei durch LDR-Exposure-Blending erzeugten Bildern, die manchmal irrtümlich als HDR-Bilder bezeichnet werden, sind bedingt durch die verwendeten Bildbearbeitungstechniken Halos sichtbar.

Einige HDR-Programme enthalten Tone-Mapping-Operatoren, die dem Benutzer eine große Freiheit bei Parametereinstellungen lassen. Erik Reinhard kritisiert, dass dies den Benutzer dazu verleiten würde, Tone Mapping als Effektmittel zu missbrauchen. Halos und Kontrastumkehrungen, die ja eigentlich von unsachgemäß konfigurierten lokalen Tone-Mapping-Operatoren herrühren, würden von einigen Anwendern als künstlerische Effekte missverstanden. Dadurch würde der falsche Eindruck entstehen, HDRI wäre mit einem bestimmten „Stil“ verbunden.[40] Christian Bloch ermutigt zwar zur kreativen Nutzung von Tone-Mapping-Operatoren, empfiehlt aber, das Resultat „impressionistische Fotografie“ oder „Hyperrealismus“, nicht aber irreführend „HDRI“ zu nennen.[41]

Software

Siehe auch: Liste von HDRI-Software

HDR-Bilder werden in unterschiedlichem Maße von vollwertigen Bildbearbeitungsprogrammen unterstützt. Adobe Photoshop unterstützt ab der Version CS 2 den Import/Export sowie das Generieren von HDR-Bildern, bietet aber erst in folgenden Versionen Unterstützung für einige Malwerkzeuge und Filter. Das quelloffene CinePaint, eine für die Kinofilmproduktion überarbeitete Version des GIMP, kann ebenfalls mit HDR-Bildern umgehen.

Zudem existieren Programme, die sich auf die Anzeige, Generierung oder das Tone Mapping von HDR-Bildern spezialisiert haben. Zu den bekanntesten zählen die kommerziellen Anwendungen FDRTools Advanced und Photomatix, die Freeware-Programme Picturenaut, Photosphere und FDRTools Basic sowie die freie Software Qtpfsgui.

Literatur

  • Christian Bloch: Das HDRI-Handbuch. Dpunkt, Heidelberg 2008, ISBN 3-89864-430-8
  • Bernd Hoefflinger (Hrsg.): High-Dynamic-Range (HDR) Vision (= Springer Series in Advanced Microelectronics 26). Springer, Berlin 2007, ISBN 978-3-540-44432-9
  • Axel Jacobs: High Dynamic Range Imaging and its Application in Building Research. Advances in Building Energy Research 1, 1 (2007): 177–202, ISSN 1751-2549 (PDF, 1,5 MB)
  • Erik Reinhard u. a.: High Dynamic Range Imaging. Morgan Kaufman, San Francisco 2006, ISBN 0-12-585263-0
Hinweis: diese Galerie enthält möglichwerweise auch Bilder, die mittels einfachem Exposure Blending erstellt wurden, ohne dass HDR-Daten verarbeitet wurden.

Einzelnachweise

  1. Reinhard u. a.: High Dynamic Range Imaging, S. 7
  2. Reinhard u. a.: High Dynamic Range Imaging, S. 187
  3. J. A Ferwada: Elements of Early Vision for Computer Graphics. IEEE Computer Graphics and Applications 21, 5 (2001): 22–33, ISSN 0272-1716. Zitiert in Reinhard u. a.: High Dynamic Range Imaging, S. 6
  4. Bloch: Das HDRI-Handbuch, S. 7
  5. Reinhard u. a.: High Dynamic Range Imaging, S. 87
  6. Bloch: Das HDRI-Handbuch, S. 44
  7. fxguide – Art of HDR, abgerufen am 22. Februar 2009
  8. A. Oppenheim u. a.: Nonlinear Filtering of Multiplied and Convolved Signals. IEEE Transactions on Audio and Electroacoustics 16, 3 (Sep. 1968): 437–466, ISSN 0018-9278
  9. Reinhard u. a.: High Dynamic Range Imaging, S. 326–331
  10. Reinhard u. a.: High Dynamic Range Imaging, S. 87–89
  11. Reinhard u. a.: High Dynamic Range Imaging, S. 48 f.
  12. Reinhard u. a.: High Dynamic Range Imaging, S. 88
  13. R. Mantiuk u. a.: Perception-motivated High Dynamic Range Video Encoding. ACM Transactions on Graphics 23, 3 (2004): 733–741, ISSN 0730-0301
  14. Reinhard u. a.: High Dynamic Range Imaging, S. 12
  15. Bernd Hoefflinger: High-Dynamic-Range (HDR) Vision, S. 138
  16. Jacobs: High Dynamic Range Imaging and its Application in Building Research
  17. G. Wyszecki, W. S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae. John Wilsey and Sons, New York 2000. Zitiert in Reinhard u. a.: High Dynamic Range Imaging, S. 90
  18. G. Ward, M. Simmons: Subband Encoding of High Dynamic Range Imagery. In First ACM Symposium on Applied Perception in Graphics and Visualization (APGV), S. 83–90. ACM, New York 2004
  19. Konrad Kabaja: Storing of High Dynamic Range Images in JPEG/JFIF Files. In Proceedings of the Central European Seminar on Computer Graphics 2005 (PDF, 3,9 MB)
  20. Bloch: Das HDRI-Handbuch, S. 52–58
  21. Reinhard u. a.: High Dynamic Range Imaging, S. 13
  22. Bloch: Das HDRI-Handbuch, S. 35
  23. IEC 61966-2-2 (2003): Multimedia systems and equipment – Colour measurement and management – Part 2-2: Colour management – Extended RGB colour space – scRGB.
  24. Reinhard u. a.: High Dynamic Range Imaging, S. 160–164
  25. Bloch: Das HDRI-Handbuch, S. 97
  26. Bernd Hoefflinger: High-Dynamic-Range (HDR) Vision, S. 2
  27. Bloch: Das HDRI-Handbuch, S. 103
  28. Reinhard u. a.: High Dynamic Range Imaging, S. 145
  29. J. Stumpfel u. a.: Direct HDR Capture of the Sun and Sky. In AFRIGRAPH 2004 Proceedings, S. 145–149. ACM, New York 2004, ISBN 1-58113-863-6 (Online)
  30. Reinhard u. a.: High Dynamic Range Imaging, S. 396–401
  31. Greg Spencer u. a.: Physically-Based Glare Effects for Digital Images. In ACM SIGGRAPH 1995 Proceedings, S. 325–334. ACM, New York 1995, ISBN 0-89791-701-4 (PDF, 2,8 MB)
  32. O. Bimber u. a.: Superimposing Dynamic Range. ACM SIGGRAPH Asia 2008 Papers, Article No. 150, ISSN 0730-0301 (PDF, 35 MB)
  33. Reinhard u. a.: High Dynamic Range Imaging, S. 171
  34. Reinhard u. a.: High Dynamic Range Imaging, S. 176–179
  35. Reinhard u. a.: High Dynamic Range Imaging, S. 9
  36. Jacobs: High Dynamic Range Imaging and its Application in Building Research
  37. a b Reinhard u. a.: High Dynamic Range Imaging, S. 182 f.
  38. Reinhard u. a.: High Dynamic Range Imaging, S. 17
  39. Gregory Ward Larson: A Visibility Matching Tone Reproduction Operator for High Dynamic Range Scenes. IEEE Transactions on Visualization and Computer Graphics 3, 4 (Oct.-Dec. 1997): 291–306 (PDF, 880 KB)
  40. Erik Reinhard: Flickr HDR, abgerufen am 22. Februar 2009
  41. Bloch: Das HDRI-Handbuch, S. 189 f.