Framtiden för HDR och dess användning inom kameran

Anonim

Ett gästinlägg av Dave Ware från Whalebone Photography.

Denna anteckning syftar till att vara en snabb diskussion om High Dynamic Range och möjliga framtida förbättringar för att förbättra den.

Vad är High Dynamic Range?

High Dynamic Range är en digital behandlingseffekt som används inom fotografering för att kombinera ett antal bilder med olika exponeringar för att skapa en konsekvent exponerad bild genom hela bilden. Detta ökar ljusstyrkan (mängden ljus) som syns i en bild.

Varför krävs det?

Kamerans begränsning av mängden färg och luminans som den kan spela in styrs av sensorns kapacitet och det dynamiska området för kamerans elektronik. Till exempel använder Canon EOS 40D en 14-bitars analog till digital omvandlare som digitaliserar de analoga signalerna som tas emot från sensorn. Med de 14 digitala bitarna kan 16 384 olika färger spelas in i kameran.

När man ser ett histogram är den horisontella axeln en bilds luminansnivå. Den vertikala axeln representerar mängden av bilden som innehåller den ljusnivån. Till exempel visar ett histogram med en enstaka linje till vänster att bilden är ren svart. På samma sätt representerar en enda rad till höger en bild som är rent vit. Mängden data som kan komprimeras inom histogrammet begränsas av kamerans dynamiska omfång. Ett mycket lågt dynamiskt område resulterar i att de horisontella axelgränserna ligger nära varandra. Ett högt dynamiskt område placerar dessa axlar långt ifrån varandra.

Här har kamerans exponering ställts in för ballongerna - detta valdes eftersom ballongerna var föremål för bilden och träden i detta fall användes för att ”rama in” ballongerna. Histogrammet visar spetsen till vänster om histogrammet som representerar träden och data till höger representerar ballongerna och himlen. Om fotografen ville att både ballongerna och träden skulle exponeras hade en kompromiss krävts så att ballongerna blev något överexponerade och träden bara lite underexponerade.

Ovanstående bild visar den traditionella kompromissen - himlen har tappat en del av sin mättnad i färg, men träden har behållit en del detaljer. Lägg också märke till att histogrammet visar en något smalare spets på högerkanten (ballongerna är nu något överexponerade) och den vänstra kanten indikerar att mer detaljer finns (träden är inte längre en komplett silhuett).

Så för att övervinna detta kan fotografen ta ett foto exponerat för bakgrunden och sedan ett annat foto exponerat för förgrunden. Några andra bilder tas vanligtvis mellan dessa två exponeringar.

När du kombinerar varje bild skapas en visuellt tilltalande bild och effekterna kan vara ganska dramatiska. Detta är grunden för digital HDR. En snabb Google-sökning ger några fler exempel.

Framtiden för HDR

För närvarande är HDR en efterbehandlingsteknik, men när kamerorna går framåt är det möjligt att detta är ett område som verkligen kan förbättras av tillverkare.

Kamerans dynamiska omfång kommer sannolikt att förbättras. Med 14-bitars ADC som nämns ovan kan 16 386 färger spelas in. 24-bitars ADC har tillverkats i många år vilket gör att totalt 17 miljoner färger kan spelas in! Sensorn måste kunna matcha detta dynamiska intervall och kamerans interna processor måste kunna bearbeta data. Denna förmåga existerar redan, vilket framgår av hemdatorer som har drivits från 32 bitar i flera år och nu är upp till 64 bitars bearbetning. Huruvida sensorn är kapabel till detta är en annan fråga för diskussion och den ytterligare bearbetning som krävs skulle öka mängden tid för att skriva data till minneskortet. Detta kan begränsa antalet bilder med full hastighet som tagits innan cachen är full och kameran skriver bilderna till minneskortet. Dessa nackdelar är kanske det som hindrar utvecklingen av ett ökat dynamiskt omfång i kameran, eftersom det med många fördelar ofta finns en nackdel.

En annan teknik inom kameran kan vara att använda flera sensorer i kameran. Om en sensor och tillhörande elektronik kan ha ett visst dynamiskt område, kan två sensorer användas för att öka det totala dynamiska området. Till exempel kan en sensor exponera för höjdpunkterna och en sensor kan användas för att exponera för skuggorna, vilket skapar ett högre dynamiskt omfång. Sensorer kan göras otroligt små - titta bara på storleken på telefoner som har många megapixelkameror, så det är förmodligen inget problem att klämma in två sensorer (eller mer!) I en enda kamera. Men när sensorstorleken minskar blir ljudet från den inspelade bilden (bildens "kornighet") större. Återigen är detta en avvägning mellan högt dynamiskt omfång, bildkvalitet och storlek.

En annan metod kan vara att använda en alternativ tonkurvealgoritm som för närvarande vanligtvis tillämpas på bilder i kameran. När ett foto tas förvandlas signaler från sensorn till digitala bitar och skickas till kamerans dator. För att förstå dessa signaler bearbetar datorn data och gör dem till något meningsfullt. Detta är en form av tonkurva. Normalt används detta över hela bilden som ett "genomsnitt". Moderna tekniker kan dock tillämpa en individuell tonkurva på varje enskild pixel i bilden. Detta kan göra en bild exponerad på ett liknande sätt som det som syns av det mänskliga ögat (dvs. med ett högre dynamiskt område). Detta kommer oundvikligen att öka bearbetningstiden i kameran, även om den nuvarande metoden för HDR-avbildning är att ta många bilder vid olika exponeringar, är den ytterligare bearbetningstiden för en enda bild förmodligen fortfarande en enorm tidsbesparing.

Denna nya tonkurvmetod utvecklas av företag och Samsung har nyligen köpt en licens för att använda tekniken.

Kanske har andra tillverkare en alternativ metod, eller anser inte att högt dynamiskt omfång är mycket viktigt i sina kameror, eller bara bjuder på sin tid. Denna teknik utvecklas fortfarande och är ett spännande område inom kamerateknik, särskilt när megapixelstriden blir gamla nyheter.

High Dynamic Range-tekniker kan överanvändas och bilder kan lätt göras onaturliga. Anledningen till att de är onaturliga är att de utvidgar det möjliga intervallet för det mänskliga ögat. Det skulle vara tråkigt om tekniken tog bort fotografins äkthet, som skiljer denna konst från måleriet (där både komposition och exponering endast är begränsad till fantasi). Om tekniken emellertid kunde replikera bilderna sett av det mänskliga ögat, är det kanske en acceptabel teknologisk milstolpe.

Kolla in mer av Daves arbete på Whalebone Photography.