
Georgian Bay - sommarlandskap
Ändra hur fotografier tas
Under de senaste åren har ett antal tillverkare producerat kameror som kan producera bilder med högre upplösning genom något som kallas Sensor-Shift Technology. Denna teknik har möjliggjorts med tillkomsten av IBIS (body image stabilization). Kameradesigners har använt IBIS som ett sätt att få otroliga ökningar av bildupplösningen eller för att förbättra färginformationen för de bilder som tas.
Det finns ett antal namn för denna teknik inklusive högupplöst läge, Pixel Shifting Resolution System, Pixel Shift Multi Shooting Mode eller de mer generiska namnen på pixel-shift / sensor-shift men i slutändan är koncepten bakom denna teknik alla det samma. Flera bilder i samma vy tas på ett sådant sätt att bilderna staplas och blandas för att skapa en enda, vanligtvis stor bild med hög upplösning.
Det finns styrkor och svagheter i denna nya teknik och att förstå hur den fungerar kan hjälpa dig att skapa bättre bilder själv om du har en kamera som kan göra detta.
NOTERA: Eftersom webbplatser använder bilder med lägre upplösning har bilderna som används i den här artikeln minskats och modifierats för att simulera skillnaderna mellan högupplösta bilder och standardutmatningen från kamerorna. När man tittar på bilderna i sin helhet ser bilderna ut lika, men när man kommer närmare detaljerna i bilderna är det när man börjar se skillnaderna.

Gerbera tusenskönor inomhus, regelbunden upplösning (20 MP) Olympus OMD EM 1 Mark II

Gerbera tusenskönor inomhus, högupplöst (50MP) Olympus OMD EM 1 Mark II
Många tillvägagångssätt för bilder med sensorskift
Bildskärm med sensorskift har förvandlats från dyra specialkameror till att bli en alltmer tillgänglig funktion på nyare, upplösningsorienterade kameror. Idag finns förutom Hasselblads monster H6D-400c (400 megapixelbilder) erbjudanden från Olympus, Pentax, Sony och Panasonic.
Dessa versioner använder i allmänhet samma konceptuella tillvägagångssätt men till mycket mer tillgängliga priser.

Sensor-Shift-rörelse
Vem använder Sensor-Shift?
Oavsett tillverkare förblir den grundläggande åtgärden för sensorförskjutning av bild densamma. Ta flera bilder men flytta kamerans sensor något för varje bild för att fånga mer bilddata och sätt sedan ihop bilden.
Genom att flytta sensorn förbättras bildfärgdata så att mer detaljer kan lösas genom att övervinna de inneboende problemen med färgspecifika fotosidor. Ignorerar Hasselblad inkluderar systemen som använder denna teknik kameror som Olympus OM-D E-M1 Mark II (Micro Four Thirds), Pentax K-1 Mark II DSLR, Sony a7R III och Panasonic Lumix DC-G9 (Micro Fyra tredjedelar) även om det finns andra från samma tillverkare.
Tre av dessa linjer är spegelfria kameror där Pentax är en DSLR för beskärningssensor. Det är intressant att notera att Panasonic / Olympus-kamerorna tar en strategi och Pentax / Sony tar en annan inställning till samma koncept.
Olympus / Panasonic-systemen använder ett tillvägagångssätt som gör mycket stora högupplösta bilder medan Pentax- och Sony-systemen använder sensorförskjutningen för att förbättra färginformationen för bilder i samma storlek. Både Pentax- och Sony-systemen möjliggör också separering av de enskilda sensorförskjutna bilderna medan Olympus och Panasonic blandar de staplade bilderna till ett enda fotografi.

Olympus OMD EM5 Mark II har sensor-shift-teknik.
Hur fungerar sensorteknik?
För att förstå hur sensor-shift-tekniken fungerar måste du också förstå hur en sensor i allmänhet fungerar i mycket liten skala. Under de fina gamla dagarna av filmfotografering använde kameror ljuskänslig film för att spela in bilder. Digitalkameror använder ett helt annat sätt att spela in ljus.
Digitalkameror använder ljuskänsliga fotodioder för att spela in ljuset som slår till sensorn. I de flesta digitalkameror har varje fotodiod ett specifikt färgfilter (rött, grönt eller blått) som bildar en fotosite. Dessa fotosidor är ordnade så att ljuset kan blandas för att se färgen från bilden som kommer på sensorn.
De röda, gröna och blåa fotositesna på en sensor är vanligtvis ordnade i ett specifikt mönster som kallas en Bayer-array (aka Bayer-matris, filter). Det finns också andra konfigurationer som Fuji X-Trans-sensorn (används på flera av deras kameramodeller) eller Sigma som använder en Foveon-sensor.
Med ett Bayer-arrangemang finns det dubbelt så många gröna fotosidor som röda eller blåa eftersom mänsklig syn är mest anpassad till att lösa detaljer i grönt. Detta arrangemang fungerar i allmänhet bra men om du tänker på det, på en bild skapas en färgpixel genom att blanda samman dessa fotosidor.
Sensorn vet inte hur mycket rött det finns på en grön sensorplats eller en blå sensorplats så interpolering krävs. Detta kan skapa några artefakter i fotografier om du tittar mycket noga och tenderar att betyda att RAW-bilder har ett någonsin så lite mjukt fokus. Alla RAW-bilder behöver skärpas i efterbehandlingen (det gröna, det röda och det blå för en pixel blandas ihop).

Bayer-mönster av fotosidor
Statiska sensorer
I en vanlig kamera utan IBIS registrerar varje fotosite bara ljuset från en färg på den ena platsen, så de data som den registrerar är tekniskt ofullständiga. Det är som en hink som bara samlar ljus från en viss färg. Ett kluster av lätta hinkar i Bayer-mönstret används för att skapa en enda pixel i den digitala bilden, men inom den pixeln finns det två gröna hinkar, en blå och en röd.
För att smälta samman bilden och sätta en enda färg i den ena pixeln löses signalerna från fotodioderklustret tillsammans. De insamlade uppgifterna interpoleras via en avmosaiseringsalgoritm antingen i kameran (jpeg.webp) eller på en dator (från en RAW-bild), en process som tilldelar värden för alla tre färgerna för varje fotosite baserat på de kollektiva värden som registreras av närliggande fotosidor .
De resulterande färgerna matas sedan ut som ett rutnät av pixlar och ett digitalt fotografi skapas. Detta är delvis varför RAW-bilder har något mjukare fokus och måste skärpas i arbetsflödet efter produktion.
Rörliga sensorer
IBIS innebär att sensorerna nu rör sig så lite för att justera för subtila rörelser hos en kamera för att hålla bilden stabil. Vissa tillverkare hävdar att deras system kan stabilisera sensorn och / eller linskombinationen för motsvarande 6,5 stopp.

Genom att flytta sensorn kan alla färgfotosidor spela in data för varje plats på sensorn.
Denna stabilisering åstadkommes genom mikrojusteringar av sensorns position. För sensorförskjutningsbilder används samma mikrojusteringar för att varje fotosite exponeras för ljuset från enbildsinspelningen. I huvudsak flyttas sensorn runt för att inte justera för yttre störningar utan för att varje del av en bild ska innehålla fullfärgsinformation.
Fotosidor snarare än pixlar
Du kanske har lagt märke till termen photosites istället för pixlar. Kameror rankas ofta av sina megapixlar som ett mått på deras upplösningskraft, men det här är förvirrande eftersom kameror inte har enbart pixlar endast fotosidor.
Pixlar finns i bilden som produceras när data från sensorn bearbetas. Även termen "pixel-shift" som ibland används är vilseledande. Pixlar rör sig inte, det är sensorerna som har fotosidor som rör sig.
Vid enkelbildtagning registrerar varje fotosite data för rött, grönt eller blått ljus. Dessa data interpoleras av en dator så att varje pixel i det resulterande digitala fotografiet har ett värde för alla tre färgerna.
Skiftande sensorer
Sensor-shift-kameror försöker minska beroende av interpolering genom att fånga färgdata för rött, grönt och blått för varje resulterande pixel genom att fysiskt flytta kamerans sensor. Tänk på en 2 × 2 pixel kvadrat taget från ett digitalt fotografi.
Konventionell digital inspelning med en Bayer-array registrerar data från fyra fotosidor: två gröna, en blå och en röd. Tekniskt betyder det att det saknas data för blått och rött ljus på de gröna fotositesna, gröna data och röda på de blå fotositesna och blått och gröna på de röda fotositesen. För att åtgärda detta problem kommer de färgvärden som saknas för varje plats att bestämmas under interpolationsprocessen.
Men tänk om du inte behövde gissa? Vad händer om du kan ha den faktiska färgen (röd, blå och grön) för varje fotosite? Detta är konceptet bakom sensor-shift-teknik.

En bild med normal upplösning.
Dykare djupare
Tänk på ett 2 × 2-pixelfyrkant på ett digitalt fotografi som skapas med hjälp av pixel-shift-teknik. Det första fotot börjar som vanligt med data inspelade från de fyra fotosidorna. Men nu förskjuter kameran sensorn för att flytta på foton och tar samma bild igen men med en annan fotosite.
Upprepa denna process så att alla foton har allt ljus för varje exakt plats på sensorn. Under denna process har ljusdata från fyra fotosidor (två gröna, en röda, en blå) förvärvats för varje pixel, vilket resulterar i bättre färgvärden för varje plats och mindre behov av interpolering (utbildad gissning).

En högupplöst bild med samma ISO, bländare och slutartid.
Sony och Pentax-metoden
Sonys Pixel Shift Multi Shooting Mode och Pentaxs Pixel Shifting Resolution System fungerar på detta sätt. Det är viktigt att notera att användning av dessa lägen inte ökar det totala antalet pixlar i din slutliga bild. Måtten på dina resulterande filer förblir desamma, men färgnoggrannheten och detaljerna förbättras.
Sony och Pentax tar fyra bilder flyttade en hel fotosite per bild för att skapa en enda bild. Det är bara att förbättra färginformation i bilden.
Olympus och Panasonic-metoden
Högupplöst läge för Panasonic- och Olympus-kameror, som båda använder Micro Four Thirds-sensorer, tar ett lite mer nyanserat tillvägagångssätt och kombinerar åtta exponeringar tagna ½ pixel ifrån varandra. Till skillnad från Sony och Pentax ökar detta antalet pixlar i den resulterande bilden avsevärt.
Från en 20 megapixelsensor får du en 50-80 megapixels RAW-bild. Det finns bara en enda bild utan möjlighet att komma åt de enskilda bilderna i en sekvens.
Vilka är fördelarna med att använda Sensor-Shift?
Användning av sensor-shift-teknik har flera fördelar. Genom att ta flera bilder, känna till färginformationen för varje plats på platsen och öka upplösningen gör du tre huvudsakliga saker. Du minskar buller, minskar moire och ökar den totala upplösningen för bilderna.
Buller och förbättrad upplösning
Genom att ta flera bilder med en subtil förändring av sensorns position, går upplösningen på bilden upp men det gör också färginformationen i bilderna. Detta gör att liknande bilder möjliggör större borrning ner i bilden med mjukare färger, mindre brus och bättre detaljer.

En bild med normal upplösning.

En högupplöst bild.

Beskuren i tätt till den normala upplösningsbilden, du börjar se brus som korn och färgvariation.

Här är samma beskärning på den högupplösta versionen, färgen och detaljerna är bättre med mindre brus.
Mindre Moire
Moire är utseendet på buller eller artefaktmönster som visas i bilder med snäva vanliga mönster. Nyare sensorer tenderar att ha färre problem med Moire än tidigare, men det kommer fortfarande att visas i vissa bilder.
Orsaken till moiren tenderar att vara relaterad till de snäva mönstren som spelas in och kameran har problem med att lösa mönstret eftersom den har problem med sensorns fotomönster. Färginformationen för de röda, gröna och blåa fotosidorna har problem med kanterna i dessa snäva mönster eftersom inte alla färger för en enda plats registreras.
Med sensorförskjutning finns all färg för varje plats där, så moire tenderar att försvinna.

Bild med normal upplösning.

Högupplöst bild med beskuren area markerad

Det beskurna området på bilden med standardupplösning - brus börjar dyka upp (reporna på papperet fanns tidigare).

Bilden med högre upplösning har mindre brus och mer detaljer.
Så varför inte använda detta för varje bild?
Tja, den främsta anledningen är att du måste ta flera bilder av en scen. Det betyder att detta verkligen inte fungerar bra för rörliga motiv. Processen kräver åtminstone fyra gånger exponeringstiden för enkelbildtagning. Detta innebär fyra möjligheter för en del av din komposition och / eller din kamera att röra sig under bildtagning, förnedrande bildkvalitet.
Sådana begränsningar begränsar teknikens tillämpning till stilleben och (statisk) landskapsfotografering. Varje rörelse i scenen som fångas kommer att skapa ett suddigt eller pixlat område. Detta är ett problem för landskapsfotografering om det finns vindar som flyttar växter eller moln samt områden där rinnande vatten finns.
Detta innebär också att du vanligtvis måste vara mycket stabil och använda ett stativ, även om det finns några tydliga avsikter från tillverkare att göra tillgängliga versioner som möjliggör handhållen fotografering av kameran (Pentax har den här funktionen).

Högupplöst bild som skjutits på ett stativ.

Rörelsesartefakter är synliga när de ses närmare.
Quirks av några av systemen
Eftersom sensor-shift-teknik har implementerats på olika sätt och beroende på vilket system som används är problemen lite annorlunda. Huvudegenskapen är att du i allmänhet behöver ett stativ, så ingen körning och pistol.
Sony-systemet har andra begränsningar att du inte kan se bilden förrän du bearbetar de fyra separata bilderna tillsammans. Det betyder att du inte kan granska din upplösta bild på kameran. Dessutom, på grund av det höga pixelantalet på A7R-märket III, är varje subtil rörelse av stativet särskilt märkbar på den resulterande bilden. För att redigera bilderna måste du också använda egen programvara från Sony för att slå samman bilderna.
Pentax har några intressanta funktioner. Med hjälp av programvaran som medföljer kameran kan du hantera rörelser med hjälp av en algoritm i programvaran för att ta bort rörelseartefakter. Detta fungerar bättre än programvara som vanligtvis används för bildmanipulation som Adobe.
Olympus-systemet har funnits ett tag och i den senaste iterationen på Olympus OMD EM1 Mark II kommer varje upptäckt rörelse att de drabbade pixlarna ska ersättas med delar av en av de enstaka bilderna med vanlig upplösning i rörelser. Detta skapar ojämn upplösning men får bilden att se bättre ut för saker som vind. Det begränsar också särskilt om det finns mycket rörelse. Ofta ser bilderna lite pixlade ut.

Standardupplösning av ett träd - allt är skarpt.

En högupplöst bild av samma träd men det var blåsigt … Beskuret område visas i den gula rutan.

Beskuret område expanderat - vindrörelsen genererade några artefakter på bilden.
Begränsningar
Den största utmaningen för att ta bilder med sensorförskjutning är rörliga motiv. Dessutom kan försök att para en strobe med en kamera med hjälp av pixelförskjutningsbildtagning kompliceras av hastigheten för bildtagning, begränsningar för återvinning av blixt och allmänna kompatibilitetsproblem. Tillverkarna är medvetna om dessa problem och arbetar för att lösa dem.
Sammantaget kommer tekniken bara att bli bättre
Fler och fler system använder algoritmer för att producera dessa bilder med högre upplösning. När tekniken mognar kommer implementeringarna att få bättre och bättre resultat, potentiellt kunna hantera rörelse och handhållna förhållanden.
Fördelen för tillverkare är att bilder av bättre kvalitet produceras utan behov av riktigt dyra sensorer med hög pixeldensitet (billigare). Fördelarna med användaren är att bilderna kan ha bättre brus- och färginformation för bättre slutresultat.
Lycklig jakt på den perfekta högupplösta bilden!