Från vakuumrör till megapixlar och RAW

Kamerasensor (Foto: Bengt Nyman/Wikipedia/CC 2)

Med kameran i högsta hugg ute på stan eller i någon buske vid en sjö med spännande fåglar ägnar man sällan en tanke åt en av digitalkamerans viktigaste delar: sensorn. Idag återfinns den i allt från kameramobiler, videokameror till dyra proffskameror. Funktionen är oftast likartad mellan de olika varianterna och avgör ofta vad man blir tvungen att betala för när man köper ny kamera. Bland vissa grupper av fotografer så kan den nästan liknas med en sportbil som kompenserar något personen saknar i övrigt. Men hur fungerar den?

Vakuumrör och solsken

Vidicon vakuumrör (Foto: Sphl/Wikipedia)

Vidicon vakuumrör (Foto: Sphl/Wikipedia)

Kamerasensorn har en lång historia och delar mycket av utvecklingen av solceller och annan ljuskänslig elektronik. Men historien tog sin början med transistorn och möjligheten att producera integrerade kretsar. De första TV-sändningarna och elektroniska bilder från rymden gjordes med hjälp av vakuumrör och var den gängse tekniken fram till i mitten av 1980-talet. Dock var tekniken behäftad med ett antal svagheter, den krävde mycket ström, var känslig för ovarsam behandling och om man råkade rikta videokameran mot solen eller om oturen var framme och man fick en rejäl solreflex in i videokameran så kunde den delen av ytan på röret brännas sönder. Kvar hade man en tom plånbok efter en dyr reparation. Så det var nog tur att arbetet med integrerade kretsar pågick under tiden.

PPS blir APS och får en konkurrent

En APS-C sensor. (Foto: Filya1/Wikipedia)

En APS-C sensor. (Foto: Filya1/Wikipedia)

Den första grenen på trädet av tekniker för kamerasensorer var den passiva pixel-sensorn (PPS). Den användes första gången på 1960-talet och var grunden för den moderna CMOS-sensorn som vi har idag. Förhoppningen var att den skulle kunna ersätta vakuumrören. Sensorn bestod av ett antal ljuskänsliga fotodioder som gjorde om fotonerna som träffade den till elektrisk spänning (solceller någon?). Den drogs dock med stora problem med brus som visade sig som mönster i bilderna som togs med den. Så under 1968 och 1969 så beskrev Noble, Chamberlain och Weimer hur man skulle kunna placera transistorer vid varje ljuskänslig pixel som kunde ta bort bruset. Därav får tekniken namnet APS, Active Pixel Sensor.

Men eftersom det fanns ytterligare problem med CMOS-kretsarna som att de åldrades och inte var stabila togs en annan teknik fram av Willard Boyle och George E. Smith vid Bell labs 1970. CCD:n var därmed född och de två herrarna förärades med ett Nobelpris i fysik för sitt arbete 2009. Den var enklare att tillverka och sopade banan med sensorer av CMOS-typ. Den medgav också möjligheten att läsa in alla pixlar samtidigt i jämförelse med APS som går rad för rad.

Ett teknikskifte

CCD-sensor från en Argus digitalkamera. (Foto: Merzperson/Wikipedia)

CCD-sensor från en Argus digitalkamera. (Foto: Merzperson/Wikipedia)

CCD:n var väl etablerad och återfanns i flertal olika produkter men den betingade ett högt pris. Så i slutet på 1980-talet och i början av 1990-talet skedde ett teknikskifte. CMOS-kretsarna hade hunnit mogna och framställningsprocessen var utvecklad vilket gjorde att man kunde producera billiga sensorer med hyfsad kvalité. Resten är historia skulle man kunna säga. Eftersom CMOS-kretsarna delar samma tillverkningsprocess som vanliga datorkomponenter var det inga större problem att tillverka dem i allt större mängd. Idag återfinner vi CCD:er i astronomiska teleskop, medicinska laboratorium och andra ställen där stora krav ställs på bildkvalité. Kanske har du träffat någon av våra stjärnskådare i Sverige som använder CCD-sensorer i sin hobby? För här kan man säga att det är grym teknik med alltifrån kylfläktar till flytande kväve och stabil el för att ta de bästa astrobilderna. Mot de sensorerna står CMOS-kretsarna dagens proffskameror i skuggan.

Olika sensorstorlekar

Idag har CMOS-kretsen helt tagit över marknaden för vanliga kameror och det har också växt fram en standard för storleken. En huvudregel är att ju större sensorn är desto bättre är den på att fånga upp ljus och lägre brus. Dock kan det skilja mycket mellan sensorn beroende på generation den kommer ifrån. En annan ”regel” är att sensorn i en viss storlek får ett stopp bättre signal/brus förhållande för varje generation. Med andra ord mindre brus när det är dåligt med ljus.

  • Fullformat – 36 mm x 24 mm (motsvarar 35 mm:s filmen i storlek) återfinns i bland annat Canon EOS 5d Mark II, Nikon D4
  • APS-H – 28,1 mm x 18,7 mm, återfinns i Canon 1D Mark IV
  • APS-C – 23,5 mm x 15,8 mm, återfinns bland annat i Nikon D7100, Samsungs NX och Pentax DA
  • Four Thirds – 17,5 mm x 13 mm, återfinns bland annat i Panasonic Lumix GM1 och Olympus E-M1
  • 1/1,7 tum – 7,6 mm x 5,7 mm, återfinns bland annat i Canon Powershot
  • 1/2,3 tum – 5,7 mm x 4,2 mm, återfinns i de minsta kompaktkamerorna

Sensorns uppbyggnad

Oavsett storlek på sensorn så ser uppbyggnaden av den ut på ungefär samma sätt:

En modern kamerasensor idag (Illus: Kim Sanfridsson)

En modern kamerasensor idag (Illus: Kim Sanfridsson)

När ljuset faller in i objektivet och når sensorn så går den igenom ett antal olika steg innan den registreras i kamerans minne.

  1. Det första som händer är att all IR-strålning som kommer in filtreras bort. Detta för att sensorn är känslig för den våglängden och påverkar bildkvalitén negativt. Filtret ställer dock till det för de fotografer som är sugna på att ägna sig åt IR-fotografering men lyckligtvis är det möjligt att ta bort filtret på vissa kameror. Men försök inte det själv utan kolla om det går att konvertera din kamera och skicka den till någon som kan.
  2. Därefter vill man inte få konstiga effekter på bilden som exempelvis Moirémönster. Det är här AA-filtret kommer till sin rätt, AA står i det här sammanhanget för Anti Aliasing. Ljuset delas upp i två delar och läggs ihop på nästan samma ställe på sensorn. Det gör att bilden blir mikroskopiskt suddig. I lägre upplösningar märks inte det här men när man kommer upp i 30 – 35 megapixlar blir effekten märkbar. Därför saknar en del nyare kameror det här filtret, det är inte heller nödvändigt när man kommer upp tillräckligt högt i upplösning.
  3. Först nu träffar ljuset sensorn och alla mikrolinser som ser till att ljuset faller in rätt i pixlarna. Detta eftersom delar av sensorn inte är till för att ta upp ljus (!). Är mikrolinserna bra gjorda blir det små ljusförluster och ger kameran bättre egenskaper för foto när det är dåligt med ljus.
  4. Nästa steg är Bayerfiltret.
    Bayerfilter för att kameran ska kunna emulera färger som ögat (Illus: Kim Sanfridsson)

    Bayerfilter för att kameran ska kunna emulera färger som ögat (Illus: Kim Sanfridsson)

    De har färgerna röd, grön och blå, dessa släpper enbart igenom ljus med rätt våglängd. För det är så att kameran egentligen inte ser några färger. Den ser bara ljus eller mörker, filtret gör att kameran kan skapa en bild i färg. Filtret har dessutom fler gröna rutor än blåa och röda för att efterlikna hur våra ögon uppfattar världen. Bryce Bayer heter mannen bakom själva idén och patenterade detta 1976.

  5. Sen skulle man kunna tro att ljuset träffar fotodioden, men inte. Utan nu går det genom området där sensorns kretsar finns. Här finns bland annat själva förstärkarna för signalen som uppstår.
  6. Nu är ljuset framme i fotodioden eller pixeln. Under tiden som slutaren är öppen fylls pixeln på med elektroner och har kameran eller du beräknat slutartiden rätt så blir det en lagom mängd med elektroner. Blir det för många så blir området i bilden utfrätt eller helt vit eftersom sensorn inte kan lagra mer i pixeln.
  7. Vän av ordning undrar säkert varför en av pixlarna på bilden ovan är helt svart. Det är en klart bra fråga, den hänger ihop med kamerans hantering av bruset i bilden. För även om sensorerna har blivit bättre är brus ett problem. Genom att ha en helt svart pixel så kan sensorn mäta bruset när inget ljus träffar pixeln och kalibrera sig mot när den läser av andra pixlar.

Vad är det kameran då ser?

Kameran eller sensorn ser egentligen inte något alls utan det den gör är att den mäter intensiteten på ljuset i ett antal pixlar. Egentligen är den kort och gott en grym ljusmätare. Om vi går tillbaka till bilden ovan skulle man förenklat kunna säga att det kameran får fram är olika spänningsnivåer från varje pixel:

Sensorn i kameran är en avancerad ljusmätare! (Illus: Kim Sanfridsson)

Sensorn i kameran är en avancerad ljusmätare! (Illus: Kim Sanfridsson)

Om vi numrerar pixlarna i bilden ovan med 1 – 6 från vänster så ser vi ett exempel på signalstyrkan från respektive pixel. Får pixeln många fotoner så blir det en hög signal och ingen alls blir det ingen signal (eller rättare sagt brus). Pixel nummer 3 slår i taket och blir ”vit” medan nummer 5 blir ”svart” eftersom den inte tagit emot någon foton.

Signalen från varje pixel går sedan igenom en D/A-omvandlare för att slutligen bli digital. Där ges signalen ett värde mellan 0 – 255 (8 bitar, JPG), 1 – 4096 (12 bitar, RAW) och 1 – 16 384 (14 bitar, RAW). Här får du också förklaringen för varför RAW-bilder är bättre till det digital mörkrummet, den rymmer otroligt mycket mer information. För tänk dig att du enbart har 256 röda nyanser mot 4096 eller 16 384 nyanser. Nåja, diskussionen om RAW kan vi ta en annan gång men använd det om du kan.

Men om jag höjer ISO:n?

Om du höjer kamerans ISO så höjer du egentligen inte kamerans känslighet för ljus. Det du egentligen gör är att du ökar den förstärkning som kameran redan från början gör. Det gör att utrymmet, om du kollar bilden ovan, mellan högt och lägst signalstyrka minskar. Det gör också att det röda strecket som motsvarar sensorns eget elektroniska brus flyttas högre upp, för du förstärker även det. Så när du tar en bild med i ISO 25 600 så kommer du få mycket brus dessutom minskar du även bildens dynamiska omfång, så om du kanske från början hade 4096 nyanser att välja på så kanske du hamnar på 256 stycken trots att du använder RAW. Detta eftersom omvandlaren av signalen har ett mycket mindre omfång att röra sig inom.

Eller som en gammal lärare till mig sa: När det handlar om teknik så gäller – skit in och skit ut. Översatt till det här sammanhanget: har du dåligt med ljus, liten sensor och högt ISO-tal kommer bilden se förjäklig ut. Det beror inte på kameran i sig utan på att förutsättningarna är fel. Antingen köper man en svindyr kamera med stor sensor och lågt brus, alternativt ljusstark optik eller slänger på blixten. Eller väntar till solen går upp.

Lycka till med fotograferandet och glöm inte vilken otrolig sak det egentligen du håller i. Ägna gärna en tanke åt hur många år av forskning och utveckling som har krävts för att du ska kunna ta bilder på katten och lägga upp på Facebook eller senaste middagen på Instagram.

Facebooktwittergoogle_plusredditlinkedinmailFacebooktwittergoogle_plusredditlinkedinmailby feather

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *