Per non appesantire troppo il discorso, ma soprattutto per renderlo accessibile anche ai lettori più inesperti, sono state talvolta usate delle semplificazioni, privilegiando la chiarezza al rigore.
Fotografia è una parola che deriva dal greco e significa "scrivere con la luce". E' la luce, infatti, che attraverso l'obiettivo della nostra macchina fotografica arriva su un rettangolino più o meno grande che è, appunto, sensibile alla luce (fotosensibile). Questo rettangolino è il sensore, e nelle fotocamere digitali svolge la stessa funzione che, nelle macchine fotografiche tradizionali, svolgeva la pellicola. Davanti ad esso, come davanti alla pellicola, c'è una specie di velo che blocca la luce e che si alza quando si preme il pulsante di scatto: nell'intervallo di tempo in cui il sensore o la pellicola sono esposti alla luce, nasce l'immagine che poi vedremo su carta o sul monitor del computer. In estrema sintesi, dunque, il sensore serve a convertire la luce in elettroni. Ma com'è fatto un sensore? Per comprenderlo bisogna sapere cos'è un fotodìodo: è un dispositivo sensibile alla luce, che quando intercetta una determinata lunghezza d'onda (quella della luce, appunto), genera una carica elettrica.
Un wafer di silicio (immagine AP Photos).
Bene, un sensore altro non è che un rettangolino di
silicio, pieno zeppo di fotodiodi e dotato dei vari
collegamenti necessari, sia interni che verso il resto
delle componenti della fotocamera. In pratica la griglia
di fotodiodi, solitamente di forma rettangolare, viene
innestata su un wafer (cioè una lastra circolare)
di silicio, ed al termine di un delicato processo
produttivo da ogni wafer si ricava un certo
numero di sensori. S'intuisce facilmente che, partendo
da una lastra di silicio di una data dimensione, più
sono grandi i sensori richiesti minore è il numero che
se ne riesce a tirar fuori. Insomma, data una torta, più
sono gli invitati più piccole saranno le fette, c'è poco
da fare! Questo è uno dei motivi per cui più il sensore
è grande, più costa.
Già, ma grande quanto?
Eccoci ad un altro aspetto di cui si discute spesso in
materia di sensori. Leggendo i dati tecnici delle fotocamere
si leggono frasi come <sensore APS> o <sensore da 1/8''> o
<sensore 4/3''>. Per decodificare questi numeri e queste
sigle bisogna fare un passo indietro. Storicamente,
nell'indicare le misure dei tubi catodici dei televisori ci
si riferisce al diametro del tubo in vetro che avvolge il
tubo catodico; questi diametri sono tipicamente mezzo
pollice, due terzi di pollice, e così via. Anche se
l'effettiva area d'immagine è inferiore al diametro (in
media infatti è i due terzi del diametro), per convenzione
si è sempre indicato il diametro del tubo. E per uno dei
tanti misteri della tecnologia (o del marketing),
nell'indicare le dimensioni dei sensori delle fotocamere (e
videocamere) digitali si è continuato ad usare quel tipo di
valori, persino oggi che i televisori a tubo catodico stanno
lasciando il passo a quelli al plasma o a cristalli liquidi.
In pratica, una sigla del tipo <sensore da 1/1,8''>, che si
legge "sensore da uno diviso uno virgola otto pollici" in
realtà indica un sensore grande circa 7,1x5,3 millimetri.
Certo, 1 diviso 1,8 dà 0,5555 pollici, che significa circa
14 millimetri (un pollice = 25,4 mm), ma questi 14mm, che su
un tubo catodico erano la diagonale, con il sensore della
nostra fotocamera digitale non c'entrano nulla: l'importante
è saperlo!
A puro titolo di esempio, nella tabella che segue c'è un
elenco di alcuni dei formati più diffusi:
Denominazione |
Larghezza |
Altezza |
1/1,8'' |
7,2mm |
5,3mm |
2/3'' |
8,8mm |
6,6mm |
4/3'' |
18mm |
13,5mm |
APS-C |
Circa 23mm |
Circa 16mm |
Pellicola "piccolo formato" |
36mm |
24mm |
I primi due (insieme a molti altri di dimensioni inferiori) sono tipici delle compatte, mentre quello APS-C è tipico delle fotocamere reflex ad obiettivi intercambiabili.
APS, chi era costui?
Si sarà notato che alla voce "APS-C" si sono indicate misure
approssimative. Perché? Bisogna fare un passo indietro. APS
è una sigla che sta per Advanced Photo System, un sistema
fotografico (che richiedeva fotocamere e rullini appositi)
lanciato alcuni anni fa che utilizzava una pellicola di
dimensioni ridotte rispetto ai classici rullini che tutti
conosciamo (quelli in cui ogni fotogramma misura 24x36mm).
Tra le caratteristiche dell'APS, che commercialmente non ha
mai sfondato, c'era la possibilità di scattare foto in tre
formati diversi:
Ora, le fotocamere digitali ad obiettivo intercambiabile
adottano – salvo pochi modelli che usano un sensore grande
quanto la pellicola, cioè 24x36mm – sensori che hanno misure
simili a quelle dell'APS-C, con lievi differenze a seconda
del produttore e della fotocamera: 22,7x15mm, 22,2x14,8mm,
23,7x15,6mm, 23,6x15,8mm, e così via. Questo insieme di
formati viene generalmente indicato con la sigla "APS-C".
E i megapixel?
Abbiamo detto che ogni sensore è composto di un certo numero
di fotodiodi, disposti come una scacchiera. Ogni fotodiodo è
in grado di catturare una certa quantità di luce e per
conseguenza genera una carica elettrica, che viene raccolta
da dei circuiti pure disposti sul sensore e convogliata
verso i componenti della fotocamera preposti
all'elaborazione dell'immagine (insieme, purtroppo, al
rumore, che è una triste costante di tutte le
apparecchiature di questo tipo). Quindi le fotografie
digitali sono composte da un certo numero di punti (che non
a caso si chiamano anche pixel, che sta per Picture
Element), ed ogni punto è generato da un fotodiodo. Per
esempio, se da una fotocamera digitale si ottiene una foto
grande 2560x1920 pixel, sappiamo che il suo sensore ha in
tutto 4.915.200 fotodiodi (basta moltiplicare 2560 per
1920), cioè quasi cinque milioni. Insomma, è una fotocamera
da cinque megapixel.
In realtà ogni fotocamera ha sempre qualche pixel in più,
perché non tutti quelli presenti sul sensore vengono usati
per creare l'immagine (ma servono ad altri scopi, diciamo
così, "di servizio", relativi ad esempio alla temperatura
dei colori, al contrasto, e così via). Ecco perché talvolta
si parla di "risoluzione effettiva", indicando i pixel che
realmente sono utilizzati per formare la fotografia.
Un filtro Bayer
Delle microlenti indirizzano la luce
verso l'interno del fotodiodo
Pillola rossa o pillola blu?
C'è una triste verità che prima o poi ogni appassionato di
fotografia digitale scopre. I fotodiodi "vedono" in bianco e
nero, o meglio, non sono in grado di individuare il colore
della luce che hanno intercettato ed immagazzinato. Ma
allora come mai le foto escono a colori? Perché davanti ai
fotodiodi è posizionata una griglia composta di tanti
piccoli filtri colorati, ognuno di uno dei tre colori
primari (rosso, verde e blu; sono i tre colori che,
combinandosi, danno luogo a tutto l'insieme di colori che
l'occhio umano può percepire). Il tipo di filtro più diffuso
è quello denominato di Bayer (immagine a sinistra): si noti
che i filtri verdi sono più numerosi di quelli degli altri
due colori; questo avviene perché l'occhio umano è più
sensibile al verde, rispetto al rosso ed al blu, quindi il
filtro tende a replicare questa sensibilità. Ogni singolo
filtro lascia passare solo la luce del suo colore, quindi un
fotodiodo che ha davanti un filtro blu immagazzinerà solo la
luce blu, e così via per gli altri due colori.
Da notare che, per massimizzare la raccolta di luce, negli
spazi vuoti tra un fotodiodo e l'altro sono talvolta
posizionate delle microlenti che convogliano nel fotodiodo
luce che altrimenti sarebbe andata persa.
Una volta completata l'immagine, cioè la raccolta della luce
(più precisamente, ogni fotodiodo raccoglie il valore di
luminanza di un colore, cioè il rapporto tra l'intensità
luminosa e l'area della superficie che vi è esposta; si
esprime in candele per metro quadro, la sigla è Cd/m2), il
sistema di elaborazione della fotocamera analizza questo
insieme di dati (ognuno dei quali, lo ricordiamo, è relativo
ad uno solo dei tre colori primari) e, attraverso un
processo denominato "demosaicing", demosaicizzazione,
calcola quale sia il colore effettivo di ogni singolo punto,
prevalentemente grazie al confronto tra i pixel vicini. In
pratica, prendendo i pixel a gruppi – ad esempio – di
quattro alla volta, a seconda della distribuzione dei tre
colori primari il software della fotocamera ricostruisce il
vero colore della scena ripresa, e via via ripete questo
processo per tutti i gruppi di pixel dell'immagine.
Ma sono davvero cinque megapixel?
Ecco, ci sarebbe una seconda terribile verità... E' vero che
se un sensore ha 2560x1920 punti produce un'immagine
composta di cinque milioni di pixel, ma non è vero che
ognuno di questi cinque milioni di punti contenga anche
l'informazione relativa al colore (vero) di cui è composto:
abbiamo visto che ogni punto è solo di un colore primario, e
tutto il resto è… abilità del software.
In pratica, i 2560 pixel disposti sulla prima fila del
sensore sono metà rossi (o blu) e metà verdi; sulla seconda
fila avremo metà punti blu (o rossi) e metà verdi; e così
via. Quindi, se anziché parlare di "punti" in senso
generico, parliamo di "punti che contengono anche
un'informazione relativa al colore vero (non primario)", ci
rendiamo conto che, poiché come abbiamo visto la fotocamera
usa più pixel per arrivare a determinare il vero colore
della scena, è come se a nostra disposizione ci fossero metà
dei punti, sia in orizzontale che in verticale. Ovvero
1280x960, cioè circa 1,3 megapixel. Se non siete ancora
svenuti, potete consolarvi pensando che ognuno di questi 1,3
milioni di pixel contiene l'informazione relativa al colore
reale (della scena ripresa), e non più solo ad uno dei tre
colori primari.
Naturalmente esistono dei sistemi che limitano questo
problema della "finta risoluzione", il più semplice dei
quali è quello che, pur continuando a ricavare il colore
reale esaminando quattro pixel alla volta, analizza più
volte gli stessi pixel, combinandoli ogni volta in gruppi
differenti.
Più siamo meglio stiamo?
Si potrebbe pensare che il modo migliore per avere immagini
di alta qualità sia riempire il sensore di quanti più
fotodiodi possibile: più fotodiodi (più pixel) ci sono,
maggiore è la risoluzione dell'immagine finale; ed ecco
spiegato il continuo incremento di megapixel nelle
fotocamere che via via vengono lanciate sul mercato. Ma
basta ragionare un istante per rendersi conto che, se su un
sensore – poniamo – da 1/1,8'' prima c'erano quattro milioni
di fotodiodi, ed ora ce ne vanno sette, è evidente che si
stanno usando dei fotodiodi più piccoli. E più i fotodiodi
sono piccoli, meno sono capaci di catturare la luce, dunque
assieme al segnale da loro generato (l'immagine) c'è una
maggiore quantità di quello che viene definito "rumore",
cioè carica elettrica che sull'immagine finale si manifesta
sotto forma di puntini più o meno colorati e di dimensione
variabile.
Va osservato che qualunque dispositivo elettronico che abbia
a che fare con un segnale ha inevitabilmente un certo grado
di rumore. In generale, possiamo dire che esistono due tipi
di rumore, quello legato al segnale e quello indipendente
dal segnale stesso; quest'ultimo possiamo immaginarlo come
un inevitabile sottofondo di tutti i circuiti elettronici, e
semplificando potremmo dire che è generato proprio dalle
operazioni di trasferimento della carica elettrica dai
fotodiodi ai vari circuiti della fotocamera, dalla sua
conversione in un segnale digitale, e così via. Spesso lo si
definisce "rumore di lettura", "readout noise" in
inglese.
Per misurare il rumore spesso si preferisce indicarne la
quantità rispetto al segnale: è il cosidetto "rapporto
segnale/rumore" (in inglese SNR, signal-to-noise ratio).
Più è alto questo rapporto, minore è il rumore rispetto al
segnale.
L'aspetto pratico più importante che riguarda il rumore è
che esso diventa più visibile man mano che aumenta la
sensibilità a cui si scattano fotografie.
Ai tempi della pellicola, per scattare foto con poca luce si
caricava in macchina una pellicola ISO 400, o ISO 800, e
così via. Così facendo si utilizzava un supporto più
sensibile alla luce; ma nel caso del digitale il sensore non
si può sostituire, e la sua sensibilità è quella che è.
Quello che si può fare è amplificare maggiormente il segnale
raccolto dai fotodiodi, e questo comporta anche un aumento
del rumore prodotto. Come si amplifica il segnale dei
fotodiodi? Lo facciamo impostando, sulla nostra fotocamera
digitale, il valore ISO, aumentandolo a ISO 200, 400 o più.
In generale, più i fotodiodi sono piccoli e più sono
soggetti al rumore dipendente dal segnale, per cui le
compatte digitali generano immagini più rumorose, mentre le
fotocamere con sensori di formato APS-C riescono a fornire
immagini più pulite, anche a parità di risoluzione. Sarebbe
inesatto dire che questo avviene perché le compatte hanno
sensori più piccoli; è più giusto dire che il maggior rumore
dipende dai fotodiodi più piccoli.
In conclusione, se parliamo di rumore, più che la dimensione
del sensore in assoluto conta il suo... affollamento, cioè
quanti fotodiodi (e dunque quanti megapixel) ospita: meno ce
ne sono, più sono grandi, dunque minore è il rumore legato
al segnale.
Un esempio di rumore digitale
(visibile specialmente nella parte destra dell'immagine)
Dunque ci si trova di fronte a due forze contrastanti:
l'aumento del numero di pixel (cinque megapixel, sette
megapixel, e così via) produce immagini più definite, ma
allo stesso tempo peggiora la resa del sensore alle
sensibilità medio-alte.
All'atto pratico, quanto dovrebbe essere grande un
fotodiodo? Poiché la luce visibile ha una lunghezza d'onda
che va più o meno dai 400 ai 750 nanometri (un nanometro è
un milionesimo di millimetro), ovvero da 0,4 a 0,75 micron
(un micron, ovvero micrometro, è un milionesimo di metro),
perché un fotodiodo la catturi non può ovviamente essere più
piccolo di tali valori. Ad oggi, i fotodiodi delle compatte
hanno dimensioni che vanno dai 2 ai 3 micron, mentre quelli
dei sensori APS-C oscillano intorno ai 5-6 micron.
E' probabile che l'innovazione tecnologica consenta in
futuro di realizzare fotodiodi sempre più piccoli e meno
"rumorosi", ma questo non annulla il vantaggio che un
sensore più grande ha su uno di dimensioni inferiori, visto
che entrambi potranno beneficiare dei miglioramenti
tecnologici via via disponibili.
Quindi… bigger is better?
Se parliamo di qualità d'immagine, in generale più un
sensore è grande meglio è. Ma naturalmente tutto ha un
prezzo: sensori più grandi significa fotocamere più grandi,
maggior consumo di energia, obiettivi più grandi (perché
l'immagine che devono formare dev'essere grande almeno
quanto il sensore), e costi maggiori.
Usando sensori più ampi, i fotodiodi possono essere più
grandi: questo produce immagini meno "rumorose", come
abbiamo visto, e con una gamma dinamica più ampia. Cos'è la
gamma dinamica? Sintetizzando, è un'espressione che indica
l'intervallo di sfumature dal bianco puro al nero pieno che
un sensore è in grado di registrare. Un fotodiodo di ampie
dimensioni può immagazzinare, a parità di tempo, più luce
rispetto ad uno più piccolo, e dunque produrre un'immagine
più ricca di passaggi tonali, perché riesce a raccogliere
più informazioni sull'intensità luminosa di un punto
immagine. E' un po' come avere due lampade, una con un
normale interruttore, che può essere solo "accesa" o
"spenta", ed una con un potenziometro, dove tra "acceso" e
"spento" c'è la possibilità di impostare una gamma di
luminosità intermedie.
Per mettere alla prova la gamma dinamica basta fotografare
una scena dove ci sia una forte differenza di luminosità tra
le zone chiare e quelle scure, pensiamo ad esempio ad un
bambino all'ombra di un albero con un cielo molto luminoso
sullo sfondo. Se nella foto il bambino risulterà chiaro e
leggibile, il cielo sarà un uniforme lenzuolo bianco senza
nessuna sfumatura. Più i fotodiodi sono piccoli, più le
immagini sono esposte a questo rischio.
Un esempio di alte luci "pelate", come
si usa dire. A sinistra lo scatto intero, a destra un
dettaglio ingrandito. Come si vede la facciata degli edifici
non ha alcun dettaglio
CCD o CMOS?
No, non si tratta dell'ennesimo partito della galassia
postdemocristiana. Semplicemente i sensori si dividono in
due categorie, appunto CCD (Charge-Coupled Device,
dispositivo ad accoppiamento di carica) e CMOS (Complementary
Metal Oxide Semiconductor). I processi di fabbricazione
dei due sensori sono differenti, così come lo è la
disposizione dei circuiti su di essi, fermo restando che si
tratta sempre di piastrine piene di fotodiodi che raccolgono
la luce e la convogliano.
Ai fini fotografici la differenza più rilevante è quella
relativa proprio alla raccolta di luce. Nei CCD la carica
elettrica immagazzinata dai singoli fotodiodi viene
trasferita, accumulandosi man mano lungo le file di
fotodiodi, fino ai bordi del sensore, dove poi viene
amplificata ed infine convertita in un segnale digitale (da
un apposito ADC, Analog-to-Digital Converter). In
pratica la carica elettrica viene letta una riga alla volta,
e poi il parziale (di ogni riga) viene riportato alla riga
successiva e così via, in sequenza, fino a coprire l'intero
sensore.
Chi ha studiato un po' di elettronica si rende conto che in
un sensore CCD, dunque, viene trasportata della carica
elettrica. I sensori fabbricati con un processo di tipo
CMOS, invece, lavorano diversamente: ogni fotodiodo dispone
di un amplificatore e di un convertitore, quindi la carica
elettrica accumulata viene convertita in differenza di
potenziale – il cui trasporto richiede molta meno energia.
Se tutto questo vi dice poco, limitatevi a prendere atto
solo della conseguenza più evidente: a parità di altre
condizioni, un sensore CMOS consuma meno di un sensore CCD.
Senza dilungarsi sui dettagli delle due tipologie di
sensori, possiamo elencare alcuni punti fermi riguardo i
sensori di tipo CMOS:
A questo punto verrebbe da chiedersi perché si trovino
ancora in giro dei CCD – ed anzi perché i sensori destinati
ai dorsi medio formato, prodotti di elevata qualità e dalla
squisita vocazione professionale (per non parlare dei
prezzi) realizzati da nomi come Hasselblad-Imacon e Phase
One, siano sempre e solo CCD. La risposta è: qualità
d'immagine. I sensori CCD hanno le potenzialità per offrire
una maggiore gamma dinamica, meno rumore e maggiore
sensibilità.
Non che i CMOS non vadano bene, intendiamoci: attualmente
tutte le reflex – anche quelle professionali – del marchio
leader di mercato, Canon, sono basate su sensori di tipo
CMOS. La verità è che non esiste una tecnologia
intrinsecamente superiore all'altra, perché il risultato
finale dipende da come la tecnologia viene implementata.
In generale i sensori CMOS hanno due limiti: il rumore e la
sensibilità. Poiché c'è un amplificatore per ogni fotodiodo,
basta una minima disuniformità nel funzionamento di uno o
più di questi amplificatori per generare pixel irregolari
e/o disturbati: di qui la maggiore tendenza al rumore, per
minimizzare la quale naturalmente esistono vari sistemi sui
quali non ci dilunghiamo. Inoltre, proprio la maggiore
presenza di circuiteria sul sensore genera più rumore
rispetto ad un CCD - perché, come si è detto più sopra, un
po' di rumore accompagna inevitabilmente ogni componente
elettronico.
Quanto alla sensibilità, sempre perché i sensori CMOS
ospitano più circuiti (rispetto ai CCD), ne deriva che una
parte della loro superficie non è destinata alla raccolta di
luce (la percentuale di un punto realmente utilizzata per
raccogliere luce si chiama "fill factor") ma appunto
ad ospitare tali circuiti; a questo si può ovviare adottando
delle microlenti, come descritto più sopra, e naturalmente
il miglioramento dei processi produttivi consente di
fabbricare circuiteria sempre più piccola (e quindi di
"sprecare" meno spazio sul sensore).
Agostino Maiello © 02/2007
Riproduzione Riservata
Altri articoli sull'argomento già pubblicati su Nadir Magazine: