The slides of the course "L'occhio del biologo", Alta Formazione, Università degli Studi dell'Insubria.
It is a small course on the fundamentals of photography oriented towards the scientific photography in a biological laboratory.
1. L’occhio del biologo
Elementi di fotografia
Dr Marco Benini
marco.benini@uninsubria.it
Università degli Studi dell’Insubria
2015
2. Argomenti
Struttura di una macchina fotografica digitale
Sensore: dimensione, risoluzione, tecnologia, sensibilità, rumore, range
dinamico
Otturatore: tempi di esposizione
Diaframma: apertura
Tecnica fotografica di base
Messa a fuoco: distanza iperfocale
Profondità di campo
Colore
Acquisizione: filtro Bayer, filtri sul sensore
Emissioni: spazio RGB
Stampa: spazio CMYK
Formati: RAW, JPG
Distorsioni: lettura degli istogrammi
Gestione di base: canali colore
Filtri: UV, filtri colorati
(2 of 51)
4. Diagramma di una fotocamera digitale
'
&
$
%
- -
c c c
T T T
CPU
lente lente filtro
diaframma otturatore sensore
(4 of 51)
5. Diagramma di una fotocamera digitale
le lenti servono per convogliare la luce sul sensore
il diaframma regola la quantità di luce che arriva al sensore
l’otturatore regola il tempo per cui il sensore è esposto alla luce
il filtro elimina o riduce una porzione dello spettro luminoso
il sensore registra l’immagine trasformando il segnale luminoso in un
segnale elettronico
la CPU trasforma il segnale elettronico del sensore in una immagine
digitale
(5 of 51)
6. Il sensore
In prima approssimazione, un sensore è una griglia di elementi, detti pixel, in
grado di registrare la quantità di luce che li colpisce.
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m T
c
E' x
y
"CCD Image sensor" di Sphl—Opera propria. Con licenza CC BY:
C
3.0 tramite Wikimedia Commons
http://commons.wikimedia.org/wiki/File:CCD_Image_sensor.jpg
(6 of 51)
7. Il sensore
Le principali caratteristiche di un sensore sono:
il formato: la sua dimensione (x,y) in millimetri e la proporzione x/y,
tipicamente 4 : 3, 3 : 2 o 1 : 1
la risoluzione: la quantità di pixel presenti sul sensore
il range dinamico: essenzialmente, la quantità di valori che un pixel può
assumere
la sensibilità: sostanzialmente, la quantità di luce che serve per
modificare il valore di un pixel
l’architettura: la tecnologia impiegata nella costruzione del sensore e il
modo in cui questo viene letto
(7 of 51)
8. Il sensore
La combinazione di formato e risoluzione determina la dimensione massima
di un pixel. Questa, a sua volta, determina la qualità dell’immagine.
Tuttavia, non è vero che, a parità di formato, una risoluzione maggiore
restituisca una immagine più precisa: più i pixel sono piccoli, più si
influenzano l’un l’altro.
Inoltre, ogni lente soffre di diffrazione: al di sotto di un certo valore di
dimensione, che dipende dalle caratteristiche della lente, le componenti dello
stesso raggio di luce potranno essere, erroneamente, convogliate su pixel
differenti.
(8 of 51)
9. Il sensore
Ogni pixel è dotato di una sensibilità intrinseca che dipende dalla sua
costruzione.
Ovvero, un pixel registra allo stesso modo due raggi di luce la cui intensità
differisca per una quantità inferiore ad una soglia chiamata sensibilità.
Ogni sensore ha una sensibilità naturale, che dipende dalle sue caratteristiche
strutturali. Ma la CPU o il sensore stesso può variare la propria sensibilità
apparente, agendo con un opportuno fattore di moltiplicazione nella
conversione del valore analogico di un pixel ad un valore digitale.
La sensibilità si misura, come per le pellicole fotografiche, in gradi ISO.
Valori usuali per la sensibilità naturale di un sensore sono 50, 100 o 200 ISO.
L’ampiezza dei valori digitali possibili costituisce il range dinamico del
sensore, e, assieme alla sensibilità, stabilisce la gamma di toni, dal nero al
bianco, che il sensore è in grado di registrare.
(9 of 51)
10. Il sensore
Esistono, ad oggi, due principali tecnologie per la costruzione di sensori:
CMOS e CCD.
La tecnologia complementary metal oxide semiconductor (CMOS) è più
recente e offre il vantaggio che ogni pixel provvede autonomamente a
raccogliere la luce e a trasformarne l’intensità in un valore numerico digitale.
La tecnologia charge-coupled device (CCD), precedente alla CMOS,
consente di costruire pixel più semplici elettronicamente e, seppur il processo
di formazione dell’immagine digitale avviene a valle del sensore, complicando
la relativa circuiteria, i pixel sono, generalmente, più piccoli, permettendo
maggior risoluzione.
In linea di massima, i sensori CMOS sono più economici, ma meno precisi.
Occorre comunque tener conto che gli avanzamenti tecnologici sono stati
notevoli, e oggi esistono sensori CMOS su fotocamere professionali, e sensori
CCD montati su fotocamere compatte.
(10 of 51)
11. Il sensore
Nessun sensore è in grado di osservare passivamente la luce e di registrarla
fedelmente. I limiti strutturali e tecnici introducono inevitabilmente dei
disturbi di cui occorre esser consci: collettivamente, questi vanno sotto il
nome di rumore.
Con notevole semplificazione, ad uso di questo corso, possiamo classificare il
rumore associabile al sensore in
rumore termico: dovuto alla generazione di calore da parte dell’elettronica
rumore da osservazione: leggere il valore analogico di un pixel richiede
un’azione che necessariamente modifica il valore stesso
rumore da quantizzazione: dovuto alla conversione da analogico a digitale
rumore ottico: dovuto al fatto che una lente non trasporta fedelmente un
raggio di luce sul sensore in tutte le sue componenti
rumore strutturale: dovuto alla tecnologia adottata. Tipicamente, un
pixel non copre tutta l’area possibile, ma solo una sottoparte,
effettivamente sprecando una parte dell’informazione
(11 of 51)
12. L’otturatore
L’otturatore ha lo scopo di esporre il sensore alla luce per un tempo
prefissato. È uno dei principali elementi che determinano l’esposizione.
Accenniamo al fatto che un sensore CCD può avere un otturatore
elettronico, pur con una sensibile riduzione della superficie fotosensibile di
ogni pixel. Questo è utile per ridurre le vibrazioni che il comune otturatore
meccanico necessariamente induce, specialmente negli scatti ad alta velocità.
Anche, rammentiamo che l’uso di un flash richiede una precisa, e non
banale, sincronizzazione con l’otturatore al fine di ottenere una illuminazione
uniforme del soggetto.
"Focal-plane shutter" di Hustvedt—Opera propria. Con licenza CC BY:
C
3.0 tramite Wikimedia Commons
http://commons.wikimedia.org/wiki/File:Focal-plane_shutter.jpg
(12 of 51)
13. Il diaframma
Il diaframma regola la quantità di luce che può arrivare al sensore. Con
l’otturatore è il principale elemento che determina l’esposizione.
Quando il diaframma è completamente aperto, la lente opera alla sua
massima luminosità, che dipende dalle sue caratteristiche ottiche. Tuttavia,
ogni lente ha un’apertura del diaframma ottimale nella quale la nitidezza è
massima.
La caratteristica più importante di una esposizione, che viene controllata dal
diaframma, è la profondità di campo.
(13 of 51)
14. Lenti
Non è scopo di questo corso illustrare le molte caratteristiche strutturali
delle varie lenti e degli obiettivi. Ci limiteremo brevemente a illustrare il
significato della messa a fuoco.
Allontanando o avvicinando la lente al piano del sensore, la luce viene
convogliata sulla sua superficie in modo tale che un punto nello spazio
appaia come un disco di diametro variabile. Questo diametro, dipende,
fissata la posizione della lente e quindi la messa a fuoco, dalla distanza del
punto dalla lente.
L’occhio umano percepisce questo disco, detto circolo di confusione, come
un punto se il suo diametro nell’immagine finale è sufficientemente piccolo.
Fotograficamente, diciamo che quel punto è a fuoco.
€€€€€€€€
d
d
d
(14 of 51)
15. Fuoco
Quindi, l’insieme dei punti a fuoco è determinato dalla distanza di questi
dalla lente, e questo insieme forma un volume la cui sezione è
d
d
d
d
d
d
campo visivo
zona a fuoco
lente
'
'
'
Ogni obiettivo ha una distanza minima di messa a fuoco, determinata dalle
sue caratteristiche ottiche, e una distanza massima, spesso infinito o oltre.
(15 of 51)
16. Iperfocale
Uno degli effetti desiderabili è massimizzare il volume di spazio a fuoco.
La distanza iperfocale è la distanza minima che consente di mettere a fuoco
un soggetto mantenendo gli oggetti all’infinito accettabilmente nitidi.
Quando la lente mette a fuoco a questa distanza, tutti gli oggetti che si
trovano tra metà della distanza iperfocale e l’infinito saranno
accettabilmente a fuoco.
La distanza iperfocale si calcola come
H =
f 2
Nc
,
con H la distanza iperfocale in millimetri, f la focale dell’obiettivo, N il
valore di apertura del diaframma, e c il diametro del circolo di confusione.
Si noti come il circolo di confusione dipende dalla dimensione a cui sarà
osservata l’immagine finale e, in modo più sottile, dal formato del sensore e
dalla sua risoluzione.
(16 of 51)
17. Profondità di campo
La profondità di campo indica l’ampiezza della zona a fuoco. Essa dipende
dalla focale dell’obiettivo, dall’apertura del diaframma, e dalla distanza del
soggetto dalla fotocamera.
Precisamente, fissata la lente, la profondità di campo aumenta:
con la distanza del soggetto dall’obiettivo
con la chiusura del diaframma
A destra, lo scatto è stato fatto con apertura f/2.8, a sinistra con apertura
f/16, regolando l’otturatore per mantenere la stessa esposizione.
(17 of 51)
18. Profondità di campo
In realtà, la zona perfettamente a fuoco è sempre estremamente sottile: la
sua profondità corrisponde al valore per cui i raggi di luce formano circoli di
confusione di diametro inferiore al pixel sul piano del sensore.
Tuttavia, come nella presentazione della distanza iperfocale, l’occhio umano
percepisce circoli di confusione sufficientemente piccoli come punti. Sapendo
quale sia la dimensione desiderata dell’immagine, è possibile calcolare la
dimensione del massimo circolo di confusione che generi un punto, e quindi,
la profondità di campo che è necessaria per avere il soggetto completamente
a fuoco.
(18 of 51)
19. Profondità di campo
Chiamando piano di fuoco la zona perfettamente a fuoco, la profondità di
campo si estende davanti e dietro di esso in modo differente:
d
d
d
d
d
d
6
?
profondità di campo
piano di fuoco'
k
È importante notare come il piano di fuoco sia, in realtà, curvo.
(19 of 51)
20. Profondità di campo
Fissato un piano di fuoco, è possibile calcolare la profondità di campo con le
seguenti formule:
DN =
HS
H +S
(1)
DF =
HS
H −S
,per S H (2)
dove H è la distanza iperfocale, S la distanza del soggetto, e la profondità di
campo di estende dalla distanza DN (più vicino) a DF (più lontano).
Queste formule sono approssimazioni valide quando S è decisamente
maggiore della lunghezza focale dell’obiettivo.
(20 of 51)
21. Profondità di campo
Nel caso in cui la distanza S sia prossima alla lunghezza focale della lente,
conviene usare la seguente formula
D = 2Nc
1+m/P
m
(3)
con N l’apertura di diaframma (f-number), c il diametro del cerchio di
confusione massimo che si accetti come punto, m il fattore di ingrandimento
dell’immagine, e P il fattore di ingrandimento della pupilla dell’obiettivo.
Allora D misura l’ampiezza della profondità di campo e, ragionevolmente, il
piano di fuoco è al suo centro.
Si tenga conto che anche questa formula è una approssimazione valida solo
se S è molto minore di H, la distanza iperfocale.
(21 of 51)
22. Filtri sul sensore
Usualmente, un sensore è idealmente provvisto di tre filtri che ne proteggono
la superficie e ne influenzano il funzionamento:
un filtro Bayer per la resa del colore
un filtro UV (ultravioletto) per ridurre/eliminare la componente invisibile
ad alta energia della luce
un filtro IR (infrarosso) per ridurre/eliminare la componente a bassa
energia della luce
Occorre tenere presente che il silicio, che è l’elemento chimico di base dei
componenti elettronici, è particolarmente sensibile alla luce infrarossa, quindi
il filtro IR è solitamente un attenuatore. Al contrario, il filtro UV è
usualmente quasi bloccante, anche per l’effetto combinato di assorbimento
da parte della lente.
Generalmente, il filtro UV e il filtro IR sono integrati in un filtro AA
(antialiasing), che viene applicato al sensore su due strati, il primo deputato
al taglio della luce infrarossa, e il secondo al mantenimento della luce visibile
e alla protezione del sensore dalla polvere.
(22 of 51)
23. Filtri sul sensore
Il nome del filtro deriva dall’effetto di aliasing (scalettatura) che, insieme
all’effetto Moivre, dipende dal campionamento che il sensore effettua e
dall’interazione con il filtro di Bayer.
È opportuno rammentare anche che un sensore fotografico normale è tarato
per registrare la luce nello spettro del visibile e, senza i filtri AA la
fotocamera non sarà in grado di usare le funzioni di pulizia del sensore e,
soprattutto, i meccanismi di autofocus.
Inoltre, il software che trasforma i segnali del sensore in immagini assume la
presenza dei filtri AA, e la loro rimozione o alterazione, necessaria in
particolari campi della fotografia, andrà ad alterare il funzionamento del
software, in particolare si perderà un corretto bilanciamento del bianco.
(23 of 51)
24. Costruzione del colore
Sebbene vi siano numerosi metodi per catturare il colore in un sensore, il
meccanismo più diffuso consiste nell’usare un sensore monocromatico a cui
sia applicato un filtro di Bayer
Esso usa una quadrato di quattro pixel come base, in cui due siano di colore
verde, uno rosso e uno blu, come in figura. Questa distribuzione approssima
bene la visione dei colori da parte degli esseri umani.
(24 of 51)
25. Colore e range dinamico
Il range dinamico misura quanti toni differenti un pixel del sensore è in grado
di rappresentare. Solitamente, questo valore è dato in numero di bit: 10, 12
14 sono valori tipici, che corrispondono a 210 = 1024, 212 = 4096,
214 = 16384 valori.
Questo significa che, presente un filtro Bayer, l’immagine finale registrata
dal sensore avrà tre valori per ogni pixel, rispettivamente il tono di rosso,
verde e blu, ottenuti interpolando i toni effettivamente letti dai pixel.
Il processo di interpolazione quindi preserva il range dinamico dell’immagine
a discapito della risoluzione.
Purtroppo, il range dinamico in ogni singolo colore non può essere pari al
livello registrato da ogni pixel. La conversione analogico/digitale, l’eventuale
amplificazione del segnale, la correzione di gamma, l’adattamento della
curva colore, e molte altre manipolazioni effettuate dall’hardware o dal
software della fotocamera aumentano il rumore e riducono il range dinamico
a valori compresi tra 5 e 9 bit, tipicamente, ovvero tra 32 e 512 toni
effettivamente rilevati.
(25 of 51)
26. Spazi colore
Un colore può essere descritto in molti modi: è al di fuori degli obiettivi di
questo corso una trattazione dettagliata.
Un fatto semplice è che un colore può essere utilmente separato in
componenti primarie, la cui composizione genera il colore desiderato. Questo
processo avviene in tre casi importanti:
nell’acquisizione di un’immagine
nella generazione di un’immagine su di un video
nella stampa di un’immagine
(26 of 51)
27. Spazio RGB
Come abbiamo detto, il filtro Bayer consente di associare ad ogni pixel tre
valori che rappresentano assieme il colore di quel pixel: la componente rossa,
verde, e blu.
Parimenti, un’immagine sullo schermo di un computer è un insieme di punti
ciascuno dei quali assume un colore che è descritto dalle tre componenti
rosso, verde, e blu.
Lo spazio RGB (Red–Green–Blue) descrive i possibili colori come
combinazione di queste tre componenti base. È uno spazio addittivo: un
colore viene generato sommando le tre componenti, quindi, ad esempio,
aumentare il valore di una componente accresce il suo apporto.
(27 of 51)
28. Spazio CMYK
Al contrario, la stampa viene effettuata in uno spazio sottrattivo: i pigmenti
di colore primario vengono depositati su un punto del foglio, e ognuno di essi
assorbe la componente di luce in una quantità proporzionale alla quantità di
pigmento. Il colore del punto diverrà pertanto il colore della luce riflessa,
esattamente quella che non viene assorbita dai pigmenti sul punto.
Per questo motivo, in stampa, si usa uno spazio colore differente, a
composizione sottrattiva: lo spazio CMYK (Ciano–Magenta–Yellow–blacK).
(28 of 51)
29. Relazione tra gli spazi colore
I colori primari nello spazio CMYK si ottengono da quelli nello spazio RGB
per complemento:
Ciano = Blu + Verde, complementare a Rosso
Magenta = Blu + Rosso, complementare a Verde
Giallo = Verde + Rosso, complementare a Blu
Per aumentare il range dinamico della stampa, e ridurre la quantità di
pigmenti colorati da utilizzare, è consuetudine aggiungere il nero alla
descrizione del colore da riprodurre.
(29 of 51)
30. Immagine digitale
Il risultato del processo di acquisizione di un’immagine è un documento
elettronico. Questo viene normalmente generato dalla fotocamera in due
formati: un file RAW, e/o un file JPEG.
I due formati non sono equivalenti: non si tratta di due rappresentazioni
della medesima informazione, ma di due informazioni diverse, seppur
correlate.
Il file RAW è la rappresentazione più vicina a quanto acquisito dal sensore.
Esso rappresenta l’analogo digitale di un negativo fotografico.
Un file JPEG è, a tutti gli effetti, l’analogo digitale di una fotografia: è un
formato largamente usabile in ogni software che tratti immagini, è
direttamente stampabile, è direttamente trasmissibile via Internet.
(30 of 51)
31. Formato RAW
Un sistema fotografico registra i dati acquisiti da uno scatto in un file RAW
che corrisponde a quanto registrato dal sensore e pre-elaborato. In linea di
massima, un file RAW contiene una descrizione dell’immagine pixel per pixel,
riportando per ogni pixel i valori dei tre canali colore, oltre a vari metadati
come, ad esempio, l’apertura del diaframma e il tempo di esposizione.
Il formato RAW, generalmente, contiene dati che non sono stati elaborati,
ad esempio, il bilanciamento del bianco, o la regolazione del contrasto, o la
nitidezza dell’immagine.
Il formato RAW è proprietario: esso dipende dalla casa produttrice della
fotocamera e, talora, dal modello. Le case maggiori hanno reso disponibile
metodi per decodificare questi file da parte di software di terze parti.
(31 of 51)
32. Formato JPEG
Il formato jpeg è lo standard de facto per l’archiviazione delle immagini
fotografiche, così come è il normale formato per l’interscambio di questo
tipo di immagini
La rappresentazione dei dati al suo interno è stata concepita come un
compromesso tra il mantenere la qualità apparente dell’immagine e la
necessità di ridurre le dimensioni del file. Questo viene ottenuto,
semplificando, con una compressione che si basa sulla riduzione delle
variazioni di tono in aree di colore omogeneo.
Per la pubblicazione, la stampa, e la trasmissione un file jpeg può essere
considerato il prodotto finale del processo fotografico digitale, l’analogo del
positivo sviluppato della fotografia tradizionale.
(32 of 51)
33. Formato TIFF
Il formato TIFF è un formato molto usato per l’archiviazione di immagini
scientifiche. A differenza del formato RAW esso è libero e non
specificatamente legato al marchio della fotocamera. A differenza del
formato jpeg esso non usa una compressione lossy.
Il formato TIFF, nella sua versione più utilizzata, ha due caratteristiche
interessanti per la fotografia scientifica:
l’immagine viene compressa usando un algoritmo generico per dati,
solitamente LZW. Questo significa una minore capacità di compressione
rispetto a jpeg, ma anche che i dati decompressi sono esattamente i
dati originali, senza alcuna perdita di informazione;
l’immagine può essere a 8 o a 16 bit, ovvero il formato TIFF consente di
memorizzare immagini con un range dinamico superiore al formato jpeg,
che è limitato a 8 bit. Tuttavia, occorre sottolineare che non tutti i
software fotografici sono in grado di usare questa caratteristica di TIFF.
(33 of 51)
34. Istogrammi
Molte moderne fotocamere e tutti i software fotografici mettono a
disposizione uno strumento importante per descrivere sinteticamente
un’immagine: il suo istogramma.
L’istogramma è un grafico che riporta in ascissa i valori dei toni, dal nero al
bianco, e in ordinata, il numero di pixel di quel tono.
Oltre ad un istogramma che riporta il valore di intensità di ogni pixel, ci
sono istogrammi che, in modo analogo, si riferiscono all’intensità di un pixel
in un singolo canale di uno spazio colore.
(34 of 51)
35. Istogrammi
Essendo una informazione sintetica, un istogramma deve essere interpretato
con giudizio. Un’immagine con uno sviluppo tonale ben distribuito, risulterà
in un istogramma come il seguente, quando correttamente esposta
Una concentrazione dell’istogramma a sinistra o a destra, indica una
sottoesposizione (prevalenza di toni verso il nero), o una sovraesposizione
(prevalenza di toni verso il bianco).
(35 of 51)
36. Istogrammi
Un istogramma che sia particolarmente concentrato indica un limitato uso
del range dinamico
In un canale colore, un istogramma concentrato a destra o a sinistra indica
una (de)saturazione di quel colore, ovvero la potenziale presenza di una
predominanza tonale.
(36 of 51)
37. Istogrammi
Una avvertenza importante: sebbene gli istogrammi siano uno strumento
estremamente utile, essi richiedono una corretta interpretazione che non
prescinda dal soggetto. Ad esempio
l’istogramma della foto sopra non indica una sovraesposizione, in quanto la
foto è generalmente bianca, ritraendo gli effetti di una nevicata!
(37 of 51)
38. Filtri
Nella fotografia tradizionale si usano numerosi filtri da applicare all’obiettivo.
Essi trovano impiego anche nella fotografia scientifica, ma con enfasi
differenti. In particolare, i filtri a densità neutra, i filtri graduali, i
polarizzatori, e i filtri a infrarosso hanno un utilizzo proprio molto limitato o
nullo.
I filtri utilizzati sono
i filtri UV (Ultra-Violetto)
i filtri colorati
(38 of 51)
39. Filtri UV
Lo scopo primario di un filtro UV è quello di eliminare o ridurre la
componente ultravioletta dalla luce che dovrà attraversare l’obiettivo.
Sebbene questo effetto sia utile, esso ha una influenza estremamente
limitata nella fotografia digitale poiché
il vetro, di cui le lenti sono fatte, agisce naturalmente da filtro UV
esiste un filtro UV sul sensore
Di fatto, nella fotografia digitale contemporanea, il principale uso del filtro
UV è quello di fare da schermo all’obiettivo, proteggendolo da polvere,
sporco ed eventuali contaminazioni che possano depositarsi sulle lenti o
entrare nel corpo.
(39 of 51)
40. Filtri colorati
I filtri colorati vengono applicati ad un obiettivo con due scopi:
conferire una tonalità dominante precisa all’immagine
aumentare o diminuire il contrasto tra alcune zone dell’immagine
Mentre il primo utilizzo è ovvio, il secondo prende origine dalla fotografia in
bianco e nero. Ad esempio, un filtro blu farà in modo che gli oggetti blu
saranno resi con una sfumatura più chiara di grigio, mentre gli oggetti del
colore complementare, il rosso, saranno resi da una tonalità più scura.
In generale, in uno scatto monocromatico, un filtro colorato schiarirà i toni
degli oggetti del proprio colore, mentre scurirà i toni degli oggetti di colore
complementare. Naturalmente, questo effetto è graduale nei canali colore, e
si applica anche a foto a colori, con l’aggiunta di una dominante cromatica.
(40 of 51)
41. Luminosità
Nei programmi di fotoritocco, la luminosità di un punto è definita come la
media aritmetica dei valori dei tre canali colore rosso, verde, e blu.
Un controllo permette di aumentare o diminuire la luminosità di tutti i
punti, incrementando o decrementando i valori dei tre canali per ogni punto.
È importante rilevare come questa trasformazione porti ad una effettiva e
irrimediabile perdita di informazione, rendendo completamenti bianchi i
punti molto chiari, o completamente neri i punti molto scuri.
(41 of 51)
42. Contrasto
Il contrasto è definito come la differenza di luminosità tra due punti.
Chiaramente, punti contigui che abbiano un accentuato contrasto sono,
solitamente, l’indicazione che l’immagine presenta un bordo in quella zona.
Volendo evidenziare le diverse entità presenti nell’immagine quando esse
presentano una luminosità differente, i programmi di fotoritocco permettono
di variare il contrasto complessivo, aumentando la luminosità dei punti più
chiari e diminuendo quella dei punti più scuri, proporzionalmente.
È, nuovamente, importante sottolineare come la modifica del contrasto porti
necessariamente alla perdita di informazione.
(42 of 51)
43. Bilanciamento dei canali colore
I canali colore sono composti tra loro per conferire un colore ad ogni punto
dell’immagine, come già illustrato. Una trasformazione utile in
post-produzione consiste nel modificare il modo in cui questa composizione
viene calcolata.
(43 of 51)
44. Bilanciamento dei canali colore
Questo tipo di trasformazione è utile quando
si vuole eliminare o aggiungere una tonalità cromatica complessiva
all’immagine
si vuole che una specifica parte dell’immagine abbia un colore preciso, ad
esempio, che la neve sia bianca, oppure il cielo azzurro
si vuole isolare o enfatizzare una zona dell’immagine in modo che risulti
maggiormente in contrasto con quanto la circonda
(44 of 51)
45. Istogrammi e curve
Uno strumento più raffinato per la gestione della luminosità, del contrasto, e
del bilanciamento dei colori, permette l’applicazione di una curva
all’istogramma di un singolo canale colore o, uniformemente, all’intensità di
tutti i punti dell’immagine.
(45 of 51)
46. Istogrammi e curve
Dato l’istogramma dell’immagine, questo viene interpretato linearmente: al
valore x sull’asse delle ascisse corrisponde il valore x di intensità del pixel, e
l’ordinata riporta il numero di pixel con quel valore.
Graficamente, questo corrisponde a usare la retta f (x) = x come curva dei
valori di riferimento: i punti di valore x sono resi graficamente con il valore
f (x).
Una curva differente modifica questa interpretazione, ad esempio
una curva a S corrisponde ad una alterazione del contrasto
una curva monotona che azzeri i valori più bassi o massimizzi i valori più
alti, corrisponderà ad una variazione di luminosità
una curva applicata ad un singolo canale colore modificherà in modo più
fine il bilanciamento dei colori
(46 of 51)
47. Acquisizioni multiple
Scattare più foto di uno stesso soggetto mantenendo costante la posizione è
una tecnica che viene usata per molteplici scopi: ad esempio, aumentare il
range dinamico delle immagini oltre le capacità del sensore, aumentare la
profondità di campo mantenendo una nitidezza elevata, rendere i dettagli
delle ombre e delle alte luci.
Di nostro interesse è mostrare come questa tecnica possa essere usata per
ridurre in modo significativo il rumore in una immagine.
Consideriamo un punto della scena: essa è descritto da una tripla di valori
per ogni scatto che effettuiamo
rosso verde blu
1 100 47 220
2 102 41 219
3 104 42 218
4 97 45 217
5 95 38 215
(47 of 51)
48. Acquisizioni multiple
Prendendo il valore mediano (100,42,218) oppure il valore medio per ogni
componente (99.6,42.6,217.8), otterremo una tripla che presenta un
rapporto segnale/rumore ridotto, ipotizzando il rumore come puramente
casuale e quindi con distribuzione gaussiana.
Ad esempio, il seguente scatto è stato effettuato con ISO = 12800,
ottenendo un’immagine che presenta molto rumore, come si vede
dall’ingrandimento
(48 of 51)
49. Acquisizioni multiple
Andando a sovrapporre cinque acquisizioni esattamente con le stesse
impostazioni della fotocamera secondo il metodo della mediana, si ottiene
(49 of 51)
51. Riferimenti
Elizabeth Allen, Sophie Triantaphillidou, The Manual of Photography,
10th edition, Focal Press (2009)
Bryan Peterson, Understanding Exposure, 3rd edition, Amphoto Books
(2010)
CC BY: $
C
Dr Marco Benini 2015
Tutte le foto di cui non sia specificata l’attribuzione,
sono state scattate dall’autore di queste slides
e sono protette da copyright.
(51 of 51)