QUOTE(giampal @ Feb 3 2019, 01:35 PM)

...
Riferendomi alla pellicola -elemento sensibile che ha preceduto l�era digitale, di cui ne esistono con varie sensibilit� nominali (a prescindere che fossero poi ulteriormente �push processing � con lo sviluppo), evidentemente dovute ad una diversa dimensione e distribuzione dei sali d�argento sul supporto oltre ad un diverso trattamento chimico degli stessi- posso solo immaginare in forma digitale analoga modalit� applicata ai pixel sul sensore.
...
L'equivalente (con moltissimi distinguo) della pellicola pi� sensibile (sali d'argento a grana pi� grossa) � un sensore con bassa densit� di pixel.
I costruttori di sensori le studiano naturalmente tutte per raccogliere ogni singolo fotone anteponendo micro lenti a i fotositi e usando la luce riflessa dalla parte 'posteriore' del sensore (BSI).
Quindi dal mio punto di vista non ha senso pensare a sensori da 100, 200 o 3200 ISO, perch� semplicemente i costruttori di sensori cercheranno di raccogliere la maggior quantit� di luce possibile, con i fotositi pi� piccoli possibile e poi dovranno per forza fare i conti con una pi� o meno grande amplifucazione dei segnali in gioco.
Forzando sempre i paragoni con la pellicola (anch eio sono dell'idea che non sia troppo il caso):
- Il sensore con i suoi fotositi di certe dimensioni, di efficienza pi� o meno alta corrisponde ad una pellicola di determiniata sensibilit� (nominale) che non puoi cambiare perch� � un parametro costruttivo
- L'aumento degli ISO in sede di esposizione corrisponde al tiraggio che facevamo della pellicola; il trattamento pi� aggressivo (tempi e temperature dei bagni di sviluppo) contribuiva ad amplificare l'effetto delle reazioni chimiche innescate dalla luce che aveva colpito la pellicola stessa
- Il recupero delle ombre in un programam di elaborazione RAW corrisponde alle operazioni che facevamo in camera oscura quando sceglievamo la carta, il tempo di esposizione e ancora la durata dei bagni
Il tema di cui si sta discutendo � seconodo me legato alla capacit� di misurare finemente, con grande precisione ed evitando di sovrapporre qualuque segnale spurio (rumore in priomis) piccole quantit� di luce che trasformate in segnali elettrici e opportunamente campionati generino numeri da 14 bit (base per la maggior parte dei sensori moderni) che una volta raddoppiati per 5-6 volte e messi in fila producano immagini realistiche.
Dal punto di vista matematico in un RAW a 14 bit ho spazio per 2^14 sfumature per ciascuna componente di colore RGB.
Sono pi� di 16 mila per singola componente che in tottale producono 4 miliardi di possibili sfumature totali.
Pensiamo ora di sottoesporre un'immagine di 6 stop e recuperarla in post produzione.
Se divido 2^14 per 6 (i 6 stop di sottoesposizione) ottengo 2^8 che significa 256 sfumature (per componente di colore RGB).
In realt� le sfumature nelle zone d'ombra sono meno, (altrimenti con la moltiplicazione otterrei un'immagine completamente bianca).
I moderni sensori (e tuta l'eletronica collegata) riescono a misurare la luce cos� bene che la rappresentazione di ombre in poche decine di gradazioni (sempre per singola componete RGB) � 'pulita' abbastanza da non notare noi poi un degrado peggiore di quello che otterremmo amplificando prima il segnale analogico dei fotositi e sfruttando fin da subito l'intera scala a 14 bit.
Ovviamente la matematica dice che un'esposizione corretta ci dar� il maggior numero di sfumature su cui lavorare.