Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > PRODOTTI NIKON > Tech Reference
Pagine: 1, 2, 3, 4
aliant
Gentile Enzo, si potrebbe continuare in questa discussione che peraltro si sta svolgendo in maniera ordinata con tanti spunti interessanti ed è in evidenza in quest'area di discussione.
Ciao
Nino
_Led_
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 11 2006, 03:37 PM)
...
Ciò che entra in ballo nella raccolta del segnale è la dimensione del pixel, non del sensore. Con pixel identici, il sensore più piccolo avrà caratteristiche di rumore di segnale identiche ad uno più grande. A parità di sensore, quello più frammentato sarà più rumoroso di quello meno frammentato.
...
*




Tutto OK però bisogna anche tener conto di quello che c'é "dentro" il pixel e quindi della tecnologia utilizzata per la costruzione del sensore.
Tu stesso parli di FWC, ma la FWC non dipende da come è "fatto" il pixel?
Se la parte che raccoglie i fotoni è un fotodiodo o un fotogate, se sulla stessa superficie del pixel ci devono anche essere 3, 4 o 5 transistor per l'amplificazione?
Cioè non ci possiamo limitare alle dimensioni geometriche del pixel quando parliamo di rumore:
user posted image
(la superficie fotosensibile è quella celeste!)

Io questo volevo dire ma forse non mi sono spiegato bene.
gu.ru
Ciao,
una prosecuzione di questa discussione interesserebbe molto anche a me.

Grazie fin da ora per l' impegno.
Guido
padrino
Scusate l'OT...

COMPLIMENTI per la Signorilità e per la Preparazione Vincenzo!!!

Giuseppe
buzz
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)
Esatto. Mi fa piacere essere riuscito a spiegarmi, almeno con te. Parlare senza formule e diagrammi non è, francamente, molto facile.

Per tutti coloro che hanno avuto la pazienza di seguirmi: sto preparando un altro...come possiamo chiamarlo...articolo?...discussione?...quattro chiacchere?..., sul rapporto esistente tra la dimensione della tegola, la risoluzione, il campionamento e gli obiettivi.
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.

Un saluto a tutti voi.

Enzo
*



Credo che tu sia riuscito a spiegati con tutti, e se il tuo modo di tratare il prossimo argomento sarà simile al primo, sarai capito da chi ti vorrà capire.
E' vero, non mensionare formule o diagrammi rende i concetti meno... matematici, ma quello che conta per i comuni utilizzatori credo sia capire il concetto che sta alla base, in linee di principio.
Sicuramente sarà apprezzato da molti.
buzz
QUOTE(Led566 @ Feb 13 2006, 04:08 PM)
Tutto OK però bisogna anche tener conto di quello che c'é "dentro" il pixel e quindi della tecnologia utilizzata per la costruzione del sensore.
Tu stesso parli di FWC, ma la FWC non dipende da come è "fatto" il pixel?
Se la parte che raccoglie i fotoni è un fotodiodo o un fotogate, se sulla stessa superficie del pixel ci devono anche essere 3, 4 o 5 transistor per l'amplificazione?
Cioè non ci possiamo limitare alle dimensioni geometriche del pixel quando parliamo di rumore:
user posted image
(la superficie fotosensibile è quella celeste!)

Io questo volevo dire ma forse non mi sono spiegato bene.
*



Credo di aver capito che questo era sottinteso quando si parlava di dimensioni del singolo "fotosito"
Che poi questo occupi tutta o parte della casella al lui dedicata, fa la differenza.
Quello che ancora mi lascia perplesso è come un Cmos che ha dimensioni attive più ridotte del CCD abbia meno rumore. E' solo una leggenda? è la post produzione on camera? il convertitore A/D?
MLJ
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)
Esatto. Mi fa piacere essere riuscito a spiegarmi, almeno con te. Parlare senza formule e diagrammi non è, francamente, molto facile.

Per tutti coloro che hanno avuto la pazienza di seguirmi: sto preparando un altro...come possiamo chiamarlo...articolo?...discussione?...quattro chiacchere?..., sul rapporto esistente tra la dimensione della tegola, la risoluzione, il campionamento e gli obiettivi.
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.

Un saluto a tutti voi.

Enzo
*



Certo che ci interessa, e grazie per tutto quello fin ora spiegato.!Aspetto con impazienza ...
Ciao Gianni MLJ
_Led_
QUOTE(buzz @ Feb 13 2006, 06:05 PM)
Credo di aver capito che questo era sottinteso quando si parlava di dimensioni del singolo "fotosito"
Che poi questo occupi tutta o parte della casella al lui dedicata, fa la differenza.
Quello che ancora mi lascia perplesso è come un Cmos che ha dimensioni attive più ridotte del CCD abbia meno rumore. E' solo una leggenda? è la post produzione on camera? il convertitore A/D?
*



Boh? sicuramente che la FWC dei pixel della 1dm2 è 53000 (CMOS) e quella dei pixel della D70 è 49000 (CCD interline transfer) l'ho letto da qualche parte, ma una cosa emerge chiara, se si parla di rumore percepito sulla foto le variabili da considerare sono veramente molte.
Marvin
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)

Se pensate sia di poco interesse generale, mi evito la fatica.

*



Interessa eccome!! Faccio un pò fatica a seguire tutti sti ragionamenti ma qualcosa assorbo!
Se poi ogni tanto trai delle conclusioni molto riassuntive e schiette il concetto rimane più evidente
Grazie! grazie.gif
Gianni_Casanova
QUOTE
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.


Appoggio con tutto quello che posso, non è molto se non la forza delle parole, il tuo sforzo e ti sarei grato per la prosecuzione degli argomenti...grazie per il tuo lavoro e lo sforzo di elaborazione...
Gianni guru.gif guru.gif guru.gif
earlybird
QUOTE(gu.ru @ Feb 13 2006, 10:00 AM)
Dimenticavo.......

rimane anche il secondo aspetto, ovvero che comunque la quantità di segnale raccolto da un pixel si superficie inferiore è in valore assoluto minore


vero
QUOTE
, e quindi necessita di una amplificazione maggiore per avere una lettura al livello voluto.

Sì e No.
Qui entriamo nel campo della conversione analogico-digitale, cioè della trasformazione della tensione esistente nel pixel al termine dell'esposizione in un numero intellegibile dal calcolatore.
Entriamo anche nel campo della Efficienza di Trasferimento della Carica (CTE).
Seguimi (seguitemi) perché entriamo in un mondo almeno per me affascinante.

Cominciamo dalla CTE, perché più semplice da spiegare e far capire.
Nel sensore il segnale presente nel pixel alla fine dell'esposizione deve essere trasferito verso l'amplificatore e da qui al decodificatore.
I Pixel del CCD (nel CMOS è diverso, ma restiamo nel campo della nostra marca)sono organizzati per colonne: ciò significa che, dopo aver trasferito la carica del primo pixel in basso, tutte le cariche dei pixel dal secondo in su devono essere trasferite nel pixel immediatamente inferiore. 2000 pixel verticali, 2000 trasferimenti!
L'efficienza di questo trasferimento è altissima: siamo nell'ordine dello 0,999995 e più: vuol dire che se trasferiamo una carica di 20000 elettroni, circa 1 elettrone resta "indietro" ogni 2 trasferimenti. Questo per i primi 2 pixel trasferiti; per l'ultimo, la cui carica deve subire 2000 trasferimenti, gli elettroni lasciati indietro risulteranno circa 1000. Il 5% della carica! Per fortuna il firmware tiene conto di questa perdita.
In ogni caso è una fonte di rumore di lettura con la quale fare i conti. Infatti aumenta significativamente se la carica è inferiore a 1000 elettroni e in caso di alte velocità, come nelle pose multiple.

Ed ora andiamo ad incontrare il rumore della conversione analogico-digitale.
Continuiamo a parlare in termini di elettroni che si accumulano nel pixel, e non di voltaggio. Non è un modo improprio perché il voltaggio nel pixel è direttamente proporzionale al numero di elettroni: ritengo che sia più intuitiva la metafora delle gocce di pioggia piuttosto che della pressione che queste esercitano.

I C(onvertitori) A(nalogico)-D(igitali) si differenziano, oltre che per la velocità della conversione, per una caratteristica chiave: i passi. I convertitori più usati sono a 8, 12, 14, 15 e 16 bit. Che significa? Significa che quello ad 8 bit può suddividere il segnale in 256 passi (è il risultato di 2 moltiplicato per se stesso 8 volte), quello a 12 bit in 4096, quello a 14 bit in 16384, quello a 15 in 32768 e quello a 16 bit in 65536 passi.
Se un pixel avesse una FWC (la capacità di contenere elettroni di segnale) pari a 50000 e dipendesse da un ADC a 12 bit, questo suddividerebbe la sua carica in passi di 12 elettroni ciascuno (risulta da 50000:4096). Tralascio le virgole per spiegare il concetto: avviso però che sono importanti ai fini del computo.
Vi pare che possa essere tutto così semplice? Neanche per idea. Restiamo legati per ora al ADC a 12 bit.
Anche nella conversione esiste un errore ben quantificabile: l'errore di codifica numerica. Come si trova? Dividendo il passo per 3,464, che corrisponde alla radice quadrata di 12. Nel nostro caso, un passo pari a 12 elettroni vedrebbe un errore pari a poco più di 3 elettroni.

Facciamo un po' di conti della spesa e vediamo come sia realmente la situazione, analizzando tutti i rumori.
Il nostro pixel, con una FWC di 50000 elettroni ne ha accumulati 10000, in un tempo di esposizione breve.

Segnale: 10.000
Rumore di Segnale: 100
Currente di Buio: trascurabile
Rumore di reset = 0
Rumore di trasferimento: 31 elettroni
Rumore di codifica: 3 elettroni

Rumore complessivo : 104 elettroni (è la radice quadrata della somma dei quadrati dei singoli rumori)
Anch'esso entra nel ADC: se ogni suo passo contiene 12 elettroni, abbiamo come conseguenza che il rumore "si mangia" 104:12= 9 passi, cioè 4 bit dei 12 del ADC. La nostra gamma dinamica è scesa da 12 bit a 8 bit, da 4096 tonalità possibili a sole 256.
Se aumentiamo l'amplificazione è facile passare ad un rumore totale che impegna 5 o 6 dei 12 bit, con una gamma di tonalità che crolla a 128 se non 64! E, poiché se scende uno sale l'altro, il rumore, visto come valore quantificabile nella media del sensore ma imponderabile nel singolo pixel, diventa evidente visivamente.




QUOTE
Quindi, a parità di megapixel (e di tecnologia), un sensore di dimensioni maggiori avrà:

- un rumore di segnale inferiore in quanto le dimensioni dei suoi frammenti sono di dimensioni maggiori - SOLO e SOLTANTO per quello.
- un rumore di lettura inferiore perchè alla lettura del singolo pixel si dovrà applicare una amplificazione minore.

Sempre se non mi sfugge ancora qualcosa.

Ciao a tutti
Guido
*



Sì; per il punto due vale quanto ho scritto sopra.

Ciao a tutti e grazie a chi è riuscito a seguirmi. L'argomento non è semplicissimo.

Enzo
earlybird
QUOTE(Marvin @ Feb 13 2006, 07:01 PM)
Interessa eccome!! Faccio un pò fatica a seguire tutti sti ragionamenti ma qualcosa assorbo!
Se poi ogni tanto trai delle conclusioni molto riassuntive e schiette il concetto rimane più evidente
Grazie! grazie.gif
*



Hai ragione, scusami, ogni tanto me ne scordo.

La conclusione è sempre una, per me: luce, luce, luce.

Che la luce sia con noi.

Enzo
earlybird
QUOTE(Led566 @ Feb 13 2006, 04:08 PM)
Tutto OK però bisogna anche tener conto di quello che c'é "dentro" il pixel e quindi della tecnologia utilizzata per la costruzione del sensore.
Tu stesso parli di FWC, ma la FWC non dipende da come è "fatto" il pixel?

Certo, ma non dal fill factor, cui ti riferisci sotto.
La FWC possiamo considerarla un Volume massimo di possibile riempimento. Questo dipende dalla efficienza quantica, nella quale entra in gioco anche il fill factor.
QUOTE
Se la parte che raccoglie i fotoni è un fotodiodo o un fotogate, se sulla stessa superficie del pixel ci devono anche essere 3, 4 o 5 transistor per l'amplificazione?
Cioè non ci possiamo limitare alle dimensioni geometriche del pixel quando parliamo di rumore:(la superficie fotosensibile è quella celeste!)

Io questo volevo dire ma forse non mi sono spiegato bene.
*



Ti sei spiegato benissimo: probabilmente sono io che non sono riuscito a farmi capire a dovere. Stai parlando del fill factor, in soldoni la percentuale di superficie coperta del sensore. Il CMOS in questo è parecchio penalizzato rispetto al CCD. E' drasticamente migliorato, però, negli ultimi anni, tanto da poter essere proposto a livello professionale.

Riassumendo, la FWC non dipende dalla efficienza quantica, di cui il fill factor è uno dei fattori. E'vero, invece, che il poter raggiungere i valori della FWC dipende da essa.

Riguardo alla FWC sarebbe bene non raggiungerla mai e starne di un 10-15 % al di sotto. Ciò perché:
1- cominceremmo a perdere in linearità tra tempo di esposizione e quantità del segnale
2- perderemmo i dettagli nella gamma alta.

Per sapere se abbiamo troppi pixel in saturazione basta osservare l'istogramma dell'immagine: lo sbilanciamento all'estrema dx indica sovrassaturazione.

Ho chiarito i dubbi?

Ciao

Enzo

earlybird
QUOTE(buzz @ Feb 13 2006, 05:05 PM)
Credo di aver capito che questo era sottinteso quando si parlava di dimensioni del singolo "fotosito"
Che poi questo occupi tutta o parte della casella al lui dedicata, fa la differenza.
Quello che ancora mi lascia perplesso è come un Cmos che ha dimensioni attive più ridotte del CCD abbia meno rumore. E' solo una leggenda? è la post produzione on camera? il convertitore A/D?
*



Come ho già risposto a Led566 il fill factor penalizza ancora il Cmos.

Provengo da anni ed anni nei quali il Cmos era inguardabile: però bisogna anche ammettere che se lo propongono a livello professionale significa che la tecnologia deve aver fatto passi da gigante.
Io non sono in grado di dire, come ho già scritto, se una foto tradizionale provenga da un ccd o da un cmos.
Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif

Mi spiace se non mi dilungo di più, ma, se non ho qualcosa di valido da dire, preferisco star zitto.

Ciao

Enzo
gu.ru
Ciao Vincenzo,
è tutto molto interessante e istruttivo.

Vorrei solo una conferma sul calcolo delle conseguenze dei bit "mangiati" dal rumore. Prendendo i valori dell' esempio, ovvero un rumore di 104 elettroni, con un convertitore a 12 bit (e conseguentemente responsabile di una discretizzazione in 4096 passi) che nel sensore dell' esempio "apprezza" 12 elettroni a passo. Va tutto bene finchè affermiamo che 104 elettroni ovviamente "occupano" 9 passi.

Cerchiamo di capire come solo 9 passi su 4096 possano far precipitare 4096 tonalità a sole 256 !!!

Sono riuscito a seguirti solo fino a un certo punto, ovvero: alla fine della fiera il numero di elettroni "contati" ha una incertezza di 104, ovvero potrà essere 10000 +/- 104, che in passi si traduce in 4096 +/- 9. Questo, tradotto in binario, farà "ballare" gli ultimi 4 bit dei 12 del convertitore, in quanto il +/-9 sulle unità decimali è espresso dagli ultimi 4 dei 12 bit.

Fin qui tutto bene.

Ma a questo punto tu, dicendo che allora i bit significativi da 12 diventavano 8, quegli ultimi 4 bit li hai disintegrati, "shiftando", come si dice in gergo, i rimanenti bit verso destra di quattro posizioni; hai di fatto diviso per 2 alla quarta (16) il numero iniziale (4096).

Perchè?

Perchè adesso io mi ritroverei con sole 256 tonalità sul pixel, piuttosto che con le mie 4096 iniziali, e semplicemente una lettura che mi lascerebbe una incertezza di 18 (+/-9) tonalità su 4096?

Un saluto
Guido

_Led_
QUOTE(gu.ru @ Feb 14 2006, 12:54 PM)
Ciao Vincenzo,
è tutto molto interessante e istruttivo.
...
Cerchiamo di capire come solo 9 passi su 4096 possano far precipitare 4096 tonalità a sole 256 !!!
...
Un saluto
Guido
*



Ci provo io: per contare da 0 a 9 hai bisogno di 4 bit...quindi tutto quello che per esempio sta in mezzo tra 10101010XXXX e 10101011XXXX non conta perché é rumore: i passi significativi non affetti da rumore restano 256 (8 bit).


P.S. battutaccia (non è rivolta a te gu.ru, mi raccomando wink.gif ):

La gente si divide in 10 categorie: quelli che capiscono il sistema binario e quelli che non lo capiscono... biggrin.gif
digiborg
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 14 2006, 06:26 AM)

Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif
*



quindi pensi che in futuro, come già successo per altre tecnologie (vedi stabilizzatore), seguiremo la strada delle videocamere di ultima generazione con 3 CCD, uno per ogni colore?
non sarebbe male come idea smile.gif
digiborg
QUOTE(Led566 @ Feb 14 2006, 12:10 PM)

La gente si divide in 10 categorie: quelli che capiscono il sistema binario e quelli che non lo capiscono... biggrin.gif
*



io sono della... "01" categoria tongue.gif
gu.ru

"Ci provo io: per contare da 0 a 9 hai bisogno di 4 bit...quindi tutto quello che per esempio sta in mezzo tra 10101010XXXX e 10101011XXXX non conta perché é rumore: i passi significativi non affetti da rumore restano 256 (8 bit)."

Sicuro, non ci piove.

Cerco di spiegare meglio la mia perplessità: quello che voglio dire è che non solo conta il numero di bit, ma anche la loro posizione. Rendere non significativi i 4 bit di sinistra non significa toglierli e "spostare" verso destra i rimanenti. Fare questo significherebbe dividere il numero iniziale per 2 alla quarta.

I passi significativi sono senza dubbio 256 perchè i bit significativi sono 8, ma il numero esprimibile dal convertitore rimane sempre di 4096.

Il rumore non riduce l' output a 256 tonalità, ma le tonalità rimangono sempre 4096, suddivisibili però in 256 "gruppi". Secondo me ci sta una grande differenza.

Scusate, ma non riesco ad esprimermi meglio.

Un saluto
Guido


Giuliano_TS
Un grazie all'autore di questa discussione, che mi ha molto interessato, e complimenti per il suo alto livello di preparazione e per le non comuni doti di capacità di divulgazione e semplificazione in una materia in realtà altamente tecnica e specialistica.

Fa certamente piacere leggere ogni tanto una discussione d'alto livello e per di più priva delle polemiche e delle liti che purtroppo sembrano essere diventate una consuetudine anche dove gli argomenti e la preparazione dei partecipanti potrebbero offrire ben di meglio.

Saluti.
marcellop
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 9 2006, 07:13 PM)
Frequento da poco il forum Nital: quel tanto che basta per aver notato che uno degli argomenti principali è quello inerente al rumore. Mi occupo di digitale da 25 anni, prima con il video, poi con le still camera, scientifiche, astronomiche e tradizionali. Di queste ultime conservo nei miei cassetti ancora una Canon/Bauer (la primissima!). Di Nikon ho D1, D70, D50 ed è in arrivo una D200. Per motivi miei pratici e non certo  per sfizio testo tutte le macchine e in nessuna ho notato livelli di “rumore” come quelli segnalati, spesso impropriamente. Di foto tradizionali ne faccio relativamente poche e, visto che mi reputo un buon giudice di me stesso, ritengo che non siano meritorie di rimando a questo forum.
Mi permetto, però,  il tentativo di chiarire il concetto di rumore sperando di far cosa utile a qualcuno. Non userò alcuna formula né diagramma.

Ho notato che molti usano impropriamente il termine “rumore”, non ponendo distinzione tra segnale, rumore del segnale e rumore non dipendente da segnale.
Per capire bene cosa sia, immaginiamo di trovarci sotto una larga tettoia in una giornata di pioggia: se la pioggia è torrenziale, il suono delle gocce che colpiscono il nostro riparo ci sembra giungere uniforme da tutta la sua superficie. In caso di pioggerellina, invece, abbiamo ora l’impressione che piova più a destra, ora più a sinistra, ora più al centro… Questa variazione di direzione ed intensità del suono che colpisce le nostre orecchie è causata dalla non uniformità del numero di gocce piovane che la tettoia raccoglie per unità di superficie in ogni istante. La disuniformità è presente anche nella pioggia battente, solo che è una piccola percentuale della pioggia totale: così il nostro orecchio non riesce a percepirla. Questa disuniformità è ciò che nella fisica dei segnali viene chiamato “rumore” : se rappresentassimo un segnale uniforme ed omogeneo come una linea retta, il rumore insito nella sua raccolta trasformerebbe questa retta in una linea ondulata.
Possiamo asserire, quindi, che questo tipo di rumore è funzione del segnale, perché dipende totalmente da esso. Da notare il fatto che possiamo quantificarlo solo dopo aver raccolto il segnale, quindi non possiamo sapere a priori a quanto ammonterà numericamente. Ho promesso di non presentare formule: dovete quindi credere sulla parola a ciò che segue. Se nel sensore avessimo  accumulato un segnale luminoso pari a 100 (pioggerellina), il suo rumore sarebbe pari a 10, cioè il 10%. Se raccogliessimo 1000 (pioggia battente), il rumore sarebbe pari a 31, cioè il 3%.

Qualcuno si chiederà: esiste un rumore elettronico fine a se stesso, cioè che non sia funzione di un segnale? Certamente. Per scoprirlo continuiamo l’esempio della tettoia ed immaginiamo che questa sia ondulata, in modo che la pioggia sia convogliata verso dei secchielli di raccolta. Complichiamoci un poco la vita e facciamo sì che questi secchielli possano essere ruotati ma non staccati dalla tettoia: ora ci poniamo il gramo compito di controllare quanta acqua sia presente in ogni secchiello al termine della pioggia. Siamo costretti ad usare un altro secchiello: lo poniamo sotto quello appeso e solidale alla tettoia, ruotiamo questo, travasiamo l’acqua e ci dirigiamo verso una bilancia o un qualunque misuratore. Questa manovra la eseguiamo per ogni secchiello appeso alla tettoia. Vi sembra intuitivamente possibile che qualche goccia d’acqua non resti nel suo secchiello d’origine? O che non vada persa nel travaso? O che non debordi durante il trasporto? E la bilancia di misura è assolutamente esatta? Impossibile, neanche a pensarci. La quantità d’acqua che misureremo non corrisponderà mai a quella effettivamente raccolta. La differenza tra queste due quantità è un rumore puro, cioè che non dipende da un segnale ma dalla modalità di trattarlo. E’ prevedibile progettualmente? No. E’ misurabile? Sì. Come? Per via sperimentale. Nel caso della tettoia, ad esempio, potremmo versare su di essa una quantità nota di acqua e controllarne, poi, quanta ci risulti alla misurazione finale. Nelle nostre macchine questo rumore si chiama rumore di lettura (readout noise) e, con semplicità,  possiamo dire che comprende i processi di trasferimento della carica del pixel, il suo passaggio attraverso l’amplificatore e la sua trasformazione in entità numeriche intellegibili dal computer.
Le case costruttrici misurano in maniera molto sofisticata questo rumore di lettura e le sue possibili variazioni in relazione alle regolazioni dell’utente, regina tra tutte la scelta della sensibilità ISO. A questo proposito cerchiamo di capire bene un concetto: quando scegliamo una pellicola con diverso valore ISO, effettivamente scegliamo un prodotto con la sensibilità desiderata. Quando, invece, impostiamo sulle nostre macchine digitali un valore ISO, stiamo scegliendo solo il livello di amplificazione del segnale proveniente dalla lettura del pixel. Non agiamo sulla sensibilità. Questa dipende dalle scelte del costruttore del sensore ed è immutabile. E aumentando l’amplificazione, cioè il guadagno, aumentiamo esponenzialmente il rumore di lettura.

Per darvi qualche dato esemplificativo, il Read-out noise medio della D70 è di circa 7 elettroni/pixel. Il suo segnale termico è inferiore a 0,1 elettroni/ pixel/secondo! Sono quasi delle nullità se pensate che il pixel della D70 può arrivare a contenere più di 35000 elettroni liberati dal segnale luminoso. Solo 7-10 anni fa costosissimi ccd scientifici (che uso ancora) presentavano un segnale termico a 20° di 20-80 elettroni/pixel/secondo, con rumore di lettura superiore a 40-100 elettroni…

Spero di aver suscitato la curiosità necessaria per leggere il manuale di Maio, dove la trattazione è più completa. Se qualcuno, invece, volesse approfondire tecnicamente l’argomento sono disponibile anche privatamente (il mio riferimento è in chiaro).

Che la luce sia con noi.

Enzo Franchini
*



Grazie Enzo Lampadina.gif Sicuramente illuminante.
earlybird
QUOTE(gu.ru @ Feb 14 2006, 11:54 AM)
Ciao Vincenzo,
è tutto molto interessante e istruttivo.

Vorrei solo una conferma sul calcolo delle conseguenze dei bit "mangiati" dal rumore. Prendendo i valori dell' esempio, ovvero un rumore di 104 elettroni, con un convertitore a 12 bit (e conseguentemente responsabile di una discretizzazione in 4096 passi) che nel sensore dell' esempio "apprezza" 12 elettroni a passo. Va tutto bene finchè affermiamo che 104 elettroni ovviamente "occupano" 9 passi.

Cerchiamo di capire come solo 9 passi su 4096 possano far precipitare 4096 tonalità a sole 256 !!!

Sono riuscito a seguirti solo fino a un certo punto, ovvero: alla fine della fiera il numero di elettroni "contati" ha una incertezza di 104, ovvero potrà essere 10000 +/- 104, che in passi si traduce in 4096 +/- 9. Questo, tradotto in binario, farà "ballare" gli ultimi 4 bit dei 12 del convertitore, in quanto il +/-9 sulle unità decimali è espresso dagli ultimi 4 dei 12 bit.

Fin qui tutto bene.

Ma a questo punto tu, dicendo che allora i bit significativi da 12 diventavano 8, quegli ultimi 4 bit li hai disintegrati, "shiftando", come si dice in gergo, i rimanenti bit verso destra di quattro posizioni; hai di fatto diviso per 2 alla quarta (16) il numero iniziale (4096).

Perchè?

Perchè adesso io mi ritroverei con sole 256 tonalità sul pixel, piuttosto che con le mie 4096 iniziali, e semplicemente una lettura che mi lascerebbe una incertezza di 18 (+/-9) tonalità su 4096?

Un saluto
Guido
*



Ciao Guido,

vediamola da un'altro punto di vista, mantenendo l'esempio precedente.
Abbiamo ripreso un soggetto ricco di dettagli finissimi, che poco si discostano tra loro. Un esempio potrebbe essere la fine peluria di un tipico incarnato femminile: non complichiamoci la vita e riprendiamo in bianco e nero. I due particolari, il volto e la peluria, saranno rappresentati da toni di grigio ravvicinatissimi tra loro e assegniamo alla peluria una tonalità più chiara di grigio. Modifico appena i valori per avere cifre tonde. Diciamo che l'incarnato totalizza 9996 elettroni. Dal convertitore uscirà un valore di (9996:12)=833.Ti ricordo che 12 è il passo. Abbiamo calcolato un rumore di 108, significa che per distinguere la peluria questa deve avere un valore almeno di 108 elettroni superiore ai 9996 del volto, cioè 10104, pari ad un valore tradotto di (10104:12)= 842. Quindi, ogni particolare che dia un valore compreso tra 833 e 841 non si distinguerà dall'incarnato in stampa. Che differenza c'è tra 842 e 833? 9 valori. Se dividiamo 4096 per 9 (cioè per gli intervelli reali di risoluzione delle tonalità di grigio), otteniamo 455 intervalli reali all'interno dei 4096 teorici. Da 12 bit siamo scesi a 9! Se poi vogliamo calcolare le virgole e considerare l'imprecisione obbligata della conversione a colori, scompare un altro bit.

Sono riuscito a spiegarmi meglio?
Vedi che non c'è nessuno shift a dx, nè carry flags che si accendono?

Manca qualche passaggio peggiorativo, ma sto cercano di spiegare il principio.

Ed ecco un'altra grande differenza tra raw e jpeg: il jpeg codifica ad 8 bit. Nel NEF (raw) potremo invece analizzare anche il rumore, con tutta l'estensione dei 12 bit.

Ciao a tutti e scusate la mia breve assenza.

Enzo



earlybird
QUOTE(giulianodits @ Feb 14 2006, 05:01 PM)
Un grazie all'autore di questa discussione, che mi ha molto interessato, e complimenti per il suo alto livello di preparazione e per le non comuni doti di capacità di divulgazione e semplificazione in una materia in realtà altamente tecnica e specialistica.

Fa certamente piacere leggere ogni tanto una discussione d'alto livello e per di più priva delle polemiche e delle liti che purtroppo sembrano essere diventate una consuetudine anche dove gli argomenti e la preparazione dei partecipanti potrebbero offrire ben di meglio.

Saluti.
*




Grazie a tutti voi che replicate con spirito costruttivo.

Enzo
earlybird
QUOTE(digiborg @ Feb 14 2006, 01:30 PM)
quindi pensi che in futuro, come già successo per altre tecnologie (vedi stabilizzatore), seguiremo la strada delle videocamere di ultima generazione con 3 CCD, uno per ogni colore?
non sarebbe male come idea smile.gif
*



Ho solo tratto spunto dal mondo delle videocamere: tecnicamente, una volta risolto il problema della compatibilità del parco ottiche esistente, non dovrebbero esserci grandi problemi.
Sono solo mie illazioni non supportate da nulla di concreto.

Ciao

Enzo
Giuseppe Maio
Dear All..

Riapro questa discussione dopo il make-up resosi necessario.
Mi scuso con coloro che avevano postato utili argomentazioni tra i messaggi successivi consapevole che tutti gli interessati hanno compreso il fine.

Buona continuazione...

Giuseppe Maio
www.nital.it
mdj
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 14 2006, 06:26 AM)
Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif


E questo che mi rammarica... rolleyes.gif
Al posto di pensare alla fotografia nel senso della parola, gli utilizzatori vanno sempre più sull'aspetto che nulla può influire sulla bellezza di uno scatto, concentrando l'attenzione sull'ingrandimento al microscopio dei pixel, anzichè soffermarsi ad osservare il risultato di una buona stampa.

Io continuerò a far stampare le mie immagini, ed ammirare i risultati. Gli altri facciano quello che vogliono.

Ad ogni modo, non posso che guru.gif inchinarmi di fronte a queste spiegazioni, e porgere i miei più sinceri complimenti a Vincenzo Franchini

grazie.gif
earlybird
QUOTE(mdj @ Feb 20 2006, 04:52 PM)
E questo che mi rammarica...  rolleyes.gif
Al posto di pensare alla fotografia nel senso della parola, gli utilizzatori vanno sempre più sull'aspetto che nulla può influire sulla bellezza di uno scatto, concentrando l'attenzione sull'ingrandimento al microscopio dei pixel, anzichè soffermarsi ad osservare il risultato di una buona stampa.


Se può contare trovo che tu abbia ragione piena: il fine della fotografia è fotografare e goderne i frutti, magari condividendone con altri il piacere.
Almeno, qui, in questa stanzetta, non siamo fuori tema.

QUOTE
Io continuerò a far stampare le mie immagini, ed ammirare i risultati. Gli altri facciano quello che vogliono.

Ad ogni modo, non posso che  guru.gif  inchinarmi di fronte a queste spiegazioni, e porgere i miei più sinceri complimenti a Vincenzo Franchini

grazie.gif
*



Con le macchine digitali ho dovuto in parte tornare anch'io sul banco di scuola, perché presentano problemi per un certo qual verso differenti rispetto a quelle dedicate per astronomia ed imaging scientifico: essenzialmente il forte controllo che il firmware ha sul risultato finale e i valori di FWC relativamente bassi (non sto pensando solo alla nostra marca). Da appassionato di diapositive, sto cercando ancora il modo di riuscire a trasportarne la qualità della proiezione su grande schermo nel campo del digitale.
Ritengo che non sia assolutamente facile: il ricampionamento a scendere per proiettare su grande schermo penalizza grandemente la qualità.

Sulla mia battuta delle macchine a 3 sensori, come ho già detto, è una pura illazione, senza notizie o sentito dire alle spalle. Semplice spunto dalle videocamere e dal fatto che in astronomia usiamo il doppio sensore da anni.

Grazie dell'apprezzamento (...preparati perché sto per rientrare in linea...)

Enzo Franchini
MLJ
Ciao, volevo sapere se un CCD interline "produce" piu' o meno rumore di un CCD full frame, e sapere magari le differenze.
Ciao Gianni MLJ
kop
salve a tutti ma volevo porvi una domanda che per i più avrà una risposta ovvia,ma per me no,dunque la domanda di ordine puramente pratico è la seguente:è più visibile il rumore generato da una sensibilità maggiore o da un tempo di esposizione più lungo?cioè dovendo scattare in una situazione di luce limite(notte) cosa è conveniente prediligere?ciao.
P.Pazienza
QUOTE(flavio.coppo1@tin.it @ Feb 20 2006, 08:45 PM)
salve a tutti ma volevo porvi una domanda che per i più avrà una risposta ovvia,ma per me no,dunque la domanda di ordine puramente pratico è la seguente:è più visibile il rumore generato da una sensibilità maggiore o da un tempo di esposizione più lungo?cioè dovendo scattare in una situazione di luce limite(notte) cosa è conveniente prediligere?ciao.
*



Credo sia preferibile scattare con un tempo di posa lungo e la sensibilità ISO più bassa possibile; soprattutto perchè, nella pratica, un tempo lungo (da 1/30 in poi) sarà responsabile di un rumore termico e la riduzione di tale disturbo, con la tecnica del Dark Frame, offre risultati migliori delle varie funzioni di riduzione del disturbo causato da una elevata amplificazione ISO perchè consente di contenere la perdita di dettaglio entro valori "accettabili".

Correggetemi se sbaglio...
earlybird
QUOTE(P.Pazienza @ Feb 20 2006, 09:57 PM)
Credo sia preferibile scattare con un tempo di posa lungo e la sensibilità ISO più bassa possibile; soprattutto perchè, nella pratica, un tempo lungo (da 1/30 in poi) sarà responsabile di un rumore termico e la riduzione di tale disturbo, con la tecnica del Dark Frame, offre risultati migliori delle varie funzioni di riduzione del disturbo causato da una elevata amplificazione ISO perchè consente di contenere la perdita di dettaglio entro valori "accettabili".

Correggetemi se sbaglio...
*



Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.

Gianluca_GE
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 21 2006, 06:20 AM)
Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati  sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.
*


Cosa è un esposizione dark?

Grazie

Gianluca

buzz
dovrebbe essere una esposizione di "buio" atta a far uscire soltanto il rumore causato dal riscaldamento del CCD. Rumore che non è del tutto casuale, ma dipende dalla costruzione stessa del sensore.
Michelangelo Serra
QUOTE
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.


Ciao! Vincenzo innanzi tutto davvero complimenti per la tua preparazione per il modo di esporre un argomento credo per molti interessantissimo ma alquanto ostico.
Perdona la mia poca esperienza sull'argomento potresti spiegare come fare, e, cosa intendi esattamente quando dici di chiedere al software di sottrarla dall'immagine-luce?

Michelangelo
buzz
QUOTE(Artephoto @ Feb 23 2006, 05:42 PM)
Ciao! Vincenzo innanzi tutto davvero complimenti per la tua preparazione per il modo di esporre un argomento credo per molti interessantissimo ma alquanto ostico.
Perdona la mia  poca esperienza sull'argomento potresti spiegare come fare, e, cosa intendi esattamente quando dici di chiedere al software di sottrarla dall'immagine-luce?

Michelangelo
*



praticamente è quello che fa la macchina in automatico quando mette in funzione il NR su tempi lunghi. Chi non lo avesse ( pochissimi) può fare come suggerito da vincenzo nei suoi post precedenti. Uno scatto DELLO STESSO TEMPO DI ESPOSIZIONE DEL PRECEDENTE eseguitop immediatamente dopo.
Poi in photoshop si sovrappongono i due livelli e si usa come fusione il metodo sottratttivo.
Michelangelo Serra
Buzz come al solito gentilissimo, quindi avendo la D2x per me non sarà un problema, utile comunque sapere come agire per chi non fosse in possesso della Belva! OK!
earlybird
Ripartiamo da dove eravamo rimasti: su una buccia di banana. La forzata e artata semplificazione di concetti non immediatamente percepibili, a volte, conduce ad errori. Il calcolo che avevo suggerito per spiegare un principio basilare conduce ad implicazioni errate sugli alti valori di segnale, perché mancante di un passaggio.
Se avete voglia di seguirmi e vi interessa l’argomento, ripartiamo da una visuale diversa.
Chi non abbia ben chiara la differenza tra analogico e digitale troverà una breve spiegazione nell'allegato che ho accluso .

Possiamo definire la Gamma Dinamica come il rapporto tra il massimo segnale registrabile (alte luci) ed il minimo segnale registrabile (ombre profonde). Poiché gli elettroni non si possono dividere in unità più piccole, quest’ultimo è considerato sempre pari ad 1. Un sensore costituito da pixel con FWC di 40000 elettroni restituisce, in questo modo, una gamma potenziale di 40000/1= 92 decibel. Sono, però, solo discorsi teorici, perché, nella realtà, siamo costretti a tenere conto del rumore del segnale (photon shot noise nella terminologia inglese).
Nel nostro esempio, la gamma reale restituita dal pixel (quindi, per esteso, dal sensore) crolla a 40000:200= 46 decibel. Attenzione che, rispetto a quella teorica, non è dimezzata: è di parecchi ordini di grandezza inferiore, a causa del procedimento che comporta calcoli logaritmici.
Questo dato non deve preoccuparvi: il nostro esempio porta ad una definizione di 200 toni di grigio e l’occhio umano non riesce a distinguerne più di 60-80, mentre i monitor non ne risolvono più di 100-120. Queste considerazioni ci fanno capire perché il formato Jpeg è peggiorativo per la restituzione della risoluzione spaziale, ma non per la restituzione del colore. I suoi 8 bit, che comportano 256 valori, definiscono abbondantemente i 200 toni della gamma del segnale. Ciò per pixel di grandezza fino 8-9 micrometri di lato: oltre questi valori il Jpeg comincia a perdere qualcosa anche nella restituzione della gamma dinamica. Ricordiamoci, però, che visivamente non ce ne accorgeremo: quindi è inutile iniziare “guerre di religione” verso questo formato smile.gif

In ogni fotocamera CCD e CMOS, però, il segnale non viene trasferito indisturbato a causa del rumore di lettura obbligato, possiamo trarre spunto dalla definizione che la Nikon stessa dà, ridefinendo la Gamma Dinamica come il rapporto tra il massimo segnale registrabile ed il rumore di lettura della camera. Il rapporto, quindi, diventa: FWC/readout noise. Nel nostro esempio, ipotizzando un realistico rumore di lettura di 10 elettroni/pixel, otterremmo un rapporto S/N (o gamma dinamica) di 40000/10= 72 db, abbondantemente al di sopra della gamma dinamica resa dal sensore.
Ogni convertitore al mondo restituisce un suo errore, detto di quantizzazione (o quantificazione, forse meglio nella nostra lingua), che è calcolabile dividendo il passo per 3,46 (questo divisore è dettato da leggi statistiche). Utilizzando sempre il nostro esempio, questo errore sarebbe pari, per un ADC a 10 bit, a: (40000/1024)/3,46 = 39/3,46 = 11,3 elettroni, valore superiore al readout noise. Non è accettabile: dove possiamo intervenire? La FWC non possiamo cambiarla, tantomeno il divisore. Ci resta il passo, che possiamo ridurre aumentando i bit del ADC. Se utilizzassimo un ADC a 12 bit otterremmo: (40000/4096)/3,46=2,8 elettroni, più di 3 volte inferiore al readout noise. Questo valore è accettabile. Ecco il perché della scelta di un ADC a 10, 12, 14,16 bit. Le Case calcolano il readout noise della camera e, in base a questo e alla FWC del pixel, calcolano la risoluzione ottimale in bit del ADC. E non porta a nulla la seguente conclusione: allora perché non usare ADC a 16, 24, 32…bit? La risposta è semplice: più alto il numero di bit, più lenta la velocità di codifica, più alto il consumo energetico, più pesante il file immagine. In medio stat virtus.

E che succede alla gamma dinamica del sensore, più bassa rispetto a quella dell’elettronica? Semplicemente si “spalma”: i 200 toni di grigio del nostro esempio, risolti dal sensore, si spalmano sui 4000 della gamma dinamica del circuito. Non pensate di trovare nel file in uscita 20 valori uguali per ognuno dei 200 grigi: saranno in ogni caso tutti lievemente diversi , perché interviene la variabilità statistica del segnale e l’errore di decodifica.

Ecco il senso di quanto affermato nel post precedente: la perdita virtuale di bit di risoluzione del ADC. Una gamma dinamica di 46 decibel può essere processata da un ADC a 72 db, ma non si può creare ciò che non esiste. 46 db entrano, 46 db escono (relativamente al nostro esempio).

Passiamo sul piano pratico e vediamo di tirare qualche conclusione, utile ai fini pratici.

1- a parità di bontà di progetto circuitale, la gamma dinamica è legata alle dimensioni del pixel: pixel minore = gamma minore. Le dimensioni del sensore non contano, se non per qualche piccola variabile che possiamo trascurare. E’ il motivo per cui le compatte, superpopolate da piccoli pixel, non possono reggere il confronto con i sensori delle reflex.

2- Non fidarsi dell’occhio, almeno fino a che la conoscenza con la propria fotocamera si sia approfondita. Valutate i valori di bianco, con i soliti programmi in vostro possesso o con l’istogramma sul display della macchina: il bianco deve saturare il pixel al 70-80 %. Valori inferiori significano luce insufficiente: aumentare l’esposizione. Valori troppo alti, 90-100% significano probabile perdita di alti toni: ridurre l’esposizione. Chi comanda è il bianco: insufficienti valori di bianco significano riduzione della gamma dinamica (è come se riducessimo la FWC) e rumore nelle basse luci. E’ una regola obbligata: non si può chiedere alla macchina l’impossibile. Per vostra curiosità, anche in astrofotografia si controlla il bianco: su stelle di cui si conoscono perfettamente le caratteristiche dello spettro luminoso, riportate nelle tavole astrofotometriche.

3- Un altro fattore peggiorativo dell’immagine è la non uniformità di risposta al segnale luce. I pixel sono tutti un po’ diversi tra loro in fatto di risposta alla luce. Il firmware ne tiene conto, ma deve fare di ogni erba un fascio. Imparate voi stessi ad applicare la funzione Dust Off delle Nikon anche se avete il sensore più pulito al mondo. Questa funzione ha un nome che trae un po’ in inganno, perché non serve solo ad eliminare dall’immagine l’effetto della polvere (dust) presente sul sensore: elimina, di fatto, le disuniformità di risposta dei pixel regalandovi superfici omogenee con colori di tonalità uniforme. Ne potremo riparlare.

4- Spingere gli ISO provoca obbligatoriamente rumore: io mi meraviglio di ciò che riescono a fare i firmware delle grandi Case al proposito. Infatti, un’altra formula che quantifica il readout noise è quella che lo definisce come: (guadagno dell’amplificatore * deviazione standard di immagini-differenza di bias-frames) / radice quadrata di 2. Lasciamo perdere i paroloni e guardiamo ciò che è veramente la chiave di tutto: se raddoppiamo l’amplificazione (ISO 1 valore più alto), il readout noise raddoppia, la gamma dinamica dimezza. Il firmware può solo tentare di correggere qualcosa che non può evitare. Se non avete particolari necessità pratiche o creative, lasciate perdere le regolazioni degli ISO.

5- Ove non sia necessario, evitiamo le 100 pose al secondo….la raffica non può restituire una qualità di immagine pari alle pose singole: peggiora il readout noise in tutte le sue componenti, il ADC scende di precisione, i pixel del sensore non riescono a “svuotarsi” completamente tra una posa e la successiva.

6- In situazioni di luce critica, con soggetti statici, usate la possibilità delle pose multiple (ogni 4 pose il rumore dimezza, su 9 pose il rumore si riduce di 3 volte…) Purtroppo non è utilizzabile per tutto ciò che sia in movimento. Non fatevi venire l’idea di utilizzare la stessa posa per nove volte, perché in questo caso il rumore salirebbe di pari passo.

7- All'inizio di ogni sessione è bene eseguire un paio di pose in piena luce e scartarle: serve a ripulire i pixel e tutta l'elettronica di contorno da elettroni spuri.

Ho enunciato i principi base del rumore, nelle sue principali manifestazioni: molto resta da dire, ma diventerebbe un discorso per puri addetti ai lavori o superappassionati all’argomento.

In molti mi hanno chiesto ove poter approfondire l’argomento. Suggerirei:
Il libro di Maio, che conosciamo tutti.

Christian Buil, CCD Astronomy, Wilkmann-Bell Inc, ISBN 0-943396-29-8
(Molto tecnico nella parte iniziale. Comporta un po’ di conoscenza di elettronica e infarinatura di chimica. La parte dedicata all’astronomia occupa solo la seconda metà del libro e, in ogni caso, fornisce implicazioni interessanti anche per la fotografia tradizionale)

Martinez-Clotz, A practical Guide to CCD, Cambridge University Press, ISBN 0-521590-63-9.
Facile e limitato all’essenziale.

Purtroppo sono in lingua inglese, anche se scientifico, quindi semplice, e non ne esiste traduzione italiana: facilmente reperibili alla libreria Hoepli, Milano (www.hoepli.it) o sui circuiti internet.

Un saluto a tutti

Enzo Franchini
lucaoms
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
Ripartiamo da dove eravamo rimasti:
..... alla libreria Hoepli, Milano (www.hoepli.it) o sui circuiti internet.

Un saluto a tutti

Enzo Franchini
*


non me lo sonomletto tutto (è quasi un libro) ma i concetti si...e devo dire che sei riuscito (con un sacco di voglia che io non avrei avuto) ad portare un po di chiarezza su un argomento quantomeno da tesi di laurea....
cpmplimenti e grazie.
robyt
Veramente un lavoro pregevole.
Utilissimi i consigli pratici che possiamo applicare anche alle nostre macchinette.
Grazie Vincenzo.
Gianni_Casanova
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
...
Possiamo definire la Gamma Dinamica come il rapporto tra il massimo segnale registrabile (alte luci) ed il minimo segnale registrabile (ombre profonde)....Enzo Franchini


Intanto i miei complimenti per "il dono" che possiedi di rendere intuibili concetti maledettamente ostici...e leggendo il tuo intervento mi è venuta una domanda che ti pongo subito: ...se immaginassimo di fotografare con una macchina digitale una immagine chiara nella parte superiore e scura in quella inferiore, oppure al contrario, e fornissimo ai pixel una matrice che con cui deve confrontarsi e che gli dice se si trova nella parte chiara o in quella scura e quindi può eliminare una parte delle informazioni ....non avremo così la possibilità di eliminare (in questa particolare situazione) il 50 % del rumore?
Se ho detto una stupidaggine fatti una risata cool.gif, comunque grazie per il tuo lavoro e continua su questa strada con passo analogico o digitale... guru.gif
Ciao, Gianni
Gianluca_GE
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 21 2006, 06:20 AM)
Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati  sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.
*



Insomma un pò come un immagine "dust off" per la polvere sul sensore?

grazie.gif
earlybird
QUOTE(gdonadio @ Feb 24 2006, 06:09 PM)
Insomma un pò come un immagine "dust off" per la polvere sul sensore?

grazie.gif
*



Sì. Nei manuali esiste poco su questo argomento, ma è comprensibile. Chi passa dall'analogico al digitale, si ritrova immediatamente con un numero di variabili che incute timore a chiunque: meglio non mettere troppa carne al fuoco e aspettare che la progressiva esperienza e curiosità del fotografo facciano il resto.

Enzo
Gianluca_GE
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 06:15 PM)
Sì. Nei manuali esiste poco su questo argomento, ma è comprensibile. Chi passa dall'analogico al digitale, si ritrova immediatamente con un numero di variabili che incute timore a chiunque: meglio non mettere troppa carne al fuoco e aspettare che la progressiva esperienza e curiosità del fotografo facciano il resto.

Enzo
*



Mi viene in mente che allora potrei provare proprio la funzione dust off di capture...chissà che non funzioni????

Gianluca
Giorgio Ospici
se mi posso permettere... ecco il valore aggiunto di un grande Forum
grazie Vincenzo

ciao
Giorgio
earlybird
QUOTE(gianni534 @ Feb 24 2006, 05:59 PM)
Intanto i miei complimenti per "il dono" che possiedi di rendere intuibili concetti maledettamente ostici...e leggendo il tuo intervento mi è venuta una domanda che ti pongo subito: ...se immaginassimo di fotografare con una macchina digitale una immagine chiara nella parte superiore e scura in quella inferiore, oppure al contrario, e fornissimo ai pixel una matrice che con cui deve confrontarsi e che gli dice se si trova nella parte chiara o in quella scura e quindi può eliminare una parte delle informazioni ....non avremo così la possibilità di eliminare (in questa particolare situazione) il 50 % del rumore?
Se ho detto una stupidaggine fatti una risata  cool.gif, comunque grazie per il tuo lavoro e continua su questa strada con passo analogico o digitale...  guru.gif
Ciao, Gianni
*



No, non hai detto una stupidaggine. Sono io che non ho capito bene i termini della questione, soprattutto riguardo la matrice. Me la riformuli per favore?

Grazie, anche per l'apprezzamento.

Enzo
Gianluca_GE

Hai mai provato ad usare la funzione "dust off" di capture? rinominando ovviamente l'esposizione dark...è una c....ta?

Ciao

Gianluca
buzz
Grandioso intervento!

Solo una cosa mi risulta ostica, perchè viene data per scontata:
la formula per il calcolo dei Db.
quando dici che 40000.1 fa 92 e 40000:200 fa 46 rimango un po' di stucco...
e dire che una volta ci facevo i calcoli per l'audio, sui rapporti S/N..

inoltre: i sensori Cmos, non hanno il sistema di svuotamento a cascata. Le "racciomandazioni" sulla raffica (calore) e sugli scatti "a vuoto" valgono anche per quella tecnologia? e l'LBcast?
Mi permetto di chiedertelo per avere una completezza di nozioni.
earlybird
QUOTE(gdonadio @ Feb 24 2006, 07:28 PM)
Hai mai provato ad usare la funzione "dust off" di capture? rinominando ovviamente l'esposizione dark...è una c....ta?

Ciao

Gianluca
*



Purtroppo non è possibile. Sono due procedimenti totalmente diversi.
Nel Dust off succede questo:
- viene presa come riferimento una posa eseguita verso una sorgente di luce uniforme.
- poiché si suppone che in tal caso il flusso fotonico sia omogeneo, ogni disparità di lettura nei pixel è una conseguenza della diversa risposta alla luce, dovuta sia a differenze costruttive del pixel sia alla presenza di aloni, macchie o polvere sul sensore sia a vignettatura causata dall'obiettivo. Se la causa fosse il pixel, la risposta potrebbe essere minore, uguale o maggiore rispetto alla media estratta da tutti i pixel del sensore. Negli altri casi, naturalmente, solo minore.

- il software calcola la media della risposta dei pixel: diciamo, per esempio, 10000

- esamina la risposta di ogni pixel del sensore dividendo il valore letto per 10000. Ad esempio, se il pixel A facesse leggere 9800, sarebbe 9800/10000=0,98. Se nel pixel B fosse 10300, otterremmo 1,03. Questo calcolo viene eseguito e memorizzato pixel per pixel.

- quando si va ad elaborare un'immagine con la funzione dust off, il software esegue una semplice divisione. Divide il valore del pixel dell'immagine da processare per il valore della risposta relativa a quel pixel. Per esempio, se nel pixel A si leggesse il valore 25000, avremmo: 25000:0,98=25510; se nel pixel B si leggesse 5000, avremmo: 5000:1,02=4902. In pratica il valore di ogni pixel viene ricalcolato sulla base della sua risposta ad una sorgente di luce uniforme.

Il dark (meglio chiamarlo dark frame), invece, è l'immagine della corrente di buio, che va sottratta dall'immagine. Operazione totalmente diversa.

Nikon ha chiamato così la funzione dust off per renderla facilmente capibile e ... amichevole verso l'utilizzatore. Il suo vero nome, in realtà, è "Applicazione del Flat Field" ed è uno dei cardini della fotografia digitale. Ci sono lunghissimi paragrafi e teorie sulle modalità di esecuzione dell'immagine Flat Field (che, tradotto, significa immagine di un campo piatto). Nella fotografia scientifica e in astronomia non esiste immagine digitale cui non venga applicata tale funzione.
Non lo so per certo, ma immagino che il firmware delle nostre macchine abbia in memoria un'immagine di riferimento della risposta di ogni singolo pixel.

Ho fatto una piccola ricerca in tutto il forum, forse non ho inserito le parole giuste, ma non ho trovato alcun lungo 3D sul dust off o flat field. E questo mi meraviglia un po', perché ritengo che almeno i professionisti di studio dovrebbero avere una banca dati sul flat relativo ad ogni obiettivo e ad ogni diaframmatura. Probabilmente si pensa che l'azione del firmware sia sufficiente in ogni situazione. Anche le riviste ne parlano molto poco.

Ho esposto solo il principio del dust off e mi fermo qui, perché il discorso sul flat ci porterebbe molto lontano (esecuzione, calibrazione del flat ...) e non voglio aggiungere troppa carne al fuoco del malloppone che vi ho dato in pasto.


Ciao

Enzo
earlybird
QUOTE(buzz @ Feb 24 2006, 08:18 PM)
Grandioso intervento!

Solo una cosa mi risulta ostica, perchè viene data per scontata:
la formula per il calcolo dei Db.
quando dici che 40000.1 fa 92 e 40000:200 fa 46 rimango un po' di stucco...
e dire che una volta ci facevo i calcoli per l'audio, sui rapporti S/N..


Il moltiplicatore è 20.
Da cui : 20*log(S/N). Naturalmente il logaritmo è in base 10.

QUOTE
inoltre: i sensori Cmos, non hanno il sistema di svuotamento a cascata. Le "racciomandazioni" sulla raffica (calore) e sugli scatti "a vuoto" valgono anche per quella tecnologia? e l'LBcast?
Mi permetto di chiedertelo per avere una completezza di nozioni.
*



Gli scatti a vuoto servono soprattutto per ripulire il sensore dalle cariche che si fossero accumulate anche per il solo effetto della temperatura. Penso che CCD, CMOS, LBcast, superCCD, ICCD...soffrano tutti di questo effetto.
Sulla totale lettura del pixel durante la raffica ho letto che il cmos si comporta meglio: non sono un elettronico e non posso darti una risposta motivata. Anche solo concettualmente, però, capisco che il readout noise nel cmos deve essere maggiore rispetto al ccd, perché si tratta di gestire milioni di singoli amplificatori contro i pochi stadi (se non il singolo) del ccd.

Penso che qualche esperto di elettronica che ci segua possa risponderti più dettagliatamente.

Grazie delle parole.

Enzo



Gianni_Casanova
QUOTE
No, non hai detto una stupidaggine. Sono io che non ho capito bene i termini della questione, soprattutto riguardo la matrice.


Pollice.gif così mi hai risposto!

QUOTE
Non lo so per certo, ma immagino che il firmware delle nostre macchine abbia in memoria un'immagine di riferimento della risposta di ogni singolo pixel


ciao e grazie, Gianni
Pagine: 1, 2, 3, 4
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.