Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > PRODOTTI NIKON > NIKON DIGITAL REFLEX
bradipo.sl
Ho letto tempo fa un'articolo su Fotografare che parlava di aberrazioni e struttura dei pixel, diffrazione, aberrazioni sferiche e cromatiche, interazione fra luce e sensore.
Il linguaggio � stato per me troppo, eccessivamente tecnico infatti non ci ho capito molto.
Mi piacerebbe avere se possibile, con linguaggio semplice una concisa spiegazione sui suddetti problemi magari da Giuseppe Maio, chiedo troppo ??????
Daniele R.
ti pare poco? laugh.gif laugh.gif

non avrai chiesto la luna, ma ....................... laugh.gif

Non � un discorso cos� semplice, da spiegarsi in quattro righe, per di pi� in linguaggio masticabile dai pi�.

Io non mi ci metto, rimango alla finestra e attendo che qualche guru ci illumini d'immenso Lampadina.gif laugh.gif
vitol
http://www.internetcamera.it/

Forse non c'entra niente, ma al link, se non altro, puoi farti un corso base, Free. wink.gif
Lambretta S
QUOTE (bradipo.sl @ May 27 2004, 06:58 PM)
Ho letto tempo fa un'articolo su Fotografare che parlava di aberrazioni e struttura dei pixel, diffrazione, aberrazioni sferiche e cromatiche, interazione fra luce e sensore.
Il linguaggio � stato per me troppo, eccessivamente tecnico infatti non ci ho capito molto.
Mi piacerebbe avere se possibile, con linguaggio semplice una concisa spiegazione sui suddetti problemi magari da Giuseppe Maio, chiedo troppo ??????

Una alla volta le spieghiamo tutte...

Iniziamo con la diffrazione... che non � un problema dei pixel bens� della luce che passa attraverso un buco...

Il buco in questione � il diaframma... le formule scientifiche sono molto complicate da spiegare e tutto sommato nell'utilizzo pratico ci dubbia utilit�...

Per semplificare immagina un cancello da cui devono passare i tifosi di una squadara di calcio...

Se apri il cancello completamente i tifosi entrano tutti insieme e si crea una gran confusione...

Se chiudi troppo il cancello i tifosi si accalcano tutti in uno stesso punto qualcuno riesce a passare subendo per� un'accellerazione (che ne altera le caratteristiche fisiche) dovuta alla spinta degli altri quindi quelli che passano arrivano malconci alla meta...

Chiudendo invece il cancello a met� i tifosi riescono a entrare velocemente senza accalcarsi, con ordine e soprattutto senza che nessuno ne esca malconcio...

Ovvero rapportando l'esempio all'obiettivo della macchina fotografica e al diaframma, se lo apri troppo entra tanta luce per� in modo confuso � hai poca nitidezza soprattutto ai bordi del fotogramma dove la confusione � maggiore...

Se chiudi troppo il diaframma avrai pochissima confusione ma la sensazione di nitidezza generale sar� guastata dai raggi che entrano malconci e vanno a focalizzarsi dove gli pare... anche se la Profondit� di campo � maggiore, ovvero la zona di fuoco accettabile � maggiore...

Se chiudi il diaframma ai valori intermedi ottieni il giusto compromesso tra profondit� di campo e nitidezza in quanto i raggi di luce arrivano ordinatamente e si collocano con precisione sul fotogramma...

Questa � la ragione principale per cui la maggior parte degli obiettivi (salvo rarissime eccezioni) ha come diaframmi di lavoro migliori proprio quelli intermedi f/4,0... f/5,6... f/8,0 e f/11

Spero di essere stato sufficentemente chiaro e semplice...

Per chi invece volesse approfondire l'argomento (occhio che � un po' pesantino per�) segnalo questo link... vi scaricate il PDF 3 mega e spicci sono una trentina di pagine molto simpatiche... c'� anche spiegata l'aberrazione sferica e quella cromatica, l'astigmatismo e altre belle cose... con immagini esplicative...

La natura ondulatoria della luce
dallostomauro
Lambretta....6 troppo uno spettacolo...direi che un esempio pi� chiaro non lo potevi di certo fare.... Poche parole, contenuti chiari...

Ps: quando hai detto tempo fa che te ne volevi andare ero molto sad.gif , ma sono ben felice che sei ancora con noi...Per questo ti ringrazio e spero che rimarrai sul forum il + a lungo possibile.


Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif Pollice.gif
matteoganora
QUOTE (lambretta @ May 27 2004, 10:31 PM)
Per semplificare immagina un cancello da cui devono passare i tifosi di una squadara di calcio...

Se apri il cancello completamente i tifosi entrano tutti insieme e si crea una gran confusione...

Se chiudi troppo il cancello i tifosi si accalcano tutti in uno stesso punto qualcuno riesce a passare subendo per� un'accellerazione (che ne altera le caratteristiche fisiche) dovuta alla spinta degli altri quindi quelli che passano arrivano malconci alla meta...

Chiudendo invece il cancello a met� i tifosi riescono a entrare velocemente senza accalcarsi, con ordine e soprattutto senza che nessuno ne esca malconcio...

Propongo ufficilamente lambretta come candidato al nobel per la fotografia... i suoi interventi sono quasi sempre (tranne i casi in cui fa il burlone) perle di saggezza e compendi di tecnica... oltre ad essere veramente spassosi! wink.gif

SEI GRANDE STEFANO Pollice.gif
DiegoParamati
Vorrei sapere una cosa:
perch� Lambretta non � stato ancora scelto come NPU?

Forse sono io che non capisco la differenza tra un ottimo utente come � Lambretta e un NPU, per� vorrei una spiegazione... biggrin.gif
vitol
io sono qui da poco, ma una cosa l'ho capita, se non ci fosse un LAMBRETTA, bisognerebbe inventarne uno. Pollice.gif
matteoganora
Te la do io... Stefano � troppo simpatico per essere NPU... gli NPU sono fondamentalmente degli str....i, trattano male la gente, sono antipatici e non sanno un c...o di fotografia...

Lambr�... diglielo anche tu che prima di diventare un Power Ranger ti impiccheresti con la cinghia della tua Dokokoyo!!! laugh.gif laugh.gif laugh.gif
Denis Calamia
Salve al Forum...

Alcuni CCD sono costituiti da fotosensori(pixel) che montano delle microlenti frontali..per amplificare la luce che li colpisce

Ma....queste stesse (le microlenti per l'appunto)a sua volta riflettono la luce (senza volerlo) alle microlenti adiacenti (dei pixel intorno) creando dei disturbi (Aberrazioni).....(non mi risulta comunque che il CCD della D70 monti delle microlenti sui suoi pixel .......dunque Tranquilli!!!)


DOVRESSE EBBERE COSI' laugh.gif

Ciao Denis.......
Denis Calamia
Ciao Lambretta.... il nostro amico Bradipo parlava di struttura dei pixel e non ha citato minimamente il discorso "obbiettivi"....Comunque Grande intervento Pollice.gif

Da aggiungere al mio commento precedente.(Riguardo l'interazione fra luce e sensore).....

ricordo anche che una piccola percentuale della luce che colpisce il sensore viene rimbalzata sulla lente dell'obbiettivo(con la pellicola tale effetto � quasi nullo)portando disturbo all'immaggine finale...(la superfice del CCD � + riflettente della superficie della pellicola!)

Ciao.........Denis
Lambretta S
QUOTE (flyingzone @ May 28 2004, 03:53 PM)
Ciao Lambretta.... il nostro amico Bradipo parlava di struttura dei pixel e non ha citato minimamente il discorso "obbiettivi"....


QUOTE (bradipo.sl @ May 27 2004, 06:58 PM)
Ho letto tempo fa un'articolo su Fotografare che parlava di aberrazioni e struttura dei pixel, diffrazione, aberrazioni sferiche e cromatiche, interazione fra luce e sensore.


Forse sar� apparso a te che non parlava di obiettivi le parole evidenziate in rosso con il discorso obiettivi c'entrano eccome...

Passiamo ora a un altro argomento...

Il Filtro Antialiasing

I pi� fortunati non avranno mai avuto a che fare con il Teorema del Campionamento conosciuto come legge di Nyquist o Teorema di Shannon...

Semplicemente il Teorema del Campionamento dice questo...

La massima frequenza riproducibile e inferiore alla met� della frequenza di campionamento...

Nel campo audio riguarda le frequenze audio nel campo fotografico le frequenze spaziali della luce...

Il filtro antialiasing ha come dicono gli Americani la funzione di eliminare il "Garbage" l'immondizia insomma...

Nel campo audio le frequenze superiori a quella massima riproducibile vengono tagliate appunto dal filtro antialiasing per evitare che rientrando nel processo di campionamento vadano a creare disturbo a quelle utili... analogo discorso � applicabile al filtro antialiang che trattiene tutte quelle frequenze spaziali della luce che non rientrando nella capacit� di campionamento del CCD perch� troppo elevate andrebbero a interferire sempre con quelle utili... in sostanza trattasi di un filtro passa-basso e viene di norma progettato in funzione delle prestazioni del rilevatore CCD che � appunto un sistema di campiomento dell'immagine e che come tale � legato ai vingoli legati al Teorema del campionamento... a livello fisico trattasi un filtro di materiale trasparente che trattiene le frequenze spaziali pi� elevate di quelle campionabili dal CCD e lascia passare (da cui la definizione passa-basso) le frequenze pi� basse campionabili utilmente dal CCD della fotocamera...

Il filtro antialiasing nelle DSLR � posizionato davanti al sensore vero e proprio, quindi la sporcizia non si deposita sul sensore ma sulla superficie esterna del filtro... ovviamente se questo � integrato con il sensore graffiarlo significa dover cambiare anche il sensore sottostante...

Piccola considerazione sul filtro antialiasing... una taratura prudenziale di questo filtro produce immagini di primo acchitto meno nitide ma anche meno soggette alle varie aberrazioni "Digitali" quali il moir� e quant'altro... viceversa una taratura pi� ottimistica produce immagini di primo acchitto pi� nitide ma comporta pi� facilmente la possibile apparizione in determinate circostanze delle aberrazioni anzidette...
Lambretta S
QUOTE (flyingzone @ May 28 2004, 11:09 AM)
Alcuni CCD sono costituiti da fotosensori(pixel) che montano delle microlenti frontali..per amplificare la luce che li colpisce

Boh... non mi risulta... per� pu� essere...

Il sensore digitale

Un sensore digitale in sostanza non � sensibile al colore... ma solo alla quantit� di luce che lo colpisce in pratica � un dispositivo in bianco e nero... quelli pi� sofisticati riescono a interpretare varie sfumature di grigio tra il nero assoluto e il bianco... ovvero a seconda dei casi 8 bit 256 sfumature 12 bit 4096 sfumature e 16 bit 65536 sfumature...

Per ricreare un immagine a colori sarebbe necessario disporre di un sistema in grado di leggere prima il colore rosso eliminando tutte le altre componenti colore... poi il colore verde eliminando tutte le altre componenti colore... poi il colore blu eliminando tutte le altre componenti colore... con tutti i limiti relativi di un simile sistema di ripresa in quanto imporrebbe al soggetto di rimanere fermo durante i tre scatti con conseguente perdita di registro nell'immagine se il soggetto si muove... le soluzioni possibili sono due o dotare la fotocamera di tre sensori uno per ogni componente colore oppure nel caso di un solo sensore microfiltrare ogni cella che compone il pixel in modo che a questo arrivi la sola componente spettrale utile... il pixel � diviso in quattro celle la prima dalla sinistra in alto � rosa la seconda in alto a seguire � verde... la terza quella a sinistra in basso � verde... la quarta in basso a destra � blu... il pixel ha due celle verdi perch� l'occhio umano vede pi� dettagli nel verde e nelle sue sfumature...

A questo punto dopo lo scatto abbiamo un valore utile per ogni componente del colore del pixel nel caso a esempio di una rappresentazione a 24 bit del colore (8 bit per canale) del nero avremo sul canale rosso il valore 0, sul canale verde il valore 0 e sul canale blu il valore 0... mentre nel caso del bianco avremo sul canale rosso il valore 255, sul canale verde il valore 255 e sul canale blu il valore 255... valori diversi per singolo canale compresi tra 0 e 255 (256 valori 2 alla ottava) ci permetteranno di rappresentare oltre al bianco e al nero altri 16 milioni di colori circa... (questo processo si chiama sintesi additiva in quanto i colori si formano aggiungendo proporzionalmente percentuali appunto di rosso verde e blu)

Le informazioni lette dal sensore sono disponibili in formato grezzo (raw)... scegliendo come formato di memorizzazione il JPEG o il TIFF nelle DSLR che lo prevedono... questi dati vengono elaborati elettronicamente grazie a un chip presente all'interno della fotocamera (i dati vengono interpolati grazie all'algoritmo di bayer)... mentre se si opta per la memorizzazione in raw non avviene nessuna elaborazione all'interno della fotocamera... l'elaborazione � poi possibile in seguito con software opportuni... Capture e Camera raw e altri... ovviamente pi� � preciso il software e migliore sar� il risultato finale dell'elaborazione...
Lambretta S
Aberrazione Cromatica

L'aberrazione cromatica � di due tipi quella assiale e quella laterale.

L'aberrazione cromatica assiale � un fenomeno dovuto alla diversa velocit� di propagazione della luce al variare della sua frequenza spettrale... questo comporta che un raggio di luce rifratto da una lente viene scomposto nelle varie frequenze spettrali che compongono l'iride... come conseguenza le singole componenti spettrali convergono in fuochi differenti e si crea un calo di nitidezza e aloni colorati in corrispondenza dei margini nelle zone maggiormente dettagliate...

L'aberrazione cromatica laterale comporta che la dimensione dell'immagine formata sul piano � diversa per ciascuna lunghezza d'onda...

Tale fenomeno � minimizzato con l'uso di speciali lenti a bassa rifrazione o disperzione... ovvero quando vengono attraversate dal raggio luminoso queste lo scompongono in misura minima, producendo un'immagine nitida e senza sbavature di colore, questi ultimi pertanto risultano maggiormente fedeli ai colori reali... tali lenti sono conosciute come lenti low dispersion LD le prime sono state realizzate da Canon le famose lenti alla fluorite... la Nikon ha creato una sua versione di lenti a bassa dispersione le cosiddette ED Extra Low Dispersion... queste lenti sono particolarmente utili nella realizzazione di Zoom Tele e Teleobiettivi... ovviamente il loro impiego favorisce un miglioramento delle prestazioni di ogni tipo di obiettivo a patto di sopportarne il maggior costo realizzativo... variabile popolare dei vetri ED e Fluorite sono i cosiddetti obiettivi Apocromatici o pi� brevemente Apo...
Lambretta S
Aberrazione sferica

Ipotizzando che la luce fosse composta da un solo colore... si crea ugualmente un problema nel riportare su pellicola o sensore un'immagine chiara... supponendo di trattare un raggio di luce composto da una sola lunghezza d'onda... una a caso quella verde... questo raggio proveniente dal soggetto entra passando attraverso tutta la superfie dell'obiettivo... i raggi di luce che entrano lontani dall'asse tendono a convergere prima del punto di messa a fuoco ideale quello per la zona pi� lontana dall'asse (zona marginale) � detto fuoco marginale e quelli pi� vicini all'asse tendono a convergere dopo del punto di messa a fuoco ideale quello per la zona pi� vicina all'asse (zona parassiale) � detto fuoco parassiale... questo fenomeno � dovuto alla sfericit� delle lenti che compongono l'obiettivo e da questo prende appunto il nome di aberrazione sferica...

Astigmatismo

Un altro tipo di aberrazione � l'astigmatismo... fenomeno presente solamente ai margini esterni dell'asse ottico dell'obiettivo... in questa zona i raggi luminosi non convergono sul piano della pellicola o del sensore come singoli punti bens� formano due linee di cui una giacente radialmente all'asse ottico e l'altra perpendicolare... ovvero prendono forma in piani diversi con angoli retti l'una rispetto all'altra... cio� le sezioni del fascio in uscita dal sistema ottico sono ellissi che vanno restringendosi man mano che ci si allontana dal sistema, sino a ridursi a un segmento (lineetta astigmatica tangenziale). Oltre questa lineetta il fascio si allarga nuovamente, in una posizione assume la forma di un cerchio e poi le sezioni diventano di nuovo ellissi, che si restringono ancora sino a ridursi a un segmento (lineetta astigmatica sagittale) ortogonale alla lineetta tangenziale. La distanza tra le due lineette rappresenta una misura dell'astigmatismo.

Coma

L'ultima delle aberrazioni che affligono gli obiettivi � il coma questo fenomeno accade quando a esempio una sorgente puntiforme, non giace sull'asse ottico... si pu� presentare, anche per piccole distanze dell'oggetto dall'asse... avremo un'immagine a ventaglio che mostra un punto su un bordo e una coda sull'altro... cio� le sezioni del fascio assumono una caratteristica forma allungata a cometa (da cui il nome coma).
domiad
lambretta sei preparatissimo, ho letto tutto e vedo che i concetti sono precisi e dettagliati, complimenti, cmq tutto quello che hai detto, un po per la mia preparazione informatica e grafica, un po per essermi assorbito svariati libri di fotografica, li conoscevo, ma tu hai saputo descrivere e spiegare quanto fi + complicato ci possa essere e soprattutto importante a livello culturale per un fotografo, che dovrebbe conoscere tutto, anche queste cose per essere veramente preparato e affrontare ogni situazione al meglio, che sia fotografare, comprare un obiettivo, ecc..... wink.gif

complimenti davvero!!!! wink.gif spero un giorno di poterti conoscere di presenza, secondo me sei proprio un personaggio, simpatico e spassoso, da passarci una giornate (oltre che a fare foto!!!) a parlare, scherzare e condividere le proprie esperienze e curiosit� sul mondo della fotografia e non..... wink.gif

bravo davvero!!! Pollice.gif wink.gif
bradipo.sl
LAMBRETTA.............


Per citare il famoso comico di Zelig : LE SO' PROPRIO TUTTE
Denis Calamia
Cos�,��. per saperne un po� di pi��.


Il fenomeno del COMA negli obbiettivi ,come il BLOOMING nel CCD

IL BLOOMING
Le immagini CCD di oggetti molto brillanti, come una stella di prima magnitudine, mostrano talvolta l�effetto del blooming. Questo effetto si traduce in una �striscia� luminosa che parte dai pixels pi� brillanti, simile ai �baffi� di luce che si vedono in fotografie astronomiche riprese con telescopi Newton. E� dovuto al �travaso� di elettroni in eccesso dai pixels saturati verso quelli adiacenti (l�isolante del pixel non � pi� in grado di trattenere gli elettroni). Molti CCD in commercio comprendono circuiteria antiblooming, che riduce di molto questo effetto, a discapito per� (in certi casi) dell�EQ.


Tratto a DREAMVIDEO:

. Il teorema della campionatura di Nyquist afferma che l'ingresso del sistema di campionatura dei dati deve (pu�) essere limitato di banda alla met� della frequenza di campionamento se si desiderano evitare errori di aliasing nei dati campionati. L'esperienza della natura dell'aliasing utilizzando CCD e quindi la necessit� di utilizzare un filtro ottico anti-aliasing � la cosa che deve essere presa in considerazione per prima.


LE MICROLENTI
Abbiamo parlato in precedenza delle microlenti posizionate su ogni singolo sensore del CCD. Vediamo pi� in dettaglio cosa sono e come funzionano.
Tipicamente una camera con CCD senza microlenti possiede questa sensibilit�:
Segnale di 1 Vpp ottenuto con luce di 2000 lux riflessa per il 96% da una superficie riflettente con diaframma a F=5.6
Tipicamente una camera con CCD dotati di microlenti possiede questa sensibilit�:
Segnale di 1Vpp ottenuto con luce di 2000 lux riflessa per il 96% da una superficie riflettente con diaframma a F=8
Quindi si guadagna uno stop di diaframma, il che significa che la sensibilit� raddoppia.
Possiamo ad esempio ricordare che la sensibilit� tipica di un tubo a fotoconduzione da 2/3" Plumbicon era:
Segnale di 1 Vpp ottenuto con luce di 2000 lux riflessa per il 96% da una superficie riflettente con diaframma a F=4.5
Per un tubo Saticon da 2/3"
Segnale di 1 Vpp ottenuto con luce di 2000 lux riflessa per il 96% da una superficie riflettente con diaframma a F=4
Come � facilmente comprensibile dai dati citati sopra ora diventa evidente il perch� le odierne camere a CCD e dotate di microlenti sono molto pi� sensibili rispetto alle camere di soli 10 anni fa. La sensibilit� � di 4 o 5 volte maggiore oltre all'aumentata qualit� generalizzata dell'immagine che sono in grado di fornire.
Tuttavia come al solito l'uso delle microlenti ha benefici e svantaggi. Lo scopo delle microlenti � quello di concentrare sulla superficie del singolo elemento sensibile del CCD luce che non lo raggiungerebbe in quando andrebbe a cadere su aree non sensibili tra un pixel e l'altro ma questo produce inevitabilmente una certa diffusione della luce e proprio in prossimit� del singolo rilevatore, luce che pu� essere captata anche dal pixel adiacente. Questo fenomeno negativo di cui si patisce � tuttavia compensato dai benefici che si ottengono relativi all'aumentata sensibilit� di sistema. Un altro beneficio che si somma � una certa riduzione del pur gi� ridottittismo e ininfluente a questo punto fenomeno dello smear verticale.

CONCLUSIONI
I CCD con microlenti hanno un costo praticamente doppio di quelli senza microlenti.




ERRATA CORRIGE Per LAMBRETTA:

No algoritmo di Bayer .... wink.gif ma FILTRO DI BAYER (filtro a colori primari anteposto al CCD)

Gli algoritmi sono di solito propretari(studiati appositamente per ogni tipo di conformazione del CCD)

Ciao Denis.........
digiborg
QUOTE (flyingzone @ May 31 2004, 09:50 AM)
ERRATA CORRIGE Per LAMBRETTA:

No algoritmo di Bayer .... wink.gif ma FILTRO DI BAYER (filtro a colori primari anteposto al CCD)

Gli algoritmi sono di solito propretari(studiati appositamente per ogni tipo di conformazione del CCD)

Correggimi se sbaglio, magari dico una boiata...
ma non serve anche un'algoritmo (di Bayer appunto) che ricomponga l'immagine creata dal filtro di Bayer anteposto al CCD in modo da trasformare i dati con monocromatici (il ccd � monocromatico) a colore RGB? huh.gif
digiborg
... oltretutto se cos� non fosse non si potrebbe riottenere un'immagine da 6 megapixel in quanto bisognerebbe suddividere i megapixel totali per 3 che sono i filtro colore interposti davanti ai fotorecettori cio� rosso verde (doppio) e blu. Il suddetto algoritmo dovrebbe interpolare le informazioni mancanti non registrate dai fotorecettori per via del taglio filtro.
Lambretta S
QUOTE (digiborg @ May 31 2004, 12:47 PM)
QUOTE (flyingzone @ May 31 2004, 09:50 AM)
ERRATA CORRIGE Per LAMBRETTA:

No algoritmo di Bayer .... wink.gif ma FILTRO DI BAYER (filtro a colori primari anteposto al CCD)

Gli algoritmi sono di solito propretari(studiati appositamente per ogni tipo di conformazione del CCD)

Correggimi se sbaglio, magari dico una boiata...
ma non serve anche un'algoritmo (di Bayer appunto) che ricomponga l'immagine creata dal filtro di Bayer anteposto al CCD in modo da trasformare i dati con monocromatici (il ccd � monocromatico) a colore RGB? huh.gif

Si hai ragione Denis ha fatto un papocchio ha confuso i CCD per uso astronomico con i sensori CCD per fotocamere... facendo copia e incolla e non sapendo cosa si sta copiando � facile fare confusione... tra l'altro mai letta una definizione pi� sconclusionata del Teorema del Campionamento... va bene lo stesso premiamo la buona volont�... in futuro per� prima di fare cut and past cerca di capire di cosa parla l'articolo e non usare la traduzione automatica che fa pena... in sostanza se le cose le sai mettile se no leggi da chi ne sa appena pi� di te che fai pi� bella figura...
Denis Calamia
L'algoritmo di interpolazione viene studiato appositamente dalla casa che adotta un certo tipo di CCD,in funzione della tipologia di costruzione di quel CCD,l'algoritmo non � dunque lo stesso per tutti i CCD,dunque non pu� avere lo stesso nome per tutti(Bayer) ma l'ingegnere che lo ha realizzato lo chiamera per esempio con il nome di sua figlia biggrin.gif MOANA biggrin.gif (p.es:la Nikon D70 adotta un algoritmo di interpolazione del filtro di BAYER diverso da quello adottato da una Coolpix,per il semplice fatto che i CCD sono strutturalmente diversi!).
Il filtro anteposto al CCD � costituito al 50% da fotodiodi"verniciati" di verde,25%dirosso e 25% di blu.Serve dunque una stringa di comandi che dica al processore di"miscelare" fra di loro in modo sapiente i 3 colori(avvolte anche 4,vedi CCD sony)e copiare le informazioni dai pixel adiacenti di colore diverso,in modo da fare un bel minestrone biggrin.gif dove in mezzo vi sono anche le indicazioni di come fare l'occultamento dei DEAD PIXEL e dei Pixel "FINTI"addetti al trasporto dei dati.(fanno parte di quella zona del CCD che prende il nome di Registri di Shift,e sono sistemati in verticale,una fila ogni 4 file di fotosensori,dunque ogni 4 file di fotosensori ve ne � una che non rileva una benemerita H !....alla faccia dei 6 Mpixel effettivi mad.gif ).

Se un giorno inventer� il miglior Algoritmo di interpolazione....lo chiamer� Lambretta laugh.gif
Sai che foto con battute umoristiche allegate a commento usciranno fuori???

Ciao Denis....
Denis Calamia
Ciao DIGIBORG...
Si i fotodiodi sono monocromatici ed hanno anteposto in filtro a colori primari (o filtro di Bayer)per far s� che diventino sensibili al verde,rosso e blu,e per combinare i dati (come detto sopra) vi � bisogno di un algoritmo di interpolaz.
che per� non ha un nome specifico. wink.gif

Ciao Denis.....
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.