Ohi ! Ohi ! Hai "tirato fuori" una serie di argomenti tutt'altro che semplici.
Anch'io non sono un "vero" esperto, però cercherò, col tuo aiuto, di riordinare gli argomenti.
La Gamma dinamica è espressa dal rapporto tra il massimo segnale rivelabile (saturazione) ed il minimo segnale (sensibilità). Nel caso di un CCD la dinamica può raggiungere il valore di 250.000, ma il DAC che esegue la conversione tra analogico e digitale utilizza 8 bit per canale e quindi sono solo 256 i valori discreti associabili a ciascun colore fondamentale. Se si operasse sull'intera gamma dinamica del sensore, mancherebbe la gradualità nelle sfumature di colore ed è per questo che la dinamica viene limitata (latitudine) fino a consentire passaggi graduali di colore anche con i "soli 8 bit per canale" a disposizione.
Quindi la latitudine rappresenta quella porzione di gamma dinamica che può essere utilizzata a causa delle limitazioni del formato jpeg.
Nelle fotocamere più evolute (DSLR) si usa un formato a 12 bit per canale (raw) che permette di estendere (un po') la latitudine, utilizzando una maggior porzione della gamma dinamica del sensore.
Quindi, come vedi, la maggior limitazione è quella imposta dal formato.
L' HDR non fa altro che superare questo limite perché utilizza un maggior numero di bit per canale. Per costruire una foto HDR occorrono un certo numero di foto esposte in maniera diversa, in modo da poter recuperare, con l'ausilio di particolari algoritmi, le sfumature nei valori estremi, codificandoli grazie al maggior numero di bit a disposizione. A questo punto l'immagine risultante ha una dinamica espansa, proprio grazie al maggior numero di bit che codifica ogni singolo colore. Ovviamente l'immagine .HDR può essere visualizzata solo con particolari metodologie e, in genere, non ha alcuna utilizzazione pratica ai fini fotografici. Però è utilizzabile in alcune applicazioni di realtà virtuale, nella fotografia scientifica, quella astronomica e per effetti grafici avanzati (ed è per questo che è inserita in PS-CS2).
Una tecnica che trova una immediata applicazione fotografica, invece, è il blending che talvolta viene confusa con l'HDR.
Il Blending consiste nella miscelazione (blending) di più immagini, riprese con la tecnica del bracketing, che tramite opportune tecniche vengono sovrapposte per rendere visibili le zone sottoesposte o sovraesposte nella immagine ripresa con valori standard. In questo caso la codifica è sempre a 8 bit per canale, anche se la foto risultante "sembra" avere una maggior latitudine. In realtà non è così, in quanto per ciascun fotogramma vengono "recuperate" le zone a maggior visibilità e miscelate im modo da ottenere un effetto gradevole. A voler essere precisi non si espande la dinamica, ma al contrario si comprime creando artificiosamente una situazione di luminosità non corrispondente alla realtà.
Ora vediamo un esempio di blending.
La foto che segue è esposta correttamente col matrix della D70, ma i contrasti sono elevati e e richiederebbero una gamma dinamica che il sensore non può offrire (i motivi sono quelli detti sopra):

La stessa foto è sottoesposta di due stop:

La stessa foto, infine, è sovraesposta di 2 stop:

Applicando il blending tramite un apposito programma si ottiene il risultato che allego.

Il risultato è interessante. O no ?
Saluti
Pietro