Tom's Hardware Italia
Monitor

Cos’è l’HDR e cosa significa per monitor e TV

Le nuove console e i televisori di fascia alta offrono la modalità HDR, e proviamo dunque a capire sinteticamente cosa significa e come scegliere il prodotto più adatto alle nostre esigenze e al nostro budget.

C'è una nuova parola che sta prendendo più piede nel mondo della tecnologia e stiamo parlando di HDR, abbreviazione di High Dynamic Range. È una tecnologia video che necessita di un nuovo tipo di schermi e nuovi contenuti specifici HDR. Di cosa si tratta?

Parliamo di colore

Prima di tutto bisogna capire come percepiamo il colore e come il colore HDR differisca dallo Standard Dynamic Range (SDR) usato comunemente oggi. In fisica, il colore è derivato dallo spettro visibile, con il colore rosso come lunghezza d'onda di luce più bassa che possiamo vedere, fino ad arrivare al violetto che è la più alta. La lunghezza d'onda, o frequenza, della luce è direttamente analoga alla frequenza di differenti suoni.

gamut

Mentre le nostre orecchie possono distinguere le differenti frequenze sonore, i nostri occhi, o i recettori al loro interno, non possono discernere la frequenza della luce – almeno non senza un trucco. Ogni ricettore nel nostro occhio è più o meno equivalente a un pixel sullo "schermo" di ciò che potete vedere, e ognuno porta a una risposta diversa a determinate lunghezze d'onda (colori) della luce.

Nello specifico i nostri recettori sono divisi e possono vedere – principalmente – uno di tre colori differenti: rosso, verde o blu. Al fine di vedere l'intera gamma dei colori, i nostri occhi desumono l'informazione. Se un ricettore verde riceve un segnale debole accanto a un ricettore rosso che raccoglie un segnale forte, allora i vostri occhi desumono che deve esserci qualcosa di arancione scuro intorno alla posizione tra questi due recettori.

Questo a sua volta fornisce un modo piacevole ed economico per ingegnerizzare il colore in uno schermo. Anziché dover produrre ogni lunghezza d'onda di colore effettiva, gli schermi odierni usano una combinazione di subpixel verdi, blu e rossi. Gli schermi possono semplicemente variare la quantità di luce, e così il segnale, da ognuno di questi subpixel per produrre quello che alla fine è il vero colore, almeno per quanto riguarda i nostri occhi.

La relazione tra colore e HDR

Che cosa ha a che fare quanto scritto finora con SDR e HDR? È qui che entrano in gioco i color gamut. Il color gamut è l'intervallo di colori che potete produrre con i subpixel rosso, verde e blu disponibili. È possibile produrre ogni colore tra questi tre primari, mentre non potete riprodurre un colore che non è all'interno di questo triangolo.

Uno dei due concetti dietro l'HDR è di espandere quel triangolo di rosso, verde e blu dall'attuale "BT.709" a qualcosa che sia più vicino a riempire l'intera gamma di colori che gli uomini possono vedere (osservate il grafico sopra). L'obiettivo ultimo è arrivare a un triangolo chiamato "BT.2020". Il problema è che attualmente l'unico modo di produrre rosso, verde e blu richiesto da questo gamut è di usare laser – cosa bella ma non praticabile. Di conseguenza i costosi proiettori laser sono gli unici dispositivi di visualizzazione in grado di mostrare tutti i colori coinvolti – e solo determinati proiettori laser con laser alle giuste lunghezze d'onda riescono.

Gli attuali schermi con HDR invece si accontentano del più piccolo gamut DCI-P3, che può essere riprodotto dagli OLED, gli LCD e dai proiettori. Anche se un po' più piccolo del gamut BT.2020, contiene molti più colori del gamut SDR. Inoltre è lo stesso color gamut usato dai film da un bel po' di tempo, il che significa che ci sono già attrezzature e contenuti in circolazione che lo supportano e lo usano.

L'intenzione dell'industria è far sì che BT.2020 venga adottato da tutti, ma affinché ciò si tramuti in realtà sarà necessario aspettare che le comuni tecnologie degli schermi possano effettivamente supportarlo. E questa è solo una parte dell'HDR; l'altra metà coinvolge un'altissima luminosità e aree scure davvero molto scure.

Luminosità e percezione

Un'altra cosa da comprendere è come gli uomini percepiscono la luminosità, ossia su una scala logaritmica base 2. Questo significa che ogni volta che la luminosità – o la quantità di fotoni che colpisce il nostro occhio – raddoppia, viene percepita come una crescita di un solo punto in una scala lineare – o in gergo di uno "stop". Osservando ad esempio una scena con una luce e un pezzo di carta, la luce può sparare 32 volte più fotoni nell'occhio rispetto alla carta sottostante, ma luce appare solo cinque volte più luminosa della carta.

Si può descrivere la luminosità di questa luce e carta teorici usando una dimensione standard chiamata nits. Un nit equivale a una candela per metro quadro. Una candela sta alla luminosità come una candela di cera accesa, quindi 1 candela = 1 nit. Allo stesso tempo, un pezzo di carta bianca sotto la luce del sole può essere a circa 40.000 nits, o 40.000 volte più luminoso di una candela.

Anche se la carta sotto la luce del sole raggiunge 40.000 nits, l'interno di un ufficio proprio accanto alla carta potrebbe essere semplicemente a 500 nits. Gli uomini percepiscono tutto questo nello stesso momento; infatti, gli umani possono percepire fino a 20 stop di luminosità in una singola scena. Uno "stop", ricordate, è semplicemente un punto su quella scala log2, perciò gli uomini possono percepire nello stesso momento in una scena qualcosa di un milione di volte più luminoso rispetto alla parte più scura della scena stessa.

Luminosità e HDR

Quindi come relaziona tutto questo all'HDR? Per prima cosa l'obiettivo dell'HDR era semplice: produrre su uno schermo un'approssimazione di una scena estremamente luminosa. Dolby, la prima azienda ad avviare il test per uno standard per l'HDR, ha riscontrato che 10.000 nits sono lo "sweet spot", ossia il miglior compromesso, per la sua configurazione di prova.

Questo è il motivo per cui la comune Electro-Optical-Transfer-Function (EOTF) – usata da tutti gli standard HDR – si ferma a una luminosità massima di 10.000 nits. L'EOTF è la funzione matematica per il trasferimento di un segnale elettronico nel segnale ottico desiderato – ad esempio la funzione da digitale ad analogico.

Per confronto, il riferimento per BT.709 arriva a un massimo di 100 nits, il che significa nella nostra scala che l'HDR ha sei stop e mezzo più stop d'intervallo rispetto all'SDR. Per riferimento l'SDR copre da 1 a 100 nits, o circa sei stop e mezzo di luminosità. L'HDR copre idealmente 13,5 stop – di più in seguito. Perciò l'intervallo di luminosità rappresentabile dall'HDR è il doppio di quello dell'SDR, almeno quanto riguarda la percezione umana.

Mettere il tutto in pratica

Tutta questa informazione extra su luminosità e colore deve essere archiviata per poi essere mostrata sullo schermo. L'informazione su colore e luminosità è, in termini digitali, salvata in un binario e resa per colore. Perciò, un numero X di bit per colore vi restituisce la quantità Y di informazione – un bit digitale può essere un 1 o uno 0.

Le considerazioni riguardo il numero di bit necessari sono duplici: più bit avete, meno banding percepite. Il banding è non è altro che un "salto" nel colore o nella luminosità che avviene perché non è presente sufficiente informazione su colori/luminosità coinvolti affinché si possa avere una transizione fluida. Tutto questo si è visto spesso con il formato GIF, in grado di archiviare solo 8 bit per l'intera immagine, portando così a un banding decisamente visibile (solo 256 colori per frame). Il lato negativo di usare più bit per pixel è che l'immagine richiede più spazio e tempo per essere trasmessa e caricata su un qualsiasi dispositivo.

L'obiettivo è quindi rappresentare il colore e la luminosità desiderati con meno bit possibili, evitando al tempo stesso il banding. Per l'SDR questo vuol dire 8 bit per colore, per un totale di 24 bit per pixel in ogni immagine finale. Fortunatamente, anche il codice binario è in base 2 logaritmica, quindi ogni bit aggiunto raddoppia effettivamente l'informazione memorizzabile.

In questo caso, importa di più quello che è il livello di luminosità effettivamente trasmesso (in altre parole i nits). Dieci bit non sono sufficienti a coprire sufficiente informazione per andare oltre la cosiddetta soglia di Barten – la soglia misurata in cui il banding può diventare visibile. D'altra parte 12 bit essere più che sufficienti per visualizzare segnali HDR senza banding e allo stesso tempo dovrebbero essere in grado di coprire il gamut Rec.2020 con facilità. Questo ci porta a un altro argomento: gli standard HDR concorrenti e come sono implementati. Di questo però parleremo in un altro articolo.