Monitor

Che cosa vuol dire colore a 10 bit (e 12 bit)?

Colore a 10 bit, di cosa si tratta? Prima di spiegarlo, la prima cosa da capire è cos'è la Bit Depth (profondità di colore o profondità di bit) e perché è importante per i nostri monitor.

Cos'è la profondità colore

Nella programmazione sui computer le variabili sono archiviate in formati diversi con differenti quantità di bit (uno e zero), a seconda di quanti bit quella variabile richiede. In generale ogni bit che aggiungete vi permette di raddoppiare il numero prima e quindi memorizzare il doppio della quantità d'informazione precedente. Quindi se avete bisogno di contare fino a due (escluso lo zero), avete bisogno di un bit. Due bit vi permetteranno di contare fino a quattro, tre bit fino a otto e così via.

L'altra cosa da sapere è che in generale, meno sono i bit, meglio è. Meno bit significa meno informazione, quindi se state trasmettendo dati via Internet o dando in pasto il tutto alle capacità di calcolo del vostro computer, meno bit vi permetton di ottenere ciò volete più rapidamente.

Leggi anche: Cos'è l'HDR e cosa significa per monitor e TV

Avete però bisogno di un numero di bit sufficiente per contare fino al numero più alto (o più basso) a cui volete arrivare. Quindi il tutto è un atto di bilanciamento per la quantità di bit necessaria; meno bit usate meglio è, ma non dovreste mia usarne meno di quelli che sono davvero necessari.

Come la profondità di bit lavora con gli schermi

Al fine di trasmettere l'immagine che state vedendo in questo momento, il vostro monitor sta trasmettendo tre insiemi differenti di bit per pixel, separati nei colori rosso, verde e blu. La profondità di bit di questi tre canali determina quante sfumature di rosso, verde e blu visualizzate sul vostro display, ponendo così anche un limite su quante ne può mostrare.

Gli schermi di fascia più bassa – che oggi non sono comuni – hanno solo 6 bit per canale colore. Lo standard sRGB richiede otto bit per canale colore per evitare il banding. Al fine di adeguarsi allo standard, questi vecchi pannelli a 6 bit usano il Frame Rate Control per fare il dithering. La speranza è che nasconda il banding.

E che cos'è il banding? Si tratta di un indesiderato salto di colore e / o luminosità a un livello in cui nessuno dei due è destinato. Quanto in là potete spingervi, in questo caso per l'emissione di sfumature di rosso, verde e blu, maggiori sono i colori tra cui scegliere e meno banding vedrete. Il dithering, d'altra parte, non ha quei colori intermedi, ma prova a nascondere il banding passando rumorosamente da un colore all'altro. Non è come avere un bitrate più alto, ma è meglio di niente.

Colour banding example01

Con gli schermi HDR sono richiesti molti più colori e un intervallo di luminosità decisamente maggiore. Questo a sua volta significa che sono necessari più bit d'informazione per memorizzare tutti i colori e la luminosità nel mezzo senza incorrere nel banding. La domanda è quindi una: quanti bit sono necessari per l'HDR?

Leggi anche: Monitor HDR, cosa dovete sapere prima di acquistarlo?

Attualmente la risposta più comunemente usata deriva dalla soglia di Barten (Barten Threshold), proposta in questo documento, che si occupa di stabilire quanto bene l'uomo percepisca il contrasto nella luminanza. Dopo un attento esame, Dolby (che ha stabilito come i bit si applicano alla luminanza nel nuovo standard HDR usato da Dolby Vision e HDR10) ha concluso che i 10 bit avrebbero mostrato un po' di banding, mentre i 12 bit non l'avrebbero avuto affatto.

Questo è il motivo per cui HDR10 (e 10+ e tutti gli altri venuti dopo) hanno 10 bit per pixel, facendo un compromesso tra un po' di banding e una trasmissione più veloce. Lo standard Dolby Vision usa 12 bit per pixel, in modo da assicurare la massima qualità dei pixel anche se usa più bit. Questo basta al range espanso di luminanza (cioè luminosità) che l'HDR può coprire; ma che dire del colore?

Il numero di bit necessari per coprire un "color gamut" (intervallo di colori che uno standard può produrre) senza banding è più complicato da definire. Le ragioni scientifiche sono numerose, ma tutte si legano al fatto che è difficile misurare in modo accurato il modo in cui l'occhio umano vede i colori.

Un problema è che il modo in cui gli occhi umani rispondono ai colori sembra cambiare seconda di quale tipo di test fate. L'ulteriore visione dei colori è dipendente dalle "opsine", che sono i filtri colore che il vostro occhio usa per vedere rosso, verde e blu, rispettivamente. Il problema è che persone differenti hanno opsine un po' diverse, il che significa che una persona potrebbe vedere la stessa tonalità di colore in modo differente da un'altra a causa della genetica.

Possiamo però fare alcune ipotesi plausibili. Anzitutto, in base alle osservazioni, il colore a 8 bit fatto nello standard sRGB non HDR e il color gamut possono quasi, ma non del tutto, coprire sufficienti colori per evitare il banding. Se osservate attentamente un gradiente di colore, assumendo che avete uno schermo a 8 bit, c'è la buona possibilità che noterete un po' di banding. In generale però la situazione è abbastanza buona che non lo vedrete, a meno che non lo stiate davvero cercando.

I due gamut HDR, poi, devono coprire un'enorme range di luminosità così come il gamut color P3, che è più ampio di sRGB, o il color gamut BT.2020 ancora più ampio. Abbiamo già visto di quanti bit avete bisogno per la luminanza, ma di quanti bit avete bisogno per un gamut più alto? Bene, il gamut P3 è inferiore al doppio del numero di colori nel gamut sRGB, il che significa che nominalmente avete bisogno di meno di un bit per coprirlo senza banding. Tuttavia il gamut BT.2020 è un po' più del doppio del gamut sRGB, quindi avete bisogno di più di un bit extra per coprirlo senza banding.

Questo significa che lo standard HDR10, e il colore a 10 bit, non ha una profondità di bit sufficiente per coprire sia la gamma di luminanza HDR completa che il color gamut esteso allo stesso tempo senza banding. Ricordate, il colore a 10 bit non copre completamente la gamma più alta della luminosità da solo, per non parlare del maggior numero di colori.

Questa è parte della ragione per cui HDR10, e colore a 10 bit (anche lo standard HLG usa 10 bit) è limitato a un'uscita di 1000 nits di luminosità (massimi), invece di 10.000 nits di luminosità come fa invece Dolby Vision. Senza spingere molto la gamma di luminosità potete mantenere il banding apparente al minimo. Infatti, con i pannelli attuali limitati per luminosità e range di colori – e quindi con luminosità e colori limitati, pochissime persone possono notare la differenza tra segnali a 12 e 10 bit. Come appare tutto questo nell'hardware reale e nei contenuti con cui potreste avere a che fare?

In pratica…

Dovreste preoccuparvi del più limitato intervallo di colore e luminosità di HDR10 e del colore a 10 bit? La risposta giusta ora è no, non preoccupatevene troppo. Andare troppo oltre 1000 nits in uno schermo HDR semplicemente non è fattibile in questo momento. Né la maggior parte degli schermi può andare oltre il più piccolo gamut P3. E poiché molti contenuti sono masterizzati e trasmessi in colore a 10 bit, l'hardware con colore a 12 bit non ha molto senso oggi.

La seconda cosa è come assicurarsi di avere un colore a 10 bit sul vostro monitor. Fortunatamente è quasi sempre indicato nelle specifiche tecniche del prodotto, ma fate attenzione ai display HDR che non lo indicano. Avrete bisogno di input a 10 bit per il colore, ma per quanto riguarda le uscite è una storia diversa. L'uscita può essere quella di un pannello a 10 bit o uno a 8 bit + FRC.

Un altro trucco che i produttori di schermi usano prende il nome di "lookup table". Non tutte le scene usano tutti i colori e le luminosità che sono disponibili in uno standard – infatti, la maggior parte delle volte non avviene.

Le lookup table si avvantaggiano di questa situazione variando quale informazione i bit che avete disponibili rappresentano in un più limitato insieme di colori e luminosità. Questo limita il numero di bit necessari per produrre una scena senza banding e può ridurre nettamente il banding nel 95% o più delle scene.

Bisogna notare, tuttavia, che attualmente questo lo vediamo solo nei monitor di fascia alta "color reference" come quelli di Eizo. È anche l'unico ambito in cui questo trucco è necessario perché dopo essere trasferiti da una videocamera – o quello che avete – al dispositivo su cui guardate il contenuto, gli attuali segnali HDR si presentano già con un non dissimile trucco sui metadati, che dicono allo schermo quale range di luminosità dovrebbe essere mostrato in ogni momento.

Il terzo e ultimo punto è capire quando bisognerà preoccuparsi del colore a 12 bit. Quando il color gamut BT.2020 sarà usabile su monitor, TV, smartphone e quei dispositivi saranno in grado di raggiungere una luminosità molto maggiore, allora potrete iniziare a pensare ai 12 bit. Una volta che l'industria sarà giunta a quel punto, il colore a 10 bit non sarà sufficiente per visualizzare quel livello di HDR senza banding. Ma non ci siamo ancora arrivati.