Schede Grafiche

Motion blur, nuove tecniche per giochi più realistici

I ricercatori del MIT hanno ideato nuove tecniche per calcolare l’effetto blur (sfocatura) in modo molto più efficiente. Secondo gli studiosi gli effetti dei loro studi potrebbero portare ad avere videogiochi con una qualità grafica più convincente e a frame di video digitali che richiedono minuti anziché ore per essere renderizzati.

Cos’è il blur? Un sensore d’immagine in una videocamera digitale e persino una pellicola in una videocamera convenzionale può essere pensata come una griglia di rilevatori di colore, con ognuno dei rilevatori che corrisponde a un pixel nell’immagine finale. 

Se gli oggetti che sono stati fotografati sono fermi, durante una singola esposizione ogni rilevatore registra il colore di solo un punto sulla superficie dell’oggetto. Tuttavia se questi oggetti sono in movimento, la luce da differenti punti su un oggetto, e persino da differenti oggetti, colpirà un singolo rilevatore. Il rilevatore fa la media dei colori di tutti i punti e questo porta ad avere il blur, la sfocatura.

Renderizzare digitalmente un frame di un video è un processo di calcolo intensivo con fasi distinte. Il computer deve anzitutto determinare come si muovono gli oggetti sulla scena e, in secondo luogo, deve calcolare come i raggi di luce da una fonte di luce immaginaria (fittizia) si riflettono sugli oggetti e determinare quali raggi di luce devono raggiungere un obiettivo immaginario.

A destra: algoritmo standard con blur simulato campionando 256 differenti punti. A sinistra: immagine prodotta campionando un punto per pixel. Al centro: il risultato del nuovo algoritmo che campiona solo un punto per pixel ma deduce il valore dei colori dei punti circostanti.

Se gli oggetti nel video sono abbastanza lenti, il computer deve passare per questo processo solo una volta per frame. Se gli oggetti si muovono rapidamente, tuttavia, potrebbe dover effettuare questo processo dozzine o persino centinaia di volte.

Fare a meno dell’effetto blur non si può, perché porterebbe alla creazione di video non convincenti. “Il movimento non sembrerebbe per nulla fluido”, ha dichiarato Jaakko Lehtinen, che ha lavorato su entrambi i progetti e ora è senior Research Scientist di Nvidia. 

Per far quadrare il cerchio e trovare il bilanciamento tra prestazioni e qualità, i ricercatori del MIT hanno pensato a due approcci differenti, corrispondenti a due differenti stadi della pipeline di rendering grafico. Con il primo i ricercatori hanno fatto la semplice ipotesi che il modo nel quale la luce si riflette su un oggetto in movimento non cambia nel corso di un singolo fotogramma.

Per ogni pixel nell’immagine finale, i loro algoritmi eseguono la media dei colori di più punti sulla superficie degli oggetti, ma calcolano quei colori una sola volta. I ricercatori hanno trovato un modo per rappresentare la relazione tra il calcolo dei colori e le forme degli oggetti associati come voci all’interno una tabella.

Per ogni pixel nell’immagine finale, l’algoritmo controlla semplicemente i valori corrispondenti nella tabella. Questo semplifica drasticamente il calcolo ma ha un effetto ridotto sull’immagine finale. Adottare la proposta dei ricercatori richiederebbe comunque modifiche nell’architettura dei chip grafici.

Il secondo metodo riduce l’onere del calcolo determinando quali raggi di luce dovrebbero raggiungere lenti immaginarie. Per produrre un motion blur convincente, gli animatori potrebbero considerare ordinariamente i contributi che più di 100 punti discreti sulle superfici di movimento degli oggetti fanno al valore del colore di un singolo pixel. L’algoritmo ideato invece guarda al numero di punti più piccolo – probabilmente circa 16 – e fa un’ipotesi circa i valori dei colori dei punti nel mezzo. Il risultato è un frame di un video digitale che dovrebbe richiedere generalmente un’ora viene renderizzato in 10 minuti.

Entrambe le tecniche non si applicano solo al motion blur ma anche al tipo di blur che si verifica sullo sfondo dell’immagine quando la videocamera è focalizzata su un oggetto in primo piano.
Maggiori dettagli al Siggraph di agosto, ma secondo Lehtinen diverse aziende di effetti speciali hanno già contattato i ricercatori per saperne di più sul loro lavoro.