Avatar di Danilo Iaccio

a cura di Danilo Iaccio

Epic Games ha mostrato alla GDC 2018 di San Francisco le potenzialità del Raytracing in tempo reale, considerata una delle tecnologie che faranno fare un salto di qualità enorme in termini visivi ai videogiochi nel prossimo futuro.

L'animazione digitale presentata da Epic è stata possibile grazie alla collaborazione con Nvidia e lo studio di effetti speciali di Disney, ILMxLAB. La demo cinematografica è stata creata utlizzando la neo annunciata tecnologia RTX di Nvidia disponibile tramite le API DXR di Microsoft.

Epic ha costruito la scena utilizzando gli asset di Star Wars: The Last Jedi. Sullo schermo appaiono all'interno di un ascensore di un'astronave del Primo ordine due assaltatori e Capitan Phasma. Quest'ultimo non è stato scelto a caso. Infatti la sua armatura distintiva, tutta cromata, è la superficie ideale per mettere in mostra la qualità delle riflessioni create utilizzando la tecnica del raytracing.

"Superfici così riflettenti e ombre così morbide non hanno mai raggiunto un livello di fedeltà così elevato con l'Unreal Engine", dichiara l'amministratore delegato di Epic, Tim Sweeney. Il risultato finale evidenzia inoltre che i motori grafici dei videogiochi come l'Unreal Engine potrebbero essere utilizzati anche per le animazioni digitali dei film in futuro.  

Il focus della conferenza si è poi spostato sulla digitalizzazione dei volti. In merito è stata presentata un'altra demo intitolata Siren che mostra una donna renderizzata in tempo reale a 60 fotogrammi per secondo con il motore grafico di Epic. La tecnologia mostrata è un miglioramento di quanto iniziato due anni fa con la demo del personaggio Senua di Hellblade di Ninja Theory.

Il video dimostrativo mette in risalto i movimenti realistici del viso e degli occhi del personaggio (interpretato dall'attrice Alexa Leewore) e la capacità d'interagire con i partecipanti. Per la realizzazione sono stati utilizzati oltre all'Unreal Engine, anche le tecnologie di tracciamento del viso di CubicMotion e 3Lateral con l'animazione del corpo guidata invece dal motion capture di Vicon. Questa tecnologia su licenza è già disponibile per i produttori di giochi o film.  

"Stiamo offrendo le chiavi per sbloccare un mondo virtuale, consentendo ai produttori di contenuti e agli sviluppatori di giochi di interagire più facilmente con la nostra tecnologia e semplificare il processo di creazione di umani digitali in tempo reale", ha dichiarato Andy Wood, Presidente di Cubic Motion. "Entro il 2020, questo senza dubbio trasformerà la produzione di contenuti su tutta la linea rendendo questa tecnologia universalmente disponibile. Entro il 2024, potremmo tutti interagire con gli esseri umani digitali in un modo o nell'altro, sia attraverso cuffie, film, TV, giochi, spettacoli dal vivo e trasmissioni".

Epic Games Siren demo

In un'altra demo, Epic e 3Lateral hanno mostrato una versione digitale dell'attore Andy Serkis, che ha recitato nei film de Il Signore degli Anelli e Il Pianeta delle Scimmie.

Il rendering in tempo reale dell'Unreal Engine combinato con la tecnologia di acquisizione volumetrica, ricostruzione e compressione di 3Lateral con il proprio Meta Human Framework, ha dato vita alle performance digitali di Serkis. I dati volumetrici sono stati generati da una serie di immagini di altissima qualità dell'attore catturate da più angolazioni sotto illuminazione controllata. Il processo ha coinvolto vari scenari di cattura, alcuni incentrati sulla geometria, alcuni sull'aspetto e altri sul movimento.

Tutti questi input hanno generato la rappresentazione digitale di Andy Serkis mentre recita alcune battute del Macbeth di Shakespeare che potete vedere nel video che segue.