Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di Il miglior accessorio per Nintendo Switch, arriva finalmente su Switch 2 Il miglior accessorio per Nintendo Switch, arriva finalmente...
Immagine di Anche un "Kinect per bambini" è più venduto di Xbox Anche un "Kinect per bambini" è più venduto di Xbox...

Unreal Engine, Star Wars mostra la tecnologia del futuro

Advertisement

Avatar di Danilo Iaccio

a cura di Danilo Iaccio

@Tom's Hardware Italia

Pubblicato il 22/03/2018 alle 13:04
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Epic Games ha mostrato alla GDC 2018 di San Francisco le potenzialità del Raytracing in tempo reale, considerata una delle tecnologie che faranno fare un salto di qualità enorme in termini visivi ai videogiochi nel prossimo futuro.

L'animazione digitale presentata da Epic è stata possibile grazie alla collaborazione con Nvidia e lo studio di effetti speciali di Disney, ILMxLAB. La demo cinematografica è stata creata utlizzando la neo annunciata tecnologia RTX di Nvidia disponibile tramite le API DXR di Microsoft.

Epic ha costruito la scena utilizzando gli asset di Star Wars: The Last Jedi. Sullo schermo appaiono all'interno di un ascensore di un'astronave del Primo ordine due assaltatori e Capitan Phasma. Quest'ultimo non è stato scelto a caso. Infatti la sua armatura distintiva, tutta cromata, è la superficie ideale per mettere in mostra la qualità delle riflessioni create utilizzando la tecnica del raytracing.

"Superfici così riflettenti e ombre così morbide non hanno mai raggiunto un livello di fedeltà così elevato con l'Unreal Engine", dichiara l'amministratore delegato di Epic, Tim Sweeney. Il risultato finale evidenzia inoltre che i motori grafici dei videogiochi come l'Unreal Engine potrebbero essere utilizzati anche per le animazioni digitali dei film in futuro.  

Il focus della conferenza si è poi spostato sulla digitalizzazione dei volti. In merito è stata presentata un'altra demo intitolata Siren che mostra una donna renderizzata in tempo reale a 60 fotogrammi per secondo con il motore grafico di Epic. La tecnologia mostrata è un miglioramento di quanto iniziato due anni fa con la demo del personaggio Senua di Hellblade di Ninja Theory.

Il video dimostrativo mette in risalto i movimenti realistici del viso e degli occhi del personaggio (interpretato dall'attrice Alexa Leewore) e la capacità d'interagire con i partecipanti. Per la realizzazione sono stati utilizzati oltre all'Unreal Engine, anche le tecnologie di tracciamento del viso di CubicMotion e 3Lateral con l'animazione del corpo guidata invece dal motion capture di Vicon. Questa tecnologia su licenza è già disponibile per i produttori di giochi o film.  

"Stiamo offrendo le chiavi per sbloccare un mondo virtuale, consentendo ai produttori di contenuti e agli sviluppatori di giochi di interagire più facilmente con la nostra tecnologia e semplificare il processo di creazione di umani digitali in tempo reale", ha dichiarato Andy Wood, Presidente di Cubic Motion. "Entro il 2020, questo senza dubbio trasformerà la produzione di contenuti su tutta la linea rendendo questa tecnologia universalmente disponibile. Entro il 2024, potremmo tutti interagire con gli esseri umani digitali in un modo o nell'altro, sia attraverso cuffie, film, TV, giochi, spettacoli dal vivo e trasmissioni".

Epic Games Siren demo

In un'altra demo, Epic e 3Lateral hanno mostrato una versione digitale dell'attore Andy Serkis, che ha recitato nei film de Il Signore degli Anelli e Il Pianeta delle Scimmie.

Il rendering in tempo reale dell'Unreal Engine combinato con la tecnologia di acquisizione volumetrica, ricostruzione e compressione di 3Lateral con il proprio Meta Human Framework, ha dato vita alle performance digitali di Serkis. I dati volumetrici sono stati generati da una serie di immagini di altissima qualità dell'attore catturate da più angolazioni sotto illuminazione controllata. Il processo ha coinvolto vari scenari di cattura, alcuni incentrati sulla geometria, alcuni sull'aspetto e altri sul movimento.

Tutti questi input hanno generato la rappresentazione digitale di Andy Serkis mentre recita alcune battute del Macbeth di Shakespeare che potete vedere nel video che segue.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Anche un "Kinect per bambini" è più venduto di Xbox
3

Videogioco

Anche un "Kinect per bambini" è più venduto di Xbox

Di Andrea Maiellano
I rumor su Half-Life 3 non si fermano e ora potrebbe arrivare nel 2026

Videogioco

I rumor su Half-Life 3 non si fermano e ora potrebbe arrivare nel 2026

Di Andrea Maiellano
Il miglior accessorio per Nintendo Switch, arriva finalmente su Switch 2
1

Videogioco

Il miglior accessorio per Nintendo Switch, arriva finalmente su Switch 2

Di Andrea Maiellano

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.