Capelli realistici in tempo reale con le prossime GeForce?

Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Nvidia presenterà le schede video di nuova generazione Turing, con tutta probabilità, alla Gamescom di Colonia. A due anni dall'introduzione delle soluzioni Pascal e l'uscita delle proposte Volta solo nel settore HPC e professionale c'è molta curiosità di sapere come si comporteranno le nuove proposte e quali caratteristiche avranno. Per esempio conserveranno i Tensor core visti nella GPU Volta GV100?

Qualora dovessero farlo, una delle possibili novità che potremmo vedere è l'uso dell'intelligenza artificiale per renderizzare capelli, pellicce, erba e altri elementi simili in modo più realistico in tempo reale. Se queste parole vi suonano familiari avete ragione, dato che sembra in qualche modo una sintesi della tecnologia Nvidia Hairworks. Una tecnologia che indubbiamente migliora la qualità di suddetti elementi ma impatta anche in modo marcato sulle prestazioni. C'è quindi spazio per migliorare.

capelli deep learning

E dato che Nvidia è in prima linea nel settore del deep learning, potrebbe essere proprio tale tecnologia a portare una ventata di novità sulle nuove GeForce. Come riportato dalla stessa Nvidia sul proprio blog, ricercatori della University of Southern California, Pinscreen e Microsoft hanno sviluppato un metodo basato sul deep learning in grado di generare in tempo reale una geometria completa in 3D dei capelli partendo da immagini a vista singola. Questo è solo il primo passo di un progetto di deep learning che punta a renderizzare capelli in tempo reale.

"La modellazione realistica dei capelli è una delle operazioni più difficili quando si digitalizzano gli esseri umani in virtuale", hanno dichiarato i ricercatori. "Contrariamente agli oggetti che sono facilmente parametrizzabili, come il volto umano, i capelli si estendono su una vasta gamma di variazioni di forma e possono essere molto complessi a causa della struttura volumetrica e del livello di deformabilità in ogni ciocca".

Usando delle GPU Nvidia Titan Xp con il framework di deep learning PyTorch accelerato da cuDNN, i ricercatori hanno allenato la loro rete convoluzionale con un insieme di dati formato da oltre 40.000 stili di capelli differenti e 160.000 di immagini 2D relative all'orientamento renderizzate da viste casuali. La pipeline della rete neurale contiene tre passi: pre-elaborazione, generazione delle ciocche dei capelli e ricostruzione.

"Il pre-processing è adatto per primo al fine di calcolare il campo di orientamento 2D della regione dei capelli in base alla maschera dei capelli stimata automaticamente. Poi HairNet prende i campi di orientamento 2D come input e genera ciocche di capelli rappresentate come sequenze di punti 3D. La ricostruzione finale viene fatta per generare in modo efficiente un modello di capelli denso e fluido", hanno affermato i ricercatori. "I capelli del nostro metodo possono preservare meglio i singoli dettagli e apparire più naturali, specie nel caso dei capelli ricci".

Il metodo può gestire differenti tipi di capelli inclusi ricci, dritti, ondulati e molto ricci. Tuttavia, il team ammette che il loro metodo non è perfetto. "Abbiamo riscontrato che il nostro approccio fallisce nella generazione di capelli esotici come quelli afro. Pensiamo che la ragione sia che non avevamo quel tipo di stili di capelli nel nostro database di allenamento. Costruendo un insieme di dati più grande che copre più variazioni potremmo mitigare questo problema".


Tom's Consiglia

Va quasi come la GTX 1080 e costa circa 300 euro, è la GTX 1070 Ti. La trovi su Amazon.