Tensor Core e DLSS, Turing guarda al futuro

Anche se l'architettura Volta era zeppa di grandi cambiamenti rispetto a quella Pascal, l'aggiunta dei Tensor core ha rappresentato l'indicazione più chiara dello scopo della GPU GV100: quei core nascono per accelerare operazioni a matrice 4x4 con input FP16, ossa la base dell'allenamento di reti neurali e inferenza.

Come l'SM di Volta, anche Turing ha due Tensor core per quad, o per capirci meglio ha otto Tensor core per Streaming Multiprocessor. TU102 ha meno SM di GV100 (72 vs. 84), e la RTX 2080 Ti ha meno SM abilitati di una Titan V (68 vs. 80). Perciò la RTX 2080 Ti ha solo 544 Tensor core rispetto ai 640 della Titan V. I Tensor core di TU102 sono però implementati in modo differente: non supporta la moltiplicazione FP16 con operazioni d'accumulo FP32 usate per l'allenamento in ambito deep learning.

Si tratta di una scelta che ha senso: GV100 è stato progettato per l'allenamento di reti neurali mentre TU102 è una GPU gaming in grado di usare reti allenate per l'inferenza. Puntare specificatamente a operazioni FP16, INT8 e INT4 richiede meno transistor che costruire percorsi più ampi per una precisione maggiore. Di conseguenza vi sono benefici prestazionali. Nvidia afferma che i Tensor core di TU102 garantiscono un massimo di 114 TFLOPS con operazioni FP16, 228 TOPS con INT8 e 455 TOPS con INT4.

La maggior parte dei piani attuali di Nvidia per i Tensor core si concentra attorno al concetto di grafica neurale. L'azienda sta tuttavia ricercando altri campi di applicazione del deep learning per le schede video desktop.

Nemici intelligenti, ad esempio, potrebbero cambiare completamente il modo in cui i giocatori approcciano ai combattimenti. La sintesi vocale, il riconoscimento della voce, il miglioramento del materiale artistico, il rilevamento di cheat e l'animazione del personaggio sono tutte aree dove l'AI è già in uso o dove Nvidia vede del potenziale.

deep learning super sampling
Clicca per ingrandire

Il focus di questo lancio però è sul Deep Learning Super Sampling (DLSS). Il processo tramite il quale DLSS è implementato richiede il supporto da parte dello sviluppatoro tramite l'API Nvidia NGX. L'azienda afferma che l'integrazione è piuttosto semplice e sono già 25 i giochi che supporteranno DLSS dimostrando cosa può fare per la qualità delle immagini.

Il tutto è gestito da Nvidia stessa, che offre alle software house la possibilità di ottenere una cosiddetta "ground truth image", ossia la rappresentazione qualitativamente più alta possibile dei propri asset, grazie a una risoluzione super elevata e altre soluzioni.

Una volta ottenuta, Nvidia può allenare un modello di intelligenza artificiale grazie al proprio server SaturnV DGX-1 composto da 660 nodi per ottenere immagini di minore qualità ma quanto più vicine alla "ground truth image".

Questi modelli si scaricheranno tramite i driver di Nvidia e vi si accederà mediante i Tensor core da qualunque scheda GeForce RTX. Nvidia afferma che ogni modello AI peserà "nell'ordine dei megabyte", il che lo rende piuttosto leggero. Anche se speriamo che il software GeForce Experience non sia un requisito di DLSS, sospettiamo che lo sarà.

Nvidia ha confermato che le caratteristiche di NGX sono strettamente integrate in GFE. Se il software rileva una GPU basata su architettura Turing, scarica un pacchetto chiamato NGX Core, che determina se i giochi / app sono rilevanti per NGX. Quando c'è una corrispondenza, NGX Core recupera qualsiasi rete neurale profonda associata per l'uso successivo.

taa
TAA abilitato: notate il testo "rovinato", clicca per ingrandire
dlss
DLSS abilitato: gli artefatti sono spariti, clicca per ingrandire

DLSS rappresenterà un reale passo avanti? È difficile dirlo adesso. Abbiamo visto un esempio di DLSS con la demo Infiltrator di Epic e sembrava funzionare davvero bene. Non è chiaro se Nvidia saprà ottenere risultati simili con ogni gioco, in base a genere, dettaglio ambientale e così via. Ciò che sappiamo è che DLSS è un auto-encoder convoluzionale in tempo reale addestrato su immagini campionate 64 volte. Per funzionare necessita di un frame a risoluzione normale tramite l'API NGX per restituire una versione di quel frame a qualità superiore.

A margine della Gamescom Nvidia ha iniziato a parlare di prestazioni, anticipando il comportamento della RTX 2080 con DLSS abilitato rispetto alla GTX 1080. Quei risultati facevano sembrare che l'attivazione di DLSS migliorasse il frame rate in modo incredibile, ma non c'erano informazioni a chiarire come fossero stati fatti i benchmark. A quanto pare, DLSS migliora le prestazioni riducendo il carico di lavoro della scheda per quanto riguarda lo shading, ottenendo allo stesso tempo una qualità simile.

Turing può produrre un'uscita di qualità maggiore da un determinato numero di campioni di partenza rispetto a un algoritmo di post-processing come Temporal Anti-Aliasing (TAA). Per DLSS, Nvidia trasforma il tutto in un vantaggio prestazionale riducendo i sample di partenza dati alla rete fino a quando l'uscita finale (alla stessa risoluzione di TAA) è vicina a una qualità simile. Anche se Turing passa del tempo a gestire la rete neurale profonda, i risparmi attribuibili a un minor lavoro di shading sono maggiori. Con DLSS 2x Nvidia afferma che può raggiungere l'equivalente di un super-sampling 64x renderizzando gli input alla risoluzione obiettivo, evitando gli artefatti legati alla trasparenza e alla sfocatura che si vedono a volte con il TAA.

Nvidia afferma che sono già 25 i giochi in lista per supportare DLSS, inclusi titoli esistenti come Ark: Survival Evolved, Final Fantasy XV e PlayerUnknown's Battlegrounds.

Pagina precedente

Hybrid Ray Tracing in tempo reale

Parliamo ora del Ray Tracing core (RT core) integrato in ogni SM di TU102. Gli RT core di Nvidia sono in breve degli acceleratori a funzione fissa per Bounding Volume Hierarchy (BVH) traversal e triangle intersection evaluation. Entrambe le operazioni sono essenziali per l'algoritmo di ray tracing. 

bvh 01
bvh 02
bvh 03
bvh 04
I passaggi dell'algoritmo BHV, clicca per ingrandire

In breve, BVH forma dei box geometrici in una determinata scena. Questi box aiutano a restringere la posizione dei triangoli che intersecano i raggi tramite una struttura ad albero. Ogni volta che si trova un triangolo in un box, quel box viene ulteriormente diviso in più box fino a quando il box finale può essere diviso in triangoli. Senza BVH, l'algoritmo sarebbe costretto a ricercare nell'intera scena, bruciando tonnellate di cicli nel testare ogni triangolo per un'intersezione.

bvh software emulation

Il funzionamento di questo algoritmo è possibile grazie alle API Microsoft D3D12 Raytracing Fallback Layer, che usano i computer shader per emulare DirectX Raytracing su dispositivi senza supporto nativo - e spingerli verso DXR quando c'è il supporto da parte dei driver.

Su una GPU Pascal, ad esempio, la scansione BVH avviene sui core programmabili, che prelevano ogni box, lo decodificano, testano per un'intersezione e determinano se c'è un sottobox o triangoli all'interno. Il processo prosegue fino a quando non si trovano i triangoli, punto in cui sono testati per l'intersezione con il raggio. Come potete immaginare è un'operazione molto probante da svolgere in software, impedendo al ray tracing in tempo reale di funzionare fluidamente sulle attuali GPU.

ray tracing hardware acceleration

Creando acceleratori a funzione fissa per queste operazioni, l'SM inserisce un raggio nella scena usando uno shader per la generazione dei raggi e cede la struttura di accelerazione trasversale agli RT core a funzione fissa. Di conseguenza, tutte le valutazioni delle intersezioni si verificano molto più rapidamente e le altre risorse SM sono liberate per lo shading proprio come farebbero per un carico di lavoro tradizionale di rasterizzazione.

ray tracing 1
Clicca per ingrandire

Secondo Nvidia, la GeForce GTX 1080 Ti può gestire 1,1 miliardi di raggi al secondo via software usando i CUDA core capaci di 11,3 TFLOPs in FP32. Di contro la nuova RTX 2080 Ti può gestire 10 miliardi di raggi al secondo usando i suoi 68 RT core. È importante notare che nessuno di questi dati è basato su valori di picco, ma sul significato geometrico dei risultati di diversi carichi.

NVLink, molto più che un'evoluzione dello SLI

TU102 e TU104 sono le prime GPU desktop di Nvidia ad avere l'interconnessione NVLink anziché l'interfaccia Multiple Input/Output (MIO) per il supporto SLI.

nvlink bridge

La prima mette a disposizione due collegamenti x8, MIO è limitata a uno. Ogni collegamento NVLink garantisce un bandwidth bidirezionale fino a 50 GB/s. Perciò la RTX 2080 Ti può offrire fino a 100 GB/s tra due schede mentre la RTX 2080 la metà.

Che vi sia un collegamento oppure due, lo SLI tramite NVLink funziona solo con un paio di GeForce RTX con almeno uno slot vuoto tra loro per garantire il flusso d'aria. Ufficialmente le GPU Pascal supportavano un massimo di due schede. Tecnicamente però era possibile farne lavorare fino a quattro in una manciata di benchmark. Con le nuove proposte potete acquistare il vostro bridge NVLink per connettere più schede. Sul sito di Nvidia sono disponibili soluzioni in grado di coprire tre e quattro slot.

nvlink capabilities
Clicca per ingrandire

Alcuni dei problemi dell'ultima generazione erano causati dai limiti di bandwidth tra i bridge SLI. Rispetto all'originale interfaccia SLI con il suo collegamento MIO da 1 GB/s, l'implementazione Pascal arrivava a circa 4 GB/s, sufficienti per garantire che la seconda scheda restituisca il frame renderizzato alla prima scheda in tempo per avere un frame rate fluido su un monitor 4K a 60 Hz. Non sarebbe però stato sufficiente per i 120 Hz o superiori.

Persino nella configurazione con singolo collegamento il nuovo NVLink può spostare dati così rapidamente da permettere lo SLI su uno schermo 8K. Pilotare tre monitor 4K a 144 Hz in modalità Surround non è un problema. Due collegamenti x8 hanno il throughput necessario per schermi 8K in Surround.

La domanda però è una: a chi interessa? AMD e Nvidia hanno fatto un lavoro così buono negli ultimi anni nel frenare le configurazioni multi-GPU che oggi sono poche le persone che realizzano configurazioni con più schede. In passato lo SLI o il CrossFire erano usati da chi voleva ottenere alte prestazioni comprando schede di fascia medio-bassa.

Nvidia ha messo un freno a questa pratica rimuovendo il supporto dai modelli di fascia bassa. Adesso anche la RTX 2070 è priva di connettore NVLink. I vecchi giochi DX11 funzionano comunque bene su due schede e una manciata di giochi DX12 sfruttano l'explicit multi-adapter. Ma il fatto che sviluppatori come EA DICE stiano puntando su funzioni come il ray-tracing in tempo reale e ignorando il multi-GPU dice molto sul futuro dello SLI.

Alcune persone di Nvidia ci hanno detto che avranno di più da dire in merito in futuro. Per ora, il supporto di NVLink su GeForce RTX 2080 Ti e 2080 è una novità di cui tenere conto, in particolare perché è possibile avere frame rate giocabili in 4K con G-Sync.

Continua a pagina 8

Pubblicità

AREE TEMATICHE