Tom's Hardware Italia
Schede Grafiche

Deep Learning Super-Sampling: più veloce della GTX 1080 Ti?

Pagina 2: Deep Learning Super-Sampling: più veloce della GTX 1080 Ti?
Prima di approfondire le prestazioni della GeForce RTX 2070 nei giochi attuali, diciamo subito che c’è un grande problema nel valutare questa scheda e le RTX in generale: al momento non ci sono giochi con la tecnologia di ray tracing in tempo reale da testare. Abbiamo tuttavia avuto accesso a una demo di Final Fantasy […]

Prima di approfondire le prestazioni della GeForce RTX 2070 nei giochi attuali, diciamo subito che c’è un grande problema nel valutare questa scheda e le RTX in generale: al momento non ci sono giochi con la tecnologia di ray tracing in tempo reale da testare.

Abbiamo tuttavia avuto accesso a una demo di Final Fantasy XV Windows Edition con supporto DLSS. I dettagli sull’implementazione sono alquanto limitati, a parte per una nota sul fatto che DLSS permette alle GPU Turing di usare metà del numero degli input sample per il rendering. L’architettura dei Tensor core si occupa di colmare il resto per creare l’immagine finale.

Nvidia afferma che la demo funziona in 4K con la qualità grafica massima, ma non è possibile vedere quali sono le impostazioni di dettaglio incluse. L’HUD semplicemente mostra la risoluzione: 3840×2160, la grafica: Custom, e un punteggio che aumenta mentre la demo funziona. Sfortunatamente non c’è modo di imporre la risoluzione 2560×1440 (un abbinamento migliore per la RTX 2070).

Nonostante la risoluzione elevata, la RTX 2070 Founders Edition migliora le proprie prestazioni del 38% con DLSS attivo rispetto ad applicare il TAA in 4K. Questo la rende più veloce della GeForce GTX 1080 Ti e della RTX 2080 con TAA attivo. Pensando al futuro, i Tensor Core di TU106 potrebbero sorprendere gli appassionati e diventare la caratteristica più utile di questa architettura, in particolare se le applicazioni reali di DLSS si dimostreranno al livello delle demo di Nvidia.

Fino a quando il DLSS non si dimostrerà in un contenuto reale e non in una demo, crediamo che i giocatori diffideranno dell’idea che gli input sample possano essere rimossi per risparmiare sulla potenza di rendering per poi fare il resto grazie all’AI. Abbiamo esaminato la demo, svolgendo entrambe le versioni molte volte per identificare le eventuali differenze più chiare.

Osservando il video sottostante possiamo fare due osservazioni. La prima è che la maglietta di Noct è afflitta da banding/shimmering a causa di DLSS. Nella versione TAA il petto non esibisce lo stesso effetto. La seconda è che mentre Noct lancia la sua canna da pesca, c’è dell’evidente ghosting che rimane a schermo con TAA attivo. Con DLSS non c’è. Nessuna soluzione è perfetta.

L’implementazione DLSS di Final Fantasy può migliorare nel tempo? Secondo Nvidia, il modello per DLSS viene addestrato su un insieme di dati che alla fine raggiunge un punto in cui la qualità dei risultati derivati ​​si appiattisce. Quindi, in un certo senso, il modello DLSS matura. Ma il supercomputer di Nvidia viene allenato costantemente con nuovi dati di nuovi titoli, quindi potrebbero essere introdotti dei miglioramenti con il passare del tempo. Se ci sono aree che dimostrano un problema di qualche tipo, il modello DLSS può essere rivisto e ottimizzato. Ciò potrebbe coinvolgere l’aggiunta di dati corretti con cui allenare il modello.

Oltre alle implicazioni di DLSS per le prestazioni e la qualità d’immagine, eravamo anche curiosi di sapere se l’uso dei Tensor core impattasse su frequenze e consumi.

Confrontando i consumi nei 300 secondi della demo di FFXV, i valori sono apparsi simili usando DLSS e TAA. La cosa più evidente è che i cali tra le scene si riducono in modo consistente con DLSS abilitato.

Lo stesso vale per la frequenza, anche se possiamo immaginare che il TU106 sia in grado di funzionare a una frequenza leggermente più alta perché renderizza solo una frazione degli input sample e usa i Tensor core per riempire il resto.