Dai che se le scatolette maturano, finalmente maturano anche tutti i motori dei giochi che girano su PC. E dopo 8 anni dall'introduzione di AI e ray tracing in una scheda video consumer direi che era ora.
Questo commento è stato nascosto automaticamente.
Scusatemi...
Io non mi reputo di parte.
Ma con 2 cose su 3 non si stanno semplicemente mettendo in pari con la concorrenza ???

"Neural Arrays: unità di calcolo interconnesse che lavorano come un unico motore AI per migliorare significativamente le tecniche di upscaling FSR e PSR
Radiance Cores: hardware dedicato per ray tracing e path tracing in tempo reale che promette di democratizzare l'accesso a questa tecnologia su più dispositivi "

Non stanno facendo semplicemente i core via hardware come Nvidia ?
O non sto capendo io ?
Questo commento è stato nascosto automaticamente.
Scusatemi... Io non mi reputo di parte. Ma con 2 cose su 3 non si stanno semplicemente mettendo in pari con la concorrenza ??? "Neural Arrays: unità di calcolo interconnesse che lavorano come un unico motore AI per migliorare significativamente le tecniche di upscaling FSR e PSR Radiance Cores: hardware dedicato per ray tracing e path tracing in tempo reale che promette di democratizzare l'accesso a questa tecnologia su più dispositivi " Non stanno facendo semplicemente i core via hardware come Nvidia ? O non sto capendo io ?
I Tensor core di Nvidia sono core che usano istruzione a precisioni dimezzate. Qua, da come presentato, abbiamo dei core specifici che lavorano insieme (e non singolarmente) per FSR e frame generation (in pratica come un array singolo, un unico acceleratore con memoria condivisa).
Per i core raytracing: ci sono già i ray accelerator in RDNA, qua si parla di unità aggiuntive che calcolano la diffusione luminosa (da cui il nome randiance) essenziale per produrre una corretta global illumination con path tracing. Questo taglia di ordini di grandezza la complessità del calcolo, riducendo in modo netto l'impatto sul frame rate.
La technologia più interessante è a mio parere l'universal compressione: avere un hardware dedicato che filtra miliardi di geometrie e texture in tempo reale, permette di superare il più grave collo di bottiglia delle GPU moderne. In effetti, geometrie e texture caricate da hardware dedicato e non in base a un algoritmo software, potrebbe abbattere i requisiti di memoria in modo sostanziale. Sia Nvidia che AMD avevano fatto vedere dei test demo poche settimane fa: si passa da gigabyte a megabyte di dati occupati, a parità di scena.
Certo non mi aspettavo una implementazione così rapida, di solito richiedono molti anni per arrivare nei titoli giocati... Però essendo un approccio hardware e non software, in questo caso, credo abbiano tagliato i tempi per farne beneficiare al mondo console (le cui APU sono in fase di design finale in questi mesi con i progetti Magnus e Orion, rispettivamente Xbox e PS6)
Questo commento è stato nascosto automaticamente.
Scusatemi... Io non mi reputo di parte. Ma con 2 cose su 3 non si stanno semplicemente mettendo in pari con la concorrenza ??? "Neural Arrays: unità di calcolo interconnesse che lavorano come un unico motore AI per migliorare significativamente le tecniche di upscaling FSR e PSR Radiance Cores: hardware dedicato per ray tracing e path tracing in tempo reale che promette di democratizzare l'accesso a questa tecnologia su più dispositivi " Non stanno facendo semplicemente i core via hardware come Nvidia ? O non sto capendo io ?
--non si stanno semplicemente mettendo in pari con la concorrenza

Fosse anche, questo avrá comunque 2 benefici:
1) permetterá di avere prestazioni analoghe anche con schede AMD
2) obbligherá nVidia a fare ulteriori significativi passi avanti
Questo commento è stato nascosto automaticamente.
I Tensor core di Nvidia sono core che usano istruzione a precisioni dimezzate. Qua, da come presentato, abbiamo dei core specifici che lavorano insieme (e non singolarmente) per FSR e frame generation (in pratica come un array singolo, un unico acceleratore con memoria condivisa). Per i core raytracing: ci sono già i ray accelerator in RDNA, qua si parla di unità aggiuntive che calcolano la diffusione luminosa (da cui il nome randiance) essenziale per produrre una corretta global illumination con path tracing. Questo taglia di ordini di grandezza la complessità del calcolo, riducendo in modo netto l'impatto sul frame rate. La technologia più interessante è a mio parere l'universal compressione: avere un hardware dedicato che filtra miliardi di geometrie e texture in tempo reale, permette di superare il più grave collo di bottiglia delle GPU moderne. In effetti, geometrie e texture caricate da hardware dedicato e non in base a un algoritmo software, potrebbe abbattere i requisiti di memoria in modo sostanziale. Sia Nvidia che AMD avevano fatto vedere dei test demo poche settimane fa: si passa da gigabyte a megabyte di dati occupati, a parità di scena. Certo non mi aspettavo una implementazione così rapida, di solito richiedono molti anni per arrivare nei titoli giocati... Però essendo un approccio hardware e non software, in questo caso, credo abbiano tagliato i tempi per farne beneficiare al mondo console (le cui APU sono in fase di design finale in questi mesi con i progetti Magnus e Orion, rispettivamente Xbox e PS6)
Molto interessante e chiaro.
Quindi sono evoluzioni di queste tech.
Si,
Anche per me la universal compression sembra la più promettente *_*
Questo commento è stato nascosto automaticamente.
--non si stanno semplicemente mettendo in pari con la concorrenza Fosse anche, questo avrá comunque 2 benefici: 1) permetterá di avere prestazioni analoghe anche con schede AMD 2) obbligherá nVidia a fare ulteriori significativi passi avanti
Capito,
vogliono sorppassare.
Da vedere se come dici tu Nvidia non stia già facendo passi avanti.
Questo commento è stato nascosto automaticamente.
I Tensor core di Nvidia sono core che usano istruzione a precisioni dimezzate. Qua, da come presentato, abbiamo dei core specifici che lavorano insieme (e non singolarmente) per FSR e frame generation (in pratica come un array singolo, un unico acceleratore con memoria condivisa). Per i core raytracing: ci sono già i ray accelerator in RDNA, qua si parla di unità aggiuntive che calcolano la diffusione luminosa (da cui il nome randiance) essenziale per produrre una corretta global illumination con path tracing. Questo taglia di ordini di grandezza la complessità del calcolo, riducendo in modo netto l'impatto sul frame rate. La technologia più interessante è a mio parere l'universal compressione: avere un hardware dedicato che filtra miliardi di geometrie e texture in tempo reale, permette di superare il più grave collo di bottiglia delle GPU moderne. In effetti, geometrie e texture caricate da hardware dedicato e non in base a un algoritmo software, potrebbe abbattere i requisiti di memoria in modo sostanziale. Sia Nvidia che AMD avevano fatto vedere dei test demo poche settimane fa: si passa da gigabyte a megabyte di dati occupati, a parità di scena. Certo non mi aspettavo una implementazione così rapida, di solito richiedono molti anni per arrivare nei titoli giocati... Però essendo un approccio hardware e non software, in questo caso, credo abbiano tagliato i tempi per farne beneficiare al mondo console (le cui APU sono in fase di design finale in questi mesi con i progetti Magnus e Orion, rispettivamente Xbox e PS6)
Falsissimo, solito commento di fanby amd frustrato che spara disinformazione.
I tensor core di Nvidia sono a piena precisione fino a 32bit. Infatti sono usati per fare inferenza anche sulle schede gaming, lavoro che quelle AMD fanno a un decimo della velocità perché non hanno unità matriciali.
Che sia un o due o mille array separati, quello che conta è che si stanno mettendo in pari con Nvidia che queste operazioni, scaling a frame generation, già li fa in HW, mentre AMD dopo 8 anni è ancora lì a chiedersi come farlo.
La compressione HW delle texture esiste dai tempi di 3DFX, quello che AMD ha proposto sono le stesse cose ha ha già Nvidia in Broadwell con la generazione locale di texture tramite AI, cosa che Nvidai può fare OGGI grazie ai tensor core, mentre AMD deve aspettare le cadende greche prima di avere i risultati con i suoi "omnivalenti shader".

Io comunque sono contrario a questa evoluzione, era meglio fare fare tutto agli shader come faceva Vega che riusciva a calcolare tutto in tempo reale sena l'aiuto di nessuna unità HW dedicata: scaling, raytracing, frame generation, li faceva TUTTI in SW. Almeno così mi dicevano.
Questo commento è stato nascosto automaticamente.
Ma cosa vogliono superare che per fare meno di quello che oggi fa nvidia usano il 30% di transistor in più usando più W. Per superarla in prestazioni devono usare almeno il doppio dei transistor e dell'energia.
Qualcuno anni fa sosteneva che metà dei transistor usati da nvidia erano dedicati ai tensor core. Oggi AMD senza tensor ne usa addirittura di più per fare GPU che vanno peggio, quindi pensa come è messa male.
La concorrenza la farà al solito sulla carta con numeri inventati con bench ad-hoc, poi sul mercato reale le prestazioni saranno ben inferiori e le schede al solito le troverai con il contagocce perché AMD ha sempre perso un sacco di soldi vendendo GPU troppo complesse.
Questo commento è stato nascosto automaticamente.