Ma dai?
Nel 2025 anche in AMD hanno capito che le tecniche di interpolazione degli anni '90 non sono più così efficaci quanto gli algoritmo IA?
Chissà cosa diranno ora i fanboy AMD... AMD top, non plus ultra, the best.. con 7 anni di riardo, ma vabbe', so' fanboy, che cce volete fà...
Questo commento è stato nascosto automaticamente.
1
Ma dai? Nel 2025 anche in AMD hanno capito che le tecniche di interpolazione degli anni '90 non sono più così efficaci quanto gli algoritmo IA? Chissà cosa diranno ora i fanboy AMD... AMD top, non plus ultra, the best.. con 7 anni di riardo, ma vabbe', so' fanboy, che cce volete fà...
Nvidia sicuramente è partita 7 anni fa, ma già FSR4 a livello di qualità dell'upscaling ha di fatto recuperato 6 di questi 7 anni essendo paragonabile, se non pure migliore, dell'upscaling pre DLSS4.

Cmq mi pare che Nvidia nel 2025 di disastri ne abbia fatti ben di peggiori...
Questo commento è stato nascosto automaticamente.
Nvidia sicuramente è partita 7 anni fa, ma già FSR4 a livello di qualità dell'upscaling ha di fatto recuperato 6 di questi 7 anni essendo paragonabile, se non pure migliore, dell'upscaling pre DLSS4. Cmq mi pare che Nvidia nel 2025 di disastri ne abbia fatti ben di peggiori...
tutto vero ma se parti oggi di fatto non hai giochi dove provare o usare queste tecnologie rendendole oggettivametne inutili
Questo commento è stato nascosto automaticamente.
0
tutto vero ma se parti oggi di fatto non hai giochi dove provare o usare queste tecnologie rendendole oggettivametne inutili
E se non parti proprio è pure peggio direi.
Io poi personalmente sono contro tutta sta roba, preferirò sempre la potenza bruta della scheda, piuttosto i giochi più pesanti me li tengo da parte e li gioco quando dispongo di un pc all'altezza.
Tanto dopo 27 anni da PC Gamer i giochi da giocare non mancano di certo
Questo commento è stato nascosto automaticamente.
tutto vero ma se parti oggi di fatto non hai giochi dove provare o usare queste tecnologie rendendole oggettivametne inutili
Di giochi in realtà ce ne sono, inoltre tutti i giochi FSR 3.1 si aggiornano al 4 se hai un 9000.
Non sono ancora tanti come Nvidia ok, ma da qui a dire che non ci sono e quindi è inutile ne passa.

Che poi il problema non è essere partiti dopo a usare ML e affini, il problema è che sono partiti dopo a usare la DLL nei giochi.
Così oggi tutti i giochi DLSS qualsiasi versione sono facilmente aggiornabili a DLSS 4 anche da pannello dei driver (cosa che Nvidia ha preso da AMD) ma solo i giochi FSR 3.1 sono aggiornabili a FSR 4 e oltre, FSR 1/2/3 se non vengono aggiornati i giochi restano fermi.

L'adozione di FSR è stata alta fino al 3 perché open e compatibile con tutto, adesso che non è più così potrebbe rallentare.
AMD per spingerlo dovrebbe continuare a lavorare su un FSR compatibile con tutto che si aggiorna a quello figo con ML in presenza delle 9000, esattamente come 3.1 (per tutti) e 4 (per rdna4).
Il punto è che non ci sono stati aggiornamenti dal 3.1 per tutti che spingano gli sviluppatori a implementare questo sistema e se proprio devono implementare qualcosa meglio DLSS che ha un bacino di utenza più ampio.
Questo commento è stato nascosto automaticamente.
E se non parti proprio è pure peggio direi. Io poi personalmente sono contro tutta sta roba, preferirò sempre la potenza bruta della scheda, piuttosto i giochi più pesanti me li tengo da parte e li gioco quando dispongo di un pc all'altezza. Tanto dopo 27 anni da PC Gamer i giochi da giocare non mancano di certo
anchr io faccio cosi
Questo commento è stato nascosto automaticamente.
E se non parti proprio è pure peggio direi. Io poi personalmente sono contro tutta sta roba, preferirò sempre la potenza bruta della scheda, piuttosto i giochi più pesanti me li tengo da parte e li gioco quando dispongo di un pc all'altezza. Tanto dopo 27 anni da PC Gamer i giochi da giocare non mancano di certo
Tendenzialmente concordo con te ma ci sono molti "ma".
Il primo è che questi sistemi stanno diventando i modi migliori per eliminare l'aliasing, i vecchi sistemi non sono più in grado di farlo bene a meno che non si ricorre a sistemi di forza bruta come SSAA ma sarebbe insensato.
Il secondo è che per giocare a ceri giochi e a certe risoluzioni e certi settaggi non ti basta manco una 5090.

Questi sistemi saranno la normalità nel giro di pochissimo, anzi penso che non avrà più senso tenerli disattivi, al massimo si useranno a risoluzione nativa (DLAA/FSR native mode)

P.S: in verità non vedo l'ora che lo standard diventi directSR, in modo che faccia da gancio per poter inserire quello che si vuole, DLSS, FSR, xESS o qualsiasi cosa sia.
Questo commento è stato nascosto automaticamente.
Nvidia sicuramente è partita 7 anni fa, ma già FSR4 a livello di qualità dell'upscaling ha di fatto recuperato 6 di questi 7 anni essendo paragonabile, se non pure migliore, dell'upscaling pre DLSS4. Cmq mi pare che Nvidia nel 2025 di disastri ne abbia fatti ben di peggiori...
FSR4 è del 2025 pure lui, Sempre 7 anni sono passati dalla prima implementazione di uno scaling che usava l'AI, visto come il male assoluto e il solito trucco di nvidia per vendere nuovo HW con unità inutili per fare cose inutili. Si può fare tutto con gli shader, gridavano i fanboy. Pure l'RT.
Poi è ovvio che se parti con 7 anni di ritardo salti tutti i passaggi intermedi e copi direttamente l'ultima versione che ha fatto la concorrenza. Hai fatto praticamente il parassita dell'innovazione mandando gli altri avanti e facendogli sobbarcare i rischi e i costi di sviluppo. Poi arrivi tu con calma e dici: eccheci voleva?
Intanto se non c'era nvidia eravamo ancora qui con il TAA e il suo shimmering. Ah, però, che bello il raster degli anni '90.
Questo commento è stato nascosto automaticamente.
Di giochi in realtà ce ne sono, inoltre tutti i giochi FSR 3.1 si aggiornano al 4 se hai un 9000. Non sono ancora tanti come Nvidia ok, ma da qui a dire che non ci sono e quindi è inutile ne passa. Che poi il problema non è essere partiti dopo a usare ML e affini, il problema è che sono partiti dopo a usare la DLL nei giochi. Così oggi tutti i giochi DLSS qualsiasi versione sono facilmente aggiornabili a DLSS 4 anche da pannello dei driver (cosa che Nvidia ha preso da AMD) ma solo i giochi FSR 3.1 sono aggiornabili a FSR 4 e oltre, FSR 1/2/3 se non vengono aggiornati i giochi restano fermi. L'adozione di FSR è stata alta fino al 3 perché open e compatibile con tutto, adesso che non è più così potrebbe rallentare. AMD per spingerlo dovrebbe continuare a lavorare su un FSR compatibile con tutto che si aggiorna a quello figo con ML in presenza delle 9000, esattamente come 3.1 (per tutti) e 4 (per rdna4). Il punto è che non ci sono stati aggiornamenti dal 3.1 per tutti che spingano gli sviluppatori a implementare questo sistema e se proprio devono implementare qualcosa meglio DLSS che ha un bacino di utenza più ampio.
Il problema è aver venduto una soluzione antiquata come adeguata per 3 generazioni di GPU che erano già obsolete ancora prima di finire sugli scaffali.
Quando si sono accorti che non c'era confronto con gli algoritmi AI hanno dovuto aggiungere un botto di transistor e ovviamente rendere i nuovi algoritmi incompatibili con il passato perché non girano più sui normali shader: serve HW dedicato che le vecchie schede non hanno.
RDNA4 è il Turing di nvidia che ha tagliato i ponti con il passato, arrivato con soli 7 anni di ritardo.
Dai, come detto, meglio partire che non farlo mai.
Questo commento è stato nascosto automaticamente.
Il problema è aver venduto una soluzione antiquata come adeguata per 3 generazioni di GPU che erano già obsolete ancora prima di finire sugli scaffali. Quando si sono accorti che non c'era confronto con gli algoritmi AI hanno dovuto aggiungere un botto di transistor e ovviamente rendere i nuovi algoritmi incompatibili con il passato perché non girano più sui normali shader: serve HW dedicato che le vecchie schede non hanno. RDNA4 è il Turing di nvidia che ha tagliato i ponti con il passato, arrivato con soli 7 anni di ritardo. Dai, come detto, meglio partire che non farlo mai.

Solo che non è proprio così.
DLSS 3, DLSS 4 e FSR 4 e i vecchi algoritmi senza AI non c'è paragone, ma ti stai dimenticando che DLSS 2 e soprattutto il primo facevano pietà esattamente come FSR prima del 4 solo in modo diverso.
DLSS 1 era la fiera dello smarmellamento e dell'appiattimento di qualsiasi dettaglio delle texture, sembra di essere tornati ai tempi del Glide.
Quindi ogni affermazione va collocata nel giusto contesto temporale, ai tempi del DLSS 1/2 non c'era tutto sto bisogno di AI, unità dedicate, ecc. per avere upscaler di qualità simile.
Certo era ovvio che la strada della AI alla fine avrebbe prevalso e al di la della facciata lo sapeva anche AMD, infatti mica sono scesi dal pero adesso ma hanno comunque lavorato sulla AI.
Così come sapeva anche Nvidia che al momento del DLSS 1 i tensor core per il gaming non servivano a molto e quindi le hanno usate per il DLSS, ma a loro serviva averle per altri settori.
Questo commento è stato nascosto automaticamente.
Ma dai? Nel 2025 anche in AMD hanno capito che le tecniche di interpolazione degli anni '90 non sono più così efficaci quanto gli algoritmo IA? Chissà cosa diranno ora i fanboy AMD... AMD top, non plus ultra, the best.. con 7 anni di riardo, ma vabbe', so' fanboy, che cce volete fà...
Parla di fanboy AMD facendo il fanboy Nvidia, muoio.

Tornando a discorsi seri, intanto sono più di 7 anni, perché Nvidia non è che si è svegliata nel 2018 ed ha detto "dai oggi faccio ray tracing". E per tecnologie del genere ovviamente serve tempo, AMD non è entrata nel mercato con machine learning finché non era sicura di avere un prodotto competitivo, e figurati che in una singola generazione di fsr con IA si ritrovano un prodotto che va quasi sempre meglio del DLSS 3.7

Se qui c'è un fanboy, sei tu, che non guardi i dati oggettivi, ma devi solo fare flame
Questo commento è stato nascosto automaticamente.
Parla di fanboy AMD facendo il fanboy Nvidia, muoio. Tornando a discorsi seri, intanto sono più di 7 anni, perché Nvidia non è che si è svegliata nel 2018 ed ha detto "dai oggi faccio ray tracing". E per tecnologie del genere ovviamente serve tempo, AMD non è entrata nel mercato con machine learning finché non era sicura di avere un prodotto competitivo, e figurati che in una singola generazione di fsr con IA si ritrovano un prodotto che va quasi sempre meglio del DLSS 3.7 Se qui c'è un fanboy, sei tu, che non guardi i dati oggettivi, ma devi solo fare flame
Rispondo a te come agli altri.

AMD è entrata adesso nel mercato dell'upscaling IA con unità IA dedicate nelle GPU per via del neural rendering integrato nelle nuove DirectX che sono in dirittura d'arrivo, così come sia AMD che Nvidia hanno iniziato a integrare unità RT in tempo reale poco prima del rilascio di ciò che poi è diventato DirectX XII Ultimate: le librerie dedicate al raytracing.

Alla fine la solfa è sempre quella, che siano AMD o Nvidia c'è bisogno di un vero supporto da parte delle librerie software, altrimenti esattamente come TressFX e Nvidia HairWorks i giochi finanziati da una o dall'altra parte usano la tecnologia, ma poi questa finisce nel dimenticatoio (vedasi HairWorks/TressFX, PhysX ecc.).
Questo commento è stato nascosto automaticamente.
Solo che non è proprio così. DLSS 3, DLSS 4 e FSR 4 e i vecchi algoritmi senza AI non c'è paragone, ma ti stai dimenticando che DLSS 2 e soprattutto il primo facevano pietà esattamente come FSR prima del 4 solo in modo diverso. DLSS 1 era la fiera dello smarmellamento e dell'appiattimento di qualsiasi dettaglio delle texture, sembra di essere tornati ai tempi del Glide. Quindi ogni affermazione va collocata nel giusto contesto temporale, ai tempi del DLSS 1/2 non c'era tutto sto bisogno di AI, unità dedicate, ecc. per avere upscaler di qualità simile. Certo era ovvio che la strada della AI alla fine avrebbe prevalso e al di la della facciata lo sapeva anche AMD, infatti mica sono scesi dal pero adesso ma hanno comunque lavorato sulla AI. Così come sapeva anche Nvidia che al momento del DLSS 1 i tensor core per il gaming non servivano a molto e quindi le hanno usate per il DLSS, ma a loro serviva averle per altri settori.
Solo che no n hai capito la differenza.
Il dlss3 (quello senza FG) gira anche su Turing del 2018.
I nuovi algoritmi di AMD girano solo da rdna4, cioè da ieri, in poi. Arrivare 7 anni dopo permette di saltare l'R&D preliminare di una nuova tecnologia.
Ma ancora non rende la soluzione AMD migliore: non ci sono abbastanza unità matriciali. I transistor sono già troppi così
Questo commento è stato nascosto automaticamente.
Rispondo a te come agli altri. AMD è entrata adesso nel mercato dell'upscaling IA con unità IA dedicate nelle GPU per via del neural rendering integrato nelle nuove DirectX che sono in dirittura d'arrivo, così come sia AMD che Nvidia hanno iniziato a integrare unità RT in tempo reale poco prima del rilascio di ciò che poi è diventato DirectX XII Ultimate: le librerie dedicate al raytracing. Alla fine la solfa è sempre quella, che siano AMD o Nvidia c'è bisogno di un vero supporto da parte delle librerie software, altrimenti esattamente come TressFX e Nvidia HairWorks i giochi finanziati da una o dall'altra parte usano la tecnologia, ma poi questa finisce nel dimenticatoio (vedasi HairWorks/TressFX, PhysX ecc.).
Ma non è vero.
Nel 2025 ancora non sapete come funziona l'integrazione delle nuove API nelle DirectX.
Le unità RT le ha inventate e introdotte Nvidia. E sono arrivate molto prima che vi fosse l'integrazione nelle dx, arrivata come estensione. Infatti i primi giochi usavano l'API RTX e giravano solo su HW Nvidia.
Stessa cosa per lo scaling. L'ha introdotto Nvidia e AMD ha seguito come poteva con gli algoritmi su shader perché non aveva unità in grado di accelerare gli algoritmi AI.
E' arrivata 7 anni dopo, persino dopo Intel.
E solo ora si parla di una integrazione nelle DirectX.

P.S: physx è ancora usato nei giochi. Vediamo se ne spari un'altra
Questo commento è stato nascosto automaticamente.