C'è dell'articolo in questa malafede! Se uno legge l'articolo è scritto bene ma se guarda i grafici si incasina tutto. Dai grafici si evince che la 5060 ti va il doppio della 9060xt in gaming(hogwart legacy), peccato che le prestazioni siano legate al multiframegenerator x4 che sono prestazioni farlocche. Se utilizziamo lossless scaling su amd la stessa scheda va 5 volte più della Nvidia allora! Ma non sarebbe corretto in quanto i frame generati con qualsiasi software sono accettabili a partire dai 60 fps stabili di partenza. Ti voglio vedere se hai 40 fps come godi con i 120 generati a giocare tra glitch grafici e latenza
Questo commento è stato nascosto automaticamente.
Ma per tutti quelli "8GB non bastano se usi il RT e il DLSS e il MFG" hanno visto dove sta la 5060 quando si attivano queste feature? E dove sta la 9070 con i suoi fiammanti 16GB?
Dai dai, che la storia degli 8GB serve solo a voler far cambiare le schede a chi ha le vecchie generazioni per giustificare le almeno 400 cucuzze.
Si vede che il mercato vende molto quelle che costano meno (con 8GB) ed è necessario molto marketing per spingere quelle che costano inutilmente troppo.
Questo commento è stato nascosto automaticamente.
C'è dell'articolo in questa malafede! Se uno legge l'articolo è scritto bene ma se guarda i grafici si incasina tutto. Dai grafici si evince che la 5060 ti va il doppio della 9060xt in gaming(hogwart legacy), peccato che le prestazioni siano legate al multiframegenerator x4 che sono prestazioni farlocche. Se utilizziamo lossless scaling su amd la stessa scheda va 5 volte più della Nvidia allora! Ma non sarebbe corretto in quanto i frame generati con qualsiasi software sono accettabili a partire dai 60 fps stabili di partenza. Ti voglio vedere se hai 40 fps come godi con i 120 generati a giocare tra glitch grafici e latenza
Lo specchietto nell'articolo mostra che anche per AMD la funzione di scaling è attiva quando possibile.
Se poi il gioco supporta solo le robe antiquate o l'FSR fa schifo non è colpa di chi fa le recensioni usando tutto quello che è a disposizione di chi compra questi prodotti.
Comprare nvidia significa anche questo tipo di supporto. Oltre che un innegabile vantaggio nel fare qualsiasi altra cosa che non sia giocare come produrre contenuti tramite modelli AI. Siamo nel 2025, le GPU si usano per altro già da un bel po' di tempo. AMD è rimasta proprio al palo da questo punto di vista.
Questo commento è stato nascosto automaticamente.
C'è dell'articolo in questa malafede! Se uno legge l'articolo è scritto bene ma se guarda i grafici si incasina tutto. Dai grafici si evince che la 5060 ti va il doppio della 9060xt in gaming(hogwart legacy), peccato che le prestazioni siano legate al multiframegenerator x4 che sono prestazioni farlocche. Se utilizziamo lossless scaling su amd la stessa scheda va 5 volte più della Nvidia allora! Ma non sarebbe corretto in quanto i frame generati con qualsiasi software sono accettabili a partire dai 60 fps stabili di partenza. Ti voglio vedere se hai 40 fps come godi con i 120 generati a giocare tra glitch grafici e latenza
Grazie del feedback. Ho voluto inserire la versione nell'upscaler solo nella tabella per tenere più pulito il grafico, ma in effetti diventa difficile capire dove c'è frame gen attiva o meno, singola o multipla che sia, facendo affidamento solo sulla tabella in alto.
Questo commento è stato nascosto automaticamente.
Grazie del feedback. Ho voluto inserire la versione nell'upscaler solo nella tabella per tenere più pulito il grafico, ma in effetti diventa difficile capire dove c'è frame gen attiva o meno, singola o multipla che sia, facendo affidamento solo sulla tabella in alto.
Grazie della precisazione, ammetto di essere stato un pò aggressivo
Questo commento è stato nascosto automaticamente.
380€? ci credo proprio...
Questo commento è stato nascosto automaticamente.
Lo specchietto nell'articolo mostra che anche per AMD la funzione di scaling è attiva quando possibile. Se poi il gioco supporta solo le robe antiquate o l'FSR fa schifo non è colpa di chi fa le recensioni usando tutto quello che è a disposizione di chi compra questi prodotti. Comprare nvidia significa anche questo tipo di supporto. Oltre che un innegabile vantaggio nel fare qualsiasi altra cosa che non sia giocare come produrre contenuti tramite modelli AI. Siamo nel 2025, le GPU si usano per altro già da un bel po' di tempo. AMD è rimasta proprio al palo da questo punto di vista.
Ciao, l'FSR 4 non fa schifo dai, sul 3 sono d'accordo con te! Il problema che è ancora poco adottato. I frame generator mi stanno tutti indipendentemente sulle balle perchè mi paiono specchietti per le allodole per far vedere salti prestazionali da una generazione all'altra che non ci sono stati. Per me, e sottolineo per me, la FG è un più abbastanza inutile perchè va bene solo se il gioco ha già di base un ottimo frame rate.
Questo commento è stato nascosto automaticamente.
Grazie del feedback. Ho voluto inserire la versione nell'upscaler solo nella tabella per tenere più pulito il grafico, ma in effetti diventa difficile capire dove c'è frame gen attiva o meno, singola o multipla che sia, facendo affidamento solo sulla tabella in alto.
Diciamo che non state facendo una bella figura. Non è necessario che io ve lo ricordi, visto che siete sicuramente a conoscenza del recente scandalo che ha coinvolto i recensori (siti, Youtuber, ecc.) e NVIDIA. L'azienda ha costretto i recensori a pubblicare recensioni, pena ritorsioni di vario tipo, in cui la funzione di frame generation fosse obbligatoriamente attivata per le proprie schede, soprattutto in caso di ray tracing, mentre per le schede concorrenti non era attivata, magari perché non era possibile o perché i rivali si fermano a 2x. Questo per falsare i risultati.

In sostanza, avete fatto esattamente ciò che NVIDIA ha "ordinato". Peccato che abbiate compromesso la credibilità delle vostre recensioni. Ne valeva la pena?
Questo commento è stato nascosto automaticamente.
Ma metterci anche la 5070Ti (e a questo punto anche la 9060) con 8GB per vedere quanto peggio vanno rispetto alla versione 16GB faceva brutto?
O forse vanno abbastanza bene da non sostenere la vostra politica martellante che gli 8GB sono diventati tutto ad un tratto troppo pochi anche per il full hd? Per farle crepare è necessario usare le impostazioni ultra plus mega extra uber + RT path tracing + FG + pack texture extra 8K che qui non avete adottato?
Visto come va la 5060 forse ma forse a qualcuno viene il dubbio che stiate solo spingendo in quella direzione per qualche "sollecito monetario".
Questo commento è stato nascosto automaticamente.
Diciamo che non state facendo una bella figura. Non è necessario che io ve lo ricordi, visto che siete sicuramente a conoscenza del recente scandalo che ha coinvolto i recensori (siti, Youtuber, ecc.) e NVIDIA. L'azienda ha costretto i recensori a pubblicare recensioni, pena ritorsioni di vario tipo, in cui la funzione di frame generation fosse obbligatoriamente attivata per le proprie schede, soprattutto in caso di ray tracing, mentre per le schede concorrenti non era attivata, magari perché non era possibile o perché i rivali si fermano a 2x. Questo per falsare i risultati. In sostanza, avete fatto esattamente ciò che NVIDIA ha "ordinato". Peccato che abbiate compromesso la credibilità delle vostre recensioni. Ne valeva la pena?
Eh?
Qui non c'entrano "ordini" di NVIDIA, né alcun complotto strano di cui vi piace parlare. Da quando esistono, come ribadito in varie occasioni, attiviamo tutte le tecnologie disponibili in un gioco per una certa scheda video. E il motivo è molto semplice: i giocatori se hanno le tech, le usano. E non sono io a dirlo, sono i numeri, anche quelli condivisi in diverse occasioni (per dirne uno, più dell'80% dei videogiocatori attiva l'upscaling).
La disparità, come già sottolineato, anche qui, diverse volte, è data dalla diversa diffusione delle due tecnologie. Avatar ha FSR 3 e DLSS 2, e viene testato con FSR 3 e DLSS 2, con le differenze prestazionali del caso. A ben vedere, se fossimo pagati da NVIDIA, dovremmo testare anche le RTX con FSR 3 visto che sono compatibili, no? Così elimineremmo anche quegli scenari dove fanno "brutta figura".
A me sembra che vogliate per forza di cose trovare qualcosa a cui attaccarvi per lamentarvi, sempre e comunque. C'è scritto che NVIDIA è più veloce quasi sempre per merito delle tech, c'è letteralmente scritto "comprate AMD", eppure a quanto pare siamo sempre schiavi di NVIDIA... che fatica farvi contenti :)
Questo commento è stato nascosto automaticamente.
Eh? Qui non c'entrano "ordini" di NVIDIA, né alcun complotto strano di cui vi piace parlare. Da quando esistono, come ribadito in varie occasioni, attiviamo tutte le tecnologie disponibili in un gioco per una certa scheda video. E il motivo è molto semplice: i giocatori se hanno le tech, le usano. E non sono io a dirlo, sono i numeri, anche quelli condivisi in diverse occasioni (per dirne uno, più dell'80% dei videogiocatori attiva l'upscaling). La disparità, come già sottolineato, anche qui, diverse volte, è data dalla diversa diffusione delle due tecnologie. Avatar ha FSR 3 e DLSS 2, e viene testato con FSR 3 e DLSS 2, con le differenze prestazionali del caso. A ben vedere, se fossimo pagati da NVIDIA, dovremmo testare anche le RTX con FSR 3 visto che sono compatibili, no? Così elimineremmo anche quegli scenari dove fanno "brutta figura". A me sembra che vogliate per forza di cose trovare qualcosa a cui attaccarvi per lamentarvi, sempre e comunque. C'è scritto che NVIDIA è più veloce quasi sempre per merito delle tech, c'è letteralmente scritto "comprate AMD", eppure a quanto pare siamo sempre schiavi di NVIDIA... che fatica farvi contenti :)
Il problema nn è l'utilizzo degli upscaler nella recensione ma l'utilizzo della frame generation che tanti preferiscono nn attivare e che modifica notevolmente i risultati. E la polemica tra Nvidia e recensori era proprio legata alle pressioni fatte per valorizzare il multiframe generator da parte di Nvidia . E la risposta data sembra voler sviare sulle tecnologie additate
Questo commento è stato nascosto automaticamente.
Eh? Qui non c'entrano "ordini" di NVIDIA, né alcun complotto strano di cui vi piace parlare. Da quando esistono, come ribadito in varie occasioni, attiviamo tutte le tecnologie disponibili in un gioco per una certa scheda video. E il motivo è molto semplice: i giocatori se hanno le tech, le usano. E non sono io a dirlo, sono i numeri, anche quelli condivisi in diverse occasioni (per dirne uno, più dell'80% dei videogiocatori attiva l'upscaling). La disparità, come già sottolineato, anche qui, diverse volte, è data dalla diversa diffusione delle due tecnologie. Avatar ha FSR 3 e DLSS 2, e viene testato con FSR 3 e DLSS 2, con le differenze prestazionali del caso. A ben vedere, se fossimo pagati da NVIDIA, dovremmo testare anche le RTX con FSR 3 visto che sono compatibili, no? Così elimineremmo anche quegli scenari dove fanno "brutta figura". A me sembra che vogliate per forza di cose trovare qualcosa a cui attaccarvi per lamentarvi, sempre e comunque. C'è scritto che NVIDIA è più veloce quasi sempre per merito delle tech, c'è letteralmente scritto "comprate AMD", eppure a quanto pare siamo sempre schiavi di NVIDIA... che fatica farvi contenti :)
Proprio non era possibile trovare un gioco che supportasse anche FSR4 di AMD da inserire nel confronto? Non ne avete incluso nemmeno UNO! Sono forse titoli irrilevanti o poco conosciuti? Ecco alcuni esempi di giochi che supportano FSR4:

Assassin's Creed Shadows
Call of Duty: Warzone
Call of Duty: Black Ops 6
Horizon Forbidden West
Horizon Zero Dawn Remastered
Marvel's Spider-Man: Remastered
Monster Hunter Wilds
Marvel Rivals
Marvel’s Spider-Man 2
Ratchet and Clank
Space Marine 2
The Last of Us: Part I
The Last of Us: Part II Remastered
Kingdom Come: Deliverance II
God of War: Ragnarok
Civilization 7
Ghost of Tsushima
S.T.A.L.K.E.R. 2: Heart of Chornobyl
The Elder Scrolls IV: Oblivion Remastered
The Finals
Warhammer 40,000: Darktide

Inoltre, nella tabella dei test in ray tracing, dove si indica se il frame generation di NVIDIA viene utilizzato a 2x oppure a 4x?
Quel dato fornito da NVIDIA riguardo all'uso dell'upscaling all'80% è già stato contestato. Quando si utilizzano le impostazioni raccomandate da NVIDIA, spesso si attiva automaticamente il DLSS, e molti giochi lo hanno attivato di default. È discutibile quanto spesso gli utenti sappiano attivare il DLSS, dato che l'utente medio potrebbe non sapere nemmeno cosa sia. È comune che gli utenti lascino i giochi con le impostazioni consigliate e non ci pensino più.

Nessuno qui sta dicendo che siete pagati. Che ricevete pressioni da NVIDIA questo è certo dopo che si è saputo cosa accadeva dietro le quinte nei rapporti tra recensori e NVIDIA, a meno che non siate gli unici recensori al mondo a cui NVIDIA ha "dimenticato" di comunicare le sue "richieste". È stato già spiegato che non si tratta solo di pagare qualcuno. Se le richieste non vengono rispettate, NVIDIA attua una serie di azioni che danneggiano chi non si allinea.

Sarebbe sempre meglio mantenere la schiena dritta di fronte a queste intimidazioni anche per il bene di tutto questo settore. Magari non l'avete fatto con intenzione, ma pubblicando quei grafici esattamente come richiesto da NVIDIA e non includendo nemmeno UN gioco con FSR4, il dubbio rimane.
Questo commento è stato nascosto automaticamente.
e non possono mancare i commenti dei soliti fan amd.
per quanto riguarda "i frame farlocchi": più frame hai, più è fluido il video, e questo è innegabile. è "finto"? beh, allora dimostratemi che riuscite a capire la differenza tra "generato" e "calcolato". per adesso state solo frignando, e solo perchè amd non ha una tecnologia equivalente, un po' come quando con le 2000 nvidia ha tirato fuori l'RT e l'amd non ce l'aveva, e allora tutti diligentemente a dire "l'RT non serve a niente".

le chiacchiere sono chiacchiere, la realtà è che nvidia innova e sta innovando (e non solo nel campo gaming, ma soprattutto nel settore IA, dove amd è inesistente o quasi), mentre le amd sono semplicemente delle vga pompate. innovazione? magari l'anno prossimo, o quello dopo ancora.
Questo commento è stato nascosto automaticamente.
Proprio non era possibile trovare un gioco che supportasse anche FSR4 di AMD da inserire nel confronto? Non ne avete incluso nemmeno UNO! Sono forse titoli irrilevanti o poco conosciuti? Ecco alcuni esempi di giochi che supportano FSR4: Assassin's Creed Shadows Call of Duty: Warzone Call of Duty: Black Ops 6 Horizon Forbidden West Horizon Zero Dawn Remastered Marvel's Spider-Man: Remastered Monster Hunter Wilds Marvel Rivals Marvel’s Spider-Man 2 Ratchet and Clank Space Marine 2 The Last of Us: Part I The Last of Us: Part II Remastered Kingdom Come: Deliverance II God of War: Ragnarok Civilization 7 Ghost of Tsushima S.T.A.L.K.E.R. 2: Heart of Chornobyl The Elder Scrolls IV: Oblivion Remastered The Finals Warhammer 40,000: Darktide Inoltre, nella tabella dei test in ray tracing, dove si indica se il frame generation di NVIDIA viene utilizzato a 2x oppure a 4x? Quel dato fornito da NVIDIA riguardo all'uso dell'upscaling all'80% è già stato contestato. Quando si utilizzano le impostazioni raccomandate da NVIDIA, spesso si attiva automaticamente il DLSS, e molti giochi lo hanno attivato di default. È discutibile quanto spesso gli utenti sappiano attivare il DLSS, dato che l'utente medio potrebbe non sapere nemmeno cosa sia. È comune che gli utenti lascino i giochi con le impostazioni consigliate e non ci pensino più. Nessuno qui sta dicendo che siete pagati. Che ricevete pressioni da NVIDIA questo è certo dopo che si è saputo cosa accadeva dietro le quinte nei rapporti tra recensori e NVIDIA, a meno che non siate gli unici recensori al mondo a cui NVIDIA ha "dimenticato" di comunicare le sue "richieste". È stato già spiegato che non si tratta solo di pagare qualcuno. Se le richieste non vengono rispettate, NVIDIA attua una serie di azioni che danneggiano chi non si allinea. Sarebbe sempre meglio mantenere la schiena dritta di fronte a queste intimidazioni anche per il bene di tutto questo settore. Magari non l'avete fatto con intenzione, ma pubblicando quei grafici esattamente come richiesto da NVIDIA e non includendo nemmeno UN gioco con FSR4, il dubbio rimane.
rotfl, a parte il gaming, nvidia si mette amd in tasca in qualsiasi altro settore, altro che pressioni di sta ceppa.
poi, fai pure i confronti a pari prezzo, a me fregherebbe niente di spendere 100€ in più se posso avere una scheda realmente al passo con i tempi e non una VGA come nel 2000.
Questo commento è stato nascosto automaticamente.