image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte di Natale
Accedi a Xenforo
Immagine di OLED e burn-in: questo test smentisce i timori più diffusi OLED e burn-in: questo test smentisce i timori più diffusi...
Immagine di Intel 14A: ecco perché cambierà tutto Intel 14A: ecco perché cambierà tutto...

Intel presenta l’IA che valuta la grafica nei videogiochi

Un nuovo dataset e modello AI offrono un approccio innovativo per valutare oggettivamente la qualità delle immagini nelle tecniche di rendering moderne.

Advertisement

Avatar di Patrizio Coccia

a cura di Patrizio Coccia

Editor @Tom's Hardware Italia

Pubblicato il 16/07/2025 alle 15:25

La notizia in un minuto

  • I ricercatori Intel hanno sviluppato CGVQM, un sistema basato su intelligenza artificiale che valuta scientificamente la qualità grafica dei videogiochi in tempo reale, superando i limiti degli strumenti tradizionali inadeguati per le tecnologie moderne come DLSS e FSR
  • Il sistema utilizza una rete neurale convoluzionale 3D addestrata su un dataset completo di distorsioni grafiche valutate da osservatori umani, riuscendo a identificare problemi come ghosting, aliasing e sfarfallio meglio di qualsiasi altro strumento esistente
  • Il modello dimostra capacità di generalizzazione funzionando efficacemente anche su contenuti non inclusi nel training, ed è ora disponibile su GitHub per sviluppatori e ricercatori

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

Il mondo dei videogiochi moderni ha raggiunto livelli di complessità tecnica che rendono sempre più difficile valutare oggettivamente la qualità visiva di ciò che appare sullo schermo. Tra tecnologie di upscaling come DLSS, generazione di frame artificiali e una miriade di altre tecniche di rendering, i problemi di qualità dell'immagine si sono moltiplicati in modo esponenziale. Problemi come ghosting, sfarfallio, aliasing e disocclusione sono diventati parte integrante dell'esperienza di gioco, ma fino ad oggi mancava uno strumento davvero efficace per misurarli in modo scientifico.

La rivoluzione dell'intelligenza artificiale nella valutazione grafica

I ricercatori di Intel hanno sviluppato una soluzione innovativa chiamata Computer Graphics Visual Quality Metric (CGVQM), ora disponibile su GitHub come applicazione PyTorch. Questo sistema basato su intelligenza artificiale promette di rivoluzionare il modo in cui valutiamo la qualità delle immagini nei giochi in tempo reale. Il progetto nasce dalla necessità di superare i limiti degli strumenti tradizionali come il PSNR (peak signal-to-noise ratio), che erano principalmente concepiti per valutare la compressione video e risultano inadeguati per i complessi problemi grafici odierni.

Il team di ricerca, composto da Akshay Jindal, Nabil Sadaka, Manu Mathew Thomas, Anton Sochenov e Anton Kaplanyan, ha adottato un approccio duplice per creare questo strumento rivoluzionario. La loro ricerca, dettagliata nel paper "CGVQM+D: Computer Graphics Video Quality Metric and Dataset", rappresenta un passo fondamentale verso la standardizzazione della valutazione qualitativa nei videogiochi.

Un dataset completo per ogni tipo di distorsione

La prima fase del progetto ha visto la creazione del Computer Graphics Visual Quality Dataset (CGVQD), una raccolta video che include una vasta gamma di degradazioni della qualità dell'immagine tipiche delle tecniche di rendering moderne. Il dataset considera distorsioni provenienti da path tracing, denoising neurale, tecniche di supersampling come FSR, XeSS e DLSS, Gaussian splatting, interpolazione di frame e shading a velocità variabile adattiva.

Per garantire che il modello di intelligenza artificiale producesse valutazioni allineate con la percezione umana, i ricercatori hanno coinvolto un gruppo di osservatori umani per creare una base di riferimento. Questi volontari hanno valutato le diverse tipologie di distorsioni presenti in ogni video su una scala che andava da "impercettibile" a "molto fastidioso", fornendo così una ground truth fondamentale per l'addestramento del sistema.

L'intelligenza artificiale rende scalabile la valutazione della qualità grafica in tempo reale

Architettura neurale tridimensionale: la chiave del successo

Il cuore del sistema CGVQM è una rete neurale convoluzionale tridimensionale basata su ResNet, specificamente il modello 3D-ResNet-18. La scelta di un'architettura 3D si è rivelata cruciale per ottenere prestazioni elevate, permettendo al sistema di considerare non solo informazioni spaziali bidimensionali come la griglia di pixel in un frame, ma anche informazioni temporali che si sviluppano nel tempo.

Secondo il paper, il modello CGVQM supera praticamente ogni altro strumento di valutazione della qualità dell'immagine, almeno sul dataset sviluppato dai ricercatori. Il modello più intensivo CGVQM-5 si posiziona al secondo posto dopo la valutazione umana di riferimento, mentre il più semplice CGVQM-2 occupa il terzo posto tra tutti i modelli testati.

Prestazioni competitive oltre i confini del training

Una caratteristica fondamentale del sistema è la sua capacità di generalizzazione: il modello non solo identifica e localizza efficacemente le distorsioni all'interno del Computer Graphics Visual Quality Dataset, ma riesce anche a estendere le sue capacità di identificazione a video che non fanno parte del suo set di addestramento. Questa versatilità è essenziale perché il tool possa diventare uno strumento ampiamente utilizzabile nella valutazione della qualità dell'immagine delle applicazioni grafiche in tempo reale.

Anche se i modelli CGVQM-2 e CGVQM-5 non hanno dominato completamente su altri dataset, hanno comunque mostrato prestazioni competitive su una vasta gamma di contenuti diversi. Questo dimostra la robustezza dell'approccio e la sua applicabilità in scenari reali al di fuori del contesto di laboratorio.

Prospettive future e sviluppi possibili

I ricercatori hanno identificato diverse strade per migliorare ulteriormente questo approccio basato su reti neurali. Una possibilità è l'utilizzo di un'architettura transformer per incrementare le prestazioni, anche se attualmente questa opzione richiederebbe risorse computazionali significativamente maggiori rispetto alla CNN 3D utilizzata. Un'altra direzione promettente riguarda l'inclusione di informazioni come i vettori di flusso ottico per raffinare la valutazione della qualità dell'immagine.

Nonostante queste possibilità di miglioramento, le prestazioni attuali del modello CGVQM suggeriscono che si tratti già di un progresso significativo nella valutazione dell'output grafico in tempo reale. L'accessibilità del codice su GitHub rappresenta un passo importante verso l'adozione diffusa di questo strumento da parte di sviluppatori e ricercatori. Per il pubblico italiano, particolarmente attento alla qualità visiva nei videogiochi, questo sviluppo potrebbe tradursi in esperienze di gioco più raffinate e tecnicamente superiori nel prossimo futuro.

Fonte dell'articolo: www.tomshardware.com

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca quadrati

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Intel 14A: ecco perché cambierà tutto
6

Hardware

Intel 14A: ecco perché cambierà tutto

Di Antonello Buzzi
OLED e burn-in: questo test smentisce i timori più diffusi
2

Hardware

OLED e burn-in: questo test smentisce i timori più diffusi

Di Antonello Buzzi
Crucial chiude! Micron preferisce l'IA ai consumatori
2

Hardware

Crucial chiude! Micron preferisce l'IA ai consumatori

Di Andrea Maiellano
Addio Crucial: utenti sacrificati sull'altare dell'IA
9

Hardware

Addio Crucial: utenti sacrificati sull'altare dell'IA

Di Marco Pedrani
La GPU ASUS da 4000 dollari è un costosissimo flop
2

Hardware

La GPU ASUS da 4000 dollari è un costosissimo flop

Di Marco Pedrani

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.