Sempre più esigenti
La novità che ci intriga maggiormente è rappresentata dall'hardware che supporterà le DirectX 10. Ancora una volta, ciò che vedremo in futuro sarà sviluppato al quartiere ATi di Markham, Ontario e a Santa Clara per quanto riguarda Nvidia. Mentre state leggendo questo articolo, stiamo per essere informati ufficialmente sui piani di Nvidia. Per quanto riguarda G80 (GeForce 8800), sono molte le voci di corridoio che stanno circolando, ma al momento non siamo a conoscenza di dati ufficiali.
Da quello che abbiamo sentito, la nuova scheda grafica non dovrebbe adottare lo standard Microsoft secondo il quale un vero motore Direct 3D 10 deve essere coadiuvato da un'architettura a shader unificati. Le unità a shader unificati possono essere modificate attravero un commando che cambia da vertex a geometry o a pixel shader a seconda della necessità. Questo permette al processore grafico di dedicare maggiore potenza dove serve realmente. Gli ingegneri di Nvidia sono affezionati alla struttura fissa delle pipeline, che hanno utilizzato per tutte le loro schede. È stata ATI che si è allontanata e ha frazionato il concetto di "pipeline" di rendering; l'avvento delle Radeon X1000 ha introdotto la visione di carico delle istruzioni e la più elevata concentrazione di pixel shader altamente programmabili, per concludere operazioni ulteriori oltre al tradizionale approccio sviluppato per renderizzare l'immagine.
Una cosa è sicura; ATi ha abbracciato il concetto di pipeline frammentata e potrebbe avere shader unificati e altamente programmabili. Abbiamo sentiro parlare di schede molto grandi - come una da 30 cm che richiederebbe un nuovo design del case per permetterne l'alloggiamento - e importanti requisiti energetici per lavorare correttamente.
Perchè le nuove schede con ATI R600 non dovrebbero richiedere 200-250 watt a scheda e l'equivalente di 500 watt per un Crossfire o uno SLI se parliamo di G80? Si tratta di aggiungere più hardware per amministrare task più importanti e funzioni, come i geometry shader, che prendono i dati esistenti e li riutilizzano per i frame successivi. Più istruzioni e funzioni si riflettono in una domanda maggiore per il chip grafico. Potremmo affermare che ci sarà il bisogno di un nuovo insieme di collegamenti e cache per amministrare i dati di frame precedenti, così come ulteriori interfacce di memoria. Perché non pensare che tutto questo potrebbe richiede più silicio?
Sebbene non siamo favorevoli a schede grafiche più potenti e con sempre più memoria che seguano questo approccio, siamo eccitati dalle prospettive che questo comporta per i giochi futuri. Attualmente potete utilizzare il processore grafico per il programma Folding at Home e presto potrete fargli macinare istruzioni fisiche. (Sebbene Ageia stia guadagnando la ribalta, Havok FX e il gameplay fisico dalla GPU ancora devono essere svelati).
Tenete presente che le schede grafiche faranno dei passi avanti - con o senza Microsoft Vista. Il nuovo hardware è già diventato silicio a tutti gli effetti. Solo il tempo ci dirà quali saranno state le idee utilizzate e quali saranno state le più valide. Fino ad allora non ci resta che rimanere con la bava dalla bocca sulle possibilità esistenti; non vediamo l'ora di mostrarvi quello che saranno in grado di fare!