Progettare una scheda video

GeForce GTX 690 e GTX Titan colpiscono per il design di riferimento bello e ricercato. Abbiamo chiesto a Nvidia di spiegarci il processo di sviluppo del sistema di raffreddamento.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Progettare una scheda video

Ai tempi delle GeForce GTX 400 e GTX 500 il marketing di Nvidia diceva che le soluzioni GF110 erano paragonabili a carri armati, in modo passare il messaggio che offrissero tutto il potenziale di calcolo e gioco possibile con l'architettura Fermi. Successivamente è arrivata la GTX 460 basata sul chip GF104, capace di offrire frame rate giocabili sacrificando la maggior parte delle prestazioni con calcoli a doppia precisione. Nvidia paragonò quella scheda a un "cacciatore".

Il modello sottoposto all'approvazione finale

Arriviamo più o meno ai giorni nostri, alla GeForce GTX 680 basata sul GK104. Durante l'evento di presentazione Nvidia non parlò delle prestazioni di calcolo, il che lasciò sospettare che c'era qualcosa sotto. Oggi sappiamo che Nvidia aveva bisogno di 18.000 GK110 da vendere al governo statunitense sotto forma di schede Tesla. Prese quindi la decisione di portare prima sul mercato il GK104, senza necessariamente sapere come la scheda che poi è diventata la GTX 680 si sarebbe confrontata con la migliore soluzione di casa AMD. Con il senno di poi quella scelta ha pagato, ma Nvidia ha rischiato di farsi davvero male.

Allo stesso tempo Nvidia stava lavorando sul GK110, un chip che ha presentato rilevanti sfide tecniche. La GPU GT200 a 65 nanometri, che era il cuore della GeForce GTX 280, misurava 576 millimetri quadrati. GK110 copre ancora un'area di 551 mm quadrati, ma integra 7,1 miliardi di transistor rispetto agli 1,4 miliardi presenti nel GT200. Si è persino detto che GK110 è il chip più grande che TSMC possa fabbricare a 28 nanometri. Ritardare l'arrivo di quella GPU in ambito desktop ha permesso all'azienda di lavorare il tempo necessario a realizzare una soluzione che si comporti bene sia sotto il profilo termico che quello acustico.

Un altro scatto

Ciò non significa che Nvidia sapeva, già in partenza, che sarebbe andata così. Sull'esperienza di Fermi –ricorderete sicuramente il calore prodotto dalla GTX 480 – il team che fa capo ad Andrew Bell ha visto le specifiche del chip su cui stava lavorando il team di Jonah Alben e ha immediatamente pensato che GK110 fosse una GPU da 300 W. Gli ingegneri erano confidenti che l'architettura Kepler avrebbe aiutato sotto il profilo dell'efficienza, e alla fine la GTX Titan con un SMX disabilitato raggiunge i 250 W che speravano in Nvidia.

Il team di Bell inoltre pensava che il GK104 della GTX 680 fosse una soluzione da 250 W, pensando che se avesse rimpiazzato il GF110 della GTX 580 da 244 W non poteva che essere altrimenti. Come abbiamo scoperto il marzo scorso, però, la GTX 680 ha un TDP di 195 W, che salgono a 225 W in GPU Boost.

Secondo Andrew e Johah sono stati momenti stressanti, con gli ingegneri alle prese con i problemi di consumo della precedente generazione, le aspettative sull'architettura Kepler sul fronte dell'efficienza e la transizione di AMD alla potente architettura GCN - tutto nello stesso momento.