L'avvento delle GDDR e gli esperimenti falliti

Dalla VRAM per arrivare alla HBM2 e alla GDDR6, ripercorriamo l'evoluzione della RAM dedicata alle scheda video.

Avatar di Tom's Hardware

a cura di Tom's Hardware

L'affermazione delle DDR SDRAM come standard delle memorie di sistema portò notevoli cambiamenti anche nelle memorie video (ma anche un po' di confusione). Innanzitutto, mentre esistettero le DDR SDRAM, le GDDR SDRAM non videro mai visto la luce in quanto la prima generazione partì direttamente con le GDDR2. Tuttavia - e qui le cose si fanno complicate - le GDDR2 non furono basate sulle DDR2 ma su uno step intermedio più vicino alle DDR.

5800
Una Nvidia FX 5800 Ultra, la prima scheda video ad utilizzare le GDDR2

Per questa ragione le GDDR2 non beneficiarono del raddoppio del clock del bus
come fu per le DDR2 rispetto alla generazione precedente e, inoltre, mutuavano dalle DDR l'elevata tensione che induceva problemi di surriscaldamento. Per questa ragione non trovarono un'ampia diffusione, tant'è che Nvidia le usò su pochi modelli mentre ATI
(ora AMD) le ignorò del tutto per concentrarsi sullo sviluppo delle GDDR3.
gddr3
Due moduli di GDDR3 installati su una (relativamente) recente AMD Radeon HD 7730

Gli sforzi profusi da ATI Technologies nello sviluppo delle GDDR3 ebbero come risultato il riconoscimento come standard da parte del JEDEC anche se, ironicamente, la prima scheda video dotata di questo tipo di memorie fu la Nvidia FX 5700 Ultra del 2004 su cui le GDDR3 presero il posto delle problematiche GDDR2.

Le GDDR3 recepirono buona parte delle innovazioni introdotte con le DDR2, anche se furono modificate per gestire al meglio i carichi di lavoro tipici delle schede video. Ad esempio, le GDDR3 potevano trasferire 4 bit per pin ogni due cicli di clock e, in linea generale, erano state progettate per favorire le prestazioni in lettura e la velocità di trasmissione a scapito della velocità in scrittura.

Il successo commerciale delle GDDR3 fu enorme tanto da soppiantare tutte le altre tipologie di RAM video.

XDR/2 e GDDR4: finite nel dimenticatoio

Sul finire dello scorso millennio, Rambus presentò le RDRAM (Rambus Direct RAM) che, per un brevissimo periodo, furono adottate anche da Intel. Tuttavia, trattandosi di uno standard proprietario, non raccolsero un consenso elevato tanto quanto le loro prestazioni e finirono per essere usate in scala ridotta (vi rimando all'articolo sulla Storia delle RAM per ulteriori approfondimenti).

Alle RDRAM fecero seguito le XDR DRAM che avrebbero dovuto fare concorrenza sia alle DDR2 SDRAM sia alle GDDR4, grazie a una frequenza interna molto elevata (400 MHz) ed alla capacità di trasferire 8 bit per clock per ogni linea.

xdr
256MB di XDR DRAM prodotti da Elpida ed installati sulla scheda madre di una Playstation 3

Nonostante le prestazioni molto promettenti, i produttori non impazzirono per le XDR DRAM (anche a causa dei costi di licenza) che finirono per avere una diffusione molto limitata, la cui punta di diamante fu la Playstation 3.

Nel 2008 Rambus diffuse le specifiche delle XDR2, una versione migliorata delle XDR spinte da un clock interno fino a 800 MHz che permetteva di trasferire 16 bit per pin per ciclo di clock del sistema. Per raggiungere (e mantenere) tali prestazioni, era tuttavia necessario scendere ad alcuni compromessi che non piacquero praticamente a nessuno, motivo per cui le XDR2 non furono mai adottate da dispositivi di massa.

Nello stesso periodo in cui Rambus lavorava sulle XDR2, il JEDEC pubblicò lo standard GDDR4 sulla base delle DDR3 e delle novità da esse introdotte. Già nel 2006 Samsung fu in grado di realizzare chip da 512 Mbit con una velocità di trasmissione di 12,8 GB/s, maggiore di quella dalle XDR DRAM.

Il balzo prestazionale in termini di velocità di trasferimento fu ottenuto, come già anticipato, grazie all'introduzione delle migliorie già viste sulle DDR3. Quindi, anche in questo caso, il prefetch passò da 4 a 8 bit così come il numero massimo di banchi - pagando lo scotto di un aumento delle latenze. Allo stesso tempo fu anche possibile diminuire la tensione di alimentazione a 1,5V con ovvi benefici in termini di consumo e di calore.

Solo chi ha avuto una ATI HD 2xxx o 3xxx può aver conosciuto le GDDR4 perché Nvidia non le adottò mai. Il motivo per cui le GDDR4 non trovarono ampia diffusione è che, da un lato, garantivano prestazioni solo di poco maggiori rispetto alle migliori GDDR3 e, dall'altro, molti produttori preferirono saltare questa generazione per dedicarsi alle GDDR5, motivo per cui l'offerta fu alquanto limitata ed il prezzo non divenne mai competitivo.