La memoria DRAM è da decenni praticamente alla base di tutti i computer ed è responsabile dell'archiviazione temporanea dei dati necessari per tutte le varie operazioni che poi deve fare il processore. Con l'esplosione delle applicazioni di intelligenza artificiale, del cloud computing, dei carichi di lavoro eterogenei, la richiesta di memoria più veloce, efficiente e scalabile ha portato all'emergere di una nuova tecnologia: la DRAM+.
Questo concetto rappresenta un'evoluzione progettata per superare i limiti strutturali delle DDR tradizionali, integrando innovazioni sia nell'architettura, sia nel consumo energetico, sia nelle interfacce di comunicazione. Scopriamo quindi di cosa si tratta, di cosa stiamo parlando e cosa cambia rispetto alla RAM che abbiamo avuto fino ad ora.
Cos’è la DRAM+
La DRAM+ non è una semplice modifica delle DDR5 (qui la guide alle migliori RAM DDR5), ma è una riprogettazione che combina elementi di diverse tecnologie per creare poi una soluzione ibrida. A differenza della DRAM classica, che si è concentrata nella storia sull'aumento progressivo della velocità di trasferimento dei dati e sulla riduzione della tensione operativa, la DRAM+ punta a ottimizzare simultaneamente larghezza di banda, efficienza energetica e latenza.
Il nome è stato coniato nel 2023 da Ferroelectric Memory Company (FMC) come estensione delle ricerche sulla ferroelettricità nell'Ossido di Afnio. È un materiale compatibile con i processi di fabbricazione CMOS avanzati.
Confrontiamo ora questa con altre tecnologie di memoria attuali, quindi ripassiamo le specifiche principali delle varie tipologie di memoria. Con velocità fino a 6400 MT/s (rimanendo nelle specifiche JEDEC, in overclock si va ben oltre) e una tensione operativa di 1,1V, le DDR5 (un esempio di kit di memorie DDR5 lo trovate su Amazon) sono lo standard attuale per desktop e server, ma la loro interfaccia a 64 bit e l'architettura a canale singolo le rendono meno adatte a carichi di lavoro altamente parallelizzati, come ad esempio il training di sistemi di intelligenza artificiale.
Le memorie High Bandwid Memory, le HBM, offrono una larghezza di banda fino a 1Tb/s grazie ad un'interfaccia a 1024 bit e all'impilamento 3D dei vari die della DRAM. Tuttavia, i costi elevati di produzione e il consumo energetico di questa tipologia di memoria la limitano in nicchie come alcune GPU e alcuni data center.
La DRAM+ si posiziona in uno spazio intermedio tra queste due tecnologie. Adotta, ad esempio, tecniche di packaging avanzate come il Fan-out Wafer-level Packaging (FOWLP). Un nome complicatissimo per una soluzione che elimina la necessità del TSV, cioè quella microscopica colonna conduttiva che attraversa verticalmente un chip di silicio, permettendo il passaggio di segnali e alimentazione tra più strati, quindi tra più die impilati l'uno sull'altro, necessario ovviamente nelle memorie HBM. Elimina anche l'interposer, cioè quella base di silicio che collega i differenti moduli impilati tra loro, sempre nelle HBM. Fare a meno di queste due soluzioni permette di ridurre i costi produttivi del 30-40% rispetto alle HBM.
Inoltre, integra un'interfaccia ampliata fino a 256 bit che permette di aumentare la banda pur mantenendo delle tensioni di funzionamento contenute, circa 1V, avvicinandosi quindi all'efficienza delle LPDDR, la versione a basso consumo delle DDR classiche. A differenza delle precedenti implementazioni della tecnologia di memoria, le DRAM+ utilizzano una struttura che permette di arrivare a una densità fino a 16Gbit per mm quadrato.
I vantaggi della DRAM+
Grazie a un'architettura Multi-channel e a un prefetch dinamico, cioè la capacità di leggere i dati prima che vengano richiesti dal sistema in maniera tale che siano già pronti per l'invio quando servono, la DRAM+ raggiunge velocità ben superiori a quelle della DDR5, che può arrivare fino a 51,2GB/s teorici. L'adozione di materiale a bassa costante dielettrica e i transistor FinFET riducono il consumo del 20% rispetto alle DDR5, che è un fattore cruciale soprattutto, per esempio, nei data center, dove il raffreddamento è praticamente il 40% dei costi operativi. Quindi, meno consumo energetico, meno riscaldamento e meno raffreddamento necessario.
I dati di benchmark comparativi dei primi prototipi di DRAM+ mostrano il raggiungimento di prestazioni decisamente notevoli. La latenza, cioè il tempo perso per tutte le operazioni di accesso alle celle di memoria, è di circa 23ns, che si scontra contro i 50ns della DDR5. Il consumo a riposo, quindi quando la memoria non è usata, è di 0,8W per Gigabit contro i 2,3W per Gigabit della DRAM convenzionale. La durata delle celle di memoria prima che si degradino è di 10^15 cicli verso i 10^4 della NAND 3D utilizzata per le DDR classiche. Tuttavia, la densità attuale, che è di 8Gbit per die, rimane inferiore a quella della DRAM tradizionale, che arriva a 32Gbit per die.
A parte questo, la DRAM+ introduce anche altre novità. Per esempio implementa dei meccanismi di QoS (Quality of Service) per allocare in maniera dinamica la banda tra diversi task: task di inferenza AI, elaborazione in tempo reale e operazioni di I/O. Questo la rende ideale per tutti questi sistemi eterogenei che integrano CPU, GPU e anche acceleratori specializzati, perché ognuno di questi elementi ha necessità di utilizzare la memoria in maniera differente.
Inoltre, il supporto nativo per l'ECC, quindi l'Error Correcting Code, e la presenza di alcuni buffer integrati riducono il tasso di errore a meno di 1 ogni 10^15 operazioni, che è un qualcosa, anche in questo caso, fondamentale per i server.
Uno degli aspetti più rivoluzionari di questa memoria è la compatibilità con il Compute Express Link (CXL). Si tratta di uno dei sostituti del PCI Express che permette di disaggregare la memoria dalla CPU, quindi permettendo di allocarla in maniera più dinamica tra le varie componenti che la necessitano. I moduli DRAM+ con interfaccia CXL 2.0, come ad esempio quelli già annunciati da Bwin e Micron, offrono fino a 96GB di capienza per modulo con una latenza di soli 247ns, rendendo possibile l'espansione della RAM senza modificare gli slot DIMM esistenti.
Perché serve la DRAM+ (e quali problemi ci sono)
L'aumento esponenziale dei dati generati da IoT, intelligenza artificiale, streaming 4K-8K sta rendendo piano piano obsoleti i modelli di memoria tradizionali. Secondo alcune stime, si prevede che solo quest'anno la domanda di RAM crescerà del 25% rispetto allo scorso anno. Come già accennato, tutto questo è trainato dai vari trend attuali.
L'inferenza AI in tempo reale, come ad esempio quella necessaria ai vari modelli LLM come GPT-4, richiede l'accesso a oltre 100GB di memoria RAM per riuscire a ridurre la latenza di risposta sotto i 100ms. I motori grafici moderni, come l'Unreal Engine 5, necessitano di una banda sostenuta superiore a 50GB/s per evitare situazioni di potenziale stuttering. Nell'automotive, i veicoli autonomi di livello 4 e 5 elaborano fino a 1TB di dati al giorno, richiedendo memoria a bassa potenza, che consuma proprio poco, ma ad alta affidabilità.
"Le attuali DDR5 e HBM in questi contesti non sono sufficienti. Le prime mancano della banda necessaria e le seconde sono troppo costose per un'adozione di massa di questo tipo."
Quindi, la DRAM+ va a risolvere questo problema perché offre il 30% di prestazioni in più rispetto alle DDR5 a parità di costo. Nonostante i vantaggi, le DRAM+ devono ancora affrontare alcune sfide tecniche per diventare un nuovo standard di fatto:
- Complessità di fabbricazione: l'integrazione dell’ossido di Afnio richiede elevatissime temperature di produzione, incompatibili con i metalli low-k usati nei nodi <7nm. Questo complica l'adozione nei processi produttivi più avanzati e potrebbe limitare la capacità di scalare verso transistor molto piccoli.
- Costo: attualmente la produzione di queste memorie è quasi il doppio rispetto alle DDR5, principalmente a causa del costo dei wafer necessari per lo strato di HfO₂. Questo sovrapprezzo potrebbe limitare l'adozione iniziale ai segmenti premium del mercato.
- Compatibilità: alcuni BIOS/UEFI non riconoscono le tabelle SPD non standard utilizzate dalla DRAM+, richiedendo aggiornamenti firmware specifici. Questo aspetto potrebbe creare problemi di retrocompatibilità nei sistemi esistenti.
Dove verrà usata la DRAM+?
Sicuramente nei server hyperscaler, poiché la combinazione DRAM+ e CXL permette di creare pool di memoria condivisa tra centinaia di CPU o centinaia di acceleratori. Ad esempio, Micron ha dimostrato come l'aggiunta di quattro moduli CXL da 256GB aumenti la capacità per core da 4GB a 14GB, migliorando del 61% le prestazioni di molti carichi.
Verrà poi usata nei dispositivi IoT avanzati, come droni o telecamere di sorveglianza, perché in questo caso potranno beneficiare della densità della DRAM+ accoppiata al consumo più basso, molto importante in questo settore. Le schede grafiche di prossima generazione potrebbero abbinare GPU con bus molto ampi, dai 256bit in su, a DRAM+ invece che le attuali GDDR, riducendo i costi e aumentando la banda.
Nei sistemi ADAS di livello 4 nelle automobili, la DRAM+ abilita l'avvio istantaneo (<5ms vs 200ms delle eMMC), conservando i dati di mappatura anche durante interruzioni di alimentazione. Mercedes-Benz sta testando moduli da 32GB per la sua piattaforma MMA, riducendo il consumo di memoria del 30%. La capacità di mantenere i dati critici senza consumo energetico rende questa tecnologia particolarmente adatta per le applicazioni di guida autonoma, dove la sicurezza è prioritaria.
I primi prodotti commerciali basati su DRAM+ sono attesi entro quest’anno, con aziende come SK Hynix e Samsung già impegnate in test pilota. La roadmap di sviluppo prevede diverse fasi:
- Fase 1 (2025-2026): lancio di moduli MCP (Multi-Chip Package) da 16GB per applicazioni IoT e Integrazione in GPU enterprise e server, con moduli da 128GB a 32GB/s.
- Fase 2 (2026-2027): integrazione con CXL 2.0 per pool di memoria disaggregati. Adozione in dispositivi consumer, inclusi gli smartphone.
- Fase 3 (2027-2028): transizione a nodi di dimensioni più ridotte e ottimizzazioni con altri elementi in grado di migliorare la produzione.
- Fase 4 (2030+): evoluzione verso architetture 3D con densità superiori a 1Tb/mm². Il legame con il CXL sarà cruciale: entro il 2030, si stima che il 70% dei data center utilizzerà memoria disaggregata, riducendo i costi di scalabilità del 40%.
Ovviamente dal punto di vista dei consumatori classici, come noi, non sarà probabilmente una scelta, poiché non usciranno prodotti con l’una o l’altra memoria. Ora, però, se vedrete questa nuova sigla, saprete di cosa si tratta e i vantaggi che vi porterà.