Nvidia sceglie le HBM3E per le GPU dedicate alle IA

Nvidia ha richiesto un campione della memoria HBM3E di SK Hynix, la quale potrebbe essere utilizzata per muovere le future GPU.

Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

Nvidia ha recentemente richiesto un campione della memoria HBM3E di nuova generazione di SK Hynix, la quale potrebbe essere utilizzata per muovere le future GPU. HBM3E, acronimo di High-Bandwidth Memory 3 Extended, è una soluzione HBM di quinta generazione che offre velocità di trasferimento dati e capacità superiori rispetto all'attuale memoria HBM3.

La memoria HBM3E può raggiungere una velocità di 8,0Gbps, due volte più veloce della HBM3 e quattro volte più veloce della HBM2E. Ciò significa che un singolo stack HBM3E può fornire fino a 512GB/s di larghezza di banda, mentre una GPU con otto stack può raggiungere la strabiliante larghezza di banda di 4,1TB/s. Si tratta di un enorme miglioramento rispetto alle attuali GPU Hopper, che utilizzano memoria HBM3 con una capacità massima di 80GB e una larghezza di banda di 2,6TB/s.

Si prevede inoltre che la memoria HBM3E offra capacità maggiori rispetto alla HBM3, che attualmente è disponibile in stack da 12-Hi con un massimo di 24GB per stack. SK Hynix non ha rivelato le specifiche esatte della sua memoria HBM3E, ma è probabile che utilizzerà stack da 16-Hi o addirittura 20-Hi con un massimo di 32GB o 40GB per stack. Ciò consentirebbe a Nvidia di offrire GPU con una memoria fino a 320GB, ideale per le applicazioni AI e HPC che richiedono enormi quantità di dati.

SK Hynix prevede di iniziare a campionare la sua memoria HBM3E nella seconda metà di quest'anno e di entrare in produzione di massa nella prima metà del 2024. Questo coincide con il presunto lancio delle GPU di nuova generazione di Nvidia per AI e HPC, nome in codice "Blackwell". Queste GPU dovrebbero essere basate su una nuova architettura che offrirà significativi miglioramenti in termini di prestazioni ed efficienza rispetto alle attuali GPU Hopper.

SK Hynix è un partner di lunga data di Nvidia nella fornitura di soluzioni HBM per le sue GPU. Le due aziende hanno collaborato alla fornitura dei primi prodotti HBM3 e HBM2E al mercato. SK Hynix si assicurerà un importante accordo con Nvidia, dato che la squadra verde continua a dominare il segmento AI e HPC con oltre il 90% di quota di mercato.

SK Hynix dovrà affrontare la concorrenza di Samsung, che sta sviluppando una propria versione della memoria HBM3, chiamata Snowbolt HBM3P. La memoria Snowbolt HBM3P di Samsung offrirà fino a 5TB/s di larghezza di banda e fino a 40GB di capacità per stack.

La memoria HBM3E è una delle tecnologie di memoria più avanzate oggi disponibili e consentirà nuovi livelli di prestazioni e funzionalità per i dispositivi AI e HPC. La memoria HBM3E di SK Hynix cambierà le carte in tavola per le future GPU AI di Nvidia e aiuterà entrambe le aziende a mantenere la loro posizione di leadership nel settore.