NVIDIA e AMD puntano su HBM3 sulle GPU IA del futuro

NVIDIA è intenzionata a montare memorie HMB3 sulle GPU dedicate all’IA e le aziende leader si contendono il posto d’onore.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

L'industria delle GPU per l'intelligenza artificiale (IA) sta per subire una rivoluzione con l'arrivo delle memorie di prossima generazione HBM3 e HBM3e.

TrendForce, infatti, riporta che questa nuova tecnologia sta suscitando un interesse significativo da parte delle aziende, spingendo verso l'adozione della DRAM.

Le future GPU per l'IA di due giganti del settore quali NVIDIA e AMD, sfrutteranno, difatti, le potenti capacità delle memorie HBM3 più veloci, innalzando vertiginosamente l'asticella delle prestazioni.

Attualmente, le GPU per l'IA di NVIDIA A100 e H100 sono alimentate rispettivamente da memoria HBM2e e HBM3, introdotte rispettivamente nel 2018 e nel 2020, ma con le aziende leader del settore, quali Micron, SK Hynix e Samsung, che stanno investendo in strutture per la produzione di massa della nuova e migliorata memoria HBM3, il suo ingresso sul mercato risulta sempre più imminente.

Una caratteristica poco conosciuta della memoria HBM3 è la sua varietà. La versione di fascia bassa opera, infatti a velocità comprese tra 5,6 e 6,4 Gbps, mentre le varianti di fascia alta raggiungono una velocità superiore a 8 Gbps. Quest'ultime, denominate HBM3P, HBM3A, HBM3+, e HBM3 Gen2, promettono prestazioni sorprendenti.

Le future GPU per l'IA, come le attese AMD MI300 Instinct e l'H100 di NVIDIA, faranno affidamento sulle memorie HBM3 di prossima generazione realizzate da SK Hynix, la quale ha gia raggiunto le fasi più avanzate della produzione per coprire le richieste di campioni ricevute direttamente da NVIDIA.

Micron, invece, sta guardando già al futuro, annunciando recentemente i piani di realizzazione della memoria HBM4, prevista per il 2026.

Le prossime GPU NVIDIA Blackwell, con il nome in codice "GB100", dovrebbero, inoltre, utilizzare delle varianti più veloci di HBM3, mentre la produzione in massa della memoria HBM3E, basata sulla tecnologia di processo di quinta generazione (10nm), dovrebbe iniziare nel primo semestre del 2024, con Samsung e SK Hynix già pronte ad aumentare la produzione.

L’industria dell'IA è destinata a una crescita significativa, con un aumento previsto delle spedizioni di server del 15,4% e un tasso di crescita annuale composto (CAGR) del 12,2% dal 2023 al 2027. Questo aumento delle spedizioni porterà a una maggiore competizione tra le aziende e l'avvento delle memorie HBM3 e HBM3e, rappresenta solo uno degli sviluppi per il futuro dell'IA.