La memoria HBM va a ruba a causa dell'IA, ennesimo shortage in vista?

Micron è pronta a conquistare una significativa porzione del mercato HBM3E per utilizzarle anche in altri ambiti.

Avatar di Luca Rocchi

a cura di Luca Rocchi

Managing Editor

In un settore caratterizzato dalla rapida evoluzione tecnologica e dalla costante competizione, Micron si sta imponendo come un importante giocatore nel mercato della memoria ad alta banda, nonostante il suo ruolo iniziale di sfidante. Con l'annuncio recente che la sua fornitura di memoria HBM3E è già esaurita per il 2024 e in gran parte allocata per il 2025, Micron dimostra una svolta significativa nel panorama della memoria ad alta prestazione.

Questa traiettoria ascendente di Micron risulta evidente grazie alla partnership con Nvidia per il suo GPU H200, un prodotto pensato per stravolgere il settore dell'intelligenza artificiale e del computing ad alte prestazioni. L'adozione dell'HBM3E di Micron in questo contesto segnala non solo la validità delle innovazioni di Micron ma anche la sua potenziale conquista di una quota considerevole del mercato HBM.

Sanjay Mehrotra, CEO di Micron, ha condiviso durante la call degli utili dell'azienda una panoramica positiva riguardo il futuro prossimo: "Le nostre HBM sono esaurite per tutto il 2024, e la grande maggioranza della nostra fornitura per il 2025 è già stata allocata.".

Specifiche ottimali per un campo di applicazione molto ampio
Le specifiche tecniche dei primi stack HBM3E di Micron emergono impressionanti: moduli da 24 GB 8Hi, capaci di raggiungere un tasso di trasferimento dati di 9.2 GT/s e una larghezza di banda di picco di oltre 1.2 TB/s per dispositivo. Se consideriamo l'impiego di sei di questi stack per il chip GPU H200 di Nvidia destinato all'AI e al computing ad alte prestazioni, il totale della memoria a banda larga raggiunge i 141 GB. Tale capacità posiziona Micron in vantaggio, essendo il primo a lanciare commercialmente l'HBM3E.

Da un punto di vista economico, Mehrotra ha delineato un futuro promettente per i ricavi derivati dall'HBM, prevedendo "diversi centinaia di milioni di dollari di ricavi da HBM nell'anno fiscale 2024" e un impatto positivo sui margini complessivi di DRAM e sul margine lordo a partire dal terzo trimestre fiscale.

Un altro passo avanti nell'innovazione è rappresentato dall'introduzione dei cubi HBM3E che incrementano la capacità di memoria del 50%, facilitando l'addestramento di modelli linguistici di intelligenza artificiale ancora più complessi. Questi cubi da 36 GB saranno un elemento chiave per i processori AI di nuova generazione, con la produzione che accelererà nel 2025.

Tuttavia, la crescente focalizzazione sulla produzione di HBM porta con sé delle sfide nella gestione delle risorse produttive. La fabbricazione di HBM, che prevede l'utilizzo di DRAM specializzati, influenzerà la capacità di Micron di produrre IC DRAM per applicazioni mainstream.