Il gigante coreano Samsung sembra finalmente pronto a recuperare terreno nel cruciale mercato delle memorie ad alta velocità per l'intelligenza artificiale. Dopo anni di difficoltà che hanno permesso a SK Hynix e Micron di dominare il segmento HBM, i chip di sesta generazione HBM4 del colosso sudcoreano sarebbero ormai prossimi all'approvazione di NVIDIA, il principale cliente globale per acceleratori AI. Una svolta che potrebbe ridisegnare gli equilibri di un mercato dal valore strategico crescente, dove Samsung aveva paradossalmente perso la leadership nonostante il suo status di primo produttore mondiale di memorie da decenni.
Secondo quanto riportato da Bloomberg, i chip HBM4 di Samsung hanno superato la fase finale del processo di qualificazione presso NVIDIA, dopo essere stati inviati per i test a settembre 2025. La produzione di massa dovrebbe partire a febbraio 2026, consentendo all'azienda di rifornire non solo NVIDIA ma anche altri giganti del settore come AMD e Google. Si tratterebbe di un traguardo fondamentale per Samsung, che nelle precedenti generazioni HBM3 e HBM3E aveva incontrato significativi problemi di prestazioni, tanto da dover riprogettare i propri chip per soddisfare gli standard qualitativi richiesti.
La tecnologia HBM (High-Bandwidth Memory) rappresenta oggi l'architettura di memoria più avanzata per applicazioni ad alte prestazioni. Questi chip utilizzano moduli DRAM impilati verticalmente, garantendo larghezze di banda e velocità nettamente superiori rispetto alle memorie DDR o LPDDR convenzionali impiegate in smartphone, computer e server tradizionali. La complessità costruttiva e i costi di produzione elevati hanno tuttavia reso questo segmento estremamente competitivo e difficile da presidiare.
Il ritardo accumulato da Samsung nel mercato HBM risulta tanto più significativo se si considera la posizione dominante dell'azienda nel comparto memorie. Mentre SK Hynix e Micron investivano massicciamente nelle prime generazioni di HBM, Samsung ha mantenuto un approccio più cauto, concentrandosi su altri segmenti. Questa strategia si è rivelata costosa: quando l'esplosione dell'intelligenza artificiale ha reso le memorie HBM componenti critici per gli acceleratori AI, Samsung si è trovata in posizione di inseguimento rispetto ai concorrenti.
Le precedenti generazioni HBM3 e HBM3E sviluppate da Samsung hanno infatti mostrato problematiche prestazionali che hanno limitato significativamente la loro adozione. I chip HBM3E ridisegnati hanno ottenuto l'approvazione di NVIDIA solo per impieghi in specifici acceleratori AI destinati al mercato cinese, una fetta marginale rispetto ai volumi complessivi. Una battuta d'arresto che ha ulteriormente consolidato il vantaggio di SK Hynix, diventata il fornitore principale di Nvidia per i data center di tutto il mondo.
La situazione sembra ora cambiare radicalmente con l'HBM4, la sesta generazione della tecnologia. Samsung avrebbe intensificato gli sforzi ingegneristici proprio su questa famiglia di prodotti, ottenendo risultati che secondo alcune fonti supererebbero le prestazioni delle soluzioni concorrenti. L'elemento più significativo è che questi chip dovrebbero equipaggiare il processore AI di prossima generazione Rubin di NVIDIA, previsto per il lancio nel corso di quest'anno come successore dell'attuale architettura Blackwell.
Per Samsung, l'ingresso nella catena di fornitura di NVIDIA con HBM4 rappresenterebbe molto più di un semplice contratto commerciale. Significherebbe il recupero di credibilità tecnica in un segmento dove l'affidabilità e le prestazioni sono parametri non negoziabili, considerando che gli acceleratori AI operano in condizioni estreme per periodi prolungati. La capacità di fornire memorie che soddisfino gli stringenti requisiti di NVIDIA costituirebbe una validazione tecnologica fondamentale per competere anche con altri clienti del settore.