Samsung si prepara a fare il suo grande ritorno nel mercato delle memorie ad alte prestazioni per l'intelligenza artificiale, dopo aver perso terreno lo scorso anno rispetto ai concorrenti SK Hynix e Micron. Il colosso sudcoreano ha infatti superato i test di qualificazione di Google per le sue memorie HBM4 di sesta generazione, che alimenteranno i processori Tensor di settima generazione destinati ai data center più avanzati al mondo. Un successo che arriva in un momento cruciale per l'azienda, desiderosa di recuperare quote di mercato in un settore che vale miliardi di dollari.
Secondo fonti industriali sudcoreane, le memorie HBM4 di Samsung saranno integrate nelle TPU Ironwood di Google, la cui produzione sarà affidata a Broadcom. La notizia assume particolare rilevanza dopo che Hock Tan, presidente e amministratore delegato di Broadcom, ha visitato la Corea del Sud la scorsa settimana per incontrare Yon Young-hyun, responsabile della divisione Device Solutions di Samsung, e finalizzare l'accordo di fornitura.
Le trattative tra Broadcom e Samsung evidenziano la pressante domanda di memoria ad alta larghezza di banda nel settore dell'intelligenza artificiale. Secondo indiscrezioni, Tan avrebbe richiesto forniture garantite fino al 2028, ma Samsung avrebbe confermato solo le consegne per il 2026, riservandosi di discutere i termini contrattuali per gli anni successivi in un secondo momento. Una cautela comprensibile, considerando le difficoltà produttive che hanno caratterizzato il 2025.
L'accordo con Google non è isolato: Samsung aumenterà anche le forniture di memorie HBM3E di quinta generazione per le attuali TPU di sesta generazione. Nel complesso, il volume di chip HBM destinati ai processori Tensor di Google triplicherà rispetto ai livelli attuali, segnando una significativa espansione della partnership tra le due aziende.
Ma c'è di più. Samsung ha già inviato i campioni finali delle sue HBM4 a NVIDIA per l'approvazione qualitativa, e l'azienda si aspetta il via libera entro la fine di questo mese. Se confermato, l'accordo prevede che metà della produzione di HBM4 vada a Broadcom (per Google), mentre l'altra metà sarà destinata alle GPU Rubin di NVIDIA, la prossima generazione di acceleratori per intelligenza artificiale del gigante di Santa Clara.
Il ritorno in grande stile di Samsung nel mercato HBM rappresenta una rimonta notevole. L'anno scorso l'azienda aveva perso importanti contratti con NVIDIA per la fornitura di HBM3E, vedendo SK Hynix e Micron aggiudicarsi la maggior parte degli ordini. La causa principale era legata a problemi di prestazioni e affidabilità dei chip Samsung, che non soddisfacevano i rigorosi standard richiesti dai data center AI.
Da allora, Samsung ha investito massicciamente nel miglioramento delle prestazioni delle sue memorie HBM e nell'espansione della capacità produttiva. Gli sforzi sembrano aver dato i loro frutti: superare i test di qualificazione sia di Google che di NVIDIA rappresenta una validazione tecnica fondamentale e posiziona Samsung come fornitore affidabile per i due più grandi consumatori di chip AI al mondo.