Il mercato dei data center per intelligenza artificiale si prepara a uno scenario competitivo più acceso del previsto, con NVIDIA che potrebbe anticipare il lancio della sua piattaforma Vera Rubin mentre AMD si trova ad affrontare possibili ritardi nella produzione del suo acceleratore Instinct MI455X di nuova generazione. Le dinamiche produttive e le tensioni geopolitiche stanno ridisegnando le tempistiche di rilascio delle prossime generazioni di hardware per AI, con implicazioni significative per hyperscaler e cloud provider che pianificano i loro investimenti infrastrutturali.
Secondo quanto riportato da Evercore, la piattaforma Vera Rubin di NVIDIA sarebbe già entrata in fase di produzione di massa a livello di silicio, con CPU e GPU attualmente in fase di fabbricazione e validazione. Questo anticipo rispetto alla tabella di marcia originale potrebbe tradursi in spedizioni voluminose già entro la fine del secondo trimestre 2026, con un vantaggio temporale compreso tra tre e sei mesi rispetto alle previsioni iniziali. L'azienda deve ora finalizzare il design dei server AI e della soluzione rack-scale NVL72 VR200, completando le qualificazioni con i clienti per onorare le promesse di disponibilità della piattaforma annunciate al CES di quest'anno.
Gli analisti ipotizzano che le restrizioni imposte alla Cina abbiano paradossalmente favorito NVIDIA, consentendo all'azienda di reindirizzare fornitori tradizionalmente dedicati al mercato cinese verso lo sviluppo di prodotti per il resto del mondo. Questa riorganizzazione della catena di fornitura avrebbe accelerato i tempi di produzione, permettendo a NVIDIA di consolidare ulteriormente la propria leadership nel segmento degli acceleratori per inferenza e training di modelli linguistici di grandi dimensioni.
Sul fronte opposto, AMD si trova ad affrontare potenziali ostacoli nella roadmap del suo Instinct MI455X, secondo quanto riferito da SemiAnalysis. L'azienda di Santa Clara ha tuttavia respinto categoricamente queste affermazioni, negando ritardi significativi nella produzione o nell'adozione da parte degli utenti finali. Il successo di questa GPU per data center risulta cruciale per AMD, che negli ultimi anni ha tentato di erodere il dominio di NVIDIA nel settore del calcolo parallelo per carichi di lavoro AI.
Nel frattempo, lo standard UALink per connettività scale-up nei sistemi AI sta guadagnando slancio nell'ecosistema, con annunci di prodotti, ampia disponibilità di proprietà intellettuale e metodologie di conformità in fase di finalizzazione. Jitendra Mohan, amministratore delegato di Astera Labs, ha dichiarato durante una conference call con analisti finanziari che UALink rappresenta la soluzione completamente aperta con le migliori prestazioni e la latenza più bassa per la connettività scale-up in ambito AI.
Recenti annunci pubblici da parte di AWS e AMD indicano un'adozione diffusa dello standard, con Astera Labs pronta a supportare le prime rampe di produzione delle piattaforme cliente previste per il 2027. Questa iniziativa di standardizzazione potrebbe ridurre la dipendenza esclusiva dalle soluzioni proprietarie di NVIDIA come NVLink, offrendo maggiore flessibilità architettonica ai progettisti di sistemi per intelligenza artificiale di fascia alta.