NVIDIA ha presentato una categoria inedita di processori dedicati all'AI, con il chip Rubin CPX come primo rappresentante di questa rivoluzionaria famiglia. La mossa rappresenta un cambio di paradigma significativo per un'industria finora concentrata principalmente sulla potenza di calcolo per il training degli algoritmi.
La sfida dell'inferenza AI a lungo contesto
Durante l'AI Infra Summit, NVIDIA ha rivelato le specifiche tecniche del Rubin CPX, un processore progettato specificamente per gestire carichi di lavoro di inferenza con contesti estremamente lunghi. Il chip integra 30 petaFLOPs di potenza computazionale NVFP4 e si avvale di 128 GB di memoria GDDR7, una scelta tecnica che lo distingue nettamente dalle soluzioni tradizionali basate su memoria HBM più costosa. Questa configurazione permetterà di elaborare fino a un milione di token in contesto, una capacità che apre scenari completamente nuovi per le applicazioni di intelligenza artificiale generativa.
La vera innovazione risiede nell'approccio rack-scale adottato dall'azienda americana. Il sistema Vera Rubin NVL144 CPX rappresenta infatti un ecosistema computazionale integrato che combina diversi tipi di processori in una singola configurazione.
Un ecosistema computazionale senza precedenti
All'interno del rack Vera Rubin NVL144 CPX convivono 144 GPU Rubin CPX, 144 GPU Rubin tradizionali e 36 CPU Vera, creando un ambiente di calcolo ibrido capace di erogare otto exaFLOPs di potenza NVFP4. Per dare un'idea delle dimensioni di questo salto prestazionale, si tratta di una capacità computazionale 7,5 volte superiore rispetto a Blackwell Ultra, l'attuale generazione di punta dell'azienda. La piattaforma sfrutta inoltre la tecnologia Spectrum-X Ethernet per garantire le interconnessioni ad alta velocità necessarie a gestire flussi di dati di tale portata.
L'architettura rack-scale non rappresenta solo un incremento di potenza bruta, ma un ripensamento completo di come dovrebbero funzionare i datacenter dedicati all'intelligenza artificiale. NVIDIA promette un ritorno sull'investimento compreso tra 30 e 50 volte rispetto alle soluzioni attuali, un dato che potrebbe rivoluzionare l'economia dell'AI per molte aziende.
La strategia del controllo totale del mercato
La mossa di NVIDIA con la famiglia CPX dimostra una strategia industriale molto chiara: non lasciare alcuno spazio di manovra ai concorrenti nell'ecosistema dell'intelligenza artificiale. Mentre AMD, Intel e altri player cercano ancora di trovare una loro nicchia nel mercato dell'AI training, l'azienda di Jensen Huang si sta già posizionando come leader anche nel segmento dell'inferenza, tradizionalmente meno redditizio ma potenzialmente più ampio in termini di volumi.
Il Rubin CPX sarà disponibile anche in configurazioni diverse da quella rack-scale, anche se NVIDIA non ha ancora rivelato i dettagli di queste alternative. L'utilizzo della memoria GDDR7 invece della più costosa HBM rappresenta chiaramente un tentativo di rendere questa tecnologia accessibile a un mercato più ampio, pur mantenendo prestazioni di livello enterprise.
Con il lancio della lineup Rubin previsto per il prossimo anno, l'industria dell'intelligenza artificiale si prepara a un nuovo salto in termini di capacità computazionali. La transizione verso l'inferenza come nuovo campo di battaglia tecnologico potrebbe ridisegnare completamente gli equilibri di un settore già in rapidissima evoluzione.