Il mercato delle infrastrutture AI vive una settimana di annunci clamorosi: NVIDIA ha siglato un accordo strategico pluriennale e multigenerazionale con Meta che ridefinisce gli equilibri del settore. La collaborazione prevede la fornitura di milioni di chip AI delle architetture Blackwell e Rubin, ma anche l'adozione di CPU Grace standalone e della futura generazione Vera, segnando un'integrazione senza precedenti dell'intero stack hardware di Team Green nell'ecosistema del colosso dei social media. Una mossa che assume contorni particolarmente significativi considerando il tradizionale legame di Meta con AMD, suo principale fornitore negli ultimi anni.
L'accordo annunciato da NVIDIA non si limita alla semplice fornitura di acceleratori per datacenter. Meta integrerà cluster di elaborazione basati sulla piattaforma Vera Rubin, termine che identifica la combinazione di CPU Grace di nuova generazione e GPU Rubin, ancora non lanciate ufficialmente. "Siamo entusiasti di espandere la nostra partnership con NVIDIA per costruire cluster all'avanguardia utilizzando la loro piattaforma Vera Rubin, al fine di portare la superintelligenza personale a tutti nel mondo", ha dichiarato Mark Zuckerberg, delineando ambizioni che vanno ben oltre l'ottimizzazione dell'infrastruttura esistente.
La portata dell'accordo emerge chiaramente dai dettagli tecnici: oltre alle GPU Blackwell, Blackwell Ultra e Rubin, Meta adotterà per la prima volta CPU Grace come soluzione standalone, senza abbinamento obbligato con acceleratori GPU. Si tratta di un'apertura significativa che posiziona i processori ARM di NVIDIA come alternativa credibile anche per carichi di lavoro generici nei datacenter, non solo per task di inferenza AI. La generazione Vera rappresenterà il passo successivo di questa strategia, consolidando la presenza di NVIDIA anche nel segmento delle CPU per server.
L'infrastruttura di rete costituisce un altro pilastro della collaborazione: Meta adotterà Spectrum-X Ethernet di NVIDIA per la connettività scale-up tra i nodi di calcolo, una scelta che privilegia la soluzione proprietaria di Team Green rispetto alle alternative standard. Questa integrazione verticale promette latenze ridotte e maggiore efficienza nella comunicazione tra GPU durante le fasi di training dei modelli linguistici di grandi dimensioni, dove la larghezza di banda e la sincronia tra acceleratori rappresentano colli di bottiglia critici.
Particolarmente interessante risulta l'integrazione dell'iniziativa Confidential Computing di NVIDIA nei servizi Meta, specificatamente menzionata per WhatsApp. La tecnologia consente l'elaborazione di dati sensibili mantenendo la crittografia end-to-end anche durante il processing AI, un aspetto cruciale per applicazioni che gestiscono comunicazioni private di miliardi di utenti. L'implementazione suggerisce che Meta intenda distribuire funzionalità AI avanzate direttamente nelle app di messaggistica, sfruttando garanzie hardware di sicurezza.
L'accordo assume contorni ancora più rilevanti se contestualizzato nel rapporto storico tra Meta e AMD. Il produttore di chip di Sunnyvale ha dichiarato che Meta rappresenta oltre il 40% delle sue entrate totali nel segmento AI, rendendola di fatto il cliente più importante per gli acceleratori Instinct MI300X. Meta ha adottato massicciamente i rack server basati su MI300X e AMD ha persino progettato il rack Helios secondo le specifiche ORW (Open Rack for Workload) di Meta, dimostrando un livello di collaborazione ingegneristica profonda.
Le recenti voci su possibili ritardi nella roadmap AMD, in particolare per il chip MI455X, potrebbero aver influenzato la decisione strategica di Meta di diversificare ulteriormente i fornitori. Mentre AMD rimane un partner consolidato, l'espansione dell'accordo con NVIDIA suggerisce che Meta voglia garantirsi accesso alle tecnologie più avanzate indipendentemente dalle tempistiche di lancio dei singoli vendor. Una strategia di hedging comprensibile per un'azienda che sta costruendo quella che definisce la più grande infrastruttura AI al mondo.
Sebbene i dettagli finanziari dell'accordo non siano stati resi pubblici, l'entità multigenerazionale della collaborazione implica investimenti nell'ordine di miliardi di dollari distribuiti su più anni. Meta si posiziona così accanto a Microsoft e OpenAI come uno dei tre principali clienti hyperscale di NVIDIA, consolidando ulteriormente il dominio dell'azienda di Santa Clara nel mercato dei datacenter AI.