NVIDIA continua a rafforzare la sua presenza nell'ecosistema cloud per l'intelligenza artificiale attraverso una nuova manovra finanziaria che la vede acquisire ulteriori quote di CoreWeave, uno dei principali fornitori di infrastrutture datacenter specializzate in carichi di lavoro AI. L'investimento strategico, che porta il produttore di GPU a detenere circa il 9% della società, arriva in un momento cruciale per il settore, dove la domanda di capacità computazionale per l'addestramento e l'inferenza dei modelli di machine learning continua a crescere esponenzialmente. La mossa di Jensen Huang consolida un rapporto sempre più stretto tra chi progetta l'hardware accelerato e chi lo distribuisce come servizio su scala industriale.
Nel dettaglio, NVIDIA ha acquisito azioni CoreWeave di Classe A al prezzo di 87,20 dollari ciascuna, incrementando la propria partecipazione dal precedente 6% al nuovo 9%. Si tratta di un investimento che va oltre la semplice diversificazione finanziaria: CoreWeave rappresenta infatti uno dei clienti più importanti per le soluzioni basate su architettura Hopper e i futuri chip Blackwell, utilizzati per costruire cluster di calcolo dedicati all'AI generativa e ai large language model.
La situazione proprietaria è tuttavia più articolata di quanto appaia dalla semplice percentuale. Secondo alcune fonti, NVIDIA deterrebbe anche azioni di Classe B, titoli scambiati privatamente che conferiscono diritti di voto decuplicati rispetto alle azioni ordinarie. Questa struttura azionaria dual-class, comune nelle startup tecnologiche ma più rara nelle partnership tra aziende consolidate, garantirebbe al produttore di chip un'influenza strategica superiore alla pura quota di capitale posseduta.
Jensen Huang ha giustificato personalmente l'investimento dichiarando che riflette la "fiducia nella loro crescita e nella dirigenza di CoreWeave, oltre che nel modello di business". Una dichiarazione che suona particolarmente significativa considerando il profilo finanziario della società: CoreWeave appartiene alla categoria delle aziende che bruciano capitali a ritmi ben superiori ai ricavi generati, una caratteristica che aveva già messo in allerta alcuni investitori nei mesi scorsi.
Il punto di tensione era emerso lo scorso dicembre, quando CoreWeave aveva annunciato un piano per raccogliere 2 miliardi di dollari attraverso l'emissione di debito convertibile in azioni. Una strategia di finanziamento che, pur comune nelle scale-up tecnologiche in rapida espansione, aveva sollevato dubbi sulla sostenibilità economica dell'operazione nel medio termine. L'endorsement di NVIDIA, con denaro investito direttamente nel capitale, rappresenta quindi un segnale rassicurante per il mercato.
Il modello di business di CoreWeave si basa sulla fornitura di infrastrutture cloud ottimizzate specificamente per l'intelligenza artificiale, offrendo accesso a migliaia di GPU ad alte prestazioni senza i lunghi tempi di attesa che caratterizzano i provider tradizionali. La società si è posizionata come alternativa agile rispetto ai giganti del cloud computing, puntando su deployment rapidi e configurazioni personalizzate per clienti enterprise che necessitano di potenza computazionale immediata per addestrare modelli linguistici o gestire carichi di inferenza su larga scala.
Altra notizia interessante è l'apparente disponibilità di NVIDIA Vera come CPU standalone: CoreWeave sarebbe il primo cliente ad averne accesso. Vera è l'ultimo processore sviluppato da NVIDIA, equipaggiato con 88 core e 176 thread, set di istruzioni Arm v9.2-A, 2MB di cache L2 per core e 162MB di cache L3, con supporto allo Spatial Multithreading di NVIDIA, che permette a ogni core di eseguire due thread hardware effettivi, a differenza del classico SMT.
Al momento non ci sono dettagli, ma è possibile che la CPU Vera standalone verrà resa disponibile anche per altri clienti NVIDIA, ovviamente sempre all'interno del settore datacenter.
L'investimento di NVIDIA in CoreWeave rispecchia una tendenza più ampia nel settore: i produttori di chip stanno sempre più stringendo alleanze dirette con i fornitori di servizi cloud per garantirsi canali di distribuzione privilegiati e feedback immediato sulle esigenze del mercato. Questa integrazione verticale, seppur parziale, consente a NVIDIA di comprendere meglio le richieste dei clienti finali e di orientare lo sviluppo delle prossime generazioni di acceleratori AI in base alle necessità operative reali dei datacenter.