Nel panorama tecnologico globale, poche notizie hanno il peso specifico dei risultati finanziari di NVIDIA: l'azienda di Santa Clara, oggi la più capitalizzata al mondo, ha pubblicato i dati del suo trimestre più recente registrando profitti senza precedenti, confermando che la corsa all'intelligenza artificiale non accenna a rallentare. I numeri parlano chiaro: 68 miliardi di dollari di fatturato trimestrale, con una crescita del 73% rispetto allo stesso periodo dell'anno precedente, e 215 miliardi di dollari di ricavi nell'intero anno fiscale. Una traiettoria che trasforma NVIDIA da semplice produttore di GPU da gioco a infrastruttura critica dell'economia digitale mondiale.
Il dato più significativo per chi segue il settore hardware riguarda la composizione interna dei ricavi. Il segmento data center ha generato 62 miliardi di dollari, dominando in modo schiacciante il fatturato complessivo. NVIDIA ha scelto di disaggregare ulteriormente questa cifra: 51 miliardi provengono dal calcolo — in larga parte GPU destinate all'addestramento e all'inferenza di modelli di intelligenza artificiale — mentre i restanti 11 miliardi derivano dai prodotti di rete, incluse le interconnessioni NVLink che collegano i chip all'interno dei grandi sistemi di calcolo distribuito.
Il CEO Jensen Huang ha commentato i risultati con toni che rispecchiano l'euforia del mercato dell'AI. "La domanda di token nel mondo è diventata completamente esponenziale", ha dichiarato durante la chiamata con gli analisti. "Siamo arrivati al punto in cui persino le nostre GPU di sei anni fa nei data center cloud sono completamente sature e i prezzi stanno salendo." Un riferimento che tocca direttamente le architetture delle generazioni precedenti, ancora ampiamente operative nelle infrastrutture cloud dei grandi fornitori.
Sul fronte geopolitico, NVIDIA mantiene una posizione cauta riguardo alle esportazioni verso la Cina. La CFO Colette Kress ha precisato che, nonostante la recente parziale revoca delle restrizioni all'export da parte del governo statunitense, le spedizioni di prodotti H200 approvate per clienti cinesi non hanno ancora generato alcun ricavo e l'azienda non sa se le importazioni saranno effettivamente consentite. Una situazione di incertezza regolamentare che pesa sulla pianificazione strategica dell'azienda nei mercati asiatici.
Kress ha anche accennato alla crescente competitività dei produttori cinesi, con un apparente riferimento alla quotazione in borsa di Moore Threads avvenuta a dicembre: "I nostri concorrenti in Cina, sostenuti da recenti IPO, stanno progredendo e hanno il potenziale per alterare la struttura dell'industria globale dell'AI nel lungo periodo." Una valutazione che segnala come NVIDIA segua con attenzione l'evoluzione dell'ecosistema hardware cinese, anche in un contesto di restrizioni commerciali.
Sul piano delle partnership strategiche, Huang ha confermato che le trattative con OpenAI — per un investimento riportato attorno ai 30 miliardi di dollari — sono in fase avanzata: "Siamo vicini a un accordo", ha affermato, aggiungendo di collaborare attivamente anche con Anthropic, Meta e xAI di Elon Musk. Tuttavia, i documenti depositati da NVIDIA presso la SEC specificano esplicitamente che non vi è alcuna garanzia che l'investimento in OpenAI si concretizzi, un avvertimento che ridimensiona l'entusiasmo delle dichiarazioni pubbliche.
Huang ha anche risposto alle preoccupazioni di alcuni analisti sulla sostenibilità degli ingenti investimenti in infrastrutture da parte delle grandi aziende tecnologiche. La sua tesi è che la spesa in calcolo non sia un costo fine a se stesso ma un moltiplicatore diretto di ricavi: "Abbiamo raggiunto il punto di svolta: stiamo generando token redditizi, produttivi per i clienti e vantaggiosi per i fornitori di servizi cloud." Un argomento che sposta il dibattito dal rischio di sovra-investimento alla logica del ritorno sull'infrastruttura computazionale come asset produttivo.
Guardando avanti, il consolidamento di NVIDIA come fornitore dominante di GPU per l'AI pone interrogativi rilevanti per l'intero ecosistema tech: la dipendenza da un singolo produttore per l'infrastruttura di calcolo dell'intelligenza artificiale è un fattore di rischio sistemico che sta spingendo grandi player come Google, Amazon e Microsoft a sviluppare acceleratori proprietari.