Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Sconti & Coupon

Novità!

Prova la nuova modalità di navigazione con le storie!

Accedi a Xenforo
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata Abbiamo fatto un giro in Silicon Valley, ecco com'è andata...
Immagine di C'è chi è convinto che i large language model possano pensare C'è chi è convinto che i large language model possano pens...

Nvidia ha capito che l’hardware da solo non basta

Il GTC Washington 2025 delinea la strategia NVIDIA per un ecosistema AI full-stack, scontrandosi con i limiti energetici della scala gigawatt.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più
Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Pubblicato il 29/10/2025 alle 10:49

Il GTC di NVIDIA tenutosi a Washington D.C. il 28 e 29 ottobre 2025 è stata la dichiarazione di un piano aziendale e infrastrutturale, il “lancio” di quella che il CEO Jensen Huang ha definito la "rivoluzione industriale dell'AI". L'azienda ha presentato una roadmap che mira a orchestrare l'intera filiera tecnologica, scientifica e industriale, partendo dagli Stati Uniti. 

Chiaramente Huang non vede l’ora di mettere la sua azienda al centro di questa nuova rivoluzione industriale. Nei suoi sogni Nvidia è l’unico motore possibile di questo cambiamento, un monopolista globale che determina la sorte dell’intero globo. Oggi come oggi l’azienda non ha molti concorrenti e il sogno di Huang sembra quasi realizzabile ... ma le cose possono cambiare in fretta, ragion per cui persino Nvidia ha bisogno di tenersi i riflettori puntati addosso con eventi come questo. 

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

L'elemento chiave emerso è il consolidamento di uno spostamento strategico: dalla vendita di singole componenti hardware, per quanto performanti, alla fornitura di un ecosistema full-stack onnicomprensivo. NVIDIA sta attivamente costruendo l'infrastruttura standardizzata per la prossima economia, posizionandosi non più come un fornitore, ma come l'utility fondamentale. Questo piano, tuttavia, si scontra frontalmente con i limiti della fisica, in particolare con il consumo energetico e la latenza nello spostamento dei dati.

Il vero collo di bottiglia... è lo spostamento dei dati

L'architettura della "Fabbrica AI": dal data center all'edge fisico

Il problema fondamentale delle "AI Factories" su larga scala non è esclusivamente la potenza di calcolo bruta delle GPU. Il vero collo di bottiglia, che limita l'efficienza e la scalabilità, è lo spostamento dei dati e la gestione dei carichi di lavoro ausiliari. L'efficienza sistemica dipende dalla capacità di sgravare i costosi processori grafici dai compiti di networking, storage e sicurezza, gestendoli in modo concorrente e ad altissima velocità.

Immagine id 74281

La risposta a questo problema è il nuovo processore NVIDIA BlueField-4. Si tratta di una DPU (Data Processing Unit) che, secondo le specifiche diffuse dall'azienda, integra una CPU NVIDIA Grace con l'architettura di networking NVIDIA ConnectX-9. I dati dichiarati parlano di un throughput di 800 Gb/s e una potenza di calcolo sei volte superiore a quella del predecessore, BlueField-3. Nella visione dell'azienda, questo componente agisce come il "sistema operativo" dell'AI Factory: è progettato per gestire il multi-tenant networking, applicare policy di sicurezza avanzate e accelerare i microservizi (tramite la piattaforma software NVIDIA DOCA), consentendo, di fatto, la costruzione di cluster fino a quattro volte più grandi rispetto alla generazione precedente. Il rilascio è previsto per l'inizio del 2026 all'interno delle piattaforme Vera Rubin.

Per quanto la posizione globale di Nvidia possa sembrare quella di un monopolista - e a tratti probabilmente lo è davvero - non mancano alcuni rivali credibili. Tra questi, le DPU Pensando (acquisite da AMD nel 2022) si sono ritagliate uno spazio significativo. Il loro punto di forza risiede nell'architettura P4, un linguaggio di programmazione specifico per il data plane che offre una flessibilità e una granularità nel controllo del traffico di rete che gli hyperscaler e i grandi provider cloud trovano strategica per differenziare i propri servizi. Intel, dal canto suo, compete con le proprie IPU (Infrastructure Processing Unit), puntando su un'integrazione stretta con le sue CPU Xeon e la telemetria della piattaforma.

sgravare i costosi processori grafici dai compiti di networking, storage e sicurezza

Il vantaggio su cui NVIDIA punta non è quindi la flessibilità (dove il P4 di AMD primeggia), ma l'ottimizzazione 'chiavi in mano'. Integrando la DPU nativamente con lo stack software CUDA e AI Enterprise, NVIDIA crea un ecosistema in cui ogni componente è progettato per massimizzare le performance interne, un approccio che favorisce la standardizzazione ma che introduce evidenti rischi di vendor lock-in.

All'altro capo dello spettro, lontano dai massicci cluster cloud, si trova l'esigenza di portare l'intelligenza artificiale nell'edge fisico, in tempo reale. Per questo è stata presentata la piattaforma industriale NVIDIA IGX Thor. Basata sull'architettura NVIDIA Blackwell, integra una iGPU e una dGPU, supportando connettività 400 GbE. Le prestazioni dichiarate segnano un salto notevole: fino a otto volte quelle del predecessore, IGX Orin, per quanto riguarda la iGPU, e 2.5 volte sulla dGPU. Il target è chiaro: ambienti industriali, medici e della robotica che richiedono inferenza complessa e real-time. L'orizzonte di questa strategia, che mira a portare l'AI accelerata su hardware dedicato fuori dal data center, include anche il settore delle telecomunicazioni, come dimostra la recente partnership con Nokia per lo sviluppo di soluzioni AI-on-5G.

Come per la DPU, l'hardware da solo definisce solo una parte della soluzione. La piattaforma IGX Thor è abilitata e dipendente dallo stack software NVIDIA AI Enterprise, che include i microservizi di inferenza NIM, il framework di robotica Isaac e quello di computer vision Metropolis. I casi d'uso citati (manutenzione predittiva per Hitachi Rail, ispezioni autonome per Maven Robotics e sistemi di sicurezza per Joby Aviation) evidenziano la necessità di affidabilità enterprise-grade e sicurezza funzionale, garantita quest'ultima dall'integrazione del sistema di sicurezza NVIDIA Halos. L'obiettivo è portare l'inferenza complessa, addestrata nel cloud, direttamente sul campo.

questo componente agisce come il "sistema operativo" dell'AI Factory

La scala Gigawatt e il paradosso energetico

L'ambizione di questa nuova infrastruttura è definita dalla partnership annunciata con Oracle e il Dipartimento dell'EnergIA degli Stati Uniti (DOE). Presso l'Argonne National Laboratory verranno costruiti due nuovi supercomputer: Solstice, caratterizzato da 100.000 GPU NVIDIA Blackwell, ed Equinox, con 10.000 GPU Blackwell. L'obiettivo combinato è fornire 2.200 exaflop di performance AI, destinati, come vedremo, ad accelerare la ricerca scientifica fondamentale.

Immagine id 74280

Questi numeri impressionanti hanno un costo fisico diretto. Sebbene i dati di consumo specifici per Blackwell non siano stati dettagliati, infrastrutture concorrenti, come il supercomputer di xAI basato su 100.000 GPU H100 (la generazione precedente), richiedono una potenza stimata (secondo diverse analisi di settore) di circa 150 MW. La stessa NVIDIA, durante il GTC, ha iniziato a parlare apertamente di "AI Factories su scala gigawatt". Un gigawatt (1.000 megawatt) è l'ordine di grandezza della produzione di un moderno reattore nucleare, un paragone che evidenzia la magnitudo della sfida energetica che l'industria sta affrontando.

Il problema, tuttavia, non è solo la produzione di energia, ma la sua distribuzione all'interno del data center, visto che la densità di potenza dei rack sta esplodendo. La stessa NVIDIA, in una mossa di trasparenza tecnica, ha evidenziato come, con le tradizionali architetture a 54V, un singolo data center da 1 GW richiederebbe "mezzo milione di tonnellate di rame" solo per le busbar di distribuzione nei rack. Un approccio fisicamente ed economicamente insostenibile.

ottimizza l'efficienza, non riduce la domanda assoluta di energia.

La soluzione proposta si chiama NVIDIA Omniverse DSX Blueprint. Non è un prodotto hardware, ma un progetto di riferimento open-source, un gemello digitale per la progettazione e l'operatività di questi impianti. L'approccio si basa su tre pilastri. Il primo è DSX Boost, un sistema software per l'ottimizzazione energetica interna che promette un throughput delle GPU superiore fino al 30% per watt. Il secondo è DSX Flex, un'interfaccia per il bilanciamento dinamico dei carichi del data center con la rete elettrica esterna. Il terzo è DSX Exchange, un framework per unificare i sistemi IT e OT.

In termini pratici, NVIDIA sta utilizzando la sua stessa tecnologia Omniverse per creare un digital twin dell'infrastruttura fisica. Questo permette di co-progettare l'edificio, i sistemi di raffreddamento (sempre più spesso liquidi) e lo stack IT, gestendo la complessità dei futuri rack. L'azienda sta infatti spingendo l'intero settore verso architetture di alimentazione a 800V (corrente continua), che riducono drasticamente le perdite di trasmissione e la quantità di rame necessaria, rendendo fattibile la gestione di rack che supereranno 1 Megawatt di assorbimento ciascuno.

Questo approccio ingegneristico è una risposta necessaria al problema della densità di potenza. Tuttavia, occorre essere chiari: ottimizza l'efficienza, non riduce la domanda assoluta di energia. Il nodo del consumo energetico complessivo dell'industria AI, già evidenziato dall'Agenzia Internazionale dell'Energia (IEA) come uno dei principali fattori di crescita della domanda elettrica globale, rimane una delle sfide strutturali più critiche del prossimo decennio.

Accelerare la frontiera: dalla fusione al calcolo quantistico

Perché costruire queste cattedrali energetiche? L'obiettivo dichiarato è risolvere problemi scientifici finora considerati intrattabili. Il primo esempio è l'energia da fusione. L'obiettivo ultimo della fusione è produrre energia pulita (il "reattore" come soluzione), ma la sfida principale risiede nel controllo del plasma a temperature estreme.

Immagine id 74279

La collaborazione con General Atomics (GA) affronta proprio questo. Tradizionalmente, la simulazione fluidodinamica del comportamento del plasma richiede settimane di calcolo sui supercomputer più potenti. 

L'approccio presentato prevede un gemello digitale interattivo e ad alta fedeltà del reattore a fusione sperimentale DIII-D del DOE, costruito utilizzando la piattaforma NVIDIA Omniverse e le librerie software NVIDIA CUDA-X. All'interno di questo gemello digitale, GA utilizza "modelli surrogati" basati su AI (denominati EFIT per l'equilibrio del plasma, CAKE per il confine e ION ORB per la densità di calore). Questi modelli, addestrati su decenni di dati sperimentali reali e fatti girare su GPU, sono in grado di ridurre i tempi di elaborazione da settimane a secondi. Questo abilita un team internazionale di scienziati a testare scenari "what-if" in tempo reale, iterando sul design e sulle strategie di contenimento senza rischiare danni al reattore fisico, trasformando di fatto la ricerca sulla fusione da un problema di pura fisica a uno di calcolo accelerato.

La seconda frontiera scientifica affrontata è il calcolo quantistico. Qui, il problema tecnico fondamentale è l'instabilità dei qubit. Per funzionare, i processori quantistici (QPU) richiedono algoritmi di calibrazione e correzione degli errori (QEC) estremamente complessi, che devono essere eseguiti da supercomputer classici connessi alla QPU tramite un link a latenza ultra-bassa.

Per questo, NVIDIA ha introdotto l'architettura NVQLink. Definita dall'azienda una nuova Stele di Rosetta per unire i due mondi, è un'architettura di sistema aperta (una mossa strategica fondamentale per favorire l'adozione) progettata per accoppiare strettamente le GPU classiche con le QPU.

Il vero collante, ancora una volta, è il software. NVQLink è accessibile tramite l'integrazione con la piattaforma NVIDIA CUDA-Q. Questo ambiente di programmazione unificato consente agli sviluppatori di creare e testare applicazioni ibride che utilizzano senza soluzione di continuità CPU, GPU e QPU. Coinvolgendo attivamente nove laboratori nazionali statunitensi e 17 costruttori di QPU (tra cui IonQ, Quantinuum e Rigetti), NVIDIA sta posizionando CUDA come il linguaggio franco de facto non solo per il calcolo accelerato di oggi, ma anche per l'imminente era ibrida quantistica-classica.

posizionando CUDA come il "linguaggio franco de facto"

L'orchestra strategica: "agenti scienziati" ed ecosistema

L'obiettivo della partnership con il DOE e Oracle per i supercomputer Solstice ed Equinox va oltre la semplice fornitura di potenza di calcolo bruta. Sebbene la scala sia imponente, con 2.200 exaflop di performance AI previsti, il fine dichiarato è sviluppare e addestrare modelli frontier e di ragionamento (AI reasoning) per creare quelli che l'azienda stessa definisce "scienziati agentici" (agentic scientists).

Il concetto di "Agentic AI" descrive sistemi di intelligenza artificiale capaci non solo di rispondere a domande, ma di agire autonomamente e interagire con altri agenti o elementi hardware e software esterni: quelli in oggetto possono formulare ipotesi scientifiche, progettare protocolli sperimentali, eseguire tali esperimenti (in simulazione o interfacciandosi con strumenti di laboratorio reali) e infine interpretare i risultati per formulare nuove ipotesi. Questa imponente infrastruttura presso l'Argonne servirà come fucina per addestrare questi agenti e, nelle intenzioni, accelerare esponenzialmente la produttività della R&D. 

Si rende necessario un progetto come questo per una ragione abbastanza semplice: i “comuni” agenti AI hanno margini di errore troppo ampi per un’applicazione in situazioni come queste. Si può tollerare l’errore nella fatturazione di un’azienda, anche una grossa; ma tale tolleranza si riduce parecchio se sono in ballo ricerche che possono determinare la vita e la morte delle persone. Almeno in teoria, ma solo il tempo ci dirà quanto saranno precisi questi scienziati agentici. 

Creare degli scienziati che facciano ricerca più in fretta e a costi minori sembra una buona idea - tranne forse per gli scienziati che potrebbero veder minacciato il loro reddito. Ma se l'accelerazione della scoperta è l'obiettivo, la governance di questi agenti scientifici autonomi è un anello mancante. Con quale livello di supervisione umana opereranno? Quali protocolli di sicurezza e validazione saranno implementati per prevenire scoperte automatizzate problematiche o semplicemente errate? 

C’è molto di cui discutere ... o meglio ci sarebbe se globalmente ci mettessimo d’accordo sui principi etici da seguire. Oggi abbiamo un Europa che spinge per regole vere e che per questo viene accusata di frenare l’innovazione a ogni piè sospinto. E il resto del mondo è bene o male il far west della ricerca e dell’innovazione, dove nessun prezzo è troppo alto pur di fare la tecnologia più bella e più potente, e le tasche di qualcuno più piene.  

la governance di questi agenti scientifici autonomi è un anello mancante.

Parallelamente a queste iniziative di frontiera, l'analisi strategica mostra un piano capillare per radicare l'ecosistema NVIDIA a ogni livello della società - almeno negli Stati Uniti. Le iniziative con l'Università dello Utah (una "AI factory" statale da 50 milioni di dollari) o con il Miles College (un'università storicamente Nera dove l'AI diventerà competenza fondamentale) non sono semplici operazioni filantropiche.

Si tratta di una mossa calcolata per costruire l'intera prossima generazione di sviluppatori, ricercatori e tecnici formandoli esclusivamente sull'ecosistema NVIDIA (CUDA, Omniverse, Isaac e il Deep Learning Institute). È una strategia di embedding a lungo termine che mira a costruire un fossato competitivo quasi invalicabile, basato non solo sulla tecnologia ma sulla competenza della forza lavoro.

Praticamente la strategia dell’Happy Meal applicata all’Intelligenza Artificiale. 

Infine, il rilascio di nuove famiglie di modelli open source (come Nemotron per il reasoning, Cosmos per l'AI fisica, Clara CodonFM per l'RNA e Isaac GR00T per i robot umanoidi) non è in contraddizione con il modello di business. Al contrario, lo rafforza. Fornendo i modelli di base open, NVIDIA si assicura che l'infrastruttura hardware e software ottimizzata (e proprietaria) per eseguirli, affinarli e scalarli in produzione rimanga la propria.

Il GTC di Washington ha cementato la posizione di NVIDIA non più come un semplice fornitore di hardware, ma come l'orchestratore strategico della futura economia tecnologica. L'azienda sta costruendo un sistema operativo completo per l'industria e la scienza: dal design digitale delle fabbriche (Omniverse DSX) alla gestione della rete elettrica (DSX Flex), dalla robotica industriale (Isaac) alla scoperta di farmaci (come visto nella partnership con Lilly), fino alla ricerca scientifica pura (DOE/NVQLink).

L'intelligenza artificiale, nella visione dell'azienda, è lo strumento che ci permetterà forse un giorno di sbloccare l'energia pulita da fusione e di risolvere quesiti scientifici che finora non siamo stati capaci di sbloccare. Ma, per arrivare a quel punto, richiede la costruzione immediata di infrastrutture che consumano energia sulla scala dei reattori nucleari attuali, con costi stratosferici - e non è chiaro chi dovrebbe pagare il conto. 

Contenuto esclusivo

Inserisci la tua email per sbloccare l'intero articolo.

Rispettiamo la tua privacy. Non condivideremo mai la tua email con terze parti.

Leggi altri articoli

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca triangoli

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Non perdere gli ultimi aggiornamenti

Newsletter Telegram
Live

I più letti di oggi


  • #1
    Il ragno delle Canarie che ha dimezzato il suo genoma
  • #2
    Windows 7 “mini” da 69 MB: geniale o inutile?
  • #3
    Nascita e morte del CD: la tecnologia che ha cambiato tutto
  • #4
    Allenarsi rallenta il cuore (e ti fa guadagnare anni)
  • #5
    Intel rilancia: AVX e AMX tornano con Nova Lake
  • #6
    Siri cambia anima: l’AI di Google arriva su iPhone
Articolo 1 di 5
C'è chi è convinto che i large language model possano pensare
Un'analisi confronta il ragionamento CoT con i processi cognitivi umani e i risultati dei benchmark.
Immagine di C'è chi è convinto che i large language model possano pensare
1
Leggi questo articolo
Articolo 2 di 5
Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Dalle aule di Stanford ai laboratori Google, il nostro Grand Tour in Silicon Valley ha svelato il vero spirito della disruption AI. Abbiamo trovato una forte comunità italiana tra campus, startup e big tech: l'innovazione è qui.
Immagine di Abbiamo fatto un giro in Silicon Valley, ecco com'è andata
Leggi questo articolo
Articolo 3 di 5
Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
Per la resilienza industriale, gli UPS trifase sono un pilastro contro i blackout. Evitano danni e fermi. Caratteristiche chiave: modularità, scalabilità e monitoraggio remoto.
Immagine di Tolleranza zero al blackout: l'UPS trifase come pilastro della resilienza industriale e aziendale
1
Leggi questo articolo
Articolo 4 di 5
25 strumenti AI per la creazione di contenuti e il marketing
Una guida analizza 25 strumenti IA per la creazione di contenuti, evidenziando una tendenza all'automazione accessibile che promette di abbassare la barriera d'ingresso al mercato.
Immagine di 25 strumenti AI per la creazione di contenuti e il marketing
Leggi questo articolo
Articolo 5 di 5
Perché Alphabet trasforma i progetti moonshot in società indipendenti
L'interesse concreto nei progetti resta quando questi diventano aziende indipendenti.
Immagine di Perché Alphabet trasforma i progetti moonshot in società indipendenti
Leggi questo articolo
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.