Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
% Black Friday
%
Accedi a Xenforo
Immagine di Raffreddare i data center (e scaldare il pianeta) è diventato un business milionario
Data Center
Immagine di Nuove opzioni per lo storage ad alte prestazioni: l'all-flash punta a blindare i dati dell'AI Nuove opzioni per lo storage ad alte prestazioni: l'all-flas...
Immagine di 5G SA, qualcosa si muove, 90 operatori sono in modalità "soft launch" 5G SA, qualcosa si muove, 90 operatori sono in modalità "so...

Raffreddare i data center (e scaldare il pianeta) è diventato un business milionario

La crescita esponenziale dell'intelligenza artificiale ha trasformato il raffreddamento dei data center in un mercato multimiliardario, imponendo nuove sfide tecnologiche e ambientali.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor @Tom's Hardware Italia

Pubblicato il 14/07/2025 alle 11:49 - Aggiornato il 28/07/2025 alle 19:13
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La domanda di capacità computazionale, alimentata dall'ascesa dell'intelligenza artificiale (AI), sta guidando una trasformazione radicale delle infrastrutture digitali globali. Questo fenomeno ha proiettato il mercato del raffreddamento per data center, un tempo una necessità tecnica, in un business strategico da oltre 16 miliardi di dollari nel 2024, destinato a superare i 42 miliardi entro il 2032.

L'evoluzione dei sistemi di raffreddamento è diventata un fattore chiave che non solo determina le performance e la densità di calcolo dei data center, ma ne definisce anche l'impatto ambientale in termini di consumo energetico e idrico. La questione non è più semplicemente tecnica, ma strategica: la capacità di una nazione di costruire, alimentare e raffreddare queste nuove infrastrutture è un elemento determinante per la sua competitività tecnologica e per la sostenibilità del suo futuro digitale.

Ti potrebbe interessare anche

youtube play
Guarda su youtube logo

Si stanno costruendo nuovi data center di continuo, in giro per il mondo e anche in Italia. Ed è quindi del tutto normale che il mercato del raffreddamento stia a sua volta registrando una crescita a due cifre, con stime concordi che indicano un tasso di crescita annuale composto (CAGR) tra il 12,4% e il 16,7%. 

La crescita esponenziale dell'intelligenza artificiale ha trasformato il raffreddamento dei data center in un mercato multimiliardario, imponendo nuove sfide tecnologiche e ambientali.

Geograficamente, il Nord America detiene la quota dominante, con il 38,9% del mercato nel 2024, ma la vera spinta all'espansione risiede in un'evoluzione tecnologica specifica. L'intero settore si sta biforcando: da un lato un mercato "legacy" basato su soluzioni ad aria, con una crescita moderata; dall'altro un mercato "high-density" in crescita esplosiva, guidato quasi esclusivamente dalla domanda di raffreddamento a liquido.

L'esplosione della domanda: l'era delle "AI Factory"

La causa di questa biforcazione è l'avvento di carichi di lavoro ad altissima intensità, come l'intelligenza artificiale e l'High-Performance Computing (HPC). Questi hanno ridefinito il concetto stesso di data center, facendolo evolvere in quello di "AI Factory": non più una collezione di server indipendenti, ma un sistema integrato, concepito come un unico grande computer. In questa visione, l'infrastruttura di alimentazione e raffreddamento non è un servizio ausiliario, ma una componente intrinseca e co-progettata del sistema computazionale.

La capacità di una nazione di costruire, alimentare e raffreddare queste nuove infrastrutture è un elemento determinante per la sua competitività

Raffreddare questi sistemi con i metodi convenzionali ad aria è tecnicamente ingestibile. Per questo, come è già successo nel settore automobilistico e motociclistico, il passaggio al raffreddamento a liquido è diventato una necessità. - Stefano Mozzato, Vertiv

Questa nuova architettura ha provocato un'impennata della densità di potenza per singolo rack. Se un data center tradizionale operava con medie di 5-12 kW per rack, le moderne architetture per l'AI, basate su vaste reti di GPU (Graphics Processing Units), hanno polverizzato queste soglie, raggiungendo e superando i 120 kW per rack. Un singolo rack oggi può richiedere una potenza equivalente a quella di decine di asciugacapelli accesi contemporaneamente alla massima potenza. 

Tanta potenza significa tanto calore da dissipare, e farlo con un sistema ad aria è semplicemente impossibile. 

Di conseguenza, il fabbisogno energetico totale di una AI Factory diventa massiccio, misurandosi in decine di megawatt (MW). Progetti su larga scala, come il supercomputer "Colosseum" previsto nel Sud Italia, possono richiedere potenze nell'ordine dei 20 MW. Questo trasforma il reperimento della potenza in un fattore critico e determinante nella scelta della localizzazione di un nuovo sito, superando spesso altri fattori logistici e geografici tradizionali. La disponibilità immediata di connessioni alla rete elettrica ad alta capacità diventa un prerequisito non negoziabile.

Guarda su

Il focus si è spostato dallo spazio fisico alla potenza di calcolo. Oggi, quando si progetta e si valuta un data center per l'AI, la domanda fondamentale che ci poniamo è: 'qual è la capacità in termini di GPU?', sottolinea Stefano Mozzato, VP Marketing EMEA di Vertiv, evidenziando come l'unità di misura non sia più lo spazio fisico, ma la capacità di calcolo installata. Questo paradigma crea una nuova classe di asset strategici. La capacità di una nazione di costruire e alimentare queste "fabbriche" sta diventando un fattore chiave per la sua competitività globale e influenza geopolitica, delineando una nuova geografia del potere digitale.

Immagine id 63205

Il paradosso ambientale: la sete di energia e acqua

Questa immensa capacità di calcolo ha un costo ambientale significativo, creando un profondo paradosso: i data center, motori della digitalizzazione, sono tra le infrastrutture più energivore del pianeta. Secondo l'Agenzia Internazionale dell'Energia (IEA), il loro consumo di elettricità, che nel 2022 rappresentava tra l'1% e l'1,3% della domanda globale, è destinato a più che raddoppiare entro il 2030, raggiungendo quasi 1.000 TWh. A quel punto, questa singola industria potrebbe consumare più elettricità del Giappone. Il raffreddamento è storicamente responsabile di una quota enorme di questo consumo, fino al 40% in una struttura tradizionale.

Meno visibile ma altrettanto critico è l'impatto idrico. I data center usano grandi quantità d'acqua per i sistemi di raffreddamento evaporativo e per la generazione dell'elettricità che li alimenta. Un singolo data center di medie dimensioni può arrivare a consumare ogni giorno l'equivalente idrico di 1.500 famiglie. Il problema è aggravato dal fatto che molte di queste strutture vengono costruite in regioni già afflitte da grave stress idrico, come l'Arizona o alcune aree della Spagna, creando un conflitto diretto per l'accesso a una risorsa vitale e limitata.

È fondamentale fare chiarezza sul consumo idrico. Le notizie su data center 'assetati' si riferiscono spesso a tecnologie di raffreddamento adiabatico, che consumano acqua per evaporazione. Sebbene presenti in alcune aree del mondo, in Italia questa tecnologia è estremamente rara. Parliamo di un paio di casi isolati, che peraltro si stanno già evolvendo verso soluzioni più efficienti. - Stefano Mozzato, Vertiv

Su questo tema, l'obiezione secondo cui l'acqua utilizzata verrebbe semplicemente rimessa in circolo è valida, ma solo per le tecnologie a "circuito chiuso" (closed-loop), come i sistemi di raffreddamento a liquido diretti o i chiller che non usano l'evaporazione. Molti data center, specialmente quelli di grandi dimensioni in climi non freddi, utilizzano invece una tecnologia differente chiamata raffreddamento evaporativo o adiabatico. È una soluzione ormai superata ma ancora utilizzata. 

Questo metodo consuma attivamente acqua per un motivo preciso: sfrutta il principio fisico dell'evaporazione per dissipare il calore. In pratica, attraverso delle torri di raffreddamento, una parte dell'acqua viene fatta evaporare; questo processo sottrae un'enorme quantità di calore all'acqua rimanente nel circuito, raffreddandola in modo molto efficiente. L'acqua che evapora, però, viene dispersa nell'atmosfera sotto forma di vapore e non viene reimmessa nel circolo idrico locale.

Secondo l'Agenzia Internazionale dell'Energia (IEA), il loro consumo di elettricità, che nel 2022 rappresentava tra l'1% e l'1,3% della domanda globale, è destinato a più che raddoppiare entro il 2030, raggiungendo quasi 1.000 TWh.

Un’altra criticità legata al consumo di acqua è il cosiddetto "disaccoppiamento geografico": il cloud è un servizio globale, ma le risorse che consuma, come l'acqua, hanno un impatto intrinsecamente locale e non mitigabile a distanza. Come in altri scenari, dunque, può verificarsi che le azioni in un luogo del pianeta abbiano un impatto ambientale da un’altra parte. In questo contesto, Andrea Faeti, Sales Director Enterprise Accounts di Vertiv, suggerisce un cambio di prospettiva e ci invita a usare meno i dati, limitandone gli sprechi: "Anche i dati come l’acqua non andrebbero sprecati". 

Per governare questa sfida, il settore ha sviluppato metriche standard. La Power Usage Effectiveness (PUE) misura il rapporto tra l'energia totale consumata dalla struttura e quella usata dall'IT, con un valore ideale di 1.0. La Water Usage Effectiveness (WUE) misura i litri d'acqua usati per ogni kWh di energia consumata dall'IT. Sebbene queste metriche siano diventate bussole indispensabili, la loro efficacia dipende dalla volontà delle aziende di misurarle e riportarle in modo trasparente.

Immagine id 63206

Di fronte a questa contraddizione – data center essenziali per la digitalizzazione, ma tra le infrastrutture più energivore e idrovore – diventa indispensabile un approccio di governance che non lasci solo il mercato a regolare se stesso. Servono misure vincolanti, non solo buone pratiche volontarie. Tassazione progressiva sulle emissioni residue, standard minimi di efficienza per nuovi impianti, obbligo di piani di recupero del calore e incentivi fiscali per chi integra il teleriscaldamento: sono strumenti già applicabili in molti contesti europei, ma ancora troppo frammentari.

Il passaggio al raffreddamento a liquido, imposto dalle necessità termiche dell'AI, apre un'opportunità strategica inattesa: trasformare il calore da prodotto di scarto a risorsa preziosa.

I numeri lo dimostrano: senza un quadro normativo che imponga trasparenza su PUE e WUE e penalizzi chi spreca risorse comuni, la corsa all’AI rischia di moltiplicare i danni invece di guidare la transizione ecologica. La sfida, quindi, non è solo tecnologica ma collettiva: mettere regole chiare significa trasformare un nodo critico in un’occasione per un’economia digitale più giusta, resiliente e coerente con i limiti planetari.

Il raffreddamento a liquido, di necessità virtù 

Di fronte a densità di calore che superano i 100 kW per rack, i sistemi di raffreddamento tradizionali basati sulla circolazione dell'aria hanno raggiunto i loro limiti fisici invalicabili. La capacità termica dell'aria è ordini di grandezza inferiore a quella dei liquidi, rendendo proibitivo il volume e la velocità d'aria necessari per dissipare tale calore. Il passaggio al raffreddamento a liquido non è più un'opzione per migliorare l'efficienza, ma una necessità ingegneristica imprescindibile.

Le tecnologie chiave sono principalmente due:

  • Direct-to-Chip (D2C): Un liquido refrigerante circola in "cold plates" (piastre fredde) montate a diretto contatto con i componenti più caldi come CPU e GPU, catturando il calore alla fonte.
  • Raffreddamento a Immersione: Interi server vengono immersi in un fluido dielettrico (non conduttore di elettricità) che assorbe il calore. Questa tecnologia può essere monofase (il liquido non cambia stato) o bifase (il liquido evapora a contatto con i componenti caldi, massimizzando la dissipazione).

Questa transizione ha ridefinito il panorama competitivo. Player consolidati come Schneider Electric, Stulz, Rittal, Danfoss e Vertiv non competono più sulla vendita di singoli componenti, ma sulla capacità di offrire piattaforme infrastrutturali integrate e "AI-ready". La collaborazione strategica con i giganti dei semiconduttori, come NVIDIA, è diventata cruciale per pre-validare queste soluzioni, spostando il valore dall'hardware alla soluzione di sistema. La competizione si gioca sulla capacità di orchestrare un ecosistema di partner per vendere non un prodotto, ma la riduzione del rischio e la velocità di implementazione.

L'intero settore si sta biforcando: da un lato un mercato "legacy" basato su soluzioni ad aria, con una crescita moderata; dall'altro un mercato "high-density" in crescita esplosiva, guidato quasi esclusivamente dalla domanda di raffreddamento a liquido

Una sfida significativa è l'aggiornamento delle strutture esistenti (retrofit). Tuttavia, esistono tecnologie che facilitano questo processo. Sistemi come le Coolant Distribution Units (CDU) o il Vertiv Liebert XDU possono utilizzare l'infrastruttura ad aria già presente per generare l'acqua temperata necessaria al circuito a liquido, permettendo un'adozione graduale e proteggendo gli investimenti preesistenti. Questo approccio ibrido abbassa le barriere all'ingresso per molte aziende che desiderano sperimentare con l'AI senza ricostruire da zero la propria infrastruttura.

Da costo a risorsa: l'economia circolare e il riutilizzo del calore

Il passaggio al raffreddamento a liquido, imposto dalle necessità termiche dell'AI, apre un'opportunità strategica inattesa: trasformare il calore da prodotto di scarto a risorsa preziosa. I sistemi a liquido catturano il calore in un fluido che raggiunge temperature elevate (spesso tra i 50 e i 65 °C), a differenza dei sistemi ad aria che espellono aria a temperature molto più basse. Questo calore ad "alta qualità" è molto più facile ed efficiente da recuperare e riutilizzare.

Vale a dire che il calore generato dal data center si può utilizzare per cose utili, come per esempio il riscaldamento delle abitazioni e degli uffici. 

Questa pratica trasforma il ruolo del data center, che da semplice consumatore di energia diventa un "prosumer" (produttore e consumatore), un attore integrato nel tessuto energetico urbano. Il calore di scarto può essere convogliato per alimentare reti di teleriscaldamento, servendo edifici residenziali, commerciali o industriali e contribuendo attivamente alla decarbonizzazione delle città. Questo approccio non solo migliora il profilo di sostenibilità, ma può creare un nuovo e significativo flusso di ricavi per gli operatori, cambiando radicalmente il calcolo del Total Cost of Ownership (TCO). 

"Meno male che c'è qualcuno che parla di sovranità dei dati, sennò probabilmente di data center di tanti hyperscaler che invece sono arrivati in Italia negli ultimi 4, 5 anni ne avremmo visti molto pochi - Andrea Faeti, Vertiv

L'Europa è all'avanguardia in questo campo. Un esempio è il data center di Infomaniak a Ginevra, progettato per recuperare il 100% dell'energia consumata e fornire, a pieno regime, il fabbisogno termico di 6.000 abitazioni. In Italia, un progetto pioniere annunciato a Milano vedrà il calore di scarto del data center "Avalon 3" di Retelit alimentare la rete di teleriscaldamento di A2A, servendo circa 1.250 famiglie.

Tuttavia, l'implementazione su vasta scala di questi sistemi virtuosi è frenata da sfide non tecnologiche, ma sistemiche. La fattibilità dipende dalla prossimità geografica a una rete di teleriscaldamento e, soprattutto, da un quadro normativo e di pianificazione urbana che incentivi e faciliti queste connessioni. La realizzazione richiede una stretta collaborazione tra operatori di data center, municipalità e utility energetiche, un ecosistema che in Italia si sta formando solo ora.

Italia: sovranità dei dati come catalizzatore inatteso

Il mercato italiano dei data center sta vivendo una fase di espansione senza precedenti. Le proiezioni indicano che la capacità IT totale installata nel paese passerà da 550 MW nel 2025 a 1.390 MW nel 2030, con un CAGR del 20,24%. L'hub dominante rimane l'area metropolitana di Milano, che attrae la maggior parte degli investimenti. Questa crescita robusta è stata alimentata da un fattore catalizzatore unico e decisivo: la sovranità dei dati.

Quello della data della sovranità dei dati è stato sicuramente un elemento determinante... per fare in modo che anche in Italia si sviluppasse un mercato per i grandi data center. - Andrea Faeti, Vertiv

Per anni, l'Italia è stata bypassata dai grandi hyperscaler globali a causa di ostacoli percepiti legati a costi, burocrazia e stabilità infrastrutturale. Tuttavia, la crescente enfasi normativa (GDPR) e politica sulla necessità di mantenere dati critici all'interno dei confini nazionali ha "costretto" i provider cloud a costruire region dedicate in Italia. Questo imperativo ha permesso al paese di superare il suo storico ritardo e di dotarsi di un'infrastruttura moderna, che oggi si rivela fondamentale per ospitare la nuova ondata di investimenti legati all'AI Sovereign.

Il progetto "Colosseum" di iGenius incarna perfettamente questa dinamica. La sua localizzazione nel Sud Italia e il suo focus esplicito su settori regolamentati come finanza, sanità e Pubblica Amministrazione lo posizionano come un asset nazionale per lo sviluppo di un'AI sovrana, dove controllo e giurisdizione del dato sono prerequisiti non negoziabili. Se il ritardo italiano sul cloud era di circa dieci anni rispetto agli USA, quello sull'AI appare molto più contenuto, proprio grazie alla disponibilità di queste nuove infrastrutture locali.

La spinta verso la sovranità, inizialmente vista come un ostacolo, si è rivelata un inatteso vantaggio competitivo strategico. Ha preparato involontariamente il terreno per l'AI, posizionando l'Italia in una situazione di relativa forza. Le sfide, ovviamente, rimangono: la disponibilità di energia a costi competitivi, la carenza di competenze specialistiche e la definizione di business case chiari per le aziende sono nodi cruciali da affrontare. La gestione della scalabilità è altrettanto importante, poiché il mercato non è fatto solo di grandi AI Factory, ma anche di esigenze enterprise e PMI che richiedono soluzioni scalate e accessibili.

Progettare la complessità: il futuro è olistico e autonomo

La progettazione e la gestione di una AI Factory rappresentano un'impresa di enorme complessità, che i metodi tradizionali non sono più in grado di governare. In questo scenario, emergono tecnologie abilitanti come i "digital twin" (gemelli digitali), ovvero repliche virtuali fisicamente accurate dell'intera infrastruttura. Piattaforme collaborative come NVIDIA Omniverse consentono a team multidisciplinari di lavorare simultaneamente su un modello unificato, simulando flussi termici, carichi elettrici e layout per ottimizzare il design prima ancora di iniziare la costruzione, riducendo i cicli di progetto da mesi a ore.

Una volta costruita, la fabbrica necessita di una gestione altrettanto olistica. L'AI viene usata per ottimizzare la gestione termica dei data center stessi, in un circolo virtuoso. Piattaforme software come Vertiv Unify si integrano con il digital twin per orchestrare in tempo reale alimentazione, raffreddamento e calcolo, abilitando la manutenzione predittiva e un processo decisionale sempre più autonomo. Per rispondere all'urgenza del mercato, il settore si sta inoltre spostando verso architetture modulari e prefabbricate (PFM), che riducono i tempi di implementazione fino al 50% e ottimizzano gli investimenti.

Questa rivoluzione tecnologica richiede una nuova generazione di professionisti con competenze multidisciplinari. La gestione di sistemi di raffreddamento a liquido ad alta pressione o di quadri elettrici da decine di megawatt necessita di una formazione specifica. In risposta, aziende leader stanno investendo in centri di formazione dedicati, come le "Vertiv Academy", due delle quali si trovano in Italia (Bologna e Padova), a testimonianza dell'eccellenza storica del tessuto industriale nazionale in questi settori. La sostenibilità stessa viene ridefinita, andando oltre la metrica PUE per includere durabilità, affidabilità e manutenibilità delle infrastrutture, supportate da un servizio di assistenza capillare, come forma essenziale per ridurre i rifiuti elettronici e garantire la continuità operativa.

Il futuro del settore, dunque, non sarà definito solo dalla tecnologia di un singolo prodotto, ma dalla capacità di orchestrare ecosistemi complessi. Il vero differenziatore non è più il singolo componente, ma la capacità di fornire un ecosistema integrato, efficiente e circolare, in grado di sostenere il futuro digitale senza compromettere il pianeta.

La competizione non può basarsi solo su chi costruisce più veloce o più grande. La vera leadership si misurerà sulla capacità di creare infrastrutture resilienti, sostenibili e integrate nei territori. Serve una governance che sappia tener conto dei costi ambientali, dei limiti locali e del valore collettivo delle risorse usate. Solo così l’intelligenza artificiale potrà davvero definirsi tale.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Ti potrebbe interessare anche

5G SA, qualcosa si muove, 90 operatori sono in modalità "soft launch"
1

Business

5G SA, qualcosa si muove, 90 operatori sono in modalità "soft launch"

Di Antonino Caffo
Nuove opzioni per lo storage ad alte prestazioni: l'all-flash punta a blindare i dati dell'AI

Business

Nuove opzioni per lo storage ad alte prestazioni: l'all-flash punta a blindare i dati dell'AI

Di Valerio Porcu
Google vuole vendere chip AI a Meta, Nvidia trema
1

Business

Google vuole vendere chip AI a Meta, Nvidia trema

Di Valerio Porcu
Lavoro USA, l’IA mette in crisi milioni di professioni
1

Business

Lavoro USA, l’IA mette in crisi milioni di professioni

Di Antonello Buzzi
HP licenzia 6.000 persone, punta sull'Intelligenza Artificiale
1

Business

HP licenzia 6.000 persone, punta sull'Intelligenza Artificiale

Di Valerio Porcu
Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2025 3Labs Srl. Tutti i diritti riservati.