La trasformazione digitale non è un processo astratto. Ha un peso, un ingombro e, soprattutto, un appetito energetico formidabile. Dietro la crescente dipendenza da servizi cloud e intelligenza artificiale si cela la costruzione di una nuova spina dorsale industriale per l'Italia: i data center. Per comprendere la portata della sfida ingegneristica che il Paese sta affrontando, abbiamo discusso con Andrea Faeti, Sales Director Enterprise Accounts per l’Italia di Vertiv, azienda che progetta e realizza le infrastrutture critiche di questi nuovi poli industriali.
Ciò che emerge è il ritratto di una rivoluzione silenziosa, le cui fondamenta non sono gettate sull'asfalto delle autostrade, ma lungo le direttrici delle reti elettriche ad alta tensione. Lo sviluppo dei data center segue queste linee così come gli insediamenti umani hanno seguito i corsi d’acqua, nel corso della storia. Ma se il cloud, per funzionare, ha bisogno di "fabbriche" estremamente complesse, la loro progettazione richiede di risolvere un paradosso costante: come aumentare esponenzialmente la potenza di calcolo mantenendo sotto controllo i consumi e l'impatto ambientale. Capire questa dinamica è fondamentale per non subire, ma governare, la transizione digitale.
Si tratta di una sfida globale che sta arrivando anche in Italia. Se in passato le sedi privilegiate erano Francoforte o Dublino, oggi il nostro Paese è al centro di una corsa strategica, con investimenti annunciati per miliardi di euro, come quelli di Microsoft e AWS. La ragione non risiede solo in una maggiore prossimità ai clienti, ma in una scelta di campo: le aziende europee richiedono che i dati risiedano sul territorio, in linea con i principi di sovranità digitale e le direttive del GDPR.
“C'è un trend generale alla crescita del mondo del data center che ha portato i grandi hyperscaler a investire in maniera molto più massiccia in Italia di quanto facessero qualche anno fa, dove le grandi installazioni erano concentrate nei paesi cosiddetti FLAP (Francoforte, Londra, Amsterdam, Parigi).”
Ma dove si costruisce un data center? La risposta è legata a un'altra rete, molto più rigida e difficile da modificare di quella dei dati: quella elettrica. Il criterio fondamentale per la scelta dei siti è spiegato chiaramente da Faeti:
“Oggi l’elemento determinante è la disponibilità di energia elettrica. Portare una fibra è un investimento che si può gestire, mentre quello che è assolutamente fondamentale è predisporre la disponibilità dell'approvvigionamento energetico, perché l'infrastruttura elettrica è più difficile e costosa.”
Questa nuova domanda energetica non è priva di conseguenze. Secondo le analisi di Terna, lo sviluppo di nuovi data center rappresenterà una delle principali fonti di crescita del fabbisogno elettrico industriale nei prossimi anni. Si tratta di un carico imponente e costante, attivo 24/7, che sollecita la resilienza della rete nazionale e richiede investimenti mirati per evitare congestioni e garantire stabilità. La sfida non è solo costruire i data center, ma anche potenziare l'infrastruttura pubblica che dovrà alimentarli. Si accentua così l'importanza di infrastrutture di data center dotate di sistemi di backup e gestione energetica avanzati, capaci di garantire stabilità operativa indipendentemente dalle fluttuazioni della rete.
La sfida della velocità: l'ingegneria modulare per accelerare i tempi
La domanda di capacità di calcolo, con una crescita annua del mercato italiano superiore al 15% (secondo le rilevazioni dell'Osservatorio Data Center del Politecnico di Milano), cresce a un ritmo tale che i metodi costruttivi tradizionali non sono più sufficienti. La risposta a questa esigenza di velocità è una profonda innovazione nel processo di costruzione.
“Oggi sempre di più un data center è visto come un insieme ibrido di costruzioni di tipo più o meno tradizionale e sistemi di supporto modulari. Questo approccio dà alle società come Vertiv, che sono in grado di sviluppare e consegnare presso i propri clienti sistemi integrati modulari, l’opportunità di avere una visibilità anticipata sui nuovi progetti.”
L'idea è semplice solo in apparenza. Invece di costruire un unico, monolitico edificio che contenga tutto, si realizza una struttura centrale dedicata esclusivamente agli armadi dei server, il cosiddetto "white space". Tutte le infrastrutture di supporto critico, come i gruppi di continuità (UPS), le batterie e i quadri di distribuzione, vengono invece alloggiate in "power module" esterni. Lo stesso accade per il raffreddamento, affidato a sistemi di gestione termica "package" applicati all'esterno dell'edificio principale. Il “white space” può, al suo interno, essere costituito da sottoassiemi modulari prefabbricati. Questo approccio permette di mettere in parallelo più attività e fasi produttive consentendo una drastica riduzione dei tempi di implementazione.”
La densità di potenza: l'impatto dell'AI e la necessità del raffreddamento a liquido
Il vero motore che sta spingendo al limite le attuali tecnologie infrastrutturali è l'intelligenza artificiale. Un rack tradizionale, fino a pochi anni fa, assorbiva in media dai 5 ai 10 kilowatt (kW). Oggi, un singolo armadio riempito con server basati su GPU per l'addestramento di modelli di AI può superare agevolmente i 100-130 kW e questa densità di potenza aumenterà ancora in maniera significativa nei prossimi anni. Questa densità genera una grande quantità di calore in uno spazio relativamente ristretto e il raffreddamento tradizionale ad aria diventa fisicamente inadeguato, come sottolinea Faeti:
“Sopra i 50 kW per rack non si riesce più a raffreddare in maniera efficace con l'aria, perché bisognerebbe far passare tanta aria e così velocemente attraverso i server da rendere la soluzione impraticabile. I server, inoltre, aumentando la densità dei componenti interni, non dispongono neanche più dello spazio fisico per permettere il passaggio dell’aria”
La transizione è dunque obbligata verso il raffreddamento a liquido.
“Quello che fa il liquid cooling, di fatto, è catturare il calore generato da ogni singolo chip montato in ogni server all’interno del data center e utilizzare un liquido di raffreddamento per portarlo all’esterno. Dopo, quando è fuori, bisogna capire cosa farne, smaltirlo o riutilizzarlo.”
Parlando di efficienza è utile considerare che il PUE (Power Usage Effectiveness, ovvero "Efficacia nell'Uso dell'Energia") è un indicatore parziale dell’efficienza di un sistema: non misura l'efficienza complessiva delle risorse. Ignora, ad esempio, il tema del consumo idrico (misurato dalla metrica WUE, Water Usage Effectiveness), un'altra sfida cruciale, specialmente in Italia.
"In Italia, anche per questioni climatiche, non sono molto diffusi sistemi di raffreddamento che utilizzano l’acqua, come i sistemi adiabatici. Risorse idriche quali le acque di falda sono utilizzabili ma sono molto regolamentate, c'è grande attenzione nel rispetto delle falde, sia rispetto ai volumi di acqua che si possono sottrarre, che alle temperature di utilizzo."
Da costo a risorsa: la complessa opportunità del calore di scarto
Tutta l’energia elettrica che entra in un data center ne esce sotto forma di calore. Lo smaltimento di questo calore è tradizionalmente considerato un costo ma può essere anche una straordinaria opportunità. E se questo calore, invece di essere un problema, diventasse una risorsa?
"Il tema del riutilizzo del calore è la vera soluzione virtuosa. Se riesco a riutilizzarlo, questo calore diventa una risorsa, non è neanche più uno scarto, perché si spendono soldi normalmente per produrlo, ad esempio, nei sistemi di teleriscaldamento. [...] Il calore generato dai data center può dunque diventare una risorsa aggiuntiva per il gestore, diventando una componente positiva del proprio conto economico."
L'idea di integrare i data center nelle reti di teleriscaldamento urbano è affascinante, ma la sua implementazione è tutt'altro che semplice e si scontra con barriere infrastrutturali, economiche e normative. In Paesi come la Svezia, l'iniziativa Stockholm Data Parks ha creato un ecosistema in cui i data center vendono il loro calore di scarto alla rete cittadina, ma questo richiede una forte regia pubblica e infrastrutture preesistenti.
In Italia, la principale sfida è l'assenza di reti di teleriscaldamento capillari. L'esempio di A2A, che ha avviato un progetto pilota per integrare un piccolo data center nella sua rete, è un passo importante ma ne evidenzia la scala ancora sperimentale. Trasformare il problema in opportunità richiede una strategia nazionale.
La crescita digitale italiana non è un fenomeno astratto confinato nel software, ma una trasformazione industriale con profonde e concrete implicazioni infrastrutturali. Il successo di questa transizione non dipenderà solo dalla nostra capacità di costruire data center più potenti e veloci, ma dalla nostra intelligenza nel progettarli come elementi integrati e sostenibili del sistema energetico e urbano nazionale. La sfida ingegneristica è appena iniziata e richiede una visione che vada oltre i confini del singolo edificio, per abbracciare l'intero ecosistema.