I data center stanno attraversando una crisi di crescita senza precedenti: in pochi anni, la densità energetica per rack è schizzata da poche decine di kilowatt a 200 kW, e le proiezioni parlano di 600 kW nel giro di due anni fino a raggiungere il megawatt per singolo rack. Una escalation che sta mettendo a dura prova l'intera filiera infrastrutturale del cloud computing e dell'intelligenza artificiale, costringendo progettisti e operatori a ripensare radicalmente l'architettura delle facility. La sfida non riguarda solo l'alimentazione elettrica dalla rete, ma anche la distribuzione interna: a questi livelli di potenza, persino i cavi a bassa tensione che portano corrente ai server diventano un collo di bottiglia critico.
Veir, startup statunitense supportata da Microsoft, ha deciso di affrontare il problema con una tecnologia finora confinata alle linee di trasmissione ad alta tensione: i cavi superconduttori raffreddati ad azoto liquido. L'azienda con sede nel Massachusetts ha adattato la propria piattaforma tecnologica per creare un sistema di cablaggio capace di trasportare 3 megawatt di potenza a bassa tensione occupando uno spazio venti volte inferiore rispetto ai tradizionali conduttori in rame, con una capacità di distribuzione cinque volte superiore in termini di distanza.
La tecnologia si basa su materiali superconduttori commerciali, incapsulati in un rivestimento che contiene azoto liquido mantenuto a -196°C (-321°F). Questi cavi terminano in box di giunzione che gestiscono la transizione dai superconduttori ai cavi in rame convenzionali. Veir si posiziona essenzialmente come system integrator, assemblando sistemi di raffreddamento, manifatturando i cavi e integrando l'intera soluzione per consegnare densità energetiche altrimenti impossibili da raggiungere.
Il CEO Tim Heidel ha spiegato a TechCrunch che l'azienda aveva inizialmente sviluppato questa tecnologia per le utility elettriche e le linee di trasmissione a lunga distanza. Tuttavia, il settore energetico tradizionale si è rivelato troppo conservativo e lento nell'adozione di nuove soluzioni. Il mercato dei data center, al contrario, si muove a velocità completamente diverse sotto la pressione della corsa all'AI e del cloud computing, rendendo il ritmo di innovazione e risoluzione dei problemi significativamente più elevato rispetto al comparto della trasmissione elettrica.
La svolta nelle conversazioni con i potenziali clienti è arrivata recentemente, quando le discussioni si sono spostate dai problemi di interconnessione alla rete elettrica alle sfide interne ai campus e agli edifici stessi. I gestori di data center hanno iniziato a comprendere che l'ottimizzazione dello spazio e della distribuzione energetica all'interno delle facility rappresenta un vincolo altrettanto critico quanto l'approvvigionamento dalla rete.
Per dimostrare la fattibilità della soluzione, Veir ha costruito un data center simulato presso il proprio quartier generale, dove vengono testati i sistemi di cablaggio superconduttore in condizioni operative realistiche. I primi progetti pilota in data center reali sono previsti per il 2025, con un lancio commerciale pianificato per il 2027. L'azienda acquista i materiali superconduttori dagli stessi fornitori utilizzati per le applicazioni su trasmissione ad alta tensione, garantendo maturità tecnologica della supply chain.
La densità energetica crescente nei data center non è un trend arbitrario, ma una conseguenza diretta dell'addestramento e dell'inferenza dei modelli di intelligenza artificiale su larga scala, oltre che del consolidamento delle risorse di calcolo ad alte prestazioni. Le GPU e gli acceleratori AI moderni possono consumare centinaia di watt ciascuno, e i rack densamente popolati superano facilmente i limiti termici ed elettrici delle infrastrutture progettate anche solo cinque anni fa. Heidel sottolinea come la comunità AI e dei data center sia disperata nel cercare soluzioni oggi e nel mantenersi all'avanguardia, con una pressione competitiva enorme che spinge verso l'adozione di tecnologie innovative.