Il dibattito sulle infrastrutture per l'intelligenza artificiale ha recentemente preso una piega quasi fantascientifica, con proposte sempre più audaci per alimentare la fame energetica dei moderni datacenter. Tra le ipotesi più discusse negli ultimi mesi emerge quella di posizionare interi complessi di calcolo nello spazio, sfruttando l'energia solare costante e il raffreddamento naturale del vuoto cosmico. Tuttavia, un'analisi tecnico-economica approfondita condotta da esperti del settore aerospaziale sta riportando il dibattito con i piedi ben piantati a terra, rivelando numeri che fanno riflettere sulla reale fattibilità di questi progetti.
Andrew McCalip di Varda Space Industries ha pubblicato un'analisi economica dettagliata, supportata da un calcolatore online, che smonta pezzo per pezzo l'idea di datacenter orbitali dedicati all'addestramento di modelli linguistici di grandi dimensioni. I numeri parlano chiaro: anche nelle proiezioni più ottimistiche, considerando l'evoluzione dei razzi riusabili e ignorando numerosi costi accessori, un ipotetico impianto "SpaceGPT" costerebbe oltre 51,1 miliardi di dollari, più di tre volte i 15,9 miliardi necessari per un datacenter equivalente sulla Terra.
L'analisi non si limita agli aspetti puramente economici. Andrew Côté di Hyperstition Incorporated ha approfondito le sfide ingegneristiche che un progetto simile dovrebbe affrontare, giungendo sostanzialmente alle stesse conclusioni pessimistiche. Le problematiche vanno ben oltre il semplice lancio: la gestione termica nel vuoto spaziale, sebbene teoricamente vantaggiosa, presenta complessità tecniche enormi. A differenza della Terra, dove l'aria e l'acqua permettono dissipazione convettiva, nello spazio il calore può essere smaltito solo per irraggiamento, richiedendo radiatori di dimensioni considerevoli e sistemi di gestione termica estremamente sofisticati.
La proposta dei datacenter orbitali nasce da esigenze concrete del settore AI: il consumo energetico per l'addestramento di modelli avanzati ha raggiunto livelli impressionanti, con cluster che assorbono decine o centinaia di megawatt. In orbita, l'energia solare sarebbe disponibile 24 ore su 24 senza l'interferenza dell'atmosfera, massimizzando l'efficienza dei pannelli fotovoltaici. Il vuoto spaziale, con temperature che possono scendere fino a pochi gradi Kelvin lontano dal Sole, offrirebbe teoricamente un raffreddamento "gratuito" per processori e GPU che generano enormi quantità di calore durante le operazioni di training e inference.
Tuttavia, la realtà ingegneristica e finanziaria impone considerazioni meno romantiche. I costi di lancio, pur in diminuzione grazie a SpaceX e ad altri operatori che puntano sulla riusabilità, rimangono proibitivi per carichi utili delle dimensioni e del peso necessari per un datacenter funzionale. Ogni chilogrammo lanciato in orbita costa ancora migliaia di dollari, e un datacenter AI moderno con server, sistemi di raffreddamento, alimentazione e ridondanza pesa centinaia di tonnellate. La manutenzione rappresenta un ulteriore ostacolo: sulla Terra, tecnici possono intervenire in ore per sostituire componenti guasti, mentre nello spazio ogni intervento richiederebbe missioni estremamente costose o robotica avanzata ancora in fase sperimentale.
L'analisi di McCalip evidenzia anche aspetti spesso trascurati nelle discussioni più entusiastiche, come la latenza nelle comunicazioni con la superficie terrestre e i costi assicurativi per infrastrutture di tale valore esposte ai rischi del volo spaziale. Le normative internazionali sullo spazio orbitale e la gestione dei detriti spaziali aggiungono ulteriori livelli di complessità regolamentare e operativa che inciderebbero significativamente sui costi operativi a lungo termine.