Meta ha istituito l'iniziativa Meta Compute per coordinare lo sviluppo dei datacenter. Come riportato da The Register, l'obiettivo è trasformare l'infrastruttura hardware in un asset strategico per il futuro del gruppo. Mark Zuckerberg intende passare dalla gestione di poche decine di gigawatt a centinaia nel lungo periodo, centralizzando le operazioni sotto un'unica entità dedicata.
Questa ristrutturazione suggerisce che la capacità energetica sia diventata il vero collo di bottiglia per lo sviluppo della superintelligenza, un obiettivo piuttosto fumo, magari una vera e propria chimera, ma comunque qualcosa che richieda moltissima energia. Un tipo di sforzo che richiede controllo diretto su tutta la catena, sulla logistica dei chip e sulla fornitura elettrica. Farsi i propri data center sembra, in effetti, la scelta più naturale.
La guida di Meta Compute è stata affidata a Santosh Janardhan, attuale responsabile dell'infrastruttura, e Daniel Gross, esperto di strategie di capacità a lungo termine. Al vertice si inserisce anche Dina Powell McCormick, ex Goldman Sachs e consulente della presidenza Trump, con l'incarico di negoziare con i governi i finanziamenti necessari per le opere civili. Questa struttura evidenzia come l'infrastruttura IA non sia più solo un tema tecnico, ma un dossier di geopolitica ed economia.
L'impegno finanziario previsto è massiccio, con una spesa in conto capitale stimata in 72 miliardi di dollari per l'anno fiscale 2025. Tuttavia, l'azienda si trova in una posizione delicata dopo l'accoglienza tiepida di Meta Llama 4, il modello che avrebbe dovuto erodere il vantaggio competitivo di OpenAI. La necessità di nuove infrastrutture rispecchia la volontà di non restare indietro nella corsa ai modelli generativi di prossima generazione.
La transizione verso il nucleare e i modelli proprietari
Per alimentare questa espansione, Meta ha siglato accordi a lungo termine per l'energia nucleare. Contratti con TerraPower, Oklo e Vistra garantiranno circa 6,6 gigawatt di potenza atomica, una scelta quasi obbligata per gestire cluster di calcolo di dimensioni planetarie. Il ritorno all'atomo è ormai un tema centrale per chiunque operi nel settore dei datacenter ad alte prestazioni.
Parallelamente al potenziamento hardware, Zuckerberg sembra pronto ad abbandonare parzialmente la filosofia open source. Voci di corridoio indicano che lo sviluppo dei modelli noti come Avocado e Mango avverrà sotto protocolli proprietari, segnando un distacco dalla trasparenza promessa con la famiglia Llama. Questa inversione di rotta potrebbe essere dettata dalla necessità di proteggere la proprietà intellettuale in un mercato sempre più saturo.
L'ossessione per la scala e la potenza energetica solleva seri dubbi sull'efficienza degli algoritmi attuali. Se ogni avanzamento richiede un raddoppio delle centrali elettriche dedicate, il modello di business della Big Tech rischia una crisi di sostenibilità nel medio periodo. Non è detto che la potenza bruta possa compensare indefinitamente la mancanza di una reale innovazione nell'architettura delle reti neurali.
Inoltre, la centralizzazione di centinaia di gigawatt nelle mani di un singolo attore privato pone sfide di governance senza precedenti. La dipendenza dai governi per le licenze nucleari e i sussidi infrastrutturali intreccia indissolubilmente gli interessi aziendali con le politiche energetiche nazionali.