Il dibattito sull'impatto energetico dell'intelligenza artificiale generativa si sposta sul piano economico e geopolitico. Satya Nadella, amministratore delegato di Microsoft, ha recentemente dichiarato al World Economic Forum di Davos che il costo dell'energia diventerà il fattore determinante per stabilire quali nazioni domineranno la corsa globale all'AI. Un'affermazione che arriva in un momento critico, mentre i data center delle big tech consumano più elettricità di oltre cento paesi messi insieme e la carenza globale di memoria DRAM fa schizzare i prezzi verso l'alto.
Le cifre parlano chiaro: secondo Sam Altman, CEO di OpenAI, ogni singola risposta generata da ChatGPT consuma 0,34 wattora, equivalente al consumo di un forno in poco più di un secondo o di una lampadina ad alta efficienza in pochi minuti. Ma è quando si analizza la scala complessiva che i numeri diventano impressionanti: Microsoft e Google da sole superano il consumo energetico di centinaia di nazioni, alimentando infrastrutture da miliardi di dollari che richiedono non solo elettricità ma anche enormi quantità di acqua per il raffreddamento.
Durante il suo intervento a Davos, Nadella ha introdotto un concetto chiave per comprendere l'economia dell'AI: i token come nuova commodity globale. Queste unità computazionali, acquistate dagli utenti per elaborare richieste nei modelli linguistici e nei chatbot, rappresentano secondo il CEO di Microsoft la nuova valuta dell'era digitale. "La crescita del PIL in qualsiasi luogo sarà direttamente correlata" all'efficienza nell'utilizzo dell'energia per generare questi token, ha affermato.
La visione di Nadella collega direttamente il vantaggio competitivo nazionale alla capacità di trasformare energia in token a costi contenuti, e quindi token in crescita economica. Un paradigma che ribalta la prospettiva tradizionale sulle risorse strategiche: non più petrolio o gas naturale, ma la combinazione di disponibilità energetica ed efficienza computazionale. Il dirigente ha parlato della necessità di costruire "una rete ubiqua di energia e token", descrivendo l'AI come un "amplificatore cognitivo" con "accesso a menti infinite".
La realtà operativa dei laboratori di ricerca AI conferma questa analisi. L'investimento massiccio nella costruzione di data center in tutto il mondo ha creato una domanda senza precedenti di componenti hardware, in particolare memoria DRAM. La carenza globale di questi chip ha innescato una spirale inflazionistica che segue la legge basilare dell'economia: quando l'offerta non soddisfa la domanda, i prezzi aumentano vertiginosamente. Una dinamica che sta mettendo sotto pressione i bilanci anche delle aziende più capitalizzate del settore tecnologico.
Il nodo centrale resta la giustificazione sociale ed economica di questo enorme dispendio di risorse. Nadella ha sottolineato che il consenso pubblico all'utilizzo di energia su questa scala dipenderà dalla capacità dell'AI di produrre miglioramenti tangibili nei sistemi sanitari, nell'istruzione, nell'efficienza del settore pubblico e nella competitività delle imprese private, indipendentemente dalle loro dimensioni. Un richiamo alla responsabilità che suona come un monito per l'intera industria tech: dimostrare il valore reale dell'intelligenza artificiale oltre l'hype tecnologico.
L'integrazione dell'AI nei flussi di lavoro aziendali emerge come imperativo strategico secondo Microsoft, ma il modello economico sottostante rimane da verificare. Con costi operativi in continua crescita, strozzature nella catena di fornitura dei componenti e pressioni crescenti sulla sostenibilità ambientale, le prossime generazioni di modelli linguistici dovranno dimostrare un rapporto costo-beneficio convincente non solo per gli azionisti, ma per la società nel suo complesso.