L'intelligenza artificiale sta presentando il conto e a pagarlo saranno i consumatori finali attraverso bollette elettriche sempre più salate. Mentre le grandi aziende tech costruiscono data center energivori in tutto il mondo, la richiesta di energia elettrica sta crescendo a ritmi insostenibili, superando di gran lunga la capacità produttiva disponibile. Il paradosso è evidente: investiamo nell'AI per ottimizzare processi e ridurre costi, ma finiamo per pagare molto di più per l'energia necessaria a farla funzionare.
La questione è emersa prepotentemente dopo che Donald Trump ha pubblicamente elogiato Microsoft per aver accettato di pagare tariffe energetiche più elevate per i propri data center, rinunciando ad alcune agevolazioni fiscali. L'azienda di Redmond sta inoltre investendo nella produzione autonoma di energia e cercando di ridurre il consumo idrico delle proprie infrastrutture. Una mossa apprezzabile, ma che solleva interrogativi su tutte le altre grandi tech company che continuano a beneficiare di tariffe agevolate mentre consumano risorse energetiche paragonabili a intere città.
I numeri del fenomeno sono impressionanti. I data center più grandi consumano oltre un gigawatt di potenza, una quantità di energia sufficiente ad alimentare centinaia di migliaia di abitazioni. Questo appetito energetico insaziabile sta creando tensioni sul mercato elettrico globale: con una domanda in rapido aumento e un'offerta che fatica a tenere il passo, i prezzi sono destinati a salire. Per gli italiani, che già pagano l'energia elettrica più cara rispetto a francesi, spagnoli e tedeschi, le prospettive sono particolarmente preoccupanti.
La promessa iniziale era diversa. L'evoluzione tecnologica avrebbe dovuto portare a modelli di intelligenza artificiale più efficienti, i cosiddetti small language models, capaci di funzionare con meno risorse sia in fase di addestramento che di utilizzo. La realtà racconta una storia opposta: invece di ottimizzare i modelli esistenti, l'industria continua a costruire sistemi sempre più grandi e potenti, in una corsa agli armamenti computazionali dove l'efficienza energetica passa in secondo piano.
Esistono alternative concrete che vengono però ignorate. Alcune aziende, come il produttore cinese di smartphone Oppo, hanno implementato nei loro dispositivi modelli di intelligenza artificiale che funzionano completamente offline, utilizzando solo la batteria del telefono. Gli utenti possono scegliere autonomamente quando delegare compiti più complessi al cloud e quando invece elaborare tutto localmente. Un approccio ibrido che ridurrebbe drasticamente l'impatto sui data center, ma che richiede hardware adeguato e una consapevolezza ambientale che non tutti i consumatori possiedono.
Il problema dell'autoregolamentazione si rivela infatti illusorio. Lasciare alle aziende o agli utenti finali la responsabilità di scelte ecocompatibili non ha mai funzionato in nessun settore, e difficilmente funzionerà in questo caso. Se i consumatori potessero scegliere tra un'elaborazione più lenta ma ecologica e una veloce ma energivora, la maggioranza sceglierebbe la seconda opzione senza pensarci due volte. Allo stesso modo, le aziende privilegiano prestazioni e profitti rispetto alla sostenibilità, a meno che non siano costrette a fare altrimenti.
Sul fronte della produzione energetica, i tentativi di aumentare l'offerta procedono a rilento. Il pianeta si sta ricoprendo di pannelli solari, con la Cina in testa seguita dall'Europa, mentre l'Italia rimane indietro nonostante l'abbondanza di irraggiamento solare. Nel frattempo, le big tech stanno esplorando i piccoli reattori nucleari modulari, i cosiddetti small modular reactors, ciascuno teoricamente in grado di alimentare un intero data center. Ma anche con questi investimenti, la produzione energetica cresce più lentamente della domanda, creando un deficit strutturale destinato ad aggravarsi.
Un parallelismo interessante viene dal mondo automobilistico. Le normative europee sulle emissioni, pur contestate, hanno spinto i produttori a innovare profondamente nella progettazione dei motori, sviluppando tecnologie che pochi anni prima sembravano impossibili. Lo stesso approccio potrebbe funzionare per l'intelligenza artificiale: imporre limiti stringenti di efficienza energetica alle GPU e ai processori specializzati costringerebbe produttori come NVIDIA a ripensare completamente i propri prodotti, orientandoli verso prestazioni per watt anziché potenza bruta.
Attualmente, invece, non esistono vincoli significativi. I rack di server hanno raggiunto consumi oltre il megawatt ciascuno, livelli che solo pochi anni fa sarebbero sembrati fantascienza. Questa mancanza di regolamentazione permette alle aziende di continuare a privilegiare la potenza computazionale rispetto all'efficienza, in un circolo vizioso dove più hardware inefficiente richiede più data center, che a loro volta richiedono più energia, facendo salire i prezzi per tutti.
C'è poi la questione idrica, spesso trascurata ma altrettanto critica. I sistemi di raffreddamento dei data center consumano quantità enormi d'acqua, sottraendo risorse preziose in un momento storico in cui la siccità colpisce sempre più regioni. Microsoft ha dichiarato di voler affrontare anche questo problema, ma senza un quadro normativo chiaro rimane un'iniziativa volontaria e isolata.
La soluzione più efficace richiederebbe un intervento regolatorio deciso a livello internazionale. Stabilire limiti massimi di consumo energetico per query elaborata, imporre standard di efficienza per l'hardware destinato all'intelligenza artificiale, e penalizzare pesantemente chi supera le soglie stabilite. Solo attraverso multe sostanziose e divieti di commercializzazione per i prodotti non conformi si può sperare di invertire la tendenza attuale. L'alternativa è continuare su questa strada, dove l'innovazione tecnologica finisce paradossalmente per impoverire i consumatori attraverso bollette sempre più care, mentre i benefici dell'intelligenza artificiale rimangono concentrati nelle mani di poche grandi corporation.