Sam Altman ha sollevato un polverone all'India AI Impact Summit di Nuova Delhi: il CEO di OpenAI ha risposto alle preoccupazioni ambientali sull'intelligenza artificiale paragonando il costo energetico dell'addestramento dei modelli a quello dell'intera evoluzione della specie umana. Una mossa retorica audace. Forse troppo.
La dichiarazione, riportata, tra gli altri, da Gizmodo e da TechCrunch, ha avuto luogo durante un'intervista con Anant Goenka di The Indian Express, a margine di un evento internazionale dove le polemiche non sono mancate — dalle proteste esterne alla clamorosa assenza di Bill Gates, ritiratosi poche ore prima del suo keynote per ragioni legate alla sua presenza negli Epstein Files.
Il contesto è quello del dibattito crescente sull'impatto ambientale dell'AI generativa: consumi idrici, elettricità, emissioni. Un tema che non accenna a raffreddarsi, e proprio di recente abbiamo visto come i data center nordamericani sono proiettati a triplicare il proprio fabbisogno energetico entro il 2035, raggiungendo 106 gigawatt. Capire come i protagonisti del settore gestiscono la narrazione pubblica attorno a questi numeri è, in questo momento, una questione non banale.
Altman ha cominciato cercando di smentire alcune cifre circolanti in rete. Le voci su ChatGPT che consumerebbe «64 litri d'acqua per ogni query» sarebbero, secondo lui, «completamente false, totalmente folli, prive di qualsiasi connessione con la realtà». Ha ammesso che il consumo idrico fosse un problema reale in passato, quando OpenAI ricorreva a sistemi di raffreddamento evaporativo nei data center. Ora non più, sostiene; ma non abbiamo certezze riguardo al fatto che OpenAI si affidi esclusivamente a data center dotati di raffreddamento a liquido a circuito chiuso. E non ci sono ragioni per pensarlo.
Sul fronte energetico, ha invece riconosciuto che le preoccupazioni sui consumi totali siano «legittime», scaricando però la responsabilità sul settore energetico, che dovrebbe «spostarsi rapidamente verso il nucleare, l'eolico e il solare».
Insomma, loro non possono farci nulla se l’IA consuma tanto. Che ci pensino le aziende energetiche a produrre più energia, che costi meno e che sia pulita. Strano che non se la sia presa con Nvidia per i consumi delle GPU.
L'equazione della civiltà
Il passaggio più divisivo dell'intervista arriva quando Altman affronta la critica sulle comparazioni energetiche ritenute "ingiuste": quelle che mettono a confronto il costo di addestramento di un modello AI con il costo di una singola query. La sua risposta è di portata cosmica — nel senso letterale del termine.
«Ci vuole molta energia per addestrare un essere umano», ha detto Altman. «Ci vogliono circa 20 anni di vita e tutto il cibo che si mangia durante quel periodo prima di diventare sveglio. E non solo: è servita l'evoluzione distribuita dei cento miliardi di persone che hanno mai vissuto, che hanno imparato a non farsi mangiare dai predatori e a fare scienza, per produrre te.»
Ne consegue, secondo la sua logica, che se si confronta il costo energetico (inference) di una query a ChatGPT con quello di un essere umano che risponde alla stessa domanda, «probabilmente l'AI ha già raggiunto la parità in termini di efficienza energetica».
La reazione online è stata gelida. Sui social media l'argomentazione è stata definita «distopica» e «profondamente antisociale». Difficile dargli torto: comparare un'infrastruttura tecnologica costruita in pochi anni con l'intera traiettoria evolutiva dell’Homo sapiens è un esercizio retorico che rivela più di quanto nasconde. Non sui consumi, ma sulla cultura epistémica di chi gestisce le aziende più influenti del pianeta.
Viene da chiedersi quanto sia saggio lasciare così tanto potere a certe persone ...
Altman, nel corso dello stesso summit, ha anche commentato la necessità di una regolamentazione globale "urgente" dell'AI e ha sollevato il sospetto che molte aziende stiano usando l'intelligenza artificiale come scudo retorico per mascherare i licenziamenti, parlando esplicitamente di AI Washing. Il termine serve a descrivere quel meccanismo per cui le aziende licenziano personale prendono l’AI come scusa.
La posizione di Altman appare come minimo contraddittoria: lo stesso CEO che chiede regole globali nega implicitamente la necessità di rendicontare i propri consumi.
Tra l’altro di regolamenti già ne esistono, e Altman è tra quelli che non amano l’AI Act europeo. Sarà anche un regolamento imperfetto, ma se proprio c’è tutto questo bisogno di regole, allora è un eccellente punto di partenza. D’altra parte tutta l’industria tech (e non solo) è sempre stata a favore di un mercato deregolamentato, o per meglio dire autoregolamentato. Ma parliamo di quel tipo di autoregolamentazione che inizia e finisce con dichiarazioni alle conferenze e documenti chiusi in un cassetto. Senza mai portare a veri limiti.
Tornando al tema ambientale, non esistono obblighi normativi che costringano i data center a dichiarare consumi energetici e idrici reali. Ricercatori e giornalisti lavorano su stime, triangolazioni, dati di filiera. Dipendenti e partner sono imbavagliati da accordi di riservatezza. OpenAI stessa, come sottolinea il contesto del consumo idrico di Microsoft, opera in un sistema dove la trasparenza è opzionale e la narrazione è tutto.
L'argomento di Altman non è sbagliato sul piano logico-formale. Ogni essere umano è, effettivamente, il prodotto di un dispendio energetico enorme distribuito nel tempo e nella storia. Ma questo vale anche per ogni città, ogni autostrada, ogni guerra. Usare la civiltà umana come parametro di confronto per giustificare i consumi di un'industria tecnologica privata è una fallacia di proporzione che non regge all'analisi. Il costo della civiltà è stato distribuito su miliardi di persone, secoli di tempo e sistemi ecologici interi. Il costo dell'AI generativa è concentrato, recente e in gran parte a carico di infrastrutture che ricadono su reti elettriche locali, come documentato dall'aumento del 267% dei prezzi all'ingrosso dell'elettricità in alcune aree USA.
Sarebbe comunque un errore considerare quella di Altman a Nuova Delhi una gaffe isolata: È la manifestazione di un pattern ricorrente nella comunicazione dei vertici Big Tech: spostare il frame del dibattito dal concreto all'astratto, dall'aziendale al cosmico, dal misurabile al filosofico. Si crea un sacco di rumore, si porta il pubblico (ma anche gli esperti) a discutere del sesso degli angeli, e intanto si continua a procedere sulla stessa strada di prima, inquinante e priva di etica.