Il dibattito sulla sostenibilità dell'intelligenza artificiale ha dominato il 2025, trasformando quello che sembrava un trionfo tecnologico inarrestabile in un momento di riflessione collettiva. Dopo anni di promesse mirabolanti e investimenti stratosferici, la comunità tech si è trovata a fare i conti con una domanda scomoda: tutto questo denaro sta davvero producendo i risultati attesi? La questione è emersa con forza intorno ad agosto, quando analisti ed esperti hanno iniziato a parlare apertamente di bolla speculativa, mettendo in discussione la retorica ottimistica che aveva accompagnato lo sviluppo dell'AI generativa.
"I numeri degli investimenti sono vertiginosi e preoccupanti allo stesso tempo", dice l'esperto Fabrizio Degni. Stargate ha mobilitato 500 miliardi di dollari con il coinvolgimento di SoftBank, Oracle ha versato 300 miliardi, mentre Nvidia e OpenAI hanno siglato accordi da 100 miliardi. Queste cifre astronomiche si scontrano però con una realtà tecnologica che stenta a mantenere le promesse più ambiziose. La tanto annunciata intelligenza artificiale generale, l'AGI che secondo alcuni dirigenti sarebbe dovuta arrivare "domani", rimane un miraggio lontano, con previsioni più realistiche che la collocano al 2035.
Il problema del ritorno sugli investimenti sta diventando centrale per molte aziende che hanno speso fortune senza riuscire a quantificare benefici concreti. Come si misura il vantaggio qualitativo di un dipendente che lavora più serenamente grazie a un assistente AI disponibile 24 ore su 24? Come si giustificano investimenti milionari quando i miglioramenti tangibili tardano ad arrivare? Queste domande non riguardano solo le singole imprese, ma l'intero sistema finanziario globale, considerando che molti fondi pensione americani sono legati ai titoli delle grandi aziende tecnologiche che guidano l'indice S&P 500.
Sul fronte dei modelli, il 2025 ha visto uscite che hanno deluso le aspettative. GPT-5, lanciato a fine estate, avrebbe dovuto rappresentare un salto rivoluzionario ma si è rivelato un aggiornamento modesto, tanto che alcuni osservatori ironizzano sul fatto che i numeri di versione sembrano cambiare più per marketing che per sostanziali innovazioni tecnologiche. Più interessante invece l'arrivo di Gemini 3 Pro di Google, che ha introdotto un'interfaccia grafica più dinamica e capacità notevoli nella generazione di immagini. Ma il vero elemento dirompente è stato l'addestramento su hardware proprietario di Google, scalfindo così il monopolio di Nvidia nel settore delle GPU specializzate.
La frammentazione geografica e normativa complica ulteriormente il panorama. Negli Stati Uniti prevale un approccio di totale deregolamentazione sotto la spinta del nuovo governo, con il messaggio implicito "fate quello che volete, basta che lo facciate". La Cina adotta una linea diversa ma altrettanto permissiva: innovazione libera purché allineata alle direttive del partito comunista. L'Europa, invece, arranca con il suo AI Act, che doveva essere un faro normativo globale ma si sta rivelando uno strumento incerto, rallentato dalle diverse agende dei 27 paesi membri e dalle loro rispettive lobby.
Un nodo critico riguarda proprio l'assenza di metriche comuni di valutazione. Ogni azienda sviluppa i propri benchmark, scegliendo parametri che favoriscono i punti di forza del proprio modello: "chi privilegia l'accuratezza, chi la sicurezza delle risposte, chi la velocità. Il paradosso è che nemmeno gli sviluppatori comprendono appieno perché un algoritmo fornisca una determinata risposta", continua Degni, "data la natura opaca dei processi di apprendimento automatico. L'utente finale si trova così disorientato, impossibilitato a confrontare realmente le diverse soluzioni disponibili sul mercato".
L'architettura transformer, fondamento di tutti i chatbot attuali, sta mostrando i suoi limiti. Google ha recentemente presentato un paper scientifico sul "Nuster Learning", un tentativo di superare questo modello attraverso nuovi approcci. Parallelamente, stanno emergendo soluzioni più specializzate e meno costose come Mistral, il modello europeo, o DeepSeek cinese, che offrono prestazioni adeguate per applicazioni specifiche con investimenti più contenuti. Anche l'hardware si sta diversificando, riducendo la dipendenza da un unico fornitore dominante.
Le aspettative irrealistiche hanno alimentato la delusione. Molti si aspettavano che l'AI scoprisse qualcosa di radicalmente nuovo, una svolta scientifica che giustificasse gli investimenti. Invece, a parte qualche progresso nella progettazione di chip e nella predizione di strutture proteiche con AlphaFold, non si sono viste rivoluzioni concrete. Questo gap tra promesse e risultati alimenta i timori sulla sostenibilità dell'intero ecosistema, con potenziali ripercussioni sui risparmi di milioni di persone investiti in ETF legati al settore tecnologico.
Il 2026 si prospetta come l'anno della verità, quando sarà necessario dimostrare che questi strumenti possono generare valore reale e misurabile. Servirà trovare un equilibrio tra innovazione e responsabilità, tra libertà di sviluppo e garanzie per gli investitori, tra aspettative e realismo tecnologico. La sfida non è solo tecnica ma profondamente culturale: accettare che l'intelligenza artificiale sia uno strumento potente ma imperfetto, utile ma non miracoloso, promettente ma non ancora maturo come vorremmo credere.