Le grandi aziende del mondo hanno investito miliardi per realizzare i sistemi AI che tutti conosciamo. E tutti li usiamo ogni giorno per creare contenuti, solo che gran parte di questi contenuti sono di bassa qualità. E quando non sono contenuti sono dati sintetici; qualcosa che dovrebbe sopperire alla mancanza di dati veri, ma che innesca un ciclo che abbassa inesorabilmente la qualità delle informazioni.
Il problema è così diffuso che “AI Slop” è stato scelto dal dizionario Merriam-Webster come parola dell'anno per descrivere il materiale di bassa qualità generato in massa dall'intelligenza artificiale.
Fa sorridere ma c’è anche da preoccuparsi perché questi contenuti mettono a rischio la sostenibilità per un settore che ha attirato investimenti per 400 miliardi di dollari nel solo 2025. E se le persone si limitano a usare i chatbot per generare immagini e video da due soldi, di certo non basta a giustificare i costi enormi sostenuti finora e quelli futuri.
Allo stesso tempo, non è chiaro se e quanto gli usi “seri” dell’AI possano portare a un ROI anche solo minimamente adeguato. Per questo, nel 2026 l'intero sistema finanziario potrebbe subire una correzione violenta nei prossimi dodici mesi. È ancora una volta lo scenario della bolla che scoppia, guardato da un altro punto di vista.
La comprensione di questa dinamica è fondamentale per interpretare la fragilità dei mercati attuali. Quando la quantità di dati sintetici supera la capacità di assorbimento del mercato, il ritorno economico per singola richiesta decade, rendendo i modelli di business insostenibili. Analisti come Ed Zitron evidenziano come i costi di gestione dei data center superino spesso i ricavi generati, creando una discrepanza che alcuni definiscono simile alla bolla delle dot-com. Senza una redditività chiara, il capitale investito rischia di essere bruciato senza produrre valore aggiunto per le aziende o per i consumatori finali.
La portata degli investimenti è documentata dalla corsa ai data center che ha caratterizzato l'ultimo biennio. Colossi come Microsoft e Google hanno impegnato cifre senza precedenti per costruire infrastrutture capaci di addestrare modelli sempre più pesanti, accogliendo persino l’idea di usare piccoli reattori nucleari per alimentarli. E noi ci siamo abituati all’idea che una cosa del genere sia normale, ordinaria, molto più che accettabile.
Tuttavia, la qualità del lavoro prodotto, spesso definita piatta e priva di contesto, solleva dubbi sulla capacità di queste tecnologie di sostituire realmente le competenze umane. In settori critici come quello legale o della sicurezza, l'uso di trascrizioni errate o di precedenti fittizi ha già mostrato i limiti di un'automazione priva di supervisione rigorosa.
Sicuramente sono molti gli scenari in cui l’AI si è rivelata uno strumento prezioso, un alleato che ci aiuta davvero a fare di più e meglio. Ma questi esempi positivi, finora, non bastano a bilanciare la situazione.
Le conseguenze di un eventuale ridimensionamento del settore sarebbero pesanti per l'intero listino azionario. Le aziende tecnologiche rappresentano oggi oltre un terzo del valore dello S&P 500, una concentrazione che espone i risparmiatori a perdite sistemiche in caso di crollo delle valutazioni. In Europa, istituzioni come l'Office for Budget Responsibility stimano che una correzione globale del 35% potrebbe sottrarre punti percentuali significativi al PIL nazionale. La narrazione della bolla dell'intelligenza artificiale smette quindi di essere un'ipotesi teorica per diventare uno scenario di rischio concreto che le banche centrali osservano con attenzione.
La strategia difensiva di Satya Nadella e la resistenza degli utenti
In questo scenario di incertezza, i vertici delle aziende leader hanno iniziato una campagna di normalizzazione. Il CEO di Microsoft, Satya Nadella, ha espresso apertamente il desiderio che il termine slop venga abbandonato nel corso del 2026. Durante un intervento condiviso su LinkedIn, ha sostenuto la necessità di superare la disputa tra qualità e automazione, descrivendo l'intelligenza artificiale come un nuovo equilibrio della natura umana.
Secondo Nadella quindi non dovremmo preoccuparci della scarsa qualità prodotta dall’AI, e forse nemmeno di altre questioni come la possibile crisi occupazionale, sopratutto per i giovani, le implicazioni etiche, l’offload cognitivo o il peggioramento in ambito fake news e informazione generale. Tutto questo sarebbe il “nuovo equilibrio”?
Il tentativo di imporre questa visione si scontra con una resistenza diffusa da parte del pubblico. Milioni di persone continuano a preferire Windows 10 a Windows 11, nonostante la spesa massiccia per l'intelligenza artificiale che caratterizza l'ultima versione del sistema operativo. E in generale non sono molte le persone disposte a spendere un extra per poter usare l’AI, anche se quasi tutti noi siamo più che disposti a giocarci quando è gratis.
Forse il limitato successo di Windows 11 e dei PC con AI è un fastidio per Microsoft, ma magari è anche il sintomo di come gli utenti non percepiscano i vantaggi promessi dalla "sofisticazione" algoritmica, vedendo invece nelle nuove funzionalità un'intrusione non necessaria. La strategia di Microsoft punta a forzare l'adozione di strumenti che alimentano il volume di dati circolanti, sperando di giustificare le spese in conto capitale.
Il mercato si trova dunque davanti a un bivio tra la necessità di distinguere modelli sostenibili dall'entusiasmo irrazionale. Se l'industria continuerà a produrre contenuti mediocri per sostenere le proprie quotazioni, il valore dell'informazione digitale subirà un degrado irreversibile. La riduzione del personale in favore di sostituti digitali ha già creato un "livello di slop" che rende difficile identificare ciò che è reale o verificato, aumentando i costi di filtraggio per le organizzazioni che necessitano di dati affidabili per operare correttamente nel mercato globale.
Il rischio principale risiede nell'illusione che la quantità possa compensare la perdita di profondità analitica. Quando i dirigenti aziendali chiedono di non usare parole critiche, stanno cercando di proteggere un asset finanziario piuttosto che promuovere un progresso tecnico reale. La saturazione del web con materiale sintetico non è un'evoluzione, ma un'esternalità negativa prodotta da un modello di crescita che privilegia i volumi rispetto all'utilità. Se questa tendenza non verrà corretta, la svalutazione dei contenuti digitali trascinerà con sé le aziende che hanno scommesso tutto sulla loro produzione automatizzata.
L'ostinazione con cui si persegue l'automazione totale, nonostante le evidenti lacune qualitative, suggerisce una disconnessione pericolosa tra la Silicon Valley e le necessità dell'economia reale. Non si può costruire un'economia solida basata sulla generazione di rumore, specialmente quando tale rumore richiede risorse energetiche e finanziarie gargantuesche. La vera innovazione dovrebbe mirare alla risoluzione di problemi complessi, non alla creazione di una sovrastruttura di contenuti ridondanti che servono solo a gonfiare le metriche di utilizzo e a rassicurare azionisti sempre più scettici.
Ma sì, certo, potremmo anche smettere di usare “AI Slop” e altre parole simili. Potremmo del tutto dimenticarci di come l’AI abbia innescato e stia alimentano il fenomeno dell’epistemia, o di come ci abbia portati in una crisi che mette in dubbio la stessa natura della nostra società. Potremmo far finta di nulla su tutte queste cose per far contento Nadella, e per illuderci che le cose stiano andando alla perfezione.
Eppure nel mondo dell’AI esiste un concetto chiaro e semplice: garbage in, garbage out. Se alimenti un sistema con delle schifezze, otterrai schifezze. E allora, forse, dovremmo fare proprio il contrario: vedere le schifezze, indicarle con il dito e fare in modo che siano rimosse. Solo così, forse, domani avremo sistemi migliori.