L'intelligenza artificiale sta vivendo un momento di euforia finanziaria ma non tutti i protagonisti di questa corsa all'oro tecnologica hanno le stesse probabilità di sopravvivere. Mentre gli investimenti globali in AI hanno superato i 600 miliardi di dollari nel 2025, con stime di Gartner che parlano di una spesa complessiva fino a 1.500 miliardi di dollari, gli esperti iniziano a distinguere tra chi sta costruendo fondamenta solide e chi invece sta semplicemente cavalcando l'onda. Persino figure di spicco come Mark Zuckerberg hanno ammesso l'esistenza di segnali preoccupanti di una bolla finanziaria, mentre Sam Altman di OpenAI e Bill Gates riconoscono dinamiche speculative tipiche dei mercati surriscaldati: investitori troppo entusiasti, valutazioni gonfiate e una moltitudine di progetti destinati al fallimento.
La chiave per comprendere il futuro dell'economia dell'intelligenza artificiale sta nel riconoscere che non esiste un'unica bolla AI destinata a scoppiare uniformemente. L'ecosistema si articola infatti in tre strati distinti, ciascuno con caratteristiche economiche, capacità di difesa e profili di rischio completamente diversi. Questa stratificazione determinerà quali aziende sopravviveranno e quali scompariranno nei prossimi anni, secondo una sequenza prevedibile che gli analisti hanno già iniziato a delineare.
Il settore delle infrastrutture rappresenta paradossalmente la componente più solida dell'intero ecosistema, nonostante le cifre astronomiche investite possano far pensare il contrario. Nvidia ha registrato ricavi per 57 miliardi di dollari nel terzo trimestre dell'anno fiscale 2025, con un aumento del 62% su base annua e una divisione data center che da sola ha generato 51,2 miliardi di dollari. Questi non sono numeri di facciata, ma riflettono una domanda reale da parte di aziende che stanno facendo investimenti infrastrutturali concreti.
La lezione storica della bolla delle dotcom offre un parallelo illuminante: i cavi in fibra ottica posati venticinque anni fa con finanziamenti eccessivi per un futuro non ancora maturo non sono andati sprecati. Quella stessa infrastruttura ha successivamente permesso l'esistenza di YouTube, Netflix e del cloud computing. L'infrastruttura mantiene il suo valore indipendentemente dal successo di applicazioni specifiche, e i chip, i data center, i sistemi di memoria e lo storage che vengono costruiti oggi alimenteranno qualsiasi applicazione AI avrà successo domani, che si tratti dei chatbot attuali o di agenti autonomi futuri.
Il settore più vulnerabile dell'intero ecosistema AI non è quello che costruisce intelligenza artificiale, ma quello che si limita a riconfezionarla. Si tratta delle cosiddette wrapper company, aziende che prendono le API di OpenAI, aggiungono un'interfaccia accattivante e qualche prompt engineering, per poi vendere a 49 dollari al mese ciò che sostanzialmente è una versione abbellita di ChatGPT. Alcuni casi hanno ottenuto successi iniziali sorprendenti: Jasper.ai ha raggiunto circa 42 milioni di dollari di ricavi ricorrenti annuali nel primo anno semplicemente inserendo i modelli GPT in un'interfaccia user-friendly per i marketer.
Le minacce per queste aziende arrivano da ogni direzione. Microsoft può integrare uno strumento di scrittura AI da 50 dollari al mese in Office 365 da un giorno all'altro, Google può trasformare un assistente email AI in una funzionalità gratuita di Gmail, Salesforce può incorporare nativamente uno strumento di vendita AI nel proprio CRM. Quando le grandi piattaforme decidono che il tuo prodotto è in realtà una funzionalità e non un prodotto autonomo, il modello di business evapora istantaneamente. La maggior parte di queste aziende non possiede dati proprietari, flussi di lavoro integrati o integrazioni profonde, il che significa che un cliente può passare a un concorrente o direttamente a ChatGPT in pochi minuti.
Cursor rappresenta un'eccezione significativa in questo panorama di fragilità. Integrandosi profondamente nei flussi di lavoro degli sviluppatori, creando funzionalità proprietarie che vanno oltre semplici chiamate API e stabilendo forti effetti di rete attraverso abitudini utente e configurazioni personalizzate, Cursor ha dimostrato come un wrapper possa evolversi in qualcosa di sostanziale. Tuttavia, aziende come Cursor sono anomalie, non la norma: la maggior parte manca di questo livello di integrazione e capacità di fidelizzazione.
I modelli fondazionali occupano una posizione intermedia, più difendibile ma comunque precaria. OpenAI, Anthropic, Mistral e altre società che costruiscono modelli linguistici possiedono veri e propri fossati tecnologici: competenza nell'addestramento dei modelli, accesso alla potenza di calcolo e vantaggi prestazionali. L'economista Richard Bernstein ha evidenziato come OpenAI abbia concluso circa mille miliardi di dollari in accordi AI, incluso un progetto di costruzione di data center da 500 miliardi, nonostante sia destinata a generare solo 13 miliardi di ricavi. Questa divergenza tra investimenti e guadagni plausibili "certamente appare come una bolla", nota Bernstein.
La natura circolare degli investimenti solleva ulteriori preoccupazioni: Nvidia sta iniettando 100 miliardi di dollari in OpenAI per finanziare data center, e OpenAI sta poi riempiendo quelle strutture con i chip di Nvidia. In sostanza, Nvidia sta sovvenzionando uno dei suoi maggiori clienti, potenzialmente gonfiando artificialmente la domanda reale di AI. Eppure, queste aziende dispongono di enormi finanziamenti, capacità tecniche genuine e partnership strategiche con i principali fornitori cloud e grandi imprese.
L'ingegneria separerà i vincitori dai perdenti in questo strato intermedio. Man mano che i modelli fondazionali convergono nelle capacità di base, il vantaggio competitivo deriverà sempre più dall'ottimizzazione dell'inferenza e dall'ingegneria dei sistemi. Le aziende che riusciranno a superare il limite della memoria attraverso innovazioni come architetture di cache KV estese, a ottenere un throughput superiore di token e a fornire tempi più rapidi per il primo token, comanderanno prezzi premium e quote di mercato. I vincitori non saranno solo quelli con le sessioni di addestramento più grandi, ma quelli che renderanno l'inferenza AI economicamente sostenibile su larga scala.
Il crollo non avverrà con un singolo crash drammatico, ma attraverso una cascata di fallimenti che inizierà dalle aziende più vulnerabili. Nella prima fase, le wrapper company affronteranno compressione dei margini e assorbimento delle funzionalità, con centinaia di startup AI dotate di scarsa differenziazione destinate a chiudere o essere vendute per cifre irrisorie. Attualmente esistono oltre 1.300 startup AI con valutazioni superiori a 100 milioni di dollari, inclusi 498 "unicorni" valutati oltre un miliardo, molti dei quali non giustificheranno tali valutazioni. Gli esperti prevedono fallimenti significativi in questo segmento entro la fine del 2025 e il 2026.
La seconda fase vedrà il consolidamento dei modelli fondazionali tra il 2026 e il 2028, con solo i player meglio capitalizzati destinati a sopravvivere. Si prevede l'emergere di due o tre attori dominanti, mentre i fornitori di modelli più piccoli verranno acquisiti o chiuderanno. La terza fase riguarderà la normalizzazione della spesa infrastrutturale, che rimarrà comunque elevata: alcuni data center potrebbero rimanere parzialmente vuoti per qualche anno, come accadde con i cavi in fibra ottica nel 2002, ma alla fine si riempiranno man mano che i carichi di lavoro AI si espanderanno genuinamente.
Per chi sta costruendo prodotti nel settore applicativo, il rischio maggiore non è essere un wrapper, ma rimanerlo. Il vantaggio reale non risiede nel modello linguistico utilizzato, ma nel modo in cui si acquisiscono utenti, li si mantiene e si espande ciò che fanno all'interno della piattaforma. Le aziende AI vincenti non sono solo software company, ma aziende di distribuzione che possiedono l'esperienza in cui l'utente opera. Questo significa passare da semplici generatori di output a proprietari dell'intero flusso di lavoro, dai wrapper ad applicazioni vere e proprie, fino a SaaS verticali con livelli di esecuzione che costringono gli utenti a rimanere all'interno del prodotto.
Il mercato AI white-label esemplifica perfettamente questa fragilità strutturale. Le aziende che utilizzano piattaforme white-label affrontano rischi di dipendenza dai fornitori derivanti da sistemi proprietari e limitazioni API che possono ostacolare l'integrazione. Queste imprese stanno costruendo su terreni affittati, dove il proprietario può cambiare i termini o demolire la proprietà in qualsiasi momento. La rivoluzione dell'intelligenza artificiale è reale, ma comprendere in quale strato si opera e in quale bolla ci si potrebbe trovare intrappolati rappresenta la differenza tra diventare l'ennesima vittima e costruire qualcosa che sopravvive alla selezione naturale del mercato.