Le recenti partnership tra OpenAI e i giganti dei semiconduttori stanno alimentando dubbi crescenti sulla sostenibilità del sistema economico circolare inerente al mondo dell'intelligenza artificiale. Gli esperti si interrogano su cosa accadrà quando la musica si fermerà e se l'obiettivo finale dell'AGI (Artificial General Intelligence) giustifichi davvero investimenti di questa portata.
La danza dei miliardi tra AMD e NVIDIA
Il mercato dell'AI ha assistito a una serie di annunci clamorosi che hanno ridisegnato gli equilibri del settore. AMD ha siglato con OpenAI un contratto dal valore di decine di miliardi di dollari, impegnandosi a fornire 6 gigawatt di potenza di calcolo attraverso le sue GPU Instinct AI. L'accordo prevede anche la possibilità per OpenAI di acquisire fino al 10% di partecipazione in AMD.
Parallelamente, NVIDIA non è rimasta a guardare: l'azienda di Santa Clara ha annunciato un investimento di 100 miliardi di dollari nella stessa OpenAI, destinando oltre 10 gigawatt delle sue GPU AI per potenziare l'infrastruttura dell'intelligenza artificiale. La situazione paradossale vede così due storici rivali finanziare contemporaneamente la medesima società.
L'economia circolare che preoccupa Wall Street
Gary Marcus, scienziato cognitivo ed esperto di AI, ha sollevato interrogativi fondamentali su questa dinamica. Il valore totale del mercato tecnologico, che dovrebbe riflettere il valore futuro delle aziende al suo interno, supera di gran lunga quello che probabilmente verrà mai generato concretamente. La questione diventa ancora più complessa considerando l'accordo da 300 miliardi di dollari tra OpenAI e Oracle per servizi cloud.
Il problema principale è evidente: OpenAI non dispone di risorse finanziarie sufficienti per onorare contratti di tale portata, mentre Oracle non ha né i chip necessari né il capitale per acquistarli. Questa discrepanza tra impegni assunti e capacità effettive alimenta i timori di una bolla speculativa.
La difesa di Jensen Huang
Il CEO di NVIDIA, Jensen Huang, mantiene un atteggiamento ottimista nonostante le crescenti preoccupazioni. Intervistato da CNBC, ha affrontato direttamente la questione dei finanziamenti circolari. Per ogni gigawatt di "fabbriche AI" sono necessari circa 50-60 miliardi di dollari per terreni, infrastrutture energetiche, computing e networking.
Huang ha tracciato un parallelo con la bolla delle dot-com del 2000, sottolineando le differenze sostanziali. All'epoca, tutte le aziende internet messe insieme valevano 30-40 miliardi di dollari, mentre oggi le infrastrutture AI rappresentano un business da 2.500 miliardi già operativo. Il passaggio dal computing tradizionale basato su CPU a quello generativo alimentato da GPU è ancora nelle fasi iniziali.
Il nuovo paradigma dei token
Un elemento chiave nella visione di Huang riguarda l'evoluzione dei token, l'unità fondamentale del computing basato sui Large Language Model. Questi elementi rappresentano il modo in cui l'AI interpreta comandi e domande in linguaggio naturale, fungendo anche da metro di misura per i costi operativi.
Secondo il CEO di NVIDIA, si è verificata una transizione cruciale: mentre i primi modelli AI non erano sufficientemente utili da giustificare i costi, la nuova tecnologia ha raggiunto capacità di ragionamento, ricerca e utilizzo di strumenti che la rendono economicamente sostenibile. L'AI moderna può condurre ricerche, analizzare documenti e generare risposte di valore reale.
La corsa verso l'AGI e i suoi rischi
Sam Altman, CEO di OpenAI, ha recentemente modificato la sua posizione sui vincoli computazionali. Se inizialmente aveva dichiarato che la sua azienda non aveva più limitazioni di calcolo, ora ammette che i vincoli computazionali dell'intero settore sono stati terribili e limitano significativamente i servizi offerti.
L'obiettivo finale rimane l'Artificial General Intelligence, un'intelligenza che superi le capacità umane. Tuttavia, resta aperta la domanda cruciale: cosa accadrà se l'AGI non dovesse materializzarsi prima che gli investimenti si esauriscano?