Intelligenza Artificiale: Bolla o non Bolla?
Il Financial Times ha fatto quello che sogniamo di fare tutti (o quasi) prima o poi nella vita! Ebbene sì signori, in occasione della premiazione per "Queen Elizabeth Prize", (God save the Queen!) sono stati invitati 6 personaggi iconici del mondo dell’Intelligenza Artificiale ad una chiacchierata informale tra momenti nostalgia e grandi temi! Vediamo che cosa ne pensano i magnifici 6, dei temi caldi del momento. Spoiler: hanno parlato della cosiddetta bolla dell’Intelligenza Artificiale.
Cosa avranno risposto alla domanda: bolla o non bolla? Noi di sicuro "Bolla o non bolla, noi, arriveremo a Roma", ma sicuramente nessuno dei 6 avrebbe capito il riferimento vendittiano!
Mettetevi comodi, iniziamo!
🔥 Non perdere l'AI Week 2026!
Se l'Intelligenza Artificiale è il tuo futuro, iscriviti subito alla AI Week 2026 per approfondire tutti questi temi con gli esperti.
Utilizza il codice sconto esclusivo per i lettori di Tom's Hardware:
Inserendo il codice TOMS20 otterrai subito uno sconto del 20% sul costo di iscrizione.
I Magnifici 6 e il "Queen Elizabeth Prize"
Eccoli i magnifici 6, da sinistra: Yann LeCun — il ribelle metodico del self-supervised. Fei-Fei Li — gli occhi (e la bussola) dell’AI. Jensen Huang — l’ingegnere che ha fatto delle GPU una fabbrica di intelligenza. Geoffrey Hinton — la pazienza delle rivoluzioni lente. Bill Dally — l’architetto silenzioso delle autostrade dei dati. Yoshua Bengio — lo scienziato che accende il futuro e poi disegna i freni. Guarda qui il video.
Ma cos’è il "Queen Elizabeth Prize"?
È un premio globale di ingegneria che celebra innovazioni con impatto su miliardi di persone. Nel 2025 viene assegnato al "Modern Machine Learning" e ai suoi artefici: Yoshua Bengio, Geoffrey Hinton, Yann LeCun, Fei-Fei Li, Jensen Huang, Bill Dally (e John Hopfield, non presente al tavolo). Un riconoscimento collettivo, che fotografa l’incontro fra algoritmi, dati e calcolo come cuore dell’Intelligenza Artificiale moderna.
Cosa si sono detti? Gli "Aha Moment"
La conversazione si apre con gli "aha moment", quei lampi che cambiano rotta. Yoshua Bengio ricorda l’intuizione di ragazzo—poche leggi per capire l’intelligenza—e il più recente "uh-oh" dopo ChatGPT: se i sistemi scelgono obiettivi che non governiamo, serve piegare la ricerca verso sicurezza e cooperazione. Bill Dally vede il problema dove di solito non guardiamo: non nel fare conti, ma nel muovere i dati. Da lì l’idea di organizzare il calcolo in flussi e, anni dopo, la spinta a trasformare le GPU nel motore del deep learning. Geoffrey Hinton torna al 1984: un modello minuscolo che prevede la parola successiva gli mostra che anche con pochi esempi si accende un barlume di significato—il resto lo faranno dati e calcolo. Jensen Huang porta la scena in fabbrica: se qualcosa corre su una GPU, può correre su molte, poi su interi data center; l’AI, dice, non è software precompilato, è intelligenza prodotta al momento. Fei-Fei Li mette il carburante: ImageNet come atlante di immagini per far decollare l’AI, ma anche l’avviso che i modelli forti sulle parole inciampano nella spazialità. Yann LeCun sposta l’attenzione dai "modelli di linguaggio" agli agenti che pianificano passi e imparano oltre il testo—da video e sensori.
Notizia: Yann LeCun pianifica una startup
Notizia inaspettata: Yann LeCun, scienziato capo dell’AI di Meta e pioniere del deep learning, sta preparando l’uscita dall’azienda per lanciare una propria startup ed è già in contatto con potenziali investitori per la raccolta fondi. Qui la news.
Bolla o non bolla? Le risposte dei Magnifici 6
Quando arriva la domanda che tutti hanno in testa—siamo in una bolla?—il tavolo si fa concreto. Jensen Huang parte da un paragone semplice: ai tempi della dot-com si stesero chilometri di fibra che rimasero spenti; oggi, invece, quasi ogni GPU è davvero al lavoro. Per lui l’AI non è un software già pronto: l’intelligenza si produce al momento, per ogni risposta, e servono grandi "fabbriche" di calcolo per reggere una domanda che cresce mentre cresce anche la potenza richiesta da ciascuna risposta. (E qui, ammettiamolo, ci aspettavamo l’imprenditore che strizza l’occhio al "caldo" del mercato; invece discorso sobrio, quasi da pianificatore industriale. Certo, la battuta verrebbe facile: "se c’è bolla, chi meglio di lui sa nuotarci?", ma stavolta no, niente ammicchi, solo logistica e scala.)
Yoshua Bengio aggiunge una nota che ci trova d’accordo: non chiamiamoli più soltanto modelli di linguaggio, stanno diventando agenti che ragionano a più passi; la tecnologia cambia in fretta e non possiamo prevedere con sicurezza dove saremo tra due o cinque anni. Proprio per questo, dice, servono cooperazione, valutazioni indipendenti e una vigilanza costante sulle aspettative: se corrono più della realtà, arrivano i colpi di frusta. (Sottoscriviamo: meglio costruire bene che raccontare troppo.)
Bill Dally spiega perché, secondo lui, non è una bolla: i modelli diventano più efficienti, la qualità migliora e delle applicazioni reali abbiamo visto solo un primo strato. Quando qualcosa diventa migliore e meno costoso, spuntano usi nuovi e la domanda di calcolo segue. È la prosa dell’ingegneria: meno slogan, più tubi larghi dove passano i dati.
Fei-Fei Li allarga l’inquadratura in un punto che sentiamo molto: l’Intelligenza Artificiale è ancora giovanissima se la confrontiamo con la fisica, e oltre al linguaggio c’è la frontiera della spazialità (percepire, ragionare e agire nel mondo fisico) dove i sistemi di oggi faticano. È lì che si apriranno nuove ondate di applicazioni. (Qui siamo pienamente d’accordo: senza mondo fisico l’AI resta zoppa; con i dati giusti e compiti ben definiti, invece, si cammina lontano.)
Yann LeCun mette la distinzione più netta: non c’è bolla su usi e infrastruttura. C’è ancora moltissimo da costruire, e quando avremo veri indossabili intelligenti nelle tasche di tutti la domanda di calcolo esploderà, ma attenzione all’equivoco: sarebbe bolla pensare che l’attuale paradigma, da solo, porti all’intelligenza di livello umano. Traduciamo: i sistemi di oggi (grandi modelli addestrati soprattutto su testo, ottimizzati con le tecniche attuali) sono potentissimi, ma non bastano per "ragionare, percepire e agire" come noi. Per quel salto servono nuove idee scientifiche e nuove capacità (spazio, causalità, intenzione, corpo) non solo più dati e più GPU. Se scambiamo il "più grande" per "più umano", gonfiamo aspettative e, sì, lì nasce la bolla.
E Geoffrey Hinton? Curiosamente su questo giro interviene poco, peccato!
Tirando le fila: c’è schiuma, com’è normale nei momenti caldi, ma sotto c'è il mare. E per "mare" intendiamo cose solide: infrastrutture accese oggi (data center e piattaforme che lavorano davvero), efficienza e qualità in miglioramento (stessa risposta a costi minori e con meno errori), e nuove aree oltre il testo (video, sensori, robotica, mondo fisico) dove l’Intelligenza Artificiale deve imparare a vedere, muoversi e decidere. In breve: un po’ di hype c’è, ma c’è anche sostanza che cresce. E, con Bengio e Fei-Fei Li, preferiamo la via lunga ma sicura: costruire con responsabilità e pazienza, invece di scambiare la corsa all’adozione per una scorciatoia verso la mente umana.
L'intelligenza spaziale: il tassello mancante
I modelli di intelligenza artificiale hanno conquistato il linguaggio, ma non capiscono ancora come funziona il mondo fisico. È questo, secondo Fei Fei Li, il "tassello mancante": l’intelligenza spaziale, ossia la capacità di rappresentare geometrie, oggetti, relazioni nello spazio e persino prevedere la fisica di base. Senza questo strato, l’AI resta un eccezionale generatore di parole che non interagisce davvero con la realtà.
AGI, quanto manca?
Infine la domanda che tutti temono perché sembra chiedere una data: AGI, quanto manca? Bengio rifiuta il "giorno X": le capacità si allargano per domini, forse 5–10 anni per un nuovo modo di costruire i sistemi, e in ogni caso "più tempo di quanto pensiamo". Fei-Fei Li cerca la sfumatura giusta: in alcune cose le macchine già ci superano (riconoscere migliaia di categorie, tradurre decine di lingue), ma l’intelligenza umana resta il centro del nostro vivere. Huang taglia: la domanda è quasi accademica, l’Intelligenza Artificiale è già utile e va applicata bene. Hinton mette un picchetto: una macchina che vince sempre un dibattito? Entro vent’anni potrebbe arrivare. Dally riporta l’attenzione su ciò che conta: non sostituire, ma affiancare: alle macchine la forza bruta e la precisione, agli umani creatività ed empatia. E Bengio chiude con un "se" che è anche un avviso: la capacità di pianificare è cresciuta moltissimo negli ultimi anni; se la curva regge, certe mansioni d’ufficio potrebbero essere alla portata in circa cinque anni. Ma quel "se" pesa: serve prudenza.
Sam Altman, sul suo blog, riflette sull’Intelligenza Artificiale oltre i "chatbot": oggi esistono sistemi capaci di superare gli esseri umani più brillanti in competizioni intellettuali complesse. Il divario tra come la maggioranza usa l’AI e ciò che l’AI sa già fare è enorme. Qui la news.
Uno sguardo avanti
Se c’è una lezione che attraversa tutto ciò che avete letto, è che l’Intelligenza Artificiale non si muove in linea retta: cresce a salti, cambia forma mentre la costruiamo. I modelli di oggi stanno già diventando agenti capaci di agire in sequenza; domani impareranno sempre più dal mondo fisico (video, sensori, spazio) e non solo dalle parole. A reggere questa evoluzione saranno tre pilastri: dati curati, calcolo accessibile e ben pianificato, e ingegneria che traduce le idee in sistemi stabili.
Il futuro non ha una data cerchiata in rosso. Arriverà a ondate: piccole rivoluzioni quotidiane nei luoghi di lavoro, nella sanità, nella scuola, nei servizi pubblici. Vedremo più copiloti che affiancano persone, più strumenti che anticipano problemi, più macchine che percepiscono e agiscono in contesti reali. In cambio, dovremo imparare un nuovo alfabeto di responsabilità: capire cosa può fare l’Intelligenza Artificiale, cosa non deve fare e come verificare che lo faccia in modo giusto.
Resterà umano ciò che è umano: immaginare fini, dare senso, scegliere le priorità. E la parte più interessante, come sempre, inizia adesso.
Podcast
Allora ci vediamo, anzi, ci ascoltiamo su tutte le piattaforme audio con il nostro Podcast: Intelligenza Artificiale Spiegata Semplice.
E su tutte le piattaforme audio gratuite
E c'è anche Two Humans in The Loop, il podcast dove si parla di Intelligenza Artificiale e Umanità. Ascolta su Spotify.
Sipario e Conclusioni
Eventi e Incontri
Incontriamoci qui:
- 17-21 novembre, Online su AI Play: una settimana di formazione gratuita sull'uso dell'Intelligenza Artificiale. Si chiama Generative AI WEEK e puoi iscriverti gratis qui.
- 19-21 novembre, Pescara: Forum Visionaria. Noi ci saremo il 20 pomeriggio, dalle 15:00 in Plenaria nel Padiglione D. Becci. Consulta il programma e iscriviti agli eventi su: https://www.forumvisionaria.it