Per chi non lo sapesse (siamo abbastanza attivi sui social, forse troppo!) vi scriviamo da San Francisco! Oh yes dear readers, here we are! Da questa città che a tratti sembra Gotham city e subito dopo sembra la Disneyland Paris dei nerd e degli appassionati di AI, vogliamo avviare anche noi una riflessione sull’Intelligenza Artificiale Generale, per gli amici AGI. L’AGI infatti è tornata a occupare la scena. Da una parte l’entusiasmo per agenti sempre più "autonomi", dall’altra i freni tirati da chi, dalle viscere dell’ingegneria, ricorda che i fondamentali non ci sono ancora. Nel mezzo, c’è chi che rilegge la celebre frase "se non puoi convincerli, confondili" con un nuovo mantra: "se non possiamo dominarla, fermiamola". Are you ready? Mettetevi comodi, iniziamo!
Il decennio degli agenti: Karpathy sgonfia l'AGI dietro l'angolo
Nell’intervista che ha scosso il web — una lunga conversazione su YouTube con Dwarkesh Patel — Andrej Karpathy (ex Director of AI a Tesla, per intenderci quello della guida autonoma, già in OpenAI e autore del corso CS231n a Stanford) sgonfia l’idea che questo sia "l’anno degli agenti" e parla piuttosto di un decennio degli agenti. Oggi gli agenti fanno belle demo, ma se li "assumessimo" come tirocinanti non saremmo soddisfatti: mancano memoria oltre la singola chat, apprendimento continuo, uso stabile di strumenti e computer. Figurarsi l’AGI "concreta" — un sistema che svolge qualunque compito di lavoro digitale a livello umano — non è dietro l’angolo: servirà circa un decennio di lavoro paziente.
In pratica, spiega che questi modelli hanno "troppa memoria e poca mente". Durante l’addestramento, accumulano una quantità enorme di informazioni prese dal web — una sorta di "conoscenza superficiale". Ma la parte davvero intelligente entra in gioco solo mentre conversano: è lì che ragionano, fanno tentativi, correggono gli errori. Il problema è che tutto questo avviene solo nel momento presente: appena la conversazione finisce, ciò che hanno "pensato" sparisce.
Per crescere dobbiamo consolidare ciò che accade durante l’uso - spiega Karpathy - quasi un momento di "sonno" che fissa quanto appreso — e, in parallelo, togliere un po’ di "enciclopedia" così da far emergere il motore cognitivo: meno cose a memoria, più capacità di ragionare e pianificare.
La chiusura è molto concreta: tra demo e prodotto c’è la "marcia dei nove". Portare l’affidabilità dell'Intelligenza Artificiale dal 90% al 99%, poi al 99,9% e oltre costa ogni volta un’enorme quantità di lavoro. È il motivo per cui oggi gli agenti di Intelligenza Artificiale incantano nei video di presentazione ma si perdono se li lasci operare per una settimana su un compito reale.
Andrej Karpathy (39 anni) è un informatico slovacco-canadese laureato a Stanford e ha ricoperto il ruolo di direttore dell'intelligenza artificiale e di Autopilot Vision presso Tesla. Ha co-fondato e in precedenza ha lavorato presso OpenAI, dove si è specializzato in deep learning e computer vision. Qui la video intervista.
I punti di vista in campo: Hassabis, Altman, LeCun e Musk
Allargando lo sguardo oltre il "decennio degli agenti", il quadro si fa stratificato. Demis Hassabis, CEO di Google DeepMind e Premio Nobel per la Chimica invita alla pazienza: l’arco plausibile per arrivare ad una AGI è cinque–dieci anni, ma solo se smettiamo di confondere la nostra intelligenza con quella delle macchine.
In parallelo, Sam Altman descrive un percorso di costruzione molto concreto: un vero "sistema operativo per l’AI" fatto di strumenti, API e orchestrazione, così che l’utilità emerga dall’insieme e non da un singolo "colpo di genio".
Sul versante opposto, Yann LeCun resta scettico sull’idea che i soli LLM possano darci "il senso comune": per lui serviranno nuove architetture e nuovi modi di apprendere, più vicini a come imparano i sistemi naturali; non è un no, è un "non ancora". Yann, noi siamo con te!
Dentro questa tensione si inserisce la contro-narrazione, la solita voce fuori dal coro: Elon Musk rilancia l’asticella e sfida apertamente chi frena l’hype, proponendo Grok 5 come prova che l’AGI è più vicina di quanto si dica.
Il freno di sicurezza e i firmatari eccellenti
Dentro questo contesto è arrivata una presa di posizione che ha fatto rumore, quella portata avanti dal Future of Life Institute che da oltre un decennio solleva preoccupazioni circa il rischio che, a suo dire, le macchine intelligenti rappresentano per l'umanità. L’istituto ha pubblicato una dichiarazione che chiede di fermare lo sviluppo verso la Superintelligenza finché non esisterà un percorso verificabile di sicurezza.
Colpisce la composizione delle firme: accanto a figure della destra mediatica USA come Steve Bannon (ex stratega di Trump) e Glenn Beck (conduttore e fondatore di TheBlaze), compaiono pionieri dell’AI come Geoffrey Hinton e Yoshua Bengio (entrambi premi Turing per il deep learning ed Hinton per il recente Nobel per la Fisica), insieme a simboli dell’innovazione come Steve Wozniak (co-fondatore di Apple) e Richard Branson (fondatore del gruppo Virgin).
La mossa, però, non ha convinto tutti. Molti esponenti del settore tecnologico e del governo statunitense si sono schierati contro l’idea di pause, sostenendo che preoccupazioni del genere siano esagerate e rischiano di soffocare innovazione e crescita economica. Al tempo stesso, il fatto che tra i firmatari ci sia Bannon segnala un disagio crescente nella destra populista verso l’AI, proprio mentre figure con forti legami con la Silicon Valley occupano ruoli influenti nell’amministrazione repubblicana di Donald Trump.
Chimera o prossimo futuro? L'assenza della Cina
C’è un grande assente in questo dibattito così USA-centrico: la Cina. Dall’altra parte del mondo l’ossessione per l’AGI interessa poco: lì l’ago della bussola punta su software utili, scalabili e monetizzabili. L’AI serve a far girare e crescere piattaforme, e-commerce, supply chain, servizi finanziari, intrattenimento: meno filosofia sul quando arriverà "la mente generale", più prodotti, ricavi, margini. È un approccio che, nel bene e nel male, misura il valore in utilità immediata e in fatturato, non in milestone teoriche.
Noi, personalmente, stiamo più dalla parte di chi dice che non ha senso coltivare l’ossessione per l’AGI. I post di Elon Musk e i soliti strappi retorici di Sam Altman ogni tre-quattro mesi fanno rumore, ma lasciano il tempo che trovano. Come suggerisce Karpathy nell’intervista, ha più senso guardare ai compiti reali che una Intelligenza Artificiale sa svolgere, non al titolo di AGI appiccicato sopra. E confessiamolo: siamo anche un po’ scettici che l’AGI, nella sua versione hollywoodiana, sia raggiungibile così com’è immaginata oggi.
Non sappiamo se arriveremo mai all’AGI. Forse è una chimera che si allontana a ogni passo; forse è il prossimo futuro e qualcuno, magari proprio Altman, tirerà fuori dal cilindro l’innovazione che mancava, al momento giusto. Nel dubbio, la rotta resta la stessa: costruire cose utili, misurarle con onestà, governarle con responsabilità. Se un giorno la parola "AGI" avrà senso, lo scopriremo non da un annuncio, ma da ciò che le persone riusciranno davvero a fare, in modo migliore, affidabile e su larga scala.
Del prossimo futuro — immaginabile — e di tanto altro ancora ne abbiamo parlato qui, a San Francisco in un’intervista a Piero Scaruffi registrata qualche ore fa proprio a Stanford, puoi ascoltarla qui.
Sipario e Conclusioni
Ascolti Podcast? Allora ci vediamo, anzi, ci ascoltiamo su tutte le piattaforme audio con il nostro Podcast: Intelligenza Artificiale Spiegata Semplice.
Ascolta su Spotify e su tutte le piattaforme audio gratuite.
E c'è anche Two Humans in The Loop, il podcast dove si parla di Intelligenza Artificiale e Umanità. Ascolta su Spotify.