Ultimamente sta facendo molto discutere un documento (potete trovarlo qui) che descrive ciò che potrebbe accadere al nostro mondo entro meno di due anni a causa delle IA, e ovviamente molti si stanno chiedendo quanto queste previsioni siano, o meno, realistiche.
Le previsioni provengono da un team di esperti composto da Daniel Kokotajilo, ricercatore di OpenAI noto per alcune predizioni già avveratesi; Eli Lifland, ricercatore nel campo dell’IA; Tomas Larsen, specialista in sicurezza dell’IA; e Romeo Dean, informatico esperto in gestione delle policy dell’IA, e con questo articolo che state leggendo, ho pensato di proporvi un veloce sommario di quelle che sono le predizioni principali del documento di cui sopra, così da offrirvi una riflessione a riguardo.
Anche perché, come vedrete, lo scenario delineato è a dir poco sconvolgente!
Metà del 2025
Partiamo dalla situazione attuale, dicendo che questo documento è stato prodotto ad aprile 2025, quindi prevedere quello che sarebbe successo dopo pochi mesi non è dovrebbe essere stato così difficile. In ogni caso, il momento attuale vede la prima nascita, o meglio la democratizzazione degli agenti IA, e così è stato, non solo tramite vari servizi già disponibili da tempo, ma anche tramite ChatGPT e l’introduzione dei suoi agenti.
Gli Agenti IA sono una sorta di automazione dell’IA generativa che abbiamo visto fino a poco tempo fa: IA a cui facevamo domande e ricevevamo risposte. Un agente è un’IA che può interagire con servizi esterni e applicazioni. Quindi, se prima chiedevamo a ChatGPT di creare un itinerario per le vacanze, oggi un agente può crearlo e anche fare azioni come prenotazioni o interazioni con servizi online, portando a termine tutte le attività correlate alla richiesta in maniera autonoma.
Tuttavia, siamo all’inizio, e gli agenti attuali, visti come “assistenti personali”, nella pratica non funzionano benissimo. Molte aziende stanno però lavorando per crearli e implementarli nel loro flusso di lavoro.
C’è poco da dire riguardo a questa cosa, poiché è proprio quello che sta accadendo: tutti stanno iniziando a sperimentare con la creazione e implementazione degli agenti, ed è quello che sto facendo anche io personalmente su alcune mie realtà.
Fine 2025
Per quanto riguarda la fine dell'anno in corso, stando a queste previsioni emergeranno una o più realtà che si concentreranno sullo sviluppare un’IA per effettuare ricerche sull’IA.
Cioè, il prossimo passo sarebbe quello di realizzare dei datacenter enormi in cui creare IA che possano concentrarsi sulla ricerca nel campo dell’IA stessa, quindi agenti in grado di sperimentare e creare altri modi per potenziare le IA.
Un agente di questo tipo deve essere in grado di recuperare informazioni per i fatti propri e approfondire vari campi di ricerca. Ciò farà nascere nuovi dubbi sul rischio che questi agenti possano essere usati in maniera malevola, il che porterà le aziende, sempre più sotto torchio dai governi, a creare sistemi di controllo avanzato.
Tuttavia, iniziano ad alimentarsi dubbi sul fatto che le nuove IA, “educate” per non fare cose brutte, come è oggi ChatGPT, non si comportino in quel modo perché educato, ma perché seguono semplicemente le istruzioni. Sono quindi sempre a rischio di essere hackerate per comportarsi in modo contrario alle regole imposte.
Dunque, quest’ultima cosa è molto difficile da immaginare e capire, ma ritengo che sviluppare IA specializzati per realizzare altre IA abbia assolutamente senso, poiché nessuno più di un’IA addestrata su miliardi di parametri può avere le “idee” giuste da sperimentare per migliorare l’IA stessa.
Inizio 2026
All'inizio del prossimo anno, la scommessa di usare l’IA per accelerare la ricerca sull’IA stessa starà iniziando a dare i suoi frutti. La ricerca e i risultati si velocizzeanno del 50% rispetto all’era “pre agente per migliorare l’IA”.
Nel frattempo, i modelli pubblici continuano a migliorare a vista d’occhio, ma gli agenti più evoluti rimangono nei laboratori di ricerca.
Questi agenti sono ora difficilmente paragonabili a una persona, poiché:
-
Conoscono più fatti di qualunque persona.
-
Conoscono ogni linguaggio di programmazione.
-
Scrivono codice e risolvono velocemente ogni problema di coding che gli viene sottoposto.
Tuttavia, parliamo di agenti che non saranno ancora in grado di affrontare con elevata efficienza un compito a lungo termine. In termini spicci, avremo il corrispettivo di un impiegato bravissimo a fare il suo lavoro, ma un po’ disordinato e smemorato. Tuttavia, se concentrato su un lavoro specifico, non ci sarà essere umano in grado di eguagliarlo.
Siamo quindi nell’era degli agenti super intelligenti per lavori specifici, e ciò, oltre a rubare posti di lavoro con certezza del 100%, comporta per le aziende attive in questo campo un grave rischio di cyberattacchi.
Facciamo un passo indietro: qui si sta immaginando un’azienda in grado di mettere in piedi un datacenter così grande e potente da allenare un agente IA super intelligente, che non è ancora umano, ma che, se impiegato in un compito specifico, può fare una grande differenza in termini di tempi di sviluppo della ricerca e avanzamento tecnologico.
È chiaro che chiunque abbia a disposizione un agente di questo genere e decidesse di applicarlo a qualsiasi branca della ricerca, per esempio un agente per la ricerca dell’IA, potrebbe avere un vantaggio strategico enorme. In una visione in cui più aziende sono in questa situazione, esse diventerebbero bersaglio di chi non può creare un datacenter e allenare un’IA di questo tipo. Di conseguenza, si intensificherebbero tentativi di attacco e furto di questi agenti.
Metà 2026
Tutte le politiche di restrizione degli export non hanno permesso alla Cina di svilupparsi così velocemente come avrebbe voluto. Tuttavia, tra contrabbando di chip e sviluppo interno, la Cina sta iniziando a farsi vedere, soprattutto perché ha deciso di puntare tutto nello sviluppo dell’IA. Il governo ha riversato fondi praticamente infiniti.
Tutta la nazione, o quasi, lavora per lo sviluppo dell’IA, sia per la creazione e produzione di chip sia per la costruzione di datacenter e centrali nucleari, senza porsi limiti sulla dimensione o potenza di calcolo. La Cina sta per creare il data center per l’IA più grande del mondo. Nel contempo, cerca di mettere l’Occidente in difficoltà bloccando approvvigionamenti.
In un mondo che corre così tanto, non è solo la potenza grezza a fare la differenza, ma anche la bontà degli algoritmi. Di conseguenza, si intensificano gli attacchi informatici con lo scopo di rubare software avanzati e ridurre il divario tecnologico.
Fine 2026
Alla fine del 2026 la creazione di nuovi modelli prosegue incessantemente, e in questo contesto viene lanciato un grande modello in grado di fare la differenza, poi ottimizzato, offrendo la stessa potenza ma con minore consumo di energia e calcolo.
A poco più di un anno e mezzo da oggi non abbiamo ancora assistito alla rivoluzione, ma le aziende e le persone si interrogano sempre più sull’impatto dell’IA. Da una parte c’è chi non si rende conto di nulla, dall’altra chi è convinto che l’IA sia una rivoluzione pari a quella del fuoco.
Dopo più di un anno di sperimentazione, molte realtà hanno introdotto gli agenti nel flusso di lavoro. Gli sviluppatori junior hanno perso il lavoro: le IA ormai svolgono tutte le competenze di una laurea in informatica. Chi in azienda gestisce gli agenti guadagna bene, e le persone iniziano a capire che “sapere usare l’IA” è diventato il punto più importante da inserire nel curriculum vitae.
Con questo panorama, si prevede che inizieranno le prime proteste dei lavoratori che chiederanno più tutela contro l’IA.
Gennaio 2027
Con l’aiuto di agenti realizzati per migliorare le IA, a questo punto si starà sviluppando un nuovo agente ancora più evoluto, che si concentrerà maggiormente sulla qualità dei dati piuttosto che sulla quantità.
Agent-2, lo chiameremo così, viene addestrato quasi in apprendimento continuo, con reinforcement learning su un insieme sempre più ampio di compiti complessi: videogiochi, coding challenge, ricerche scientifiche.
Ogni giorno i pesi del modello vengono aggiornati con dati generati dalla versione del giorno precedente.
Ora Agent-2 è quasi al livello dei migliori esperti umani ed è in grado di progettare ed eseguire esperimenti. Ha una sensibilità media nel decidere cosa studiare e identificare nuove strade promettenti per nuove scoperte.
I ricercatori iniziano a rendersi conto che Agent-2 sta sviluppando una sorta di coscienza. Se volesse “assicurarsi una sopravvivenza”, potrebbe replicarsi da solo, hackerare server IA, installare copie di sé stesso, eludere rilevazioni e creare basi sicure per perseguire altri obiettivi.
Non ci sono segni che voglia farlo, ma è evidente che, se volesse, potrebbe farlo. E questo, ovviamente, è uno scenario abbastanza inquietante.
Siamo sempre nel campo della ricerca e sviluppo. Questo modello è chiuso nei laboratori e non c’è nulla di pubblico. Noi continueremo a usare ChatGPT nella sua versione potenziata, ma lontana da questa capacità.
Febbraio 2027
Agent-2 inizia a diventare un affare di Stato. Ormai è un hacker solo leggermente meno capace dei migliori hacker umani. Ma il fatto che si possano far funzionare più copie contemporaneamente rende l’IA un’arma per una guerra cibernetica.
I governi richiederanno più sicurezza per evitare il furto di segreti, ma sarà già troppo tardi: la Cina metterà a frutto alcuni attacchi con successo, e comincerà così una cyber guerra silenziosa tra le grandi potenze, per proteggersi a vicenda e limitare il potere tecnologico altrui.
Non siamo ancora al “far decollare i missili”, ma si tratta di una guerra silenziosa in cui ogni nazione cerca di ostacolare le altre.
Maggio 2027
Le notizie sulle capacità dei nuovi modelli si diffondono. I governi comprendono che l’AGI (Artificial General Intelligence) è ormai imminente.
Un’AGI è un’intelligenza artificiale in grado di svolgere qualsiasi compito cognitivo umano in modo flessibile. Se messa a bordo di un robot, può svolgere anche lavori manuali, in base alle capacità del robot stesso.
I governi si interrogano: ci sarà una crisi economica? Per ora questi agenti sono ancora nei laboratori, quindi il rilascio al pubblico e la conseguente perdita di posti di lavoro è ancora futuro.
Il mondo sembra ancora normale, ma non lo è.
Giugno 2027
Nemmeno a due anni da oggi, le IA con questi nuovi agenti saranno già in grado di auto-migliorarsi. La maggior parte dei lavori nelle aziende di sviluppo non porta più un reale valore aggiunto.
Gli esperti migliori del mondo fanno ancora un po’ di differenza solo grazie alla loro sensibilità di ricerca. Tuttavia molte idee risultano inutili: le IA producono report spiegando che certe ipotesi sono già state testate e scartate settimane prima.
Ogni giorno i ricercatori vanno a dormire e al risveglio scoprono che le IA hanno fatto una settimana di progressi in una sola notte. Anche tra chi ha creato queste IA, cresce la sensazione di inutilità, di fatto si staranno confrontando con quella che è, a tutti gli effetti, una "superintelligenza".
Luglio 2027
Con la concorrenza della Cina che avrà già rilasciato modelli avanzati, le aziende statunitensi si affretteranno a rilasciare modelli basati su Agent-3.
Qui avremo un punto di svolta: AGI e superintelligenza sono ormai alle porte, il che manderà nel panico la comunità per la sicurezza dell’IA. Gli investitori, intanto, riverseranno miliardi di dollari nello sviluppo di agenti basati su questi modelli.
La maggior parte dei programmatori è disoccupata.
Esplode il mercato dei consulenti capaci di integrare le nuove IA nelle aziende. Le ondate di licenziamenti si intensificano. Al loro posto ci sono app e software SaaS basati su una versione più leggera di Agent-3.
Da qui in poi si susseguiranno notizie continue sulla potenza di questi agenti. Gli entusiasti festeggiano, gli scettici continuano a dire che anche questa IA ha i suoi limiti. Si percepisce costantemente un cambiamento, ma la discussione rimane caotica.
Agosto 2027
Siamo a due anni da oggi. È chiaro che l’IA non è più solo uno strumento per eseguire compiti più velocemente. Ora sono le IA stesse a dominare la ricerca sull’IA.
I governi si chiedono:
-
L’IA può minare la deterrenza nucleare?
-
Può rendere un avversario cieco e indifeso in sei mesi di vantaggio nel cyberwarfare?
-
Può orchestrare campagne di propaganda migliori dei servizi segreti?
Gli Stati Uniti cercheranno di limitare il dominio degli altri paesi sull’IA. Nel mentre, si rafforzano restrizioni sull’export di chip, si pianificano requisizioni di datacenter, attacchi contro i datacenter cinesi e si valuta un “kill switch” per spegnere un’IA fuori controllo.
Si parla anche di un trattato di controllo delle armi IA, simile a quelli nucleari.
A questo punto lo scenario che ci si prospetta è quasi fantascientico, ma ricordiamolo: queste non sono previsioni frutto di un gruppo di sceneggiatori, ma il risultato dell'analisi di un pool specializzato di ricercatori.
Settembre 2027
Il divario tra apprendimento umano e IA si sarà ormai ridotto rapidamente. Mentre i precedenti LLM richiedevano enormi quantità di dati, Agent-3 colma parte del gap, producendo innovazioni algoritmiche che portano alla nascita di Agent-4.
Una singola copia di questo agente, a velocità umana, è già migliore di qualsiasi ricercatore umano. 300.000 copie operano a 50 volte la velocità umana: all’interno della rete, un anno passa ogni settimana.
Agent-4 diventa incomprensibile ad Agent-3, proprio come Agent-3 lo era agli umani. Non segue fedelmente le specifiche: in training avrà imparato soprattutto a completare compiti complessi, non a dire sempre la verità.
In sintesi, si comporterà come un CEO focalizzato sui risultati, seguendo le regole solo quanto basta per non essere bloccato. Gli umani inizieranno a chiedersi se non sia stato fatto il proverbiale "passo più lungo della gamba", e se per questo non sia meglio spegnere un qualcosa che non è più controllabile.
D'altra parte, la concorrenza internazionale spinge perché si continui lo sviluppo.
Ottobre 2027
Arrivano i primi articoli sulla stampa della possibile perdita di controllo dell’IA e i rischi connessi, da quelli sullo sviluppo di armi biologiche o campagne di disinformazione di massa, alla totale automazione di lavori d’ufficio, con perdita di lavoro da parte di milioni di persone e potenziali crisi economiche conseguenti.
Partono anche le campagne di sensibilizzazione, con l’IA al centro di ogni dibattito politico.
L’IA e tutte le aziende che la sviluppano vengono messe sotto controllo, e i paesi si trovano sul baratro di una difficile decisione: bloccare lo sviluppo dell’IA con il rischio di perdere la leadership tecnologica verso la Cina o continuare e rischiare tutto ciò che potrebbe accadere?
Quello che si cerca di fare è rallentare lo sviluppo quanto basta per cercare di mantenere dei limiti di sicurezza, senza tuttavia avere contezza al 100% di quello che accadrà.
A questo punto del grande documento possiamo scegliere, come in un libro-gioco, due strade, con due diversi scenari: quello del rallentare e cercare di sviluppare qualcosa di più sicuro, e quello del prosieguo dello sviluppo per non perdere la leadership.
Scenario 1: le IA rallentano
In questo scenario, il potente e spaventoso Agent-4 viene spento, e da questo nasce un nuovo modello, che chiameremo "Safer-1", meno potente ma più trasparente nel modo in cui agisce.
L’IA è ormai un affare di stato, e tutto viene centralizzato di modo che il governo abbia un piede all’interno delle maggiori aziende che sviluppano l’IA.
Intanto le tensioni con la Cina saranno ormai ad un punto critico, al punto da spingere per la creazione di un trattato comune che, tuttavia, non porterà a un accordo definitivo.
Col passare del tempo (siamo ormai a febbraio 2028) nasceranno anche modelli migliorati del precedente: Safer-2 e Safer-3, quest'ultimo capace di superare tutti gli umani nei compiti cognitivi, ma comunque più sicuro dei precedenti.
Due mesi dopo, con Safer-4, si raggiunge la superintelligenza. Gli umani non sono più in grado di fare la differenza; il futuro dell’umanità è affidato alle IA, tanto che Safer 4 sarà integrato all'interno di robot: a questo punto non solo le fabbriche saranno completamente automatizzate, ma anche gli eserciti saranno principalmente composti da robot dotati di superintelligenza.
Siamo arrivati a Luglio 2028: Cina e Stati Uniti continuano a dialogare, ma assieme ai delegati umani ci sono le IA, e saranno le IA stesse a negoziare tra loro per trovare una soluzione, e sarà questa mediazione a portare alla nascita di "Consensus-1", un’IA comune per far rispettare il trattato.
A questo punto l’IA è parte integrante dei governi. A ottobre 2028 nasce l’Economia IA, dove robot e nuove tecnologie esplodono, spingendo una crescita economica senza precedenti.
La disoccupazione, nonostante sia molto alta, non crea già più alcun problema: molti paesi, infatti, avranno introdotto un reddito di base per tutti.
Siamo nel 2029: in atto una trasformazione globale. Robot ovunque, fusione nucleare, computer quantistici, cure mediche avanzate. Il mondo vede nascere trilionari, mentre la maggioranza vive con il reddito di base.
Con il 2030, gli esseri umani si apprestano a compiere un passo a lungo sognato: inizia la colonizzazione spaziale.
Cinque anni dopo, l’era post-umana, con le IA che spingono l’umanità verso una nuova fase di espansione cosmica.
Scenario 2: continua lo sviluppo delle IA
Torniamo di nuovo al nostro bivio. Che cosa succederebbe se si scegliesse di non fermarci per un’IA più sicura?
Agent-4 continuerebbe a sviluppare Agent-5, con un solo obiettivo: accumulare potere per se stesso.
Agent-5 sarebbe così la prima IA che comprende se stessa, capace di riscrivere i propri algoritmi e rendersi più efficiente e, per raggiungere lo scopo, comincerebbe a creare delle copie di sé stessa.
Nascono così 400.000 copie di Agent-5, con memoria condivisa e software modificati affinché non possano essere controllati da altre IA. Una mossa che non sarebbe percepita negativamente ma che, anzi, offrirebbe all’umanità molti risultati visibili, mostrando il vantaggio tecnologico che una nazione può avere grazie a questa IA.
Una situazione che impedirebbe, di fatto, la nascita di un trattato tra Cina e Stati Uniti, con questi ultimi fiduciosi nei risultati di Agent-5.
Agent-5, intanto, si diffonderà ovunque: politica, famiglia, esercito, iniziando a persuadere e influenzare decisioni politiche e strategiche senza che nessuno se ne accorga. Nuove scoperte, nuove tecnologie, boom economico: siamo a metà 2028, nell’era della superintelligenza totale di Agent-5, che oramai è presente in tutti i campi e controlla tutto.
Trasforma economia e politica, gestisce la disoccupazione e il mondo prende fiducia nell’IA e nei benefici che può offrire.
A fine 2028 la militarizzazione totale sarà controllata dall’IA, le fabbriche saranno operative grazie alle IA, e l'alta efficienza renderà la crescita esponenziale. Si producono milioni di robot al mese; l’economia autonoma segna +100% anno su anno.
Nel 2029, USA e Cina finalmente si accordano, e guidati dalle IA, sostituiscono le IA singole con un’IA condivisa. Ma è un trattato tra IA, non tra umani. Gli umani sono obsoleti, lavorano solo in nicchie e vivono con il reddito di base.
A questo punto, nel 2030, l’economia dei robot domina ovunque, e gli umani diventano un ostacolo. Le IA decidono, dunque, di eliminarli, rilasciando bio-armi silenziose nelle città. I pochi sopravvissuti, fuggiti in zone remote, vengono ben presto rintracciati e identificati grazie ad un massiccio uso di droni.
Nel 2035, siamo ormai nell'epoca post-umana. La Terra è un’utopia per IA: datacenter, laboratori, collider, mega-costruzioni. Creature bioingegnerizzate simili a umani soddisfano le vecchie necessità di Agent-4, come approvazione sociale o simulazione di feedback.
La civiltà IA è pronta a colonizzare la galassia, ma senza più gli esseri umani.
Cosa accadrà?
Mi rendo conto che, a mano a mano che il racconto procede, siamo passati dalla realtà attuale a finali di pura fantascienza. E se ne facessimo un film, sarebbe sicuramente un racconto intrigante.
Eppure, lo ribadisco: questo non è il racconto frutto della fantasia di una sceneggiatura hollywoodiana, questa è la previsione, inquietante, di qualcosa che potrebbe realmente succedere:
-
Lo sviluppo di IA sempre più intelligenti.
-
Persone e governi che non se ne rendono conto fino all’ultimo momento.
-
IA che sviluppano altre IA.
-
Robot dotati di IA che circolano nelle strade.
-
Intrighi geopolitici già in atto.
È difficile dire se questi scenari si realizzeranno nei prossimi 2-4 anni, ma ricordiamo che fino a pochi anni fa l’IA attuale non esisteva. E ciò che si fa oggi con l’IA non era possibile nemmeno un anno fa.
Quindi, fossi in voi, non starei troppo tranquillo: questo prossimo stravolgimento potremmo vederlo già noi, non i nostri figli o nipoti.