La strada verso l'intelligenza artificiale generale (AGI) potrebbe essere più tortuosa del previsto, secondo quanto emerge dalle recenti dichiarazioni dei vertici delle principali aziende tecnologiche. Mentre i modelli di AI attuali riescono a conquistare medaglie d'oro alle Olimpiadi Internazionali di Matematica, gli stessi sistemi inciampano su problemi che qualsiasi studente delle superiori risolverebbe senza difficoltà. Questa contraddizione rappresenta il paradosso centrale che definisce l'attuale stato dell'intelligenza artificiale: la mancanza di coerenza nelle prestazioni.
Secondo diversi osservatori l'AGI resta un sogno impossibile, mentre secondo altri è lontano ancora molti anni. Non sono pochi tuttavia quelli convinti che sia un traguardo raggiungibile entro poco tempo, anche meno di 20 anni. E sembra che proprio risolvere il problema della coerenza potrebbe rendere possibile questo risultato. Ammesso e non concesso che la soluzione si trovi, naturalmente.
Demis Hassabis, amministratore delegato di Google DeepMind, ha identificato questa inconsistenza come l'ostacolo principale verso l'AGI durante un episodio del podcast "Google for Developers". Il ricercatore britannico ha coniato il termine "intelligenze frastagliate" per descrivere sistemi che eccellono in alcune dimensioni ma mostrano debolezze facilmente sfruttabili in altre aree. Questo fenomeno è particolarmente evidente nei modelli Gemini potenziati con DeepThink, una tecnica che migliora le capacità di ragionamento.
La definizione di Hassabis trova eco nelle parole del CEO di Google Sundar Pichai, che ha introdotto l'acronimo "AJI" (Artificial Jagged Intelligence) per descrivere questa fase di sviluppo irregolare. Come un diamante grezzo con sfaccettature brillanti e zone opache, l'AI contemporanea presenta picchi di eccellenza alternati a vallate di errori basilari.
Oltre la potenza di calcolo: serve qualcosa di più
Secondo Hassabis, la soluzione non risiede semplicemente nell'aumentare la quantità di dati o la potenza computazionale. Il problema è più profondo e riguarda capacità mancanti nel ragionamento, nella pianificazione e nella memoria. Queste lacune strutturali richiedono approcci innovativi che vadano oltre il semplice scaling up delle risorse esistenti.
L'industria tecnologica necessita inoltre di strumenti di valutazione più sofisticati. Hassabis sottolinea l'importanza di sviluppare benchmark più rigorosi per identificare con precisione i punti di forza e le debolezze dei modelli. Attualmente, i test disponibili non riescono a catturare completamente le sfumature prestazionali di questi sistemi complessi.
Nonostante le sfide, Hassabis mantiene un ottimismo cauto, prevedendo l'arrivo dell'AGI entro i prossimi cinque-dieci anni. Tuttavia, questa previsione deve fare i conti con problemi persistenti come allucinazioni, disinformazione e errori elementari che continuano a caratterizzare i sistemi attuali.
Anche Sam Altman di OpenAI condivide una visione simile. Durante la presentazione di GPT-5, il CEO ha riconosciuto che, nonostante i progressi significativi, il modello manca ancora di elementi cruciali per essere considerato una vera AGI. Tra questi, Altman evidenzia l'incapacità del sistema di apprendere continuamente durante il deployment, una caratteristica che considera fondamentale per l'intelligenza artificiale generale.
La riflessione di Altman apre uno scenario interessante: forse l'AGI non arriverà come un singolo breakthrough, ma attraverso l'evoluzione graduale di queste "intelligenze frastagliate". L'apprendimento continuo rappresenta infatti una delle frontiere più promettenti, permettendo ai modelli di adattarsi e migliorare in tempo reale basandosi sulle nuove esperienze.
Mentre le grandi aziende tecnologiche continuano la loro corsa verso l'AGI, emerge chiaramente che il cammino richiederà più di semplici incrementi quantitativi. La consistenza prestazionale rimane la chiave di volta per trasformare le attuali "intelligenze frastagliate" in sistemi davvero generali, capaci di ragionare con la fluidità e l'adattabilità tipiche dell'intelligenza umana.