L'intelligenza artificiale sta imparando a parlare con se stessa, proprio come fanno gli esseri umani quando organizzano i propri pensieri o valutano decisioni complesse. Quello che potrebbe sembrare un vezzo antropomorfico si è rivelato invece un metodo efficace per migliorare le capacità di apprendimento e adattamento dei sistemi artificiali. Un gruppo di ricercatori dell'Okinawa Institute of Science and Technology (OIST) in Giappone ha dimostrato che modelli di intelligenza artificiale dotati di una forma di dialogo interno, combinato con memoria di lavoro a breve termine, mostrano prestazioni superiori in una vasta gamma di compiti cognitivi. Lo studio, pubblicato sulla rivista scientifica Neural Computation, apre nuove prospettive sulla comprensione dei meccanismi di apprendimento sia biologici che artificiali.
Il concetto di "linguaggio interno" negli esseri umani è ben documentato in psicologia e neuroscienze dello sviluppo: quel borbottio mentale che accompagna il ragionamento, la pianificazione e la risoluzione di problemi. Il team guidato dal dottor Jeffrey Queißer, ricercatore presso la Cognitive Neurorobotics Research Unit dell'OIST, ha voluto verificare se replicare questo processo nei sistemi di intelligenza artificiale potesse potenziarne le capacità. L'intuizione è che l'apprendimento non dipenda esclusivamente dall'architettura della rete neurale, ma anche dalle dinamiche di interazione che il sistema sviluppa con se stesso durante la fase di addestramento.
Per testare questa ipotesi, i ricercatori hanno progettato modelli di AI equipaggiati con un sistema di memoria di lavoro specializzato, simile alla capacità umana di mantenere temporaneamente informazioni attive durante compiti specifici. La memoria di lavoro funziona come una sorta di blocco degli appunti mentale, dove conserviamo temporaneamente dati necessari per seguire istruzioni, eseguire calcoli rapidi o manipolare sequenze. Gli scienziati hanno confrontato diverse architetture di memoria, concentrandosi su modelli dotati di slot di memoria multipli, contenitori temporanei per frammenti di informazione che possono essere recuperati e riorganizzati secondo necessità.
I risultati hanno evidenziato che i modelli con capacità di memoria di lavoro articolata performavano meglio in compiti complessi come l'inversione di sequenze o la ricostruzione di pattern, attività che richiedono di trattenere simultaneamente diverse informazioni e manipolarle nell'ordine corretto. Ma il salto qualitativo è avvenuto quando i ricercatori hanno introdotto nell'addestramento degli obiettivi specifici che incoraggiavano il sistema a "parlare con se stesso" un determinato numero di volte durante l'elaborazione. Questo processo, descritto come un "borbottio silenzioso" interno, ha prodotto miglioramenti significativi specialmente nelle situazioni di multitasking e nei compiti che richiedevano numerosi passaggi sequenziali.
La capacità di generalizzazione rappresenta uno degli obiettivi più ambiziosi nell'intelligenza artificiale contemporanea. Con questo termine si intende l'abilità di applicare competenze apprese a situazioni nuove, mai incontrate durante l'addestramento, utilizzando regole generali piuttosto che esempi memorizzati. Come sottolinea Queißer, cambiare rapidamente tra diversi compiti e risolvere problemi inediti sono abilità che gli esseri umani esercitano quotidianamente con naturalezza, ma che rappresentano sfide considerevoli per i sistemi artificiali. L'approccio del team giapponese è dichiaratamente interdisciplinare, fondendo neuroscienze dello sviluppo, psicologia cognitiva, apprendimento automatico e robotica per trovare soluzioni innovative.
Il concetto chiave perseguito dalla ricerca è quello di elaborazione dell'informazione indipendente dal contenuto (content agnostic information processing). Si tratta della capacità di applicare abilità cognitive trasversali a domini diversi, senza essere vincolati ai contenuti specifici su cui il sistema è stato addestrato. Questa caratteristica è fondamentale per sviluppare AI davvero flessibili, capaci di operare efficacemente in ambienti variabili e imprevedibili come quelli del mondo reale.
L'aspetto più promettente del sistema sviluppato all'OIST riguarda la sua efficienza nell'apprendimento. Mentre gli approcci tradizionali richiedono dataset estremamente ampi per raggiungere buone capacità di generalizzazione, il modello dotato di dialogo interno riesce a ottenere risultati comparabili con quantità di dati significativamente inferiori. Questa caratteristica lo rende una soluzione complementare particolarmente adatta per applicazioni in cui la raccolta di grandi quantità di dati di addestramento risulta impraticabile o costosa.
Le implicazioni pratiche di questa ricerca vanno oltre il miglioramento delle prestazioni dei sistemi di intelligenza artificiale. Come spiega Queißer, studiare fenomeni come il linguaggio interno e comprenderne i meccanismi fornisce intuizioni fondamentali sulla biologia e sul comportamento umano. La possibilità di applicare questa conoscenza allo sviluppo di robot domestici o agricoli capaci di funzionare in ambienti complessi e dinamici rappresenta solo uno degli scenari applicativi possibili.
Il gruppo di ricerca sta ora pianificando di estendere gli esperimenti oltre le condizioni controllate di laboratorio, esplorando contesti più realistici e rumorosi. Nel mondo reale, decisioni e risoluzione di problemi avvengono in ambienti complessi, dinamici e soggetti a interferenze continue. Per rispecchiare più fedelmente l'apprendimento umano in fase di sviluppo, diventa necessario considerare questi fattori esterni. Questo orientamento si inserisce nell'obiettivo più ampio del team: comprendere a livello neurale come funziona l'apprendimento umano, utilizzando l'intelligenza artificiale come strumento sia di modellazione che di verifica sperimentale delle teorie cognitive.