Un recente studio ha svelato un significativo progresso nell'ambito dell'IA, con la creazione di una rete neurale capace di compiere generalizzazioni linguistiche simili a quelle umane.
Questo sistema dimostra la capacità di integrare nuove parole nel contesto esistente e utilizzarle in situazioni nuove, copiando un aspetto cruciale della cognizione umana noto come generalizzazione sistematica.
Questo modello AI è stato confrontato con il celebre chatbot ChatGPT e i risultati hanno rivelato che, nonostante l'eccezionale capacità del chatbot di condurre conversazioni simili a quelle umane, si è comportato peggio rispetto alla nuova rete neurale e, ovviamente, agli esseri umani.
Questa ricerca, pubblicata su Nature il 25 ottobre, apre la strada allo sviluppo di macchine in grado di interagire in modo più naturale con le persone rispetto agli attuali sistemi IA.
Benché i sistemi basati su grandi modelli di linguaggio, come ChatGPT, eccellano nella conversazione in molti contesti, presentano notevoli lacune e incongruenze sotto molteplici aspetti.
Le prestazioni umanoidi di questa rete neurale suggeriscono un "passo avanti nella capacità di addestrare le reti in modo sistematico", secondo Paul Smolensky, uno scienziato specializzato nel linguaggio cognitivo presso la Johns Hopkins University.
La generalizzazione sistematica è dimostrata dalla capacità delle persone di utilizzare agevolmente parole apprese in nuovi contesti. Questo studio ha sfidato la capacità delle reti neurali nell'imitare la cognizione umana, in quanto tali strumenti faticano nell'uso di nuove parole senza un adeguato addestramento su campioni di testi che le contengono.
Questo studio ha cercato di porre fine a una controversia durata quasi 40 anni sulla capacità delle reti neurali di modellare la cognizione umana se non riescono a dimostrare questo tipo di sistematicità.
La ricerca ha coinvolto 25 partecipanti testati sulla capacità di utilizzare nuove parole in diversi contesti. Dopo aver addestrato i partecipanti a collegare parole a cerchi colorati, sono stati esposti a combinazioni di parole e modelli di cerchi risultanti dall'applicazione di regole alle parole.
L'IA è stata successivamente addestrata a imparare dai propri errori e le sue risposte a nuovi problemi, sono risultate sorprendentemente simili a quelle dei partecipanti umani.
Al contrario, GPT-4, ha mostrato un netto peggioramento nelle prestazioni, suggerendo che il successo ottenuto nella generalizzazione sistematica è il risultato dell'apprendimento continuo piuttosto che di abilità innate.
Questa scoperta potrebbe ridurre la quantità di dati necessari per addestrare IA come ChatGPT e mitigare le problematiche legate alle "allucinazioni," ovvero la tendenza dell'IA a identificare schemi inesistenti e produrre output errati.
Resta da vedere se questa metodologia possa essere applicata su dataset più ampi o ad altre applicazioni al di fuori del linguaggio ma rappresenta comunque un importante passo avanti nell'evoluzione dell'IA.