La comprensione del linguaggio umano potrebbe funzionare in modo sorprendentemente simile ai moderni sistemi di intelligenza artificiale. Una ricerca pubblicata su Nature Communications ha rivelato che il cervello elabora il parlato attraverso una sequenza graduale di trasformazioni che rispecchia l'architettura stratificata dei grandi modelli linguistici come GPT-2 e Llama 2. La scoperta, frutto di una collaborazione internazionale guidata dal dottor Ariel Goldstein dell'Università Ebraica di Gerusalemme insieme al dottor Mariano Schain di Google Research e al professor Uri Hasson con Eric Ham della Princeton University, mette in discussione decenni di teorie basate su regole grammaticali fisse e gerarchie linguistiche rigide.
Per indagare i meccanismi neurali alla base della comprensione linguistica, i ricercatori hanno utilizzato l'elettrocorticografia, una tecnica che registra direttamente l'attività elettrica della corteccia cerebrale con elevatissima risoluzione temporale. I partecipanti allo studio hanno ascoltato un podcast della durata di trenta minuti mentre sensori posizionati sulla superficie del cervello catturavano i segnali neurali in tempo reale. Questa metodologia ha permesso di seguire con precisione millimetrica come le diverse regioni cerebrali si attivano progressivamente durante l'ascolto del parlato.
L'analisi dei dati ha rivelato una corrispondenza inattesa: le prime fasi dell'attività cerebrale si allineano con gli strati iniziali dei modelli di intelligenza artificiale, quelli che processano caratteristiche linguistiche elementari come le proprietà fonetiche delle parole. Man mano che l'elaborazione procede, i segnali neurali delle fasi successive corrispondono agli strati più profondi delle reti neurali artificiali, quelli responsabili dell'integrazione del contesto, del tono e del significato complessivo. Questa progressione temporale è risultata particolarmente evidente nell'area di Broca e in altre regioni cerebrali associate all'elaborazione linguistica di alto livello, dove le risposte neurali raggiungono il picco più tardi e si sincronizzano con le rappresentazioni più astratte generate dall'intelligenza artificiale.
Il confronto con elementi linguistici tradizionali ha prodotto risultati illuminanti. Quando i ricercatori hanno testato se componenti classiche come fonemi e morfemi potessero predire l'attività cerebrale osservata, queste unità linguistiche discrete si sono rivelate molto meno efficaci delle rappresentazioni contestuali e statistiche generate dai modelli AI. Questo suggerisce che il cervello non costruisce il significato assemblando blocchi linguistici rigidi secondo regole grammaticali predefinite, ma piuttosto attraverso un processo dinamico e sensibile al contesto, in cui il significato emerge gradualmente dall'interazione tra parole, intonazione e conoscenze pregresse.
Come ha spiegato il dottor Goldstein, "ciò che ci ha sorpreso maggiormente è stata la stretta corrispondenza tra lo svolgimento temporale del significato nel cervello e la sequenza di trasformazioni all'interno dei grandi modelli linguistici. Nonostante questi sistemi siano costruiti in modo molto diverso, entrambi sembrano convergere verso un processo simile di costruzione graduale della comprensione". Questa convergenza funzionale tra sistemi biologici e artificiali potrebbe riflettere principi computazionali fondamentali necessari per l'elaborazione del linguaggio naturale, indipendentemente dal substrato fisico che li implementa.
Le implicazioni teoriche di questa ricerca vanno oltre la neuroscienza del linguaggio. Per decenni, le teorie dominanti sulla comprensione linguistica hanno enfatizzato il ruolo di regole sintattiche innate e di strutture gerarchiche universali. I nuovi dati invece sostengono un modello più flessibile e probabilistico, in cui il significato emerge dall'accumulo progressivo di informazioni contestuali piuttosto che dall'applicazione di regole deterministiche. Questa visione si allinea con crescenti evidenze provenienti dalla linguistica computazionale e dalla psicologia cognitiva, che mostrano come l'elaborazione linguistica umana sia profondamente influenzata da fattori statistici e dall'esperienza.
Un aspetto particolarmente rilevante per la comunità scientifica internazionale è la decisione del team di ricerca di rendere pubblico l'intero dataset di registrazioni neurali e caratteristiche linguistiche. Questa risorsa aperta permette a laboratori di tutto il mondo di testare ipotesi alternative, sviluppare modelli computazionali più accurati e confrontare diverse teorie della comprensione linguistica utilizzando dati sperimentali di alta qualità. La disponibilità di dataset neurofisiologici così dettagliati rappresenta un'opportunità preziosa per accelerare la ricerca nel campo delle neuroscienze cognitive, dove la scarsità di dati ad alta risoluzione temporale ha spesso limitato la validazione empirica delle teorie.
Le prospettive future di questa linea di ricerca includono l'estensione dell'analisi ad altre modalità linguistiche come la lettura e la produzione del linguaggio, nonché lo studio di come differenti architetture di intelligenza artificiale si correlino con pattern di attività cerebrale in popolazioni diverse. Rimangono inoltre aperte domande fondamentali su come il cervello integri informazioni provenienti da canali multipli – prosodia, gesti, contesto situazionale – per costruire rappresentazioni semantiche ricche. Comprendere questi meccanismi potrebbe non solo chiarire i fondamenti biologici della cognizione umana, ma anche guidare lo sviluppo di sistemi di intelligenza artificiale più robusti e interpretabili.