image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Sclerosi multipla, identificato il ruolo di EBV Sclerosi multipla, identificato il ruolo di EBV...
Immagine di Piccoli hacker inconsapevolmente cattivi Piccoli hacker inconsapevolmente cattivi...

Il cervello umano opera in modo simile ai modelli AI

Una ricerca su Nature Communications mostra analogie tra attività cerebrale e architettura stratificata dei modelli linguistici moderni.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 22/01/2026 alle 08:25

La notizia in un minuto

  • Il cervello elabora il linguaggio attraverso trasformazioni graduali stratificate che rispecchiano l'architettura dei grandi modelli linguistici come GPT-2, mettendo in discussione le teorie basate su regole grammaticali fisse
  • L'elettrocorticografia ha rivelato che le fasi iniziali dell'attività cerebrale processano caratteristiche fonetiche elementari, mentre quelle successive integrano contesto, tono e significato come negli strati profondi delle reti neurali artificiali
  • Il significato emerge da un processo dinamico e sensibile al contesto piuttosto che dall'assemblaggio di blocchi linguistici rigidi, con il dataset completo ora disponibile pubblicamente per la comunità scientifica

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La comprensione del linguaggio umano potrebbe funzionare in modo sorprendentemente simile ai moderni sistemi di intelligenza artificiale. Una ricerca pubblicata su Nature Communications ha rivelato che il cervello elabora il parlato attraverso una sequenza graduale di trasformazioni che rispecchia l'architettura stratificata dei grandi modelli linguistici come GPT-2 e Llama 2. La scoperta, frutto di una collaborazione internazionale guidata dal dottor Ariel Goldstein dell'Università Ebraica di Gerusalemme insieme al dottor Mariano Schain di Google Research e al professor Uri Hasson con Eric Ham della Princeton University, mette in discussione decenni di teorie basate su regole grammaticali fisse e gerarchie linguistiche rigide.

Per indagare i meccanismi neurali alla base della comprensione linguistica, i ricercatori hanno utilizzato l'elettrocorticografia, una tecnica che registra direttamente l'attività elettrica della corteccia cerebrale con elevatissima risoluzione temporale. I partecipanti allo studio hanno ascoltato un podcast della durata di trenta minuti mentre sensori posizionati sulla superficie del cervello catturavano i segnali neurali in tempo reale. Questa metodologia ha permesso di seguire con precisione millimetrica come le diverse regioni cerebrali si attivano progressivamente durante l'ascolto del parlato.

L'analisi dei dati ha rivelato una corrispondenza inattesa: le prime fasi dell'attività cerebrale si allineano con gli strati iniziali dei modelli di intelligenza artificiale, quelli che processano caratteristiche linguistiche elementari come le proprietà fonetiche delle parole. Man mano che l'elaborazione procede, i segnali neurali delle fasi successive corrispondono agli strati più profondi delle reti neurali artificiali, quelli responsabili dell'integrazione del contesto, del tono e del significato complessivo. Questa progressione temporale è risultata particolarmente evidente nell'area di Broca e in altre regioni cerebrali associate all'elaborazione linguistica di alto livello, dove le risposte neurali raggiungono il picco più tardi e si sincronizzano con le rappresentazioni più astratte generate dall'intelligenza artificiale.

Le caratteristiche linguistiche tradizionali come fonemi e morfemi non spiegano l'attività cerebrale in tempo reale con la stessa efficacia delle rappresentazioni contestuali prodotte dai modelli di intelligenza artificiale

Il confronto con elementi linguistici tradizionali ha prodotto risultati illuminanti. Quando i ricercatori hanno testato se componenti classiche come fonemi e morfemi potessero predire l'attività cerebrale osservata, queste unità linguistiche discrete si sono rivelate molto meno efficaci delle rappresentazioni contestuali e statistiche generate dai modelli AI. Questo suggerisce che il cervello non costruisce il significato assemblando blocchi linguistici rigidi secondo regole grammaticali predefinite, ma piuttosto attraverso un processo dinamico e sensibile al contesto, in cui il significato emerge gradualmente dall'interazione tra parole, intonazione e conoscenze pregresse.

Come ha spiegato il dottor Goldstein, "ciò che ci ha sorpreso maggiormente è stata la stretta corrispondenza tra lo svolgimento temporale del significato nel cervello e la sequenza di trasformazioni all'interno dei grandi modelli linguistici. Nonostante questi sistemi siano costruiti in modo molto diverso, entrambi sembrano convergere verso un processo simile di costruzione graduale della comprensione". Questa convergenza funzionale tra sistemi biologici e artificiali potrebbe riflettere principi computazionali fondamentali necessari per l'elaborazione del linguaggio naturale, indipendentemente dal substrato fisico che li implementa.

Le implicazioni teoriche di questa ricerca vanno oltre la neuroscienza del linguaggio. Per decenni, le teorie dominanti sulla comprensione linguistica hanno enfatizzato il ruolo di regole sintattiche innate e di strutture gerarchiche universali. I nuovi dati invece sostengono un modello più flessibile e probabilistico, in cui il significato emerge dall'accumulo progressivo di informazioni contestuali piuttosto che dall'applicazione di regole deterministiche. Questa visione si allinea con crescenti evidenze provenienti dalla linguistica computazionale e dalla psicologia cognitiva, che mostrano come l'elaborazione linguistica umana sia profondamente influenzata da fattori statistici e dall'esperienza.

Un aspetto particolarmente rilevante per la comunità scientifica internazionale è la decisione del team di ricerca di rendere pubblico l'intero dataset di registrazioni neurali e caratteristiche linguistiche. Questa risorsa aperta permette a laboratori di tutto il mondo di testare ipotesi alternative, sviluppare modelli computazionali più accurati e confrontare diverse teorie della comprensione linguistica utilizzando dati sperimentali di alta qualità. La disponibilità di dataset neurofisiologici così dettagliati rappresenta un'opportunità preziosa per accelerare la ricerca nel campo delle neuroscienze cognitive, dove la scarsità di dati ad alta risoluzione temporale ha spesso limitato la validazione empirica delle teorie.

Le prospettive future di questa linea di ricerca includono l'estensione dell'analisi ad altre modalità linguistiche come la lettura e la produzione del linguaggio, nonché lo studio di come differenti architetture di intelligenza artificiale si correlino con pattern di attività cerebrale in popolazioni diverse. Rimangono inoltre aperte domande fondamentali su come il cervello integri informazioni provenienti da canali multipli – prosodia, gesti, contesto situazionale – per costruire rappresentazioni semantiche ricche. Comprendere questi meccanismi potrebbe non solo chiarire i fondamenti biologici della cognizione umana, ma anche guidare lo sviluppo di sistemi di intelligenza artificiale più robusti e interpretabili.

Fonte dell'articolo: www.sciencedaily.com

Le notizie più lette

#1
NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno
5

Hardware

NVIDIA sta preparando una GPU superiore alla RTX 5090 per quest'anno

#2
IA a pagamento? No grazie (e ti spiego perché)

Hardware

IA a pagamento? No grazie (e ti spiego perché)

#3
Apple è pronta a rinnovare la gamma iPad e MacBook a breve
3

Hardware

Apple è pronta a rinnovare la gamma iPad e MacBook a breve

#4
NotebookLM si prepara a integrare una funzione di Gemini

Hardware

NotebookLM si prepara a integrare una funzione di Gemini

#5
Windows 11 abbandona i vecchi driver di stampa
1

Hardware

Windows 11 abbandona i vecchi driver di stampa

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Piccoli hacker inconsapevolmente cattivi

Scienze

Piccoli hacker inconsapevolmente cattivi

Di Veronica M. Pruinelli ed Erik Pietro Sganzerla
Sclerosi multipla, identificato il ruolo di EBV

Scienze

Sclerosi multipla, identificato il ruolo di EBV

Di Antonello Buzzi
Così COVID e H1N1 si diffusero in poche settimane

Scienze

Così COVID e H1N1 si diffusero in poche settimane

Di Antonello Buzzi
Marocco, resti umani riscrivono l’evoluzione

Scienze

Marocco, resti umani riscrivono l’evoluzione

Di Antonello Buzzi
Il mito delle erbacce smontato dalla scienza

Scienze

Il mito delle erbacce smontato dalla scienza

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.