image/svg+xml
Logo Tom's Hardware
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Tom's Hardware Logo
  • Hardware
  • Videogiochi
  • Mobile
  • Elettronica
  • EV
  • Scienze
  • B2B
  • Quiz
  • Forum
  • Sconti & Coupon
Offerte & Coupon
Accedi a Xenforo
Immagine di Artico, dati falsati sulla perdita di neve Artico, dati falsati sulla perdita di neve...
Immagine di Onde marine, il giroscopio cambia le regole Onde marine, il giroscopio cambia le regole...

Il cervello umano opera in modo simile ai modelli AI

Una ricerca su Nature Communications mostra analogie tra attività cerebrale e architettura stratificata dei modelli linguistici moderni.

Advertisement

Avatar di Antonello Buzzi

a cura di Antonello Buzzi

Senior Editor @Tom's Hardware Italia

Pubblicato il 22/01/2026 alle 08:25

La notizia in un minuto

  • Il cervello elabora il linguaggio attraverso trasformazioni graduali stratificate che rispecchiano l'architettura dei grandi modelli linguistici come GPT-2, mettendo in discussione le teorie basate su regole grammaticali fisse
  • L'elettrocorticografia ha rivelato che le fasi iniziali dell'attività cerebrale processano caratteristiche fonetiche elementari, mentre quelle successive integrano contesto, tono e significato come negli strati profondi delle reti neurali artificiali
  • Il significato emerge da un processo dinamico e sensibile al contesto piuttosto che dall'assemblaggio di blocchi linguistici rigidi, con il dataset completo ora disponibile pubblicamente per la comunità scientifica

Riassunto generato con l’IA. Potrebbe non essere accurato.

Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Scopri di più

La comprensione del linguaggio umano potrebbe funzionare in modo sorprendentemente simile ai moderni sistemi di intelligenza artificiale. Una ricerca pubblicata su Nature Communications ha rivelato che il cervello elabora il parlato attraverso una sequenza graduale di trasformazioni che rispecchia l'architettura stratificata dei grandi modelli linguistici come GPT-2 e Llama 2. La scoperta, frutto di una collaborazione internazionale guidata dal dottor Ariel Goldstein dell'Università Ebraica di Gerusalemme insieme al dottor Mariano Schain di Google Research e al professor Uri Hasson con Eric Ham della Princeton University, mette in discussione decenni di teorie basate su regole grammaticali fisse e gerarchie linguistiche rigide.

Per indagare i meccanismi neurali alla base della comprensione linguistica, i ricercatori hanno utilizzato l'elettrocorticografia, una tecnica che registra direttamente l'attività elettrica della corteccia cerebrale con elevatissima risoluzione temporale. I partecipanti allo studio hanno ascoltato un podcast della durata di trenta minuti mentre sensori posizionati sulla superficie del cervello catturavano i segnali neurali in tempo reale. Questa metodologia ha permesso di seguire con precisione millimetrica come le diverse regioni cerebrali si attivano progressivamente durante l'ascolto del parlato.

L'analisi dei dati ha rivelato una corrispondenza inattesa: le prime fasi dell'attività cerebrale si allineano con gli strati iniziali dei modelli di intelligenza artificiale, quelli che processano caratteristiche linguistiche elementari come le proprietà fonetiche delle parole. Man mano che l'elaborazione procede, i segnali neurali delle fasi successive corrispondono agli strati più profondi delle reti neurali artificiali, quelli responsabili dell'integrazione del contesto, del tono e del significato complessivo. Questa progressione temporale è risultata particolarmente evidente nell'area di Broca e in altre regioni cerebrali associate all'elaborazione linguistica di alto livello, dove le risposte neurali raggiungono il picco più tardi e si sincronizzano con le rappresentazioni più astratte generate dall'intelligenza artificiale.

Le caratteristiche linguistiche tradizionali come fonemi e morfemi non spiegano l'attività cerebrale in tempo reale con la stessa efficacia delle rappresentazioni contestuali prodotte dai modelli di intelligenza artificiale

Il confronto con elementi linguistici tradizionali ha prodotto risultati illuminanti. Quando i ricercatori hanno testato se componenti classiche come fonemi e morfemi potessero predire l'attività cerebrale osservata, queste unità linguistiche discrete si sono rivelate molto meno efficaci delle rappresentazioni contestuali e statistiche generate dai modelli AI. Questo suggerisce che il cervello non costruisce il significato assemblando blocchi linguistici rigidi secondo regole grammaticali predefinite, ma piuttosto attraverso un processo dinamico e sensibile al contesto, in cui il significato emerge gradualmente dall'interazione tra parole, intonazione e conoscenze pregresse.

Come ha spiegato il dottor Goldstein, "ciò che ci ha sorpreso maggiormente è stata la stretta corrispondenza tra lo svolgimento temporale del significato nel cervello e la sequenza di trasformazioni all'interno dei grandi modelli linguistici. Nonostante questi sistemi siano costruiti in modo molto diverso, entrambi sembrano convergere verso un processo simile di costruzione graduale della comprensione". Questa convergenza funzionale tra sistemi biologici e artificiali potrebbe riflettere principi computazionali fondamentali necessari per l'elaborazione del linguaggio naturale, indipendentemente dal substrato fisico che li implementa.

Le implicazioni teoriche di questa ricerca vanno oltre la neuroscienza del linguaggio. Per decenni, le teorie dominanti sulla comprensione linguistica hanno enfatizzato il ruolo di regole sintattiche innate e di strutture gerarchiche universali. I nuovi dati invece sostengono un modello più flessibile e probabilistico, in cui il significato emerge dall'accumulo progressivo di informazioni contestuali piuttosto che dall'applicazione di regole deterministiche. Questa visione si allinea con crescenti evidenze provenienti dalla linguistica computazionale e dalla psicologia cognitiva, che mostrano come l'elaborazione linguistica umana sia profondamente influenzata da fattori statistici e dall'esperienza.

Un aspetto particolarmente rilevante per la comunità scientifica internazionale è la decisione del team di ricerca di rendere pubblico l'intero dataset di registrazioni neurali e caratteristiche linguistiche. Questa risorsa aperta permette a laboratori di tutto il mondo di testare ipotesi alternative, sviluppare modelli computazionali più accurati e confrontare diverse teorie della comprensione linguistica utilizzando dati sperimentali di alta qualità. La disponibilità di dataset neurofisiologici così dettagliati rappresenta un'opportunità preziosa per accelerare la ricerca nel campo delle neuroscienze cognitive, dove la scarsità di dati ad alta risoluzione temporale ha spesso limitato la validazione empirica delle teorie.

Le prospettive future di questa linea di ricerca includono l'estensione dell'analisi ad altre modalità linguistiche come la lettura e la produzione del linguaggio, nonché lo studio di come differenti architetture di intelligenza artificiale si correlino con pattern di attività cerebrale in popolazioni diverse. Rimangono inoltre aperte domande fondamentali su come il cervello integri informazioni provenienti da canali multipli – prosodia, gesti, contesto situazionale – per costruire rappresentazioni semantiche ricche. Comprendere questi meccanismi potrebbe non solo chiarire i fondamenti biologici della cognizione umana, ma anche guidare lo sviluppo di sistemi di intelligenza artificiale più robusti e interpretabili.

Fonte dell'articolo: www.sciencedaily.com

Le notizie più lette

#1
Non ve ne siete accorti, ma con OpenClaw OpenAI ha appena ucciso ChatGpt
3

Business

Non ve ne siete accorti, ma con OpenClaw OpenAI ha appena ucciso ChatGpt

#2
Onde marine, il giroscopio cambia le regole

Scienze

Onde marine, il giroscopio cambia le regole

#3
Artico, dati falsati sulla perdita di neve
1

Scienze

Artico, dati falsati sulla perdita di neve

#4
L'intelligenza artificiale non aumenta la produttività e l'entusiasmo delle aziende si raffredda
2

Business

L'intelligenza artificiale non aumenta la produttività e l'entusiasmo delle aziende si raffredda

#5
Windows 11, arriva lo speedtest direttamente dalla taskbar
7

Hardware

Windows 11, arriva lo speedtest direttamente dalla taskbar

👋 Partecipa alla discussione!

0 Commenti

⚠️ Stai commentando come Ospite . Vuoi accedere?

Invia

Per commentare come utente ospite, clicca cerchi

Cliccati: 0 /

Reset

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.

Segui questa discussione

Advertisement

Ti potrebbe interessare anche

Onde marine, il giroscopio cambia le regole

Scienze

Onde marine, il giroscopio cambia le regole

Di Antonello Buzzi
Artico, dati falsati sulla perdita di neve
1

Scienze

Artico, dati falsati sulla perdita di neve

Di Antonello Buzzi
La Luna si restringe e aumenta il rischio sismico

Scienze

La Luna si restringe e aumenta il rischio sismico

Di Antonello Buzzi
La fibra attuale può supportare l’Internet quantistico
1

Scienze

La fibra attuale può supportare l’Internet quantistico

Di Antonello Buzzi
La Cina accelera sulle interfacce cervello-computer e sfida Neuralink

Scienze

La Cina accelera sulle interfacce cervello-computer e sfida Neuralink

Di Antonello Buzzi

Advertisement

Advertisement

Footer
Tom's Hardware Logo

 
Contatti
  • Contattaci
  • Feed RSS
Legale
  • Chi siamo
  • Privacy
  • Cookie
  • Affiliazione Commerciale
Altri link
  • Forum
Il Network 3Labs Network Logo
  • Tom's Hardware
  • SpazioGames
  • CulturaPop
  • Data4Biz
  • TechRadar
  • SosHomeGarden
  • Aibay

Tom's Hardware - Testata giornalistica associata all'USPI Unione Stampa Periodica Italiana, registrata presso il Tribunale di Milano, nr. 285 del 9/9/2013 - Direttore: Andrea Ferrario

3LABS S.R.L. • Via Pietro Paleocapa 1 - Milano (MI) 20121
CF/P.IVA: 04146420965 - REA: MI - 1729249 - Capitale Sociale: 10.000 euro

© 2026 3Labs Srl. Tutti i diritti riservati.