La capacità di percepire il dolore altrui osservando semplicemente una ferita, o di avvertire una sensazione tattile guardando qualcuno che viene toccato, rappresenta uno degli aspetti più enigmatici dell'esperienza umana. Ora, una ricerca internazionale guidata da neuroscienziati dell'Università di Reading, del Netherlands Institute for Neuroscience e della Vrije Universiteit di Amsterdam ha svelato l'architettura cerebrale che sottende questo fenomeno: la corteccia visiva non si limita a processare immagini, ma contiene vere e proprie mappe corporee che traducono ciò che vediamo in sensazioni tattili, creando un ponte diretto tra vista e tatto. La scoperta, che identifica ben otto mappe somatotopiche distinte nelle aree visive del cervello, potrebbe rivoluzionare la comprensione dei disturbi dello spettro autistico e aprire nuove frontiere nello sviluppo di interfacce cervello-computer e intelligenza artificiale incarnata.
Il team di ricerca, coordinato da Tomas Knapen del Netherlands Institute for Neuroscience e Nicholas Hedger dell'Università di Reading, ha adottato un approccio metodologico innovativo: invece dei tradizionali esperimenti di laboratorio con stimoli controllati, i neuroscienziati hanno analizzato l'attività cerebrale di partecipanti mentre guardavano film hollywoodiani come "The Social Network" e "Inception". Questa scelta riflette una tendenza emergente nelle neuroscienze cognitive, che privilegia situazioni naturalistiche per catturare la complessità dell'elaborazione cerebrale in condizioni ecologicamente valide. I volontari sono stati sottoposti a risonanza magnetica funzionale durante la visione, permettendo ai ricercatori di mappare in tempo reale quali regioni cerebrali si attivavano in risposta alle diverse scene.
L'aspetto più sorprendente emerso dall'analisi riguarda la presenza di mappe somatotopiche nella corteccia visiva. In neuroscienze, le mappe somatotopiche rappresentano la rappresentazione ordinata del corpo all'interno del tessuto cerebrale: nella corteccia somatosensoriale, ad esempio, esiste una disposizione sequenziale che processa le sensazioni tattili dai piedi fino alla testa, seguendo un'organizzazione spaziale precisa nota come "homunculus sensoriale". Fino ad ora, si riteneva che questo tipo di organizzazione fosse esclusivo delle aree dedicate al tatto. La scoperta di ben otto mappe corporee distinte all'interno della corteccia visiva indica invece che il cervello traduce automaticamente l'informazione visiva relativa al corpo altrui secondo la stessa logica organizzativa utilizzata per le sensazioni tattili dirette.
Ma quale funzione svolgono queste molteplici rappresentazioni corporee? Secondo i ricercatori, ciascuna mappa supporta processi cognitivi differenti. Alcune sembrano specializzate nel riconoscimento di specifiche parti del corpo, mentre altre elaborano informazioni sulla loro localizzazione spaziale. La ridondanza apparente del sistema nasconde in realtà una sofisticazione funzionale: avere rappresentazioni multiple consente al cervello di estrarre simultaneamente diversi tipi di informazione dalla stessa scena visiva. Quando osserviamo una persona afferrare una tazza di caffè, possiamo focalizzarci sul movimento della mano oppure sulla postura complessiva per intuire lo stato emotivo dell'individuo. Le diverse mappe corporee si attivano selettivamente in base all'obiettivo cognitivo del momento, permettendo traduzioni visuo-corporee flessibili e contestualmente appropriate.
Le implicazioni di questa scoperta si estendono ben oltre la neuroscienza di base. Nel campo della psicologia clinica, comprendere come il cervello traduce le informazioni visive in rappresentazioni corporee potrebbe illuminare alcuni aspetti dei disturbi dello spettro autistico, condizioni in cui l'elaborazione delle informazioni sociali e corporee risulta spesso alterata. Come sottolinea Knapen, avere accesso a queste conoscenze potrebbe facilitare l'identificazione di trattamenti più mirati ed efficaci. La ricerca potrebbe inoltre influenzare lo sviluppo di tecnologie assistive: gli attuali protocolli di addestramento per impianti cerebrali si basano tipicamente su istruzioni come "prova a pensare a un movimento", ma se i processi corporei possono essere attivati attraverso modalità più ampie – inclusa la visione – le possibilità di calibrare e sviluppare interfacce cervello-computer si moltiplicherebbero considerevolmente.
Particolarmente promettente appare l'applicazione all'intelligenza artificiale. I sistemi di AI contemporanei si basano prevalentemente su dati testuali e video, mancando della dimensione corporea che caratterizza l'esperienza umana. "I nostri corpi sono profondamente intrecciati con le nostre esperienze e la nostra comprensione del mondo", osserva Knapen, aggiungendo che questa dimensione dell'esperienza umana rappresenta un terreno fertile per lo sviluppo di AI più sofisticate. La ricerca dimostra il potenziale di grandi dataset di imaging cerebrale ad alta precisione per alimentare questa evoluzione, creando una sinergia virtuosa tra neuroscienze e intelligenza artificiale che potrebbe portare a sistemi capaci di comprendere e simulare l'esperienza incarnata tipicamente umana.