Se avete difficoltà a seguire una conversazione in un ristorante affollato o in un ambiente rumoroso, non è detto che il problema risieda nelle vostre orecchie. Un nuovo studio condotto presso l'Università di Washington suggerisce che la capacità di comprendere il parlato in condizioni acusticamente complesse dipenda in larga misura da come il cervello elabora le informazioni sonore, piuttosto che dalla funzionalità dell'udito. La ricerca, pubblicata sulla rivista PLOS One, ha esaminato le prestazioni di ascolto di persone con autismo, sindrome feto-alcolica e individui neurotipici, scoprendo che tutte mostravano capacità uditive normali, eppure le loro performance variavano significativamente.
L'elemento chiave emerso dallo studio è la correlazione tra abilità cognitive e comprensione del parlato in ambienti rumorosi. Bonnie Lau, ricercatrice presso il dipartimento di otorinolaringoiatria dell'ateneo americano e responsabile del laboratorio che studia lo sviluppo cerebrale uditivo, ha spiegato che questa relazione si è manifestata trasversalmente in tutti e tre i gruppi esaminati, superando le distinzioni diagnostiche. Il dato suggerisce che l'intelligenza rappresenti uno dei fattori determinanti nell'efficacia dell'ascolto in contesti sonori complessi come aule scolastiche o incontri sociali.
Per verificare questa ipotesi, i ricercatori hanno arruolato partecipanti con caratteristiche neurodivergenti specifiche. Sia le persone con autismo che quelle con sindrome feto-alcolica sono note per sperimentare difficoltà nell'ascolto selettivo nonostante un udito perfettamente funzionante. Questo approccio ha permesso di analizzare un ventaglio più ampio di quozienti intellettivi, includendo punteggi superiori alla media, cosa che non sarebbe stata possibile limitandosi a individui neurotipici. Il campione totale comprendeva 12 persone con autismo, 10 con sindrome feto-alcolica e 27 individui neurotipici, con età comprese tra i 13 e i 47 anni.
Il protocollo sperimentale prevedeva innanzitutto uno screening audiologico per confermare la normalità dell'udito. Successivamente, i partecipanti affrontavano un test computerizzato particolarmente sfidante: dovevano concentrarsi sulla voce principale di un parlante maschile mentre altre due voci pronunciavano simultaneamente comandi diversi sullo sfondo. Ogni comando includeva un nominativo, un colore e un numero, del tipo "Pronto, Aquila, vai al verde cinque adesso". Il compito consisteva nel selezionare la casella colorata e numerata corrispondente all'istruzione del parlante principale, mentre le voci di disturbo aumentavano progressivamente di volume.
I risultati hanno rivelato una connessione inequivocabile tra capacità intellettive e prestazioni nell'ascolto. Dopo aver completato test standardizzati che misuravano abilità verbali, non verbali e ragionamento percettivo, tutti i partecipanti mostravano una correlazione significativa tra questi punteggi e la soglia di percezione del parlato nel test multivoce. Come sottolineato dalla stessa Lau, l'ascolto efficace in ambienti complessi richiede molteplici processi cerebrali: bisogna separare i diversi flussi di parlato, identificare e concentrarsi sulla persona di interesse, sopprimere le caratteristiche del rumore concorrente, e poi comprendere il messaggio dal punto di vista linguistico.
Tutto questo implica la decodifica di ogni fonema, il riconoscimento di sillabe e parole, oltre a competenze semantiche e sociali che aumentano il carico cognitivo della comunicazione in presenza di disturbi acustici. La ricerca smonta quindi un equivoco diffuso: non è necessario soffrire di perdita uditiva periferica per avere difficoltà a seguire una conversazione in un ambiente rumoroso. Chi è neurodivergente o presenta abilità cognitive inferiori potrebbe trarre beneficio da interventi mirati sull'ambiente di ascolto, come il posizionamento più vicino alla fonte sonora nelle aule scolastiche o l'utilizzo di strumenti di assistenza uditiva.
Nonostante il campione ridotto di meno di cinquanta partecipanti suggerisca la necessità di replicare lo studio su gruppi più ampi, i risultati aprono nuove prospettive sulla comprensione delle difficoltà comunicative. La ricerca è stata condotta presso il Virginia Merrill Bloedel Hearing Research Center dell'Università di Washington, con la collaborazione di esperti provenienti dal Centro Autismo, dall'Istituto per l'Apprendimento e le Scienze del Cervello e da diversi dipartimenti specializzati, oltre al contributo dell'Università del Michigan. Questa scoperta potrebbe modificare l'approccio diagnostico e terapeutico verso chi lamenta problemi di comprensione in ambienti rumorosi, spostando l'attenzione dalla funzionalità dell'orecchio alle strategie di elaborazione cerebrale del suono.