sabato 18 dicembre 2021

Ecco come la vista e l'udito interagiscono nel cervello

Il Tirreno del 18/12/2021

Lo studio di Berto, Ricciardi, Pietrini e Bottari, pubblicato sulla rivista iScience, è stato realizzato con la collaborazione dell'Unione dei ciechi e degli ipovedenti.

LUCCA. Per riconoscere e distinguere i suoni tipici dell'ambiente quotidiano, molto spesso la vista è il nostro migliore alleato. Basti pensare a quanto risulti più difficile comprendere un interlocutore che parla dietro una mascherina. Ma che cosa succede all'udito quando la vista è assente?

Un gruppo di ricercatori del Molecular Mind Laboratory della Scuola IMT Alti Studi Lucca - Martina Berto, Emiliano Ricciardi, Pietro Pietrini e Davide Bottari - ha utilizzato una metodologia innovativa per mettere in luce aspetti ancora sconosciuti dell'interazione tra udito e vista. I ricercatori hanno così scoperto che, per una parte della nostra vita, alcuni aspetti dell'elaborazione dei suoni non necessitano dell'aiuto della vista per riconoscere la realtà circostante.

Tuttavia, ad un certo punto dello sviluppo, vista e udito interagiscono a tal punto che, se la vista viene meno, il cervello è "costretto" a riorganizzarsi per compensarne la perdita.

Lo studio, dal titolo "Le interazioni tra l'elaborazione delle statistiche uditive e l'esperienza visiva emergono solo nel tardo sviluppo", è stato pubblicato nei giorni scorsi sulla rivista scientifica iScience ed è stato realizzato grazie alla collaborazione di volontari dell'Unione italiana dei ciechi e degli ipovedenti, del cui prezioso contributo la Scuola IMT si avvale da tempo.

In particolare, sono stati coinvolti tre gruppi di persone: vedenti, non vedenti dalla nascita e persone che hanno perso la vista nel corso della vita. Tutti i partecipanti sono stati sottoposti all'ascolto di suoni provenienti dall'esperienza comune (la pioggia, il crepitio del fuoco, le cicale, il traffico, il cinguettio degli uccelli), suoni che, in questo caso sono stati però creati artificialmente in laboratorio, grazie all'uso di un algoritmo. Una sorta di "cervello artificiale" che, tenendo conto del modo in cui il cervello umano processa le informazioni acustiche, ha portato all'elaborazione di suoni sintetici del tutto simili a quelli naturali. Una metodologia che ha permesso, quindi, di studiare alcuni processi basilari messi in atto dal nostro cervello durante l'ascolto, con un grado di controllo senza precedenti.

Ai volontari è stato chiesto di individuare le differenze fra i suoni proposti, date in un primo esperimento da variazioni in piccoli dettagli acustici, nel successivo dalla loro diversa provenienza, come nel caso di una cascata d'acqua e di applausi scroscianti. Vedenti e non vedenti dalla nascita hanno eseguito entrambi i test nello stesso modo, dimostrando che i processi uditivi coinvolti in questo tipo di compiti non hanno bisogno della visione per svilupparsi.

Sorprendentemente, invece, le persone che hanno perso la vista ad un certo punto della vita hanno mostrato di usare le informazioni acustiche in modo diverso dagli altri, attribuendo poca importanza ai dettagli e focalizzandosi piuttosto sull'identità generale dei suoni. I risultati ottenuti hanno quindi portato i ricercatori a concludere che, nonostante questi processi acustici di base si sviluppino indipendentemente dalla vista, essa può modificarli nel corso della crescita.

Ciò emerge qualora la vista venga a mancare, una forma di adattamento che consente alla persona divenuta cieca di identificare il più rapidamente possibile, mediante l'udito, gli oggetti e gli eventi circostanti in assenza degli indizi visivi che prima ne supportavano il riconoscimento. Lo studio ha permesso di svelare in maniera sistematica e controllata la profonda interazione tra vista e udito e come essa si affini nel corso dello sviluppo, oltre ad aprire importanti prospettive per future ricerche e fornire spunti per lo sviluppo di nuovi strumenti volti a favorire l'accessibilità e una sempre maggiore indipendenza delle persone non vedenti.

«Molti studi sono già stati condotti per valutare gli adattamenti del sistema uditivo in caso di cecità. Questa ricerca è la prima a combinare metodi computazionali che consentono di ingegnerizzare suoni sintetici che corrispondano ai suoni del mondo reale e quindi di controllare con precisione le proprietà statistiche dell'input sensoriale, con lo studio di individui con sviluppo sensoriale tipico e atipico», afferma Davide Bottari, autore dello studio e ricercatore in Neuroscienze cognitive presso la Scuola IMT. La metodologia utilizzata, spiegano i ricercatori, potrà essere impiegata in futuro anche per indagare il funzionamento degli altri sensi. «In linea con i dati acquisiti in due decenni di ricerca, questi risultati indicano che la visione non è obbligatoria per lo sviluppo di diversi aspetti dell'organizzazione funzionale del cervello, come rivelato da precedenti studi del nostro laboratorio che indicano una natura sovra-modale di parte dell'architettura cerebrale», conclude il professor Pietro Pietrini, ordinario di Biochimica clinica e Biologia molecolare e Direttore del Molecular Mind Laboratory presso la Scuola IMT.

Nessun commento:

Posta un commento