AGI - Un sistema di ascolto controllato direttamente dal cervello è riuscito per la prima volta a migliorare nell'uomo la capacità di distinguere una voce specifica in ambienti rumorosi e affollati. Il risultato arriva da uno studio guidato da Nima Mesgarani dello Zuckerman Institute della Columbia University insieme a Vishal Choudhari e pubblicato su Nature Neuroscience. La tecnologia sperimentale utilizza segnali cerebrali decodificati in tempo reale per capire a quale conversazione una persona stia prestando attenzione, amplificando automaticamente quella voce e attenuando le altre. Secondo i ricercatori, il sistema potrebbe in futuro aprire la strada a una nuova generazione di dispositivi acustici capaci non soltanto di aumentare il volume dei suoni, ma di imitare il funzionamento selettivo dell'udito umano.
"Abbiamo sviluppato un sistema che agisce come un'estensione neurale dell'utente, sfruttando la capacità naturale del cervello di filtrare i suoni in ambienti complessi per isolare dinamicamente la conversazione che desidera ascoltare", ha spiegato Nima Mesgarani, professore associato di ingegneria elettrica alla Columbia University. La ricerca affronta uno dei principali limiti degli apparecchi acustici tradizionali. Questi dispositivi riescono infatti a sopprimere alcuni rumori di fondo, come il traffico, ma non sono in grado di selezionare una singola voce tra molte presenti contemporaneamente. Tutte le voci captate dal microfono vengono amplificate indiscriminatamente, rendendo difficile concentrarsi su uno specifico interlocutore. Il nuovo sistema si ispira al cosiddetto "cocktail party effect", la capacità del cervello umano di identificare e seguire una sola conversazione anche in ambienti molto rumorosi.
I test sui pazienti epilettici
Per testare la tecnologia, il gruppo di ricerca ha collaborato con pazienti epilettici sottoposti a interventi chirurgici cerebrali per individuare l'origine delle crisi. I volontari avevano già elettrodi impiantati nel cervello a scopo clinico e hanno accettato di partecipare allo studio. Durante gli esperimenti, i partecipanti ascoltavano simultaneamente due conversazioni sovrapposte. Il sistema analizzava in tempo reale l'attività cerebrale registrata dagli elettrodi e identificava quale delle due voci stesse ricevendo l'attenzione del paziente. Una volta riconosciuta la conversazione selezionata mentalmente, il dispositivo ne aumentava automaticamente il volume riducendo quello dell'altra. Secondo gli autori, alcuni partecipanti hanno reagito con stupore ai risultati ottenuti. Una volontaria ha accusato scherzosamente i ricercatori di modificare manualmente il volume, ritenendo impossibile che il sistema funzionasse davvero tramite i segnali cerebrali. "Per la prima volta abbiamo dimostrato che un sistema in grado di leggere i segnali cerebrali e migliorare selettivamente le conversazioni può offrire un beneficio concreto in tempo reale", ha spiegato Vishal Choudhari, primo autore dello studio. "Questo sposta il controllo cerebrale dell'udito dalla teoria all'applicazione pratica".
Gli studi sui meccanismi neurali
La ricerca nasce da oltre dieci anni di studi sui meccanismi neurali dell'ascolto selettivo. Già nel 2012 il laboratorio di Mesgarani aveva individuato specifici schemi di onde cerebrali associati alle conversazioni ascoltate da una persona in mezzo a più voci sovrapposte. Nel tempo gli studiosi hanno sviluppato algoritmi di apprendimento automatico capaci di separare le singole voci presenti in un ambiente e confrontarle con i segnali cerebrali dell'ascoltatore per capire quale stesse seguendo. Nel nuovo lavoro i ricercatori sono riusciti a integrare queste tecnologie in un sistema operativo in tempo reale, sufficientemente rapido e stabile da risultare naturale per l'utente. "Per funzionare in tempo reale il sistema deve essere molto veloce, accurato e stabile affinché l'esperienza sia piacevole per l'ascoltatore", ha osservato Mesgarani. I test hanno mostrato che il sistema identificava correttamente la conversazione scelta dai partecipanti, migliorando significativamente la comprensione del parlato e riducendo lo sforzo di ascolto.
I futuri dispositivi acustici
Secondo l'Organizzazione Mondiale della Sanità, oltre 430 milioni di persone convivono nel mondo con una perdita uditiva invalidante. Molti pazienti riferiscono particolari difficoltà proprio nei contesti sociali rumorosi, come ristoranti, riunioni familiari o ambienti di lavoro affollati. Gli autori sottolineano che sarà necessario ancora molto lavoro prima di arrivare a dispositivi indossabili minimamente invasivi e utilizzabili nella vita quotidiana. Tuttavia, i risultati ottenuti rappresentano un primo passo concreto verso sistemi acustici controllati direttamente dall'attività cerebrale. "I risultati segnano un passo importante verso una nuova generazione di tecnologie uditive controllate dal cervello e allineate con l'intenzione dell'ascoltatore", ha concluso Choudhari.