La nuova interfaccia cervello-computer (BCI) sviluppata presso UC Davis Health traduce i segnali cerebrali in linguaggio vocale con un’accuratezza fino al 97%, è il sistema più preciso nel suo genere. I ricercatori hanno impiantato dei sensori nel cervello di un uomo con gravi problemi di linguaggio, dovuti alla sclerosi laterale amiotrofica (SLA). L’uomo è stato in grado di comunicare il discorso che intendeva fare entro pochi minuti dall’attivazione del sistema. Lo studio è stato pubblicato nella rivista New England Journal of Medicine.
La SLA, nota anche come morbo di Lou Gehrig, colpisce le cellule nervose che controllano il movimento in tutto il corpo. La malattia porta alla graduale perdita della capacità di stare in piedi, camminare e usare le mani, può anche far perdere il controllo dei muscoli utilizzati per parlare, con conseguente perdita della comprensibilità del linguaggio.
La nuova tecnologia è stata sviluppata per ripristinare la comunicazione per le persone che non possono parlare, a causa della paralisi o di condizioni neurologiche come la SLA, è in grado di interpretare i segnali cerebrali quando l’utente cerca di parlare, li trasforma in testo, che viene “pronunciato” ad alta voce dal computer.
David Brandman è il co-principale ricercatore e co-autore di questo studio. È professore assistente presso il Dipartimento di chirurgia neurologica della UC Davis e co-direttore del Laboratorio di neuroprotesi della UC Davis, ha affermato:
«La nostra tecnologia interfaccia cervello-computer (BCI) ha aiutato un uomo paralizzato a comunicare con amici, familiari e assistenti, nel nostro studio abbiamo illustrato il dispositivo neuroprotesi vocale più accurato mai realizzato».
Il team di ricercatori per sviluppare il sistema, nello studio clinico BrainGate ha coinvolto Casey Harrell, un uomo di 45 anni affetto da SLA, aveva debolezza alle braccia e alle gambe (tetraparesi). Il suo linguaggio era molto difficile da capire (disartria) e richiedeva l’aiuto di altri per interpretarlo. David Brandman nel luglio 2023, nel cervello di Casey Harrell ha impiantato il dispositivo sperimentale della tecnologia interfaccia cervello-computer (BCI). Ha inserito quattro array di microelettrodi nel giro precentrale sinistro, una parte del cervello situata nella regione cerebrale responsabile del coordinamento del linguaggio. Gli array sono progettati per registrare l’attività cerebrale da 256 elettrodi corticali.
Sergey Stavisky professore assistente presso il Dipartimento di Chirurgia Neurologica. È il co-direttore del laboratorio di neuroprotesi della UC Davis e co-principale ricercatore dello studio, ha affermato:
«Stiamo registrando la parte del cervello che cerca di inviare i comandi ai muscoli, praticamente ascoltiamo e traduciamo questi schemi di attività cerebrale in un fonema, come una sillaba o un’unità del linguaggio, e poi nelle parole che stanno cercando di dire».
Formazione più rapida, risultati migliori
È stato evidenziato che nonostante i recenti progressi della tecnologia interfaccia cervello-computer (BCI), gli sviluppi per consentire la comunicazione sono stati lenti e soggetti a errori, questo perché i programmi di apprendimento automatico, che interpretano i segnali cerebrali, richiedono una grande quantità di tempo e di dati per essere eseguiti.
David Brandman ha affermato:
«I precedenti sistemi vocali della tecnologia interfaccia cervello-computer (BCI), presentavano frequenti errori di parola. Ciò rendeva difficile per l’utente essere compreso in modo coerente e costituiva un ostacolo alla comunicazione. Il nostro obiettivo era quello di sviluppare un sistema che permettesse all’utente di essere compreso ogni volta che voleva parlare».
UC Davis Health ha utilizzato il sistema sia in situazioni di conversazione spontanea sia in situazioni di richiesta, in entrambi i casi, la decodifica del parlato avveniva in tempo reale, con continui aggiornamenti del sistema per mantenerne l’accuratezza.
Le parole decodificate sono state visualizzate su uno schermo. Sorprendentemente, venivano lette ad alta voce con un tono che assomigliava a quello di Casey Harrell prima di ammalarsi di SLA. La voce è stata composta utilizzando un software addestrato con campioni audio esistenti della sua voce precedente alla SLA.
Il sistema durante la prima sessione di addestramento dei dati vocali, ha impiegato 30 minuti per raggiungere il 99,6% di accuratezza delle parole con un vocabolario di 50 parole.
Sergey Stavisky ha affermato:
«La prima volta che abbiamo provato il sistema, Casey Harrell ha pianto di gioia quando le parole che stava cercando di dire correttamente sono apparse sullo schermo».
Le dimensioni del potenziale vocabolario, nella seconda sessione, sono aumentate a 125.000 parole, la tecnologia interfaccia cervello-computer (BCI) con solo 1,4 ore aggiuntive di dati di addestramento, con questo vocabolario notevolmente ampliato, ha raggiunto un’accuratezza delle parole del 90,2%. La tecnologia interfaccia cervello-computer (BCI) dopo una continua raccolta di dati, ha mantenuto un’accuratezza del 97,5%.
David Brandman ha affermato:
«A questo punto, circa il 97% delle volte, siamo in grado di decodificare correttamente ciò che Casey Harrell sta cercando di dire, il che è meglio di molte applicazioni per smartphone disponibili in commercio che cercano di interpretare la voce di una persona. La nostra tecnologia è trasformativa perché dà speranza alle persone che vogliono parlare ma non possono farlo. Spero che una tecnologia interfaccia cervello-computer (BCI) vocale come questa, possa aiutare i futuri pazienti a parlare con i loro familiari e amici».
Lo studio riporta 84 sessioni di raccolta dati nell’arco di 32 settimane. Casey Harrell per comunicare di persona e tramite video chat, in conversazioni autogestite per oltre 248 ore ha utilizzato la tecnologia interfaccia cervello-computer (BCI) vocale.
Casey Harrell ha affermato:
«Non essere in grado di comunicare è così frustrante e demoralizzante. È come se si fosse intrappolati, questa tecnologia aiuterà le persone a rientrare nella vita e nella società».
Nicholas Card studioso post-dottorato presso il Dipartimento di chirurgia neurologica della UC Davis, ha svolto un ruolo cruciale nella sperimentazione BrainGate, lavorando come studioso post-dottorato presso il laboratorio di Neuroprostetica dell’Università della California, Davis. Ha contribuito allo sviluppo di un’interfaccia cervello-computer (BCI) per ripristinare la capacità di parlare in persone che non possono farlo a causa di paralisi o condizioni neurologiche come la SLA, ha affermato:
«È stato immensamente gratificante vedere Casey Harrell riacquistare la capacità di parlare con la famiglia e gli amici grazie a questa tecnologia».
Leigh Hochberg, neurologo e neuroscienziato presso il Massachusetts General Hospital, la Brown University e il VA Providence Healthcare System, è il principale investigatore clinico del sistema BrainGate, ha guidato numerosi studi clinici su questa tecnologia. La collaborazione con Nicholas Card ha portato a significativi progressi nella comunicazione per persone con gravi disabilità motorie. Ha affermato:
«Casey Harrell e gli altri partecipanti alla sperimentazione BrainGate, sono davvero straordinari. Meritano un enorme grazie per aver aderito a questi primi studi clinici. Lo fanno non perché sperano di ottenere qualche beneficio personale, ma per aiutarci a sviluppare un sistema che ripristinerà la comunicazione e la mobilità per altre persone con paralisi».