Ann aveva solo 30 anni quando è rimasta paralizzata da un ictus durante una partita di pallavolo con gli amici.
Dopo 18 anni, la donna è tornata a parlare con i suoi cari attraverso un avatar digitale comandato con il pensiero, che riproduce anche la sua voce e l’espressione del viso.
Restituire la voce alle persone che la hanno persa a causa di patologie come l’ictus o la SLA: è l’obiettivo del Chang Lab della UC San Francisco, dove i ricercatori hanno sviluppato una nuova interfaccia cervello-computer (Bci, Brain-computer interface) che traduce il linguaggio e le espressioni facciali a partire dai segnali cerebrali grazie all’intelligenza artificiale.
Dopo tanti anni, una donna di 47 anni con una grave paralisi del tronco encefalico è riuscita a intrattenere una conversazione con tempi e modalità quasi “normali”, perché rispetto alle interfacce disponibili in commercio questa è più veloce e in grado di decodificare fino a 80 parole al minuto, un numero tale da consentire una comunicazione più rapida e naturale.
La tecnologia che ha permesso questo risultato è stata descritta in uno studio pubblicato su Nature.
Ann è una delle poche persone al mondo affette da sindrome locked-in, una condizione neurologica molto rara caratterizzata da paralisi completa di tutti e quattro gli arti e della porzione inferiore della faccia. I pazienti sono coscienti e svegli, ma intrappolati nel loro corpo: non possono muoversi, parlare o comunicare, eccetto attraverso movimenti degli occhi o delle palpebre.
Grazie a queste capacità di movimento residue, i pazienti hanno anche la possibilità di comunicare con l’esterno con l’ausilio di tecnologie “eye tracker” che permettono di selezionare lettere o numeri su uno schermo con il solo movimento dei bulbi oculari. È così che Ann ha comunicato fino ad ora: ma questo sistema è piuttosto lento e pur aiutando il paziente a manifestare i suoi bisogni primari, non gli permette di intrattenere una conversazione in maniera naturale.
Le Bci di nuova generazione hanno reso più concreta questa possibilità. Esse “leggono nel pensiero” del paziente, cioè trasformano le sue onde cerebrali in parole scritte o in un linguaggio parlato.
Anche se il corpo non funziona più, il cervello mostra segni di attività neuronale quando il paziente immagina di scrivere, parlare o muovere un arto. Le Bci formano un collegamento diretto tra il cervello e un dispositivo esterno di assistenza al movimento e alla comunicazione, che non dipende da nervi o muscoli.
Per fare ciò, i ricercatori della UC San Francisco hanno impiantato nel cervello della paziente, precisamente nell’area che controlla la comunicazione, una pellicola rettangolare e sottilissima con 253 elettrodi. Il computer intercetta l’attività elettrica che in un corpo sano controllerebbe il movimento dei muscoli del viso, della lingua, della bocca e della laringe e la traduce nel linguaggio parlato.
Dopo settimane di addestramento, il sistema ha imparato a riconoscere i modelli di attività cerebrale specifici della paziente associati ai vari suoni, memorizzando non le parole intere, ma i singoli fonemi, cioè le sub-unità che formano le parole pronunciate.
Noi adottiamo una strategia molto simile quando dobbiamo imparare a scrivere: memorizziamo le 21 lettere che compongono l’alfabeto e con queste siamo in grado di comporre ogni parola esistente. In maniera analoga, il computer ha dovuto imparare solo 39 fonemi per decifrare qualsiasi parola in inglese.
Questa interfaccia è la prima al mondo a riprodurre non solo il linguaggio, ma anche le espressioni facciali e il timbro di voce della paziente. Per le espressioni facciali, i ricercatori hanno animato un avatar con un software che traduce i segnali cerebrali in movimenti facciali. Lo straordinario risultato è che l’avatar muove la bocca al ritmo delle parole e riproduce espressioni di felicità, tristezza o sorpresa. Un algoritmo, inoltre, sintetizza le parole con lo stesso timbro di voce della paziente, ricostruito da video antecedenti all’ictus.
I ricercatori hanno testato l’interfaccia, chiedendo ad Ann e a un suo familiare di intrattenere una normale conversazione. Nel video dell’esperimento, disponibile su YouTube, Ann risponde quasi istantaneamente alle domande che gli vengono poste, cosa che non sarebbe possibile con il dispositivo che adopera normalmente.
La nuova tecnologia permette infatti alla donna di comunicare al ritmo di 78 parole al minuto, contro le sole 14 parole al minuto del dispositivo di eye tracking.
L’aspettativa di vita dei pazienti con sindrome locked-in può essere nettamente migliorata con cure mediche tempestive ed efficaci: l’83% è ancora vivo dopo 10 anni, il 40% dopo 20. Nonostante le gravi menomazioni fisiche, quindi, le persone possono vivere con questa patologia e mantenere una qualità di vita relativamente soddisfacente, ma solo quando riescono a stabilire un contatto efficace con il mondo esterno e con i loro affetti.
Ad oggi i pazienti con sindrome locked-in sono ancora per la maggior parte esclusi dai posti di lavoro e in generale da qualunque attività che presupponga un’interazione con le persone. L’obiettivo di Edward Chang e del suo gruppo di ricercatori è quello di restituire la voce a questi pazienti e dar loro la possibilità di realizzare pienamente il loro potenziale.