La tecnologia dell’intelligenza artificiale restituisce la “voce” alla donna con problemi post-ictus…
Una partecipante allo studio del Dr. Edward Chang sulle neuroprotesi vocali tenta di pronunciare silenziosamente una frase mentre il sistema di protesi vocale traduce i suoi segnali cerebrali in parole sintetizzate e movimenti facciali di un avatar lunedì 22 maggio 2023, a El Cerrito, California. Foto di Noah Berger
  • La sindrome bloccata è un disturbo neurologico in cui una persona non può parlare o mostrare espressioni facciali.
  • La maggior parte delle persone con questa condizione deve fare affidamento solo sul battito delle palpebre e sul movimento per comunicare con gli altri.
  • I ricercatori dell’Università della California a San Francisco hanno sviluppato un nuovo modo per le persone con la sindrome del lock-in di comunicare e mostrare le espressioni facciali attraverso l’uso di un impianto cerebrale e di un avatar digitale.

La sindrome bloccata è a disordine neurologico causando la paralisi di una persona muscoli volontari sul viso, sulle braccia e sulle gambe.

Sebbene una persona con la sindrome del lock-in possa comprendere appieno ciò che qualcuno gli sta dicendo o leggendo, non è in grado di parlare o mostrare emozioni attraverso il viso, come felicità, rabbia o tristezza.

Molte volte, una persona con la sindrome del lock-in dipende da piccoli movimenti, come sbattere le palpebre, per comunicare con gli altri.

Ora, i ricercatori dell’Università della California a San Francisco hanno sviluppato un nuovo modo per le persone affette dalla sindrome del lock-in di comunicare e mostrare le espressioni facciali attraverso l’uso di un impianto cerebrale e avatar digitale.

Questo studio è stato recentemente pubblicato sulla rivista Natura.

Cos’è la sindrome del lock-in?

La sindrome locked-in è relativamente rara: meno di 1.000 persone negli Stati Uniti soffrono di questa condizione.

La condizione è solitamente causata da un danno a una parte del tronco encefalico chiamato il pontecon conseguente blocco della funzione nervosa che causa paralisi.

Il danno al tronco cerebrale si verifica tipicamente durante un ictus, ma può anche verificarsi a causa di infiammazioni dei nervi, tumori, infezioni o altre condizioni come la sclerosi laterale amiotrofica (SLA).

Quando una persona ha la sindrome bloccata, perde la capacità di muovere i muscoli volontari a piacimento. Tuttavia, non perdono alcuna capacità cognitiva, quindi sono in grado di pensare normalmente e di capire quando una persona parla o legge loro. E il loro udito non ne risente.

Tuttavia, la sindrome bloccata può influire sulla capacità di una persona di respirare e mangiare influenzando la masticazione e la deglutizione.

Non esistono cure o trattamenti specifici attualmente disponibili per la sindrome bloccata. Un medico tratterà la causa alla base della condizione e potrà prescrivere terapie fisiche e logopediche.

Comunicare con la sindrome del lock-in

Il modo più comune di comunicare per le persone con la sindrome del lock-in è attraverso i movimenti degli occhi e il battito delle palpebre.

Al giorno d’oggi, ci sono programmi per computer e altre tecnologie assistive che possono aiutarli a comunicare con gli altri, come ad esempio interfacce cervello-computer, dispositivi mouse-testae infrarossi sensori del movimento oculare.

E grazie alle innovazioni nell’ingegneria informatica e alle nuove tecnologie come l’intelligenza artificiale (AI), i ricercatori hanno presentato nuove opzioni di comunicazione per le persone affette da sindrome linked-in.

Ad esempio, uno studio pubblicato su Marzo 2022 ha dimostrato che un uomo con la sindrome del lock-in era in grado di comunicare con la sua famiglia attraverso l’uso di un impianto cerebrale e di un’interfaccia di ortografia.

Facilitare il “discorso” attraverso l’intelligenza artificiale

Per lo studio attuale, i ricercatori hanno sviluppato una nuova tecnologia cervello-computer utilizzando un impianto cerebrale e un avatar digitale. L’avatar digitale consente a una persona con paralisi facciale di trasmettere le normali espressioni facciali ed emozioni.

La nuova tecnologia è stata testata su una donna di 47 anni di nome Ann, che ha la sindrome del lock-in a seguito di un ictus al tronco encefalico.

Notizie mediche oggi ha parlato con il dottor David Moses, assistente professore di chirurgia neurologica, parte del Chang Lab dell’Università della California a San Francisco e uno dei co-autori principali dello studio.

Secondo lui, quando parliamo, modelli complessi di attività neurale nel nostro corteccia motoria del linguaggio – la parte del cervello che coordina il nostro tratto vocale – si propagano attraverso un percorso neurale attraverso il tronco cerebrale e infine ai nostri articolatori, come labbra, lingua, laringe e mascella.

“Per Ann e altri che hanno subito un ictus al tronco cerebrale, questo percorso è danneggiato e i segnali provenienti dalla corteccia motoria del linguaggio non possono raggiungere i muscoli articolatori”, ha spiegato.

Con questo impianto cerebrale, ha detto il dottor Moses, gli specialisti sono in grado di registrare l’attività neurale della corteccia mentre Ann cerca di parlare, e li traducono direttamente nelle parole da lei previste, aggirando completamente la sua paralisi.

Ha inoltre spiegato come funziona:

“Lo facciamo creando prima modelli di intelligenza artificiale addestrati su dati neurali mentre cerca di dire in silenzio molte frasi – in realtà non vocalizza mentre cerca di dirle; sta facendo del suo meglio per “mettere in bocca” le parole nelle frasi. Consentendo ai modelli di intelligenza artificiale di apprendere la mappatura tra l’attività cerebrale e il discorso previsto, possiamo successivamente utilizzare questi modelli in tempo reale per decodificare l’attività cerebrale della donna in discorso. I modelli utilizzano internamente rappresentazioni intermedie flessibili del discorso, che consentono al decodificatore di produrre frasi che non ha provato a dire durante l’addestramento”.

Dare ad Ann una ‘voce’

Ann ha ricevuto un impianto cerebrale con 253 elettrodi posizionati su specifiche aree superficiali del cervello critiche per la parola. Un cavo collega l’impianto cerebrale ai computer.

Per settimane, Ann ha lavorato con i ricercatori per addestrare gli algoritmi di intelligenza artificiale a riconoscere e rispondere ai suoi segnali cerebrali unici per la parola.

I ricercatori hanno anche creato un avatar digitale di Ann attraverso un software che simula e anima i movimenti dei muscoli facciali.

Utilizzando l’apprendimento automatico, sono stati in grado di collegare il software con i segnali provenienti dal cervello di Ann e convertirli in movimenti sul viso del suo avatar, mostrando sia il linguaggio che le espressioni facciali.

Inoltre, gli scienziati sono stati in grado di utilizzare le riprese di un video pre-infortunio per ricreare la voce reale di Ann. In questo modo, quando parla attraverso l’avatar digitale, è la sua voce e non una voce computerizzata predefinita.

Prossimi passi nella ricerca

Alla domanda su quali sarebbero i prossimi passi di questa nuova tecnologia, il dottor Moses ha affermato che ci sono molte strade per il miglioramento.

“Per quanto riguarda l’hardware, è necessaria una versione wireless per migliorare la fattibilità come soluzione clinica”, ha osservato.

“In termini di software, vogliamo integrare i nostri approcci con i suoi dispositivi esistenti, in modo che possa utilizzare il sistema per scrivere e-mail e navigare sul web. Vogliamo anche sfruttare alcuni progressi nella modellazione dell’intelligenza artificiale generativa per migliorare i nostri risultati di decodifica”, ha aggiunto il dottor Moses.

Risolvere un problema difficile

MNT ha parlato di questo studio anche con il dottor Amit Kochhar, un esperto in otorinolaringoiatria, chirurgia della testa e del collo e chirurgia plastica e ricostruttiva facciale e direttore del Facial Nerve Disorders Program presso il Pacific Neuroscience Institute di Santa Monica, California, che non è stato coinvolto nella ricerca.

Come medico che cura pazienti affetti da paralisi facciale, ha affermato che una delle cose più difficili per i pazienti è l’incapacità di esprimere le proprie emozioni agli altri.

“La ricerca ha dimostrato che se un osservatore laico guarda qualcuno la cui metà del viso è paralizzata, quando guarda quella persona non può discriminare se la persona sta trasmettendo un’emozione felice o un’emozione di rabbia”, ha spiegato il dottor Kochhar. “E quindi c’è molta confusione da parte dell’osservatore e poi ovviamente frustrazione da parte del paziente.”

“E quindi, se avessero accesso a qualcosa del genere, […] potrebbero quindi essere ancora in grado di comunicare con gli altri, come i loro familiari, i loro amici, utilizzando questo tipo di tecnologia avatar in modo da poter trasmettere correttamente le emozioni di felicità, sorpresa o rabbia senza avere quella confusione”, ha aggiunto.

Il dottor Kochhar ha detto che gli piacerebbe vedere questa tecnologia utilizzata da più persone per assicurarsi che sia riproducibile e garantire che la tecnologia sia economicamente fattibile.

“Se il costo di questo dispositivo fosse disponibile solo per una piccola percentuale della popolazione che può permetterselo, sarebbe un grande passo avanti ma non sarà qualcosa che aiuterà molte altre persone”, ha aggiunto.

Il dottor Kochhar ha anche detto che gli piacerebbe vedere questa tecnologia resa portatile: “La paziente doveva venire al centro perché funzionasse – non poteva, in quel momento, portarla con sé in modo da poter essere a casa. E quindi questi sono i prossimi passi dell’evoluzione di questo tipo di software.”