Ricercatori ginevrini sono riusciti a identificare alcuni segnali prodotti in questa circostanza, aprendo nuovi orizzonti per interfacce uomo-macchina
Ricercatori ginevrini sono riusciti a identificare alcuni segnali prodotti dal cervello quando parliamo con noi stessi. Questi risultati, pubblicati sulla rivista Nature Communications, aprono nuove prospettive per lo sviluppo di interfacce per le persone che soffrono per esempio di afasia, ossia per le persone che hanno perso la capacità di comporre o comprendere il linguaggio.
Affinché un individuo possa esprimersi, devono attivarsi diverse zone del suo cervello. Tuttavia, queste regioni possono essere seriamente danneggiate in seguito di una lesione al sistema nervoso, ha comunicato oggi l’Università di Ginevra (Unige). Per esempio, la sclerosi laterale amiotrofica (o malattia di Charcot) può paralizzare completamente i muscoli usati per parlare. In altri casi, dopo un ictus, sono le aree del cervello responsabili del linguaggio a essere colpite: si parla allora di afasia. Spesso, la capacità dei pazienti di pensare parole e frasi rimane parzialmente funzionale. Riuscire a decodificare il nostro discorso interiore è quindi di grande interesse. Ma il compito è tutt’altro che facile, come spiega Timothée Proix, collaboratore scientifico del dipartimento di Neuroscienze di base dell’Unige: “Sono state condotte diverse ricerche sulla decodifica del linguaggio parlato, ma molto meno sulla decodifica del discorso immaginato”. E “in quest’ultimo caso, i segnali neuronali associati sono deboli e variabili rispetto alla parola esplicita. Sono quindi difficili da decodificare da algoritmi di apprendimento”, aggiunge lo specialista, citato nel comunicato.
Quando una persona si esprime ad alta voce, produce dei suoni che vengono emessi in certi momenti precisi. I ricercatori possono mettere in relazione questi elementi tangibili con le regioni del cervello sollecitate. Nel caso del discorso immaginato, gli scienziati non hanno informazioni sulla sequenza e il tempo delle parole o delle frasi formulate all’interno dall’individuo. Anche le zone del cervello che vengono reclutate sono meno numerose e meno attive. Per riuscire a percepire i segnali neuronali di questo discorso molto particolare, il team dell’UNIGE si è basato su un gruppo di tredici pazienti ospedalizzati, in collaborazione con due ospedali americani. Ha raccolto dati grazie ad elettrodi impiantati direttamente nel loro cervello, un dispositivo originariamente utilizzato per valutare il loro disturbo epilettico. “Abbiamo chiesto a queste persone di pronunciare delle parole e poi d’immaginarle. Ogni volta, abbiamo esaminato diverse bande di frequenza dell’attività cerebrale note per essere coinvolte nel linguaggio”, spiega Anne-Lise Giraud, professoressa del dipartimento di neuroscienze di base all’Unige, e neo direttrice dell’Institut de l’Audition a Parigi.
Concretamente, i ricercatori hanno osservato diversi tipi di frequenze prodotte da diverse aree cerebrali. Le onde theta (4-8Hz) corrispondono al ritmo medio dell’elocuzione delle sillabe. Le frequenze gamma (25-35Hz) si osservano nelle aree del cervello dove si formano i fonemi (in particolare vocali o consonanti). Le onde beta (12-18Hz) sono legate alle regioni cognitivamente più efficienti, per esempio nell’anticipare e prevedere l’evoluzione di una conversazione. Infine, le alte frequenze a banda larga (80-150Hz) sono quelle che si osservano quando una persona si esprime oralmente", spiega Pierre Mégevand, professore assistente all’UNIGE e medico aggiunto associato agli Ospedali universitari di Ginevra (Hug). Gli scienziati hanno potuto così mostrare che le basse frequenze e l’accoppiamento tra alcune frequenze (beta e gamma in particolare) contengono informazioni che sono essenziali per la decodifica del discorso immaginato.
La loro ricerca rivela anche che la corteccia temporale è un’area importante per decriptare il discorso interno. Situata nella parte laterale sinistra del cervello, interviene nell’elaborazione delle informazioni relative all’audizione e alla memoria, ma soprattutto ospita una parte dell’area di Wernicke, responsabile della percezione delle parole e dei simboli linguistici.
Questi risultati costituiscono un importante progresso nella ricostruzione della parola a partire dall’attività neuronale, anche se si è ancora lontani dal poter decodificare il linguaggio immaginato, conclude il team di ricerca.