expand_lessAPRI WIDGET

Guidare un braccio robotico con il cervello: la Brain-Computer Interface

La brain-computer interface permette una comunicazione diretta e unidirezionale dal cervello ad un dispositivo esterno, non dipendente da nervi o muscoli

Di Lorenzo Mattioni

Pubblicato il 27 Ago. 2019

L’interfaccia neurale, nota anche con il termine inglese brain-computer interface o BCI, è una macchina che permette una comunicazione diretta e unidirezionale dal cervello ad un dispositivo esterno, non dipendente da nervi periferici o muscoli.

 

Il calcio d’inizio del Campionato Mondiale di Calcio tenutosi in Brasile nel 2014 fu battuto da Juliano Pinto, una persona affetta da paraplegia.

Per questa azione si è servito di un esoscheletro controllato dall’attività elettrica del suo cervello. Juliano aveva collaborato con l’associazione di ricerca no-profit Walk Again Project e insieme ad altri 7 pazienti, si era sottoposto ad un programma di allenamento per imparare ad utilizzare la struttura prostetica. Durante questo periodo i partecipanti avevano esperito vivide sensazioni propriocettive provenienti dalle gambe, che non potevano muovere dal giorno dell’incidente (Cicurel & Nicolelis, 2015).

La Brain Computer Interface per le comunicazioni cervello-dispositivi esterni

L’ interfaccia neurale, nota anche con il termine inglese brain-computer interface o BCI, è una macchina che permette una comunicazione diretta e unidirezionale dal cervello ad un dispositivo esterno, non dipendente da nervi periferici o muscoli. L’elemento centrale è un algoritmo in grado di tradurre automaticamente l’input elettrofisiologico, ad esempio quello proveniente dai sensori dell’elettroencefalografia, in un segnale capace di controllare le apparecchiature a cui è collegato. La BCI è considerata un importante strumento per investigare i principi fisiologici sottostanti le modalità con cui grandi popolazioni di neuroni interagiscono per generare le azioni.

Queste tecniche sono usate oggi per sopperire alla perdita delle funzioni corporee in diversi domini, come deambulazione, manipolazione degli oggetti, comunicazione linguistica ecc… ma, sebbene una tecnologia mirata a restaurare il controllo dei movimenti della mano e del braccio sia una priorità per molti pazienti, le interfacce neurali di questo tipo basate sul segnale EEG sono fra le meno efficaci. Ciò può essere imputato all’alta coordinazione richiesta per produrre azioni manuali complesse, nelle quali è indispensabile un posizionamento molto preciso del braccio robotico.

Interfaccia neurale e puntatore robotico per un nuvo protocollo

Il gruppo di ricerca guidato da Bradley Edelman (2019) ha sviluppato un promettente protocollo che, a differenza dei più usati paradigmi basati su trial discreti (più facili da valutare ed analizzare) nei quali lo scopo è spostare un cursore sull’area bersaglio, utilizza compiti analogici continui e senza limiti di tempo, una modalità più simile a quella della vita di tutti i giorni. Nel programma di allenamento proposto i soggetti dovevano seguire un oggetto in costante movimento sullo schermo usando l’interfaccia neurale collegata ad un puntatore robotico in grado di muoversi su due dimensioni. La traiettoria dell’apparecchio poteva essere guidata a destra e sinistra immaginando di muovere rispettivamente la mano destra o la sinistra, lo spostamento sull’asse verticale era invece controllato dall’immaginazione motoria di entrambe le mani e dalle pause. I ricercatori hanno utilizzato un filtro spaziale chiamato electrophysiological source imaging, il quale utilizza le proprietà elettriche e la geometria della testa e delle connessioni neurali per modulare gli effetti dei campi elettrici e magnetici generati dalle correnti cerebrali, in modo da stimare in modo più accurato l’attività corticale rilevata dai sensori dell’EEG in tempo reale.

Verso nuovi dispositivi neuroprotesici

I risultati mostrano come questo protocollo nel gruppo sperimentale, rispetto al gruppo di controllo allenatosi sul classico paradigma basato su trial discreti, abbia comportato una più veloce acquisizione di controllo neurale flessibile sul cursore, sia in compiti familiari che non. Le strategie scelte dai soggetti nei due gruppi differivano significativamente. I controlli hanno riportato di focalizzarsi più sul compito di imagery che sulla posizione del cursore, cosa impossibile per i task continui, dove era necessaria una costante attenzione visiva per gli aggiustamenti del braccio robotico. La differenza nei risultati può essere spiegata, secondo gli autori, dalla storica legge di Yerkes-Dodson, ovvero la relazione fra l’arousal fisiologico o mentale e le prestazioni che può essere illustrata come una U rovesciata, secondo questa teoria è necessario un livello ottimale di attivazione per una performance ottimale, e ciò cambia in base al compito (Yerkes & Dodson, 1908).

Siamo agli inizi di una scienza in grado di integrare le funzioni di cervello e macchina, le potenzialità in ambiti di ricerca quali ad esempio clinica, realtà virtuale o intelligenza artificiale sono ampissime. Lo sviluppo di protocolli non invasivi di questo tipo può fornire dispositivi neuroprotesici di ultima generazione ad un ampio bacino di utenti. Edelman e colleghi hanno progettato il primo braccio robotico controllabile con la mente capace di eseguire compiti di tracciamento continui, una tecnologia che un giorno potrebbe essere alla portata di tutti, al pari degli smartphone.

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
  • Cicurel, R., & Nicolelis, M. A. (2015). The Relativistic Brain. Natal, Montreux, Durham, São Paulo: Kios Press.
  • Edelman, B. J., Meng, J., Suma, D., Zurn, C., Nagarajan, E., Baxter, B. S., . . . He, B. (2019). Noninvasive neuroimaging enhances continuous neural tracking for robotic device control. Science Robotics, 4(31), eaaw6844.
  • Yerkes, R. M., & Dodson, J. D. (1908). The relation of strength of stimulus to rapidity of habit‐formation. Journal of comparative neurology and psychology, 18(5), 459-482.
CONSIGLIATO DALLA REDAZIONE
Robotica e percezione: un modello predittivo di percezione multisensoriale
Sentire osservando, osservare sentendo nella robotica

Nell'ambito della robotica, il modello predittivo di percezione multisensoriale, sviluppato al MIT, integra tra loro informazioni visive e tattili

ARTICOLI CORRELATI
Dove si trova il Sé nel cervello? Per le neuroscienze potrebbe essere un’illusione

Nel corso dell’ultimo secolo, numerosi studi hanno cercato di comprendere i processi psicologici e neuropsicologici alla base del sé

Lo sviluppo delle potenzialità del cervello tra mielinizzazione e potatura sinaptica

La mielinizzazione e la potatura sinaptica sono due dei processi più importanti nello sviluppo cerebrale durante l’infanzia e l'adolescenza

cancel