Ricerca e innovazione
- 2 minuti
Con il libro autobiografico “Lo scafandro e la farfalla” il giornalista francese Jean-Dominique Bauby portò all’attenzione pubblica la condizione di una persona affetta da sindrome locked-in. Quel volume composto lettera dopo lettera da più di 200'000 battiti della palpebra, ancorò nell’immaginario l’uso degli occhi come strumento di comunicazione per quei pazienti impossibilitati a interagire con l’esterno.
Dalla pubblicazione dell’autobiografia di Bauby nel 1997 si è assistito a un’accelerazione nello sviluppo tecnologico che ha coinvolto anche gli studi nel campo dell’interazione uomo-robot. In questo ambito s’inserisce il lavoro di tesi Brain-computer interface for robot control with eye artifacts for assistive applications, pubblicato su Scientific Reports che ha coinvolto anche un ricercatore della SUPSI. Oltre a Kaan Karas, Luca Pozzi, Alessandra Pedrocchi, Francesco Braghin (rispettivamente studente di Master, dottorando e professori al Politecnico di Milano) allo studio ha contribuito per la parte metodologica e concettuale Loris Roveda, ricercatore senior SUPSI all’Istituto dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI).
In questo lavoro è stata presentata una nuova interfaccia cervello-computer (brain-computer interface, BCI) che permette di controllare un robot assistivo attraverso i segnali dell’elettroencefalogramma (EEG). Rilevando gli impulsi generati dai movimenti degli occhi, la BCI consente a una persona con disabilità d’interagire con l’ambiente fisico circostante.
La dimostrazione pratica del funzionamento della nuova BCI.
Oltre all’utilizzo del caschetto attraverso cui sono stati registrati gli impulsi dell’attività cerebrale, l’interfaccia rappresenta una novità per il ricorso a due diversi algoritmi in grado di identificare e isolare precisi segnali intenzionali dei movimenti oculari (sguardo verso destra, verso sinistra e battito della palpebra) fra gli altri dati rilevati dagli elettrodi. Un primo algoritmo si è occupato d’identificare le attività regolari, mentre il secondo è stato addestrato per riconoscere i segnali più deboli. Questo metodo a doppia soglia si differenzia dagli altri algoritmi presenti finora in letteratura.
Una volta sviluppati, i due algoritmi sono stati addestrati offline per acquisire dati e migliorare le performance di riconoscimento degli impulsi, per poi essere integrati in un’interfaccia online che ha permesso di stabilire una comunicazione in tempo reale, in cui i ricercatori sono riusciti a far compiere delle operazioni (prendere un oggetto da un tavolo) ad un robot assistivo.
L'interfaccia utente della nuova BCI.
Esistono altri strumenti in cui l’occhio permette di ottenere informazioni utilizzabili, come l’eye-tracking, ma il caschetto per l’elettroencefalografia è meno suscettibile alle condizioni ambientali (ad esempio la scarsità di luce) e non necessita del controllo del collo per funzionare adeguatamente; un eye-tracker deve rimanere in asse per ottenere buoni risultati.
Il lavoro pubblicato su Scientific Reports ha voluto esplorare le possibilità del ricorso all’EEG per fornire strumenti che consentano una maggiore autonomia ai pazienti impossibilitati ad avere altri tipi d’interazione con il robot.
Un modo nuovo per consentire con gli occhi di scalfire, almeno in parte, la spessa corazza di uno scafandro.