Human-robot interaction is a rapidly developing field and robots have been taking more active roles in our daily lives. Patient care is one of the fields in which robots are becoming more present, especially for disabled people. Neurodegenerative disordered people cannot consciously or voluntarily produce movements other than those involving the eyes or eyelids. In this context, BCI systems present an alternative way to communicate or interact with the external world. In order to improve the lives of disabled people, this paper presents a novel brain-computer interface to control an assistive robot with user's eye artifacts. In this study, eye artifacts that contaminate the EEG signals are considered a valuable source of information thanks to their high signal-to-noise ratio and intentional generation. The proposed methodology detects eye artifacts from EEG signals through characteristic shapes that occur during the events. The lateral movements are distinguished by their ordered peak and valley formation and the opposite phase of the signals measured at F7 and F8 channels. This work, as far as the author's knowledge is the first method that used this behavior to detect lateral eye movements. For the blinks detection, a double-thresholding method is proposed by the author to catch both weak blinks as well as regular ones, differentiating itself from the other algorithms in the literature that normally uses only one threshold. Real-time detected events with their virtual time stamps are fed into a second algorithm, to further distinguish between double and quadruple blinks from single blinks occurrence frequency. After testing the algorithm offline and in real-time, the algorithm is implemented on the device. The created BCI was able to control an assistive robot through a graphical user interface. The validation experiment proves that the developed BCI is able to control the robot.

L'interazioni tra uomo e robot sono un argomento in rapida espansione e i robot stanno sempre piu’ acquisendo un ruolo importante nella nostra quotidianeita’. Il supporto ai pazienti e’ uno degli ambiti in cui i robot stanno diventando sempre piu presenti, specialmente per le persone disabili. Le persone con disturbi neurodegenerativi non possono effettuare consapevolmente o volontariamente movimenti diversi da quelli che coinvolgono gli occhi o le palpebre. In questo contesto, i sistemi BCI rappresentano una via alternativa di comunicazione o interazione con il mondo esterno. Per migliorare la vita delle persone disabili, questo paper presenta una nuova interfaccia computer/cervello per controllare un robot di assistenza attraverso l’uso degli artefatti oculari dell’utente. In questo studio, gli artefatti oculari che contaminano i segnali EEG sono considerati una preziosa fonte di informazione grazie al loro alto signal-to-noise ratio e alla generazione intenzionale dei segnali. La metodologia proposta rileva gli artefatti oculari dai segnali EEG attraverso le forme caratteristiche che occorrono durante gli eventi dei battiti di ciglia. I movimenti laterali vengono distinti dai picchi ordinari e dalle valle formazione e dalla fase opposta dei segnali misurati dai canali F7 e F8. Questo lavoro, per quanto ne risulti all’autore, e’ la prima applicazione che utilizza questa metodologia di rilevazione del movimento laterale degli occhi. Per la rilevazione dei battiti, un metodo a doppia soglia viene proposto dagli autori per catturare sia i battiti deboli che quelli regolari, differenziandosi dagli altri algoritmi proposti in letteratura che normalmente tendono ad utilizzare una sola soglia. Gli eventi real-time con i relativi timestamp vengono poi forniti come input ad un secondo algoritmo, per differenziare ancora di piu tra i battiti doppi e quadrupli dalla frequenza di occorrenza dei battiti singoli. Dopo aver testato l’algoritmo sia offline che in real time, l’algoritmo e’ stato successivamente implementato nel dispositivo. Il BCI creato e’ stato in grado di controllare un robot di assistenza attraverso l’utilizzo di una GUI. Gli esperimenti di validazione provano che il BCI e’ in grado di controllare il robot.

BCI for robot control with eye artifacts

KARAS, KAAN
2021/2022

Abstract

Human-robot interaction is a rapidly developing field and robots have been taking more active roles in our daily lives. Patient care is one of the fields in which robots are becoming more present, especially for disabled people. Neurodegenerative disordered people cannot consciously or voluntarily produce movements other than those involving the eyes or eyelids. In this context, BCI systems present an alternative way to communicate or interact with the external world. In order to improve the lives of disabled people, this paper presents a novel brain-computer interface to control an assistive robot with user's eye artifacts. In this study, eye artifacts that contaminate the EEG signals are considered a valuable source of information thanks to their high signal-to-noise ratio and intentional generation. The proposed methodology detects eye artifacts from EEG signals through characteristic shapes that occur during the events. The lateral movements are distinguished by their ordered peak and valley formation and the opposite phase of the signals measured at F7 and F8 channels. This work, as far as the author's knowledge is the first method that used this behavior to detect lateral eye movements. For the blinks detection, a double-thresholding method is proposed by the author to catch both weak blinks as well as regular ones, differentiating itself from the other algorithms in the literature that normally uses only one threshold. Real-time detected events with their virtual time stamps are fed into a second algorithm, to further distinguish between double and quadruple blinks from single blinks occurrence frequency. After testing the algorithm offline and in real-time, the algorithm is implemented on the device. The created BCI was able to control an assistive robot through a graphical user interface. The validation experiment proves that the developed BCI is able to control the robot.
ROVEDA, LORIS
ING - Scuola di Ingegneria Industriale e dell'Informazione
20-dic-2022
2021/2022
L'interazioni tra uomo e robot sono un argomento in rapida espansione e i robot stanno sempre piu’ acquisendo un ruolo importante nella nostra quotidianeita’. Il supporto ai pazienti e’ uno degli ambiti in cui i robot stanno diventando sempre piu presenti, specialmente per le persone disabili. Le persone con disturbi neurodegenerativi non possono effettuare consapevolmente o volontariamente movimenti diversi da quelli che coinvolgono gli occhi o le palpebre. In questo contesto, i sistemi BCI rappresentano una via alternativa di comunicazione o interazione con il mondo esterno. Per migliorare la vita delle persone disabili, questo paper presenta una nuova interfaccia computer/cervello per controllare un robot di assistenza attraverso l’uso degli artefatti oculari dell’utente. In questo studio, gli artefatti oculari che contaminano i segnali EEG sono considerati una preziosa fonte di informazione grazie al loro alto signal-to-noise ratio e alla generazione intenzionale dei segnali. La metodologia proposta rileva gli artefatti oculari dai segnali EEG attraverso le forme caratteristiche che occorrono durante gli eventi dei battiti di ciglia. I movimenti laterali vengono distinti dai picchi ordinari e dalle valle formazione e dalla fase opposta dei segnali misurati dai canali F7 e F8. Questo lavoro, per quanto ne risulti all’autore, e’ la prima applicazione che utilizza questa metodologia di rilevazione del movimento laterale degli occhi. Per la rilevazione dei battiti, un metodo a doppia soglia viene proposto dagli autori per catturare sia i battiti deboli che quelli regolari, differenziandosi dagli altri algoritmi proposti in letteratura che normalmente tendono ad utilizzare una sola soglia. Gli eventi real-time con i relativi timestamp vengono poi forniti come input ad un secondo algoritmo, per differenziare ancora di piu tra i battiti doppi e quadrupli dalla frequenza di occorrenza dei battiti singoli. Dopo aver testato l’algoritmo sia offline che in real time, l’algoritmo e’ stato successivamente implementato nel dispositivo. Il BCI creato e’ stato in grado di controllare un robot di assistenza attraverso l’utilizzo di una GUI. Gli esperimenti di validazione provano che il BCI e’ in grado di controllare il robot.
File allegati
File Dimensione Formato  
2022_12_Karas_02.pdf

non accessibile

Descrizione: Executive Summary
Dimensione 3.16 MB
Formato Adobe PDF
3.16 MB Adobe PDF   Visualizza/Apri
2022_12_Karas_01.pdf

non accessibile

Descrizione: Thesis Final
Dimensione 20.46 MB
Formato Adobe PDF
20.46 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/198777