This thesis aims at designing an assistive control for physical Human-Robot Interaction (pHRI) based on Differential Cooperative Game Theory (DCGT). In particular, a distributed Model Predictive Control (dMPC) is formulated based on the DCGT principles. For proper implementation of the DCGT method, one crucial piece of information regards human intention, defined as the desired trajectory that a human wants to follow by deforming online a nominal trajectory of a manipulator robot over a finite rolling prediction horizon. The method used for human intention estimation is based on recurrent neural networks (RNNs), which have the special feature of keeping track of historical information that evolves over time to produce predictions about future evolution. Specifically, it is planned to use information about a portion of the trajectory before the current state to predict a future portion of the trajectory. The RNN model is composed of cascaded Long-Short Term Memory (LSTM) and Fully Connected (FC) layers (RNN+FC). The prediction of the RNN+FC model directly influences the control framework and robot behavior, so iterative training is proposed to adapt the model. The iterative learning procedure is time-consuming since it requires a relatively large amount of data and computational time. It also learns a model of a specific user performing a specific task. Therefore, Transfer Learning (TL) is proposed to quickly adapt the model to different users and tasks. The behavior of the dMPC framework proposed is thoroughly analyzed with simulations to understand its applicability and parameters tuning to a pHRI assistive controller. Moreover, real experiments were carried out on a UR5 robotic arm to which a force sensor was installed. First, the RNN+FC model and the iterative training procedure are validated with specific experiments on two dimensions (x-y plain). Then, the TL technique is evaluated for the RNN+FC model adaptation to a new trajectory, different users, and co-manipulation of a large object. Finally, an application scenario is proposed for co-manipulating two different objects and comparing the obtained results with other controllers typically used in the pHRI.

Questa tesi ha come obiettivo la progettazione di un controllo assistivo per l'interazione fisica uomo-robot (pHRI) basato sulla teoria dei giochi cooperativi differenziali (DCGT), attraverso l'implementazione di un controllo predittivo (dMPC). Per l'implementazione del metodo DCGT, molta importanza viene data all'intenzione umana, definita come la traiettoria che un uomo intende seguire modificando una traiettoria nominale di un robot manipolatore, in un dato intervallo di tempo. Il metodo utilizzato per la stima dell'intenzione umana si basa su reti neurali ricorrenti (RNN), che hanno la particolarità di tenere traccia delle informazioni che evolvono nel tempo per produrre previsioni sull'evoluzione futura. In particolare, si intende utilizzare le informazioni relative a una porzione di traiettoria precedente allo stato corrente per formularne una su una porzione futura di traiettoria. Il modello RNN è costituito da una parte di Long-Short Term Memory (LSTM) e da una di Fully Connected (FC) connesse in cascata (RNN+FC). La previsione fatta dal modello RNN+FC influenza direttamente il controllo e il comportamento del robot, pertanto viene proposto un processo iterativo per adattare il modello al meglio. Questa procedura viene svolta da uno specifico utente e richiede parecchio tempo poiché deve gestire un'elevata quantità di dati. Pertanto, viene proposto il metodo di Transfer Learning (TL) per adattare rapidamente il modello a utenti e oggetti diversi. Il comportamento del dMPC è stato analizzato con alcune simulazioni e sono state sperimentate diverse soluzioni nella scelta dei parametri per un controllore assistivo pHRI. Inoltre sono stati condotti esperimenti reali su un braccio robotico UR5 su cui è stato installato un sensore di forza. In primo luogo, il modello RNN+FC e la procedura iterativa sono stati convalidati con esperimenti su due dimensioni. Successivamente, la tecnica TL viene valutata per l'adattamento del modello RNN+FC su una nuova traiettoria, con diversi utenti e con un oggetto di grandi dimensioni. Infine, viene proposta un'applicazione per la co-manipolazione di due oggetti diversi, confrontando i risultati con controllori tipici del pHRI.

Assistive controller for pyhsical human-robot interaction based on cooperative game theory and human intention estimation

CASSINELLI, DAVIDE
2021/2022

Abstract

This thesis aims at designing an assistive control for physical Human-Robot Interaction (pHRI) based on Differential Cooperative Game Theory (DCGT). In particular, a distributed Model Predictive Control (dMPC) is formulated based on the DCGT principles. For proper implementation of the DCGT method, one crucial piece of information regards human intention, defined as the desired trajectory that a human wants to follow by deforming online a nominal trajectory of a manipulator robot over a finite rolling prediction horizon. The method used for human intention estimation is based on recurrent neural networks (RNNs), which have the special feature of keeping track of historical information that evolves over time to produce predictions about future evolution. Specifically, it is planned to use information about a portion of the trajectory before the current state to predict a future portion of the trajectory. The RNN model is composed of cascaded Long-Short Term Memory (LSTM) and Fully Connected (FC) layers (RNN+FC). The prediction of the RNN+FC model directly influences the control framework and robot behavior, so iterative training is proposed to adapt the model. The iterative learning procedure is time-consuming since it requires a relatively large amount of data and computational time. It also learns a model of a specific user performing a specific task. Therefore, Transfer Learning (TL) is proposed to quickly adapt the model to different users and tasks. The behavior of the dMPC framework proposed is thoroughly analyzed with simulations to understand its applicability and parameters tuning to a pHRI assistive controller. Moreover, real experiments were carried out on a UR5 robotic arm to which a force sensor was installed. First, the RNN+FC model and the iterative training procedure are validated with specific experiments on two dimensions (x-y plain). Then, the TL technique is evaluated for the RNN+FC model adaptation to a new trajectory, different users, and co-manipulation of a large object. Finally, an application scenario is proposed for co-manipulating two different objects and comparing the obtained results with other controllers typically used in the pHRI.
FRANCESCHI, PAOLO
PEDROCCHI, NICOLA
ING - Scuola di Ingegneria Industriale e dell'Informazione
4-mag-2023
2021/2022
Questa tesi ha come obiettivo la progettazione di un controllo assistivo per l'interazione fisica uomo-robot (pHRI) basato sulla teoria dei giochi cooperativi differenziali (DCGT), attraverso l'implementazione di un controllo predittivo (dMPC). Per l'implementazione del metodo DCGT, molta importanza viene data all'intenzione umana, definita come la traiettoria che un uomo intende seguire modificando una traiettoria nominale di un robot manipolatore, in un dato intervallo di tempo. Il metodo utilizzato per la stima dell'intenzione umana si basa su reti neurali ricorrenti (RNN), che hanno la particolarità di tenere traccia delle informazioni che evolvono nel tempo per produrre previsioni sull'evoluzione futura. In particolare, si intende utilizzare le informazioni relative a una porzione di traiettoria precedente allo stato corrente per formularne una su una porzione futura di traiettoria. Il modello RNN è costituito da una parte di Long-Short Term Memory (LSTM) e da una di Fully Connected (FC) connesse in cascata (RNN+FC). La previsione fatta dal modello RNN+FC influenza direttamente il controllo e il comportamento del robot, pertanto viene proposto un processo iterativo per adattare il modello al meglio. Questa procedura viene svolta da uno specifico utente e richiede parecchio tempo poiché deve gestire un'elevata quantità di dati. Pertanto, viene proposto il metodo di Transfer Learning (TL) per adattare rapidamente il modello a utenti e oggetti diversi. Il comportamento del dMPC è stato analizzato con alcune simulazioni e sono state sperimentate diverse soluzioni nella scelta dei parametri per un controllore assistivo pHRI. Inoltre sono stati condotti esperimenti reali su un braccio robotico UR5 su cui è stato installato un sensore di forza. In primo luogo, il modello RNN+FC e la procedura iterativa sono stati convalidati con esperimenti su due dimensioni. Successivamente, la tecnica TL viene valutata per l'adattamento del modello RNN+FC su una nuova traiettoria, con diversi utenti e con un oggetto di grandi dimensioni. Infine, viene proposta un'applicazione per la co-manipolazione di due oggetti diversi, confrontando i risultati con controllori tipici del pHRI.
File allegati
File Dimensione Formato  
2023_05_Cassinelli.pdf

Open Access dal 18/04/2024

Descrizione: Testo della Tesi
Dimensione 14.36 MB
Formato Adobe PDF
14.36 MB Adobe PDF Visualizza/Apri
2023_05_Cassinelli_Executive_Summary.pdf

Open Access dal 18/04/2024

Descrizione: Executive_Summary
Dimensione 3.22 MB
Formato Adobe PDF
3.22 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/212757