Enhancing physical human-robot interaction (pHRI) with user-input tuning is crucial for improving adaptability, safety, and overall collaboration quality. In many applications, such as industrial assistance and rehabilitation, robots must not only recognize human intentions but also respond dynamically to individual user preferences. Fixed control strategies may not account for variations in user behavior, comfort levels, or task requirements, potentially leading to suboptimal performance. By incorporating user-tuning mechanisms, robots can adjust their responsiveness in real time, allowing for a more intuitive and personalized interaction. This thesis presents an enhanced robotic controller for physical human-robot collaboration, building upon the existing Q-Learning Lyapunov-based Model Predictive Variable Impedance Controller. The proposed approach integrates Fuzzy Logic with Explicit Safety-based Rules to improve human intent estimation and introduces a personalized tuning mechanism, allowing users to adjust the robot’s behavior in real time. The control architecture consists of a low-level Cartesian impedance controller for compliance and a high-level controller that optimizes the Cartesian setpoint and damping ratio using a Model Predictive Control (MPC) approach with Lyapunov constraints. To enhance computational efficiency, MPC is approximated via Q-Learning using an Actor-Critic methodology leveraging an ensemble of artificial neural networks (ANNs) to model system dynamics. The Critic’s cost function minimizes interaction forces while ensuring alignment between the optimized setpoint and the estimated human-intended setpoint derived from fuzzy logic built with explicit safety rules. The proposed controller was validated through experimental tests using a Franka EMIKA Panda robot, in two different scenarios, a direct comparison with Q-learning Lyapunov-based MPC, previously developed and available in literature and additionally a scenario examined the impact of user-input tuning, evaluating how personalized adjustments influenced the robot’s performance and responsiveness.

Migliorare l’interazione fisica uomo-robot (pHRI) con la regolazione dell’input utente è fondamentale per aumentare adattabilità, sicurezza e qualità della collaborazione. In applicazioni come l’assistenza industriale e la riabilitazione, i robot devono riconoscere le intenzioni umane e rispondere dinamicamente alle preferenze degli utenti. Strategie di controllo fisse potrebbero non considerare variazioni nel comportamento, nel comfort o nei requisiti del compito, portando a prestazioni subottimali. Integrando la regolazione dell’utente, i robot possono adattare la loro reattività in tempo reale, garantendo un’interazione più intuitiva e personalizzata. Questa tesi presenta un controllore avanzato per la collaborazione fisica uomo-robot, basato sul Q-Learning Lyapunov-based Model Predictive Variable Impedance Controller. L’approccio proposto integra la logica fuzzy con regole di sicurezza per migliorare la stima dell’intenzione umana e introduce una regolazione personalizzata che consente agli utenti di modificare il comportamento del robot in tempo reale. L’architettura di controllo è composta da un controllore di impedenza cartesiano a basso livello e un controllore ad alto livello che ottimizza il setpoint e lo smorzamento tramite Model Predictive Control (MPC) con vincoli di Lyapunov. Per migliorare l’efficienza computazionale, l’MPC è approssimato via Q-Learning con un metodo Actor-Critic, sfruttando un ensemble di reti neurali artificiali (ANN) per modellare la dinamica del sistema. Il Critic minimizza le forze di interazione, garantendo l’allineamento tra il setpoint ottimizzato e quello stimato dall’intenzione umana. Il controllore proposto è stato validato attraverso test sperimentali utilizzando un robot Franka EMIKA Panda in due diversi scenari: un confronto diretto con il Q-Learning Lyapunov-based MPC, precedentemente sviluppato e disponibile in letteratura, e uno scenario in cui è stato analizzato l’impatto della regolazione dell’input utente, valutando come le regolazioni personalizzate abbiano influenzato le prestazioni e la reattività del robot.

Adaptive machine learning-driven human-robot interaction control with user-centered tuning

Fernandes Semedo Dos Reis De Melo, Vasco
2023/2024

Abstract

Enhancing physical human-robot interaction (pHRI) with user-input tuning is crucial for improving adaptability, safety, and overall collaboration quality. In many applications, such as industrial assistance and rehabilitation, robots must not only recognize human intentions but also respond dynamically to individual user preferences. Fixed control strategies may not account for variations in user behavior, comfort levels, or task requirements, potentially leading to suboptimal performance. By incorporating user-tuning mechanisms, robots can adjust their responsiveness in real time, allowing for a more intuitive and personalized interaction. This thesis presents an enhanced robotic controller for physical human-robot collaboration, building upon the existing Q-Learning Lyapunov-based Model Predictive Variable Impedance Controller. The proposed approach integrates Fuzzy Logic with Explicit Safety-based Rules to improve human intent estimation and introduces a personalized tuning mechanism, allowing users to adjust the robot’s behavior in real time. The control architecture consists of a low-level Cartesian impedance controller for compliance and a high-level controller that optimizes the Cartesian setpoint and damping ratio using a Model Predictive Control (MPC) approach with Lyapunov constraints. To enhance computational efficiency, MPC is approximated via Q-Learning using an Actor-Critic methodology leveraging an ensemble of artificial neural networks (ANNs) to model system dynamics. The Critic’s cost function minimizes interaction forces while ensuring alignment between the optimized setpoint and the estimated human-intended setpoint derived from fuzzy logic built with explicit safety rules. The proposed controller was validated through experimental tests using a Franka EMIKA Panda robot, in two different scenarios, a direct comparison with Q-learning Lyapunov-based MPC, previously developed and available in literature and additionally a scenario examined the impact of user-input tuning, evaluating how personalized adjustments influenced the robot’s performance and responsiveness.
ROVEDA, LORIS
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-apr-2025
2023/2024
Migliorare l’interazione fisica uomo-robot (pHRI) con la regolazione dell’input utente è fondamentale per aumentare adattabilità, sicurezza e qualità della collaborazione. In applicazioni come l’assistenza industriale e la riabilitazione, i robot devono riconoscere le intenzioni umane e rispondere dinamicamente alle preferenze degli utenti. Strategie di controllo fisse potrebbero non considerare variazioni nel comportamento, nel comfort o nei requisiti del compito, portando a prestazioni subottimali. Integrando la regolazione dell’utente, i robot possono adattare la loro reattività in tempo reale, garantendo un’interazione più intuitiva e personalizzata. Questa tesi presenta un controllore avanzato per la collaborazione fisica uomo-robot, basato sul Q-Learning Lyapunov-based Model Predictive Variable Impedance Controller. L’approccio proposto integra la logica fuzzy con regole di sicurezza per migliorare la stima dell’intenzione umana e introduce una regolazione personalizzata che consente agli utenti di modificare il comportamento del robot in tempo reale. L’architettura di controllo è composta da un controllore di impedenza cartesiano a basso livello e un controllore ad alto livello che ottimizza il setpoint e lo smorzamento tramite Model Predictive Control (MPC) con vincoli di Lyapunov. Per migliorare l’efficienza computazionale, l’MPC è approssimato via Q-Learning con un metodo Actor-Critic, sfruttando un ensemble di reti neurali artificiali (ANN) per modellare la dinamica del sistema. Il Critic minimizza le forze di interazione, garantendo l’allineamento tra il setpoint ottimizzato e quello stimato dall’intenzione umana. Il controllore proposto è stato validato attraverso test sperimentali utilizzando un robot Franka EMIKA Panda in due diversi scenari: un confronto diretto con il Q-Learning Lyapunov-based MPC, precedentemente sviluppato e disponibile in letteratura, e uno scenario in cui è stato analizzato l’impatto della regolazione dell’input utente, valutando come le regolazioni personalizzate abbiano influenzato le prestazioni e la reattività del robot.
File allegati
File Dimensione Formato  
2025_04_Melo_Thesis_02.pdf

non accessibile

Descrizione: Thesis 2
Dimensione 6.34 MB
Formato Adobe PDF
6.34 MB Adobe PDF   Visualizza/Apri
2025_04_Melo_Executive_Summary_02.pdf

non accessibile

Descrizione: Executive Summary 2
Dimensione 1.3 MB
Formato Adobe PDF
1.3 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/234258