In the last decades, robotic arms have revolutionized the automation of industrial manufacturing processes, dramatically enhancing their productivity. Robots have been used in several applications, such as palletizing, welding, painting, and machine tending. Nevertheless, all these operations are usually carried out in well-known and organised workstations in a continuous and repetitive way. The robots are pre-programmed to follow a fixed set of instructions, which is repeated several times to complete the task at hand. This approach results in a complete lack of dexterity and adaptability, and needs to be evolved to meet the new demands for flexible and quickly reconfigurable robotic systems brought about by the latest industrial paradigm shifts. While the introduction of collaborative robots marked a significant step towards expanding automation capabilities, their effectiveness in dynamic and unstructured scenarios remains limited by insufficient dexterous skills, which are critical in tasks such as kitting, packaging, or random bin picking. These tasks are characterized by the presence of uncertainty when planning their manipulation, which needs to be accounted for. Grasp poses are often random; different placement poses for the same object may be required during the same task, and the grasp target could be potentially occluded by other objects. Furthermore, as the robotic system should be flexible and readily reconfigurable, it should not excessively rely on external fixtures. This thesis addresses the challenge of enhancing robotic manipulation dexterity in unstructured industrial environments using simple, industry-ready hardware, such as parallel grippers. We propose a set of model-based and learning-based control strategies that enable flexible object reorientation, regrasping, and retrieval tasks without external fixtures or specialized multi-fingered hands. We start by focusing on the problem of arbitrarily reconfiguring an object from a random pose to a desired one. To address it, we first introduce a dual-arm manipulation planning framework that performs fixtureless object reorientation through optimized handover sequences. We leverage object data and gripper parameters to generate offline a compact regrasp graph and sets of feasible placement poses. The graph representation, combined with an online optimal handover planner, allows efficient planning and execution of long-horizon manipulation sequences, which are composed of a concatenated sequence of motion primitives. We then present a multimodal approach that integrates vision and tactile feedback to plan and supervise in-hand object reorientation using a dual-arm robot, combining open-loop trajectory planning with tactile-based supervision. Vision-based data are used by a path planner to generate a feasible sliding path, along which the second arm can push the object held by the first one, allowing for a change in its in-hand configuration without opening the gripper. This sliding motion is supervised by a tactile classifier that learns from RGB and point cloud data if the current sliding motion is feasible. If it is not, the operation is halted and a replanning step is executed. Finally, a deep reinforcement learning framework is proposed for object retrieval in cluttered environments, where complementary pushing and grasping policies are learned to coordinate exploration and target extraction in a push-to-grasp approach. This enables a robotic arm to manipulate the clutter in its workspace, revealing and grasping a target object. The push and grasp actions are generated by three deep neural networks, which are concurrently trained using a Deep Q-Network approach in simulated scenes. Two kinds of push actions are learned: Find and Release. Find is rewarded for revealing the object and for removing occlusions on top of it, while Release is rewarded for increasing the grasp score on the target, assigned by the grasp network after each executed push. Action selection is coordinated by a vision module that segments the scenes and generates a region of interest where the push actions are most likely to be effective, once the object is revealed. All methods have been validated through simulation and real-world experiments on collaborative robotic platforms, demonstrating their applicability in realistic scenarios.
Negli ultimi decenni, i robot industriali hanno rivoluzionato l’automazione dei processi di produzione, incrementandone drasticamente la produttività. Questi robot sono stati impiegati in numerose applicazioni, come la pallettizzazione, la saldatura, la verniciatura e l’asservimento di macchine. Tuttavia, tutte queste operazioni vengono solitamente ese- guite in postazioni di lavoro note a priori e ben strutturate, secondo una modalità continua e ripetitiva. I robot sono programmati per seguire un insieme fisso di istruzioni, che viene ripetuto più volte per completare il compito richiesto. Questo approccio si traduce in una completa mancanza di destrezza e adattabilità, e necessita di evolversi per rispondere a nuove esigenze introdotte dai più recenti cambiamenti di paradigma industriale, che richiedono sistemi robotici flessibili e rapidamente riconfigurabili. Sebbene l’introduzione dei robot collaborativi abbia rappresentato un passo significativo verso l’espansione delle capacità di automazione, la loro efficacia in scenari dinamici e non strutturati rimane limitata da insufficienti abilità di manipolare oggetti in modo flessibile. Tali abilità sono fondamentali in compiti come il kitting, il packaging o il bin picking. Questi compiti sono caratterizzati dalla presenza di incertezze nel processo di pianificazione della manipolazione, che devono essere opportunamente considerate. Le pose di presa sono spesso casuali; differenti pose di posizionamento per lo stesso oggetto possono essere richieste durante lo stesso compito, e il componente da raccogliere potrebbe essere potenzialmente occluso da altri oggetti. Inoltre, poiché il sistema robotico deve essere flessibile e facilmente riconfigurabile, non dovrebbe fare eccessivo affidamento su attrezzature e supporti presenti nell’ambiente circostante. Questa tesi propone nuove metodologie in grado di migliorare il grado di destrezza nella manipolazione robotica in ambienti non strutturati, utilizzando hardware semplice e pronto per utilizzo industriale, come i gripper a dita parallele. Si propone un insieme di strategie di controllo basate su modelli analitici e deep learning, che consentono di eseguire compiti di riorientamento, presa e recupero di oggetti senza l’ausilio di attrezzature esterne o end effector antropomorfi specificamente studiati per queste operazioni. Inizialmente, ci si è focalizzati sul problema di riconfigurare arbitrariamente un oggetto da una posa casuale a una desiderata. Per affrontare tale problema, viene introdotto un framework di pianificazione per la manipolazione bimanuale, che realizza il riorientamento dell’oggetto senza attrezzature esterne sfruttando sequenze di handover ottimizzate tra le due pinze del robot. La metodologia sfrutta i dati dell’oggetto e i parametri del gripper per generare offline un grafo compatto che mappa tutte le prese contemporanee fattibili sull’oggetto e insiemi di pose di posizionamento ammissibili. La rappresentazione a grafo, combinata con un pianificatore online per i passaggi ottimali, consente una pianificazione ed esecuzione efficienti di sequenze di manipolazione a lungo orizzonte, attraverso una concatenazione di primitive di movimento. Successivamente, viene presentato un approccio multimodale che integra visione e feedback tattile per pianificare e supervisionare il riorientamento dell’oggetto all’interno della mano, utilizzando un robot bimanuale. La pianificazione di traiettorie in anello aperto viene supervisionata da un classificatore basato sul tatto. I dati visivi vengono utilizzati dal pianificatore per generare una traiettoria di scorrimento ammissibile, lungo la quale il secondo braccio può spingere l’oggetto tenuto dal primo per modificarne la configurazione, mentre questo rimane saldamente in mano al robot. Questo movimento di scorrimento è supervisionato dal classificatore tattile che apprende, a partire da dati RGB e nuvole di punti, se il movimento di scorrimento in atto è fattibile o se porta alla perdita di contatto con l’oggetto. In quest’ultimo caso, l’operazione viene interrotta e si esegue una nuova pianificazione. Infine, proponiamo un framework basato su reinforcement learning per il recupero di oggetti in ambienti incerti e disordinati, in cui policy complementari di spinta e presa vengono imparate ed eseguite, coordinando esplorazione ed estrazione di un oggetto. In questo contesto, le azioni di spinta sugli oggetti nell’ambiente vengono sfruttate per facilitare quella di presa. Ciò consente a un braccio robotico di manipolare il disordine nel proprio spazio di lavoro per rivelare e afferrare l’oggetto desiderato. Le azioni di spinta e presa vengono generate in output da tre reti neurali, addestrate congiuntamente tramite Deep Q-Network in simulazione. Si apprendono due tipi di azioni di spinta differenti: Find e Release. Find ha lo scopo di rivelare l’oggetto e di rimuoverne le occlusioni sovrastanti, mentre Release deve aumentare il punteggio di presa sull’oggetto bersaglio, assegnato dalla rete di presa dopo ogni spinta eseguita con successo. La selezione delle azioni è coordinata da un modulo di visione che segmenta la scena e genera una regione di interesse in cui le azioni di spinta hanno maggiore probabilità di essere efficaci, una volta che l’oggetto è stato rivelato. Tutti i metodi presentati sono stati validati in simulazione e in esperimenti di laboratorio su piattaforme robotiche collaborative, dimostrando la loro applicabilità in scenari verosimili.
Increasing dexterity of robotic manipulation tasks in unstructured industrial environments
COLOMBO, MATTEO
2025/2026
Abstract
In the last decades, robotic arms have revolutionized the automation of industrial manufacturing processes, dramatically enhancing their productivity. Robots have been used in several applications, such as palletizing, welding, painting, and machine tending. Nevertheless, all these operations are usually carried out in well-known and organised workstations in a continuous and repetitive way. The robots are pre-programmed to follow a fixed set of instructions, which is repeated several times to complete the task at hand. This approach results in a complete lack of dexterity and adaptability, and needs to be evolved to meet the new demands for flexible and quickly reconfigurable robotic systems brought about by the latest industrial paradigm shifts. While the introduction of collaborative robots marked a significant step towards expanding automation capabilities, their effectiveness in dynamic and unstructured scenarios remains limited by insufficient dexterous skills, which are critical in tasks such as kitting, packaging, or random bin picking. These tasks are characterized by the presence of uncertainty when planning their manipulation, which needs to be accounted for. Grasp poses are often random; different placement poses for the same object may be required during the same task, and the grasp target could be potentially occluded by other objects. Furthermore, as the robotic system should be flexible and readily reconfigurable, it should not excessively rely on external fixtures. This thesis addresses the challenge of enhancing robotic manipulation dexterity in unstructured industrial environments using simple, industry-ready hardware, such as parallel grippers. We propose a set of model-based and learning-based control strategies that enable flexible object reorientation, regrasping, and retrieval tasks without external fixtures or specialized multi-fingered hands. We start by focusing on the problem of arbitrarily reconfiguring an object from a random pose to a desired one. To address it, we first introduce a dual-arm manipulation planning framework that performs fixtureless object reorientation through optimized handover sequences. We leverage object data and gripper parameters to generate offline a compact regrasp graph and sets of feasible placement poses. The graph representation, combined with an online optimal handover planner, allows efficient planning and execution of long-horizon manipulation sequences, which are composed of a concatenated sequence of motion primitives. We then present a multimodal approach that integrates vision and tactile feedback to plan and supervise in-hand object reorientation using a dual-arm robot, combining open-loop trajectory planning with tactile-based supervision. Vision-based data are used by a path planner to generate a feasible sliding path, along which the second arm can push the object held by the first one, allowing for a change in its in-hand configuration without opening the gripper. This sliding motion is supervised by a tactile classifier that learns from RGB and point cloud data if the current sliding motion is feasible. If it is not, the operation is halted and a replanning step is executed. Finally, a deep reinforcement learning framework is proposed for object retrieval in cluttered environments, where complementary pushing and grasping policies are learned to coordinate exploration and target extraction in a push-to-grasp approach. This enables a robotic arm to manipulate the clutter in its workspace, revealing and grasping a target object. The push and grasp actions are generated by three deep neural networks, which are concurrently trained using a Deep Q-Network approach in simulated scenes. Two kinds of push actions are learned: Find and Release. Find is rewarded for revealing the object and for removing occlusions on top of it, while Release is rewarded for increasing the grasp score on the target, assigned by the grasp network after each executed push. Action selection is coordinated by a vision module that segments the scenes and generates a region of interest where the push actions are most likely to be effective, once the object is revealed. All methods have been validated through simulation and real-world experiments on collaborative robotic platforms, demonstrating their applicability in realistic scenarios.| File | Dimensione | Formato | |
|---|---|---|---|
|
2026_03_PhD_Colombo.pdf
accessibile in internet per tutti a partire dal 25/02/2027
Dimensione
115.46 MB
Formato
Adobe PDF
|
115.46 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/253139