Autonomous robot navigation represents a core aspect in the field of robotics, due to the many applications (e.g., agriculture and farming and automated driving). Simultaneous Localization and Mapping (SLAM) methods address the problem of constructing a model of the environment surrounding the robot, i.e., the map, while simultaneously estimating its pose within it. In literature, a plethora of SLAM systems have been proposed in the last decade. The created methods, however, greatly differ one from the other, in terms of architecture, data, and adopted frameworks. For this reason, extending or just using a SLAM method that suits specific criteria has become increasingly difficult over the past few years. For this reason, in the thesis, we present a common framework to perform SLAM, by developing multiple novel methods, distinguishable one from the other by the main sensor used and the specific real-world problem tackled. These systems can be summed up as follows: SLAM using a LiDAR as the main sensor, SLAM using both cameras and LiDAR, SLAM exploiting radar information and SLAM aided with information coming from third-party mapping services. All presented methods contribute in multiple ways. First, they improve existing algorithms, to mainly increase accuracy and performance. Then, some of the systems deal with situations that are not fully explored in literature, such as for SLAM where the main sensor is a radar, localization in GNSS-denied environments, and SLAM aided with prior maps. Lastly, the development of a unique framework allows users to adopt a SLAM system suited to their needs. The proposed methods are tested on state-of-the-art datasets, including KITTI and MulRan.

La navigazione autonoma di robot rappresenta un aspetto fondamentale nel campo della robotica, a causa delle numerose applicazioni (ad esempio, agricoltura e allevamento e guida automatizzata). I metodi di localizzazione e mappatura simultanea (SLAM) affrontano il problema di costruire un modello dell'ambiente che circonda il robot, ovvero la mappa, stimando contemporaneamente la sua posizione al suo interno. In letteratura, nell'ultimo decennio sono stati proposti una pletora di sistemi SLAM. I metodi realizzati, tuttavia, differiscono notevolmente tra loro, in termini di architettura, dati e framework adottati. Per questo motivo, negli ultimi anni è diventato sempre più difficile estendere o semplicemente utilizzare un metodo SLAM adatto a criteri specifici. Per questo motivo, nella tesi, presentiamo un framework comune per eseguire SLAM, sviluppando molteplici nuovi metodi, distinguibili l'uno dall'altro dal sensore principale utilizzato e dallo specifico problema del mondo reale affrontato. Questi sistemi possono essere riassunti come segue: SLAM che utilizza un LiDAR come sensore principale, SLAM che utilizza sia camere che LiDAR, SLAM che sfrutta le informazioni radar e SLAM assistito da informazioni provenienti da servizi di mappatura di terze parti. Tutti i metodi presentati contribuiscono in più modalità. In primo luogo, migliorano gli algoritmi esistenti, principalmente per aumentare la precisione e le prestazioni. Inoltre, alcuni dei sistemi si occupano di situazioni che non sono completamente esplorate in letteratura, come per SLAM dove il sensore principale è un radar, localizzazione in ambienti in cui non si possono ricevere segnali GNSS e SLAM aiutato da mappe già esistenti. Infine, lo sviluppo di un framework unico consente agli utenti di adottare un sistema SLAM adatto alle loro esigenze. I metodi proposti sono testati su dataset ben noti in letteratura, tra cui KITTI e MulRan.

ART-SLAM : a framework for real-time multi-sensor 3D SLAM

FROSI, MATTEO
2022/2023

Abstract

Autonomous robot navigation represents a core aspect in the field of robotics, due to the many applications (e.g., agriculture and farming and automated driving). Simultaneous Localization and Mapping (SLAM) methods address the problem of constructing a model of the environment surrounding the robot, i.e., the map, while simultaneously estimating its pose within it. In literature, a plethora of SLAM systems have been proposed in the last decade. The created methods, however, greatly differ one from the other, in terms of architecture, data, and adopted frameworks. For this reason, extending or just using a SLAM method that suits specific criteria has become increasingly difficult over the past few years. For this reason, in the thesis, we present a common framework to perform SLAM, by developing multiple novel methods, distinguishable one from the other by the main sensor used and the specific real-world problem tackled. These systems can be summed up as follows: SLAM using a LiDAR as the main sensor, SLAM using both cameras and LiDAR, SLAM exploiting radar information and SLAM aided with information coming from third-party mapping services. All presented methods contribute in multiple ways. First, they improve existing algorithms, to mainly increase accuracy and performance. Then, some of the systems deal with situations that are not fully explored in literature, such as for SLAM where the main sensor is a radar, localization in GNSS-denied environments, and SLAM aided with prior maps. Lastly, the development of a unique framework allows users to adopt a SLAM system suited to their needs. The proposed methods are tested on state-of-the-art datasets, including KITTI and MulRan.
PIRODDI, LUIGI
AMIGONI, FRANCESCO
27-lug-2023
ART-SLAM : a framework for real-time multi-sensor 3D SLAM
La navigazione autonoma di robot rappresenta un aspetto fondamentale nel campo della robotica, a causa delle numerose applicazioni (ad esempio, agricoltura e allevamento e guida automatizzata). I metodi di localizzazione e mappatura simultanea (SLAM) affrontano il problema di costruire un modello dell'ambiente che circonda il robot, ovvero la mappa, stimando contemporaneamente la sua posizione al suo interno. In letteratura, nell'ultimo decennio sono stati proposti una pletora di sistemi SLAM. I metodi realizzati, tuttavia, differiscono notevolmente tra loro, in termini di architettura, dati e framework adottati. Per questo motivo, negli ultimi anni è diventato sempre più difficile estendere o semplicemente utilizzare un metodo SLAM adatto a criteri specifici. Per questo motivo, nella tesi, presentiamo un framework comune per eseguire SLAM, sviluppando molteplici nuovi metodi, distinguibili l'uno dall'altro dal sensore principale utilizzato e dallo specifico problema del mondo reale affrontato. Questi sistemi possono essere riassunti come segue: SLAM che utilizza un LiDAR come sensore principale, SLAM che utilizza sia camere che LiDAR, SLAM che sfrutta le informazioni radar e SLAM assistito da informazioni provenienti da servizi di mappatura di terze parti. Tutti i metodi presentati contribuiscono in più modalità. In primo luogo, migliorano gli algoritmi esistenti, principalmente per aumentare la precisione e le prestazioni. Inoltre, alcuni dei sistemi si occupano di situazioni che non sono completamente esplorate in letteratura, come per SLAM dove il sensore principale è un radar, localizzazione in ambienti in cui non si possono ricevere segnali GNSS e SLAM aiutato da mappe già esistenti. Infine, lo sviluppo di un framework unico consente agli utenti di adottare un sistema SLAM adatto alle loro esigenze. I metodi proposti sono testati su dataset ben noti in letteratura, tra cui KITTI e MulRan.
File allegati
File Dimensione Formato  
frosi_phd_thesis.pdf

accessibile in internet per tutti

Descrizione: Ph.D. thesis pdf
Dimensione 34.41 MB
Formato Adobe PDF
34.41 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/207619