The orientation ability of a robot is a fundamental characteristic that allows the robot to perform its tasks in complete independence. If the environment is unknown, the SLAM (Simultaneous Localization and Mapping), by processing the measures of the robot sensors during the exploration phase, allows for the estimate of the trajectory followed by the robot, along with the construction of a map of the environment. The use of an omnidirectional camera as a unique sensor (Monocular SLAM), thanks to a 360º visual eld, allows for the observation of the relevant features of the environment for a longer time compared to a perspective camera, thus obtaining a map and a robot trajectory of higher quality. On the other hand, images obtained from an omnidirectional camera have a strong distortion, which makes it diffi cult to track the characteristic points, therefore the acquisition of the measures. In this dissertation, two new tracking techniques for omnidirectional cameras are developed: the former transforms the omnidirectional images into panoramic ones, applying to them a classic patch tracking method for perspective cameras; the latter operates a perspective transformation of the areas around tracked features, removing any distortion factor. The homographic patch warping method, already used successfully with perspective cameras, is also applied to omnidirectional ones. As for the SLAM, a method to initialize the position of the characteristic points of the world on the ground plane on which the robot moves has been introduced, as an alternative to the classical initialization at a constant distance. All developed methods have been implemented within the MoonSlam framework, a set of libraries for the development of Visual SLAM applications based on the extended Kalman filter, developed by Simone Ceriani at the Laboratorio di Intelligenza Arti ciale e Robotica (AIRLab) of Politecnico di Milano. Results achieved by this work demonstrate the potentialities of an omnidirectional camera when applied to SLAM, as well as the validity of the methods developed.

La capacità di orientamento di un robot è una caratteristica di fondamentale importanza affinché esso possa svolgere i propri compiti in totale autonomia. Nel caso in cui l'ambiente sia sconosciuto, lo SLAM (Simultaneous Localization and Mapping), attraverso l'elaborazione delle misure provenienti dai sensori del robot durante la fase di esplorazione, permette di stimare probabilisticamente la traiettoria percorsa dal robot, congiuntamente alla costruzione di una mappa dell'ambiente. L'utilizzo di una camera omnidirezionale come unico sensore (Monocular SLAM), grazie a un campo visivo di 360º, permette di osservare le caratteristiche rilevanti dell'ambiente molto più a lungo di una camera prospettica, ottenendo una mappa e una traiettoria del robot di qualità superiore. Le immagini ottenute con una camera omnidirezionale sono però affette da forte distorsione e questo rende particolarmente problematico il tracking dei punti caratteristici, ossia l'acquisizione delle misure. Nel presente lavoro di tesi sono state sviluppate due nuove tecniche di tracking per camere omnidirezionali: la prima trasforma le immagini in panoramiche e su queste applica un metodo di patch tracking classico per camere prospettiche; la seconda effettua invece una trasformazione prospettica delle aree nell'intorno dei punti caratteristici, eliminando ogni fattore di distorsione. È stato inoltre applicato al caso omnidirezionale il metodo del patch warping omografico, già utilizzato con successo nel caso prospettico. Per quanto riguarda gli aspetti relativi allo SLAM è stato invece introdotto un metodo che inizializza la posizione dei punti caratteristici del mondo sul piano del terreno sul quale il robot si muove, in alternativa all'inizializzazione classica a distanza costante. Tutti i metodi sviluppati sono stati implementati all'interno del framework MoonSlam, un congiunto di librerie per la realizzazione di applicazioni Visual SLAM basate sul filtro di Kalman esteso, realizzato da Simone Ceriani all'interno del Laboratorio di Intelligenza Artificiale e Robotica (AIRLab) del Politecnico di Milano. I risultati ottenuti dimostrano le potenzialità della camera omnidirezionale quando applicata allo SLAM, nonché la validità dei metodi sviluppati.

SLAM con camera omnidirezionale all'interno del framework MoonSlam

BACCIOCCHI, ROBERTO
2011/2012

Abstract

The orientation ability of a robot is a fundamental characteristic that allows the robot to perform its tasks in complete independence. If the environment is unknown, the SLAM (Simultaneous Localization and Mapping), by processing the measures of the robot sensors during the exploration phase, allows for the estimate of the trajectory followed by the robot, along with the construction of a map of the environment. The use of an omnidirectional camera as a unique sensor (Monocular SLAM), thanks to a 360º visual eld, allows for the observation of the relevant features of the environment for a longer time compared to a perspective camera, thus obtaining a map and a robot trajectory of higher quality. On the other hand, images obtained from an omnidirectional camera have a strong distortion, which makes it diffi cult to track the characteristic points, therefore the acquisition of the measures. In this dissertation, two new tracking techniques for omnidirectional cameras are developed: the former transforms the omnidirectional images into panoramic ones, applying to them a classic patch tracking method for perspective cameras; the latter operates a perspective transformation of the areas around tracked features, removing any distortion factor. The homographic patch warping method, already used successfully with perspective cameras, is also applied to omnidirectional ones. As for the SLAM, a method to initialize the position of the characteristic points of the world on the ground plane on which the robot moves has been introduced, as an alternative to the classical initialization at a constant distance. All developed methods have been implemented within the MoonSlam framework, a set of libraries for the development of Visual SLAM applications based on the extended Kalman filter, developed by Simone Ceriani at the Laboratorio di Intelligenza Arti ciale e Robotica (AIRLab) of Politecnico di Milano. Results achieved by this work demonstrate the potentialities of an omnidirectional camera when applied to SLAM, as well as the validity of the methods developed.
CERIANI, SIMONE
ING V - Scuola di Ingegneria dell'Informazione
4-ott-2012
2011/2012
La capacità di orientamento di un robot è una caratteristica di fondamentale importanza affinché esso possa svolgere i propri compiti in totale autonomia. Nel caso in cui l'ambiente sia sconosciuto, lo SLAM (Simultaneous Localization and Mapping), attraverso l'elaborazione delle misure provenienti dai sensori del robot durante la fase di esplorazione, permette di stimare probabilisticamente la traiettoria percorsa dal robot, congiuntamente alla costruzione di una mappa dell'ambiente. L'utilizzo di una camera omnidirezionale come unico sensore (Monocular SLAM), grazie a un campo visivo di 360º, permette di osservare le caratteristiche rilevanti dell'ambiente molto più a lungo di una camera prospettica, ottenendo una mappa e una traiettoria del robot di qualità superiore. Le immagini ottenute con una camera omnidirezionale sono però affette da forte distorsione e questo rende particolarmente problematico il tracking dei punti caratteristici, ossia l'acquisizione delle misure. Nel presente lavoro di tesi sono state sviluppate due nuove tecniche di tracking per camere omnidirezionali: la prima trasforma le immagini in panoramiche e su queste applica un metodo di patch tracking classico per camere prospettiche; la seconda effettua invece una trasformazione prospettica delle aree nell'intorno dei punti caratteristici, eliminando ogni fattore di distorsione. È stato inoltre applicato al caso omnidirezionale il metodo del patch warping omografico, già utilizzato con successo nel caso prospettico. Per quanto riguarda gli aspetti relativi allo SLAM è stato invece introdotto un metodo che inizializza la posizione dei punti caratteristici del mondo sul piano del terreno sul quale il robot si muove, in alternativa all'inizializzazione classica a distanza costante. Tutti i metodi sviluppati sono stati implementati all'interno del framework MoonSlam, un congiunto di librerie per la realizzazione di applicazioni Visual SLAM basate sul filtro di Kalman esteso, realizzato da Simone Ceriani all'interno del Laboratorio di Intelligenza Artificiale e Robotica (AIRLab) del Politecnico di Milano. I risultati ottenuti dimostrano le potenzialità della camera omnidirezionale quando applicata allo SLAM, nonché la validità dei metodi sviluppati.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
2012_10_Bacciocchi.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 34.27 MB
Formato Adobe PDF
34.27 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/65261