Autonomous vehicles are being developed with the hope that they will significantly reduce road accidents and fatalities, but the operation of these vehicles relies heavily on the integration of multiple sensors. Each sensor, however, has its limitations, necessitating the fusion of sensor data for safe and reliable operation. This work addresses the crucial challenge of sensor fusion in autonomous vehicles, with a specific focus on the accurate extrinsic calibration of perception sensors. Extrinsic calibration plays a vital role in this process by aligning and synchronizing sensor outputs, which further improves the perception capability of an autonomous vehicle. Considering the importance of safe operation and increasing uptake of autonomous vehicles, the calibration must be both accurate and efficient while considering the time duration and cost. To tackle this problem, this study begins with a systematic review of existing works in the field. Subsequently, a theoretical implementation of an approach is proposed to achieve faster and optimum calibration. The combination of lidar and camera has gained significant attention from industry developers due to its potential for accurate sensor fusion, especially as the cost of lidar decreases. Considering the above fact, this work focuses on the extrinsic calibration of lidar and camera sensors. The key findings of the research indicate that target-based extrinsic calibrations, although robust, are time-consuming. Furthermore, joint optimization of rotation and translation leads to ambiguities in the output. This can be further worsened with approaches relying on gradient descent algorithms, as they are prone to get trapped in local optima, thereby failing to achieve the desired optimum result. Considering these findings, this work presents a theoretical implementation of an approach that addresses three key objectives. Firstly, the proposed approach improves calibration accuracy by decoupling rotation and translation parameters. Secondly, it expects to achieve faster calibration by reducing the number of poses required during the calibration process. Finally, optimization is performed using a genetic algorithm, which offers superior performance compared to gradient descent algorithms. By proposing this theoretical approach, the study aims to contribute towards achieving faster and more accurate calibration.
I veicoli a guida autonoma sono in fase di sviluppo con la speranza di ridurre in modo significativo gli incidenti stradali e le vittime, ma il funzionamento di questi veicoli si basa fortemente sull'integrazione di più sensori. Ogni sensore, tuttavia, ha le proprie limitazioni, rendendo necessaria l’integrazione dei dati dei vari sensori per un funzionamento sicuro e affidabile. Questo lavoro affronta la sfida cruciale dell’integrazione dei vari sensori nei veicoli a guida autonoma, con un'attenzione specifica alla calibrazione estrinseca accurata dei sensori di percezione. La calibrazione estrinseca svolge un ruolo fondamentale in questo processo, allineando e sincronizzando le uscite dei sensori e migliorando ulteriormente la capacità di percezione di un veicolo a guida autonoma. Considerando l’importanza del funzionamento sicuro e la crescente diffusione dei veicoli a guida autonoma, è indispensabile che la calibrazione sia accurata ed efficiente, pur tenendo conto dei tempi e dei costi. Per affrontare questo problema, il presente studio inizia con una revisione sistematica dei lavori esistenti in questo ambito. Successivamente, viene proposta l'implementazione teorica di un approccio per ottenere una calibrazione più rapida e ottimale. La combinazione di lidar e telecamera ha guadagnato un'attenzione significativa da parte degli sviluppatori del settore per il suo potenziale di integrazione accurata dei sensori, soprattutto con la diminuzione del costo dei lidar. Considerando quanto sopra, questo lavoro si concentra sulla calibrazione estrinseca dei sensori lidar e della telecamera. I risultati principali della ricerca indicano che le calibrazioni estrinseche basate sui target, sebbene robuste, richiedono molto tempo. Inoltre, l'ottimizzazione congiunta di rotazione e traslazione porta ad ambiguità nell'output. La situazione può essere ulteriormente peggiorata con gli approcci che si basano su algoritmi di discesa del gradiente, in quanto sono inclini a rimanere intrappolati in optima locali, non riuscendo così a raggiungere il risultato ottimale desiderato. Alla luce di questi risultati, il presente lavoro presenta un'implementazione teorica di un approccio che risponde a tre obiettivi chiave. In primo luogo, l'approccio proposto migliora l'accuratezza della calibrazione disaccoppiando i parametri di rotazione e traslazione. In secondo luogo, si prevede di ottenere una calibrazione più rapida riducendo il numero di pose necessarie durante il processo di calibrazione. Infine, l'ottimizzazione viene eseguita utilizzando un algoritmo genetico, che offre prestazioni superiori rispetto agli algoritmi di discesa del gradiente. Proponendo questo approccio teorico, lo studio intende contribuire a ottenere una calibrazione più rapida e accurate.
Review of extrinsic calibration and theoretical implementation of genetic algorithm based calibration
Biswas, Ayan
2022/2023
Abstract
Autonomous vehicles are being developed with the hope that they will significantly reduce road accidents and fatalities, but the operation of these vehicles relies heavily on the integration of multiple sensors. Each sensor, however, has its limitations, necessitating the fusion of sensor data for safe and reliable operation. This work addresses the crucial challenge of sensor fusion in autonomous vehicles, with a specific focus on the accurate extrinsic calibration of perception sensors. Extrinsic calibration plays a vital role in this process by aligning and synchronizing sensor outputs, which further improves the perception capability of an autonomous vehicle. Considering the importance of safe operation and increasing uptake of autonomous vehicles, the calibration must be both accurate and efficient while considering the time duration and cost. To tackle this problem, this study begins with a systematic review of existing works in the field. Subsequently, a theoretical implementation of an approach is proposed to achieve faster and optimum calibration. The combination of lidar and camera has gained significant attention from industry developers due to its potential for accurate sensor fusion, especially as the cost of lidar decreases. Considering the above fact, this work focuses on the extrinsic calibration of lidar and camera sensors. The key findings of the research indicate that target-based extrinsic calibrations, although robust, are time-consuming. Furthermore, joint optimization of rotation and translation leads to ambiguities in the output. This can be further worsened with approaches relying on gradient descent algorithms, as they are prone to get trapped in local optima, thereby failing to achieve the desired optimum result. Considering these findings, this work presents a theoretical implementation of an approach that addresses three key objectives. Firstly, the proposed approach improves calibration accuracy by decoupling rotation and translation parameters. Secondly, it expects to achieve faster calibration by reducing the number of poses required during the calibration process. Finally, optimization is performed using a genetic algorithm, which offers superior performance compared to gradient descent algorithms. By proposing this theoretical approach, the study aims to contribute towards achieving faster and more accurate calibration.| File | Dimensione | Formato | |
|---|---|---|---|
|
2023_07_Biswas_01.pdf
non accessibile
Descrizione: Executive Summary
Dimensione
938.41 kB
Formato
Adobe PDF
|
938.41 kB | Adobe PDF | Visualizza/Apri |
|
2023_07_Biswas_02.pdf
non accessibile
Descrizione: Thesis file
Dimensione
2.14 MB
Formato
Adobe PDF
|
2.14 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/209375