Autonomous driving technology stands as a pivotal advancement in the transportation field. With ongoing technological progress, it promises to revolutionize the manner in which we commute, bringing about enhanced safety, convenience, and efficiency. For an autonomous driving system to operate effectively, it relies on the seamless integration of multiple components, including localization, perception, planning, and control, with perception playing a crucial role. Perception enables the vehicle to understand its surroundings using sensors and algorithms. This thesis, developed in the context of 1000Miglia open-roads event, focuses on developing a perception system that integrates data from cameras and LiDARs to construct a top-down environmental map crucial for making planning decisions. Addressing this challenge involved splitting the task into two primary objectives: the first involves semantically segmenting images captured by cameras using a fully convolutional neural network. This process allowed us to gather semantic details from the images. Subsequently, we employed LiDAR-generated point clouds to develop a Bird's Eye View (BEV) map of the surroundings. A significant aspect of this task was the precise detection of road lines, which are vital for the planning module, prompting thorough experimental efforts to enhance their detection. This entire procedure was tailored to function in real-time, necessitating meticulous optimization at every stage. The outcome is a high-performing solution adept at navigating the complexities of urban settings.
La guida autonoma rappresenta un avanzamento fondamentale nel campo dei trasporti. Con il continuo progresso tecnologico, è destinata a rivoluzionare il modo in cui ci spostiamo, portando miglioramenti in termini di sicurezza, comodità ed efficienza. Affinché un sistema di guida autonoma funzioni efficacemente, si basa sull'integrazione di molteplici componenti, inclusi localizzazione, percezione, pianificazione e controllo. La percezione, che gioca un ruolo cruciale, consente al veicolo di comprendere il suo ambiente circostante utilizzando sensori e algoritmi. Questa tesi, sviluppata nel contesto dell'evento su strade aperte 1000Miglia, si concentra sullo sviluppo di un sistema di percezione che integra dati provenienti da telecamere e LiDAR per costruire una mappa ambientale dall'alto verso il basso, fondamentale per prendere decisioni di pianificazione. Affrontare questa sfida ha comportato la divisione del compito in due obiettivi principali: il primo coinvolge la segmentazione semantica delle immagini catturate dalle telecamere utilizzando una rete neurale completamente convoluzionale. Questo processo ci ha permesso di raccogliere dettagli semantici dalle immagini. Successivamente, abbiamo impiegato nuvole di punti generate dal LiDAR per sviluppare una mappa in Vista Aerea (BEV) dell'ambiente circostante. Un aspetto significativo di questo compito è stata la precisa rilevazione delle linee stradali, vitali per il modulo di pianificazione, che ha richiesto sforzi sperimentali approfonditi per migliorarne il rilevamento. L'intera procedura è stata adattata per funzionare in tempo reale, richiedendo un'ottimizzazione meticolosa ad ogni tappa. Il risultato è una soluzione ad alte prestazioni abile nel navigare le complessità degli ambienti urbani.
Real-time road segmentation for urban autonomous driving
CAVALLI, DARIO
2023/2024
Abstract
Autonomous driving technology stands as a pivotal advancement in the transportation field. With ongoing technological progress, it promises to revolutionize the manner in which we commute, bringing about enhanced safety, convenience, and efficiency. For an autonomous driving system to operate effectively, it relies on the seamless integration of multiple components, including localization, perception, planning, and control, with perception playing a crucial role. Perception enables the vehicle to understand its surroundings using sensors and algorithms. This thesis, developed in the context of 1000Miglia open-roads event, focuses on developing a perception system that integrates data from cameras and LiDARs to construct a top-down environmental map crucial for making planning decisions. Addressing this challenge involved splitting the task into two primary objectives: the first involves semantically segmenting images captured by cameras using a fully convolutional neural network. This process allowed us to gather semantic details from the images. Subsequently, we employed LiDAR-generated point clouds to develop a Bird's Eye View (BEV) map of the surroundings. A significant aspect of this task was the precise detection of road lines, which are vital for the planning module, prompting thorough experimental efforts to enhance their detection. This entire procedure was tailored to function in real-time, necessitating meticulous optimization at every stage. The outcome is a high-performing solution adept at navigating the complexities of urban settings.File | Dimensione | Formato | |
---|---|---|---|
2024_04_Cavalli_Executive_Summary_02.pdf
non accessibile
Descrizione: Executive summary
Dimensione
2.44 MB
Formato
Adobe PDF
|
2.44 MB | Adobe PDF | Visualizza/Apri |
2024_04_Cavalli_Tesi_01.pdf
non accessibile
Descrizione: Tesi
Dimensione
52.42 MB
Formato
Adobe PDF
|
52.42 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/219487