In modern vehicles, ECUs usually communicate with each other via a CAN network. Albeit being fast and cheap, CAN networks are also largely unsafe, and many researchers demonstrated the possibility of executing cyberattacks on vehicles leveraging CAN vulnerabilities. Intrusion Detection Systems are being heavily studied as a countermeasure. An Intrusion Detection System (IDS) is an algorithm which leverages a Machine Learning model to identify attacks. In turn, Machine Learning models are vulnerable to evasive adversarial inputs, i.e. inputs specifically crafted to deceive a Machine Learning classifier and cause a misclassification. Adversarial attacks have been widely studied against image classification and voice recognition systems, but few published works focus on deceiving IDSs, and there is no study at all, to the best of our knowledge, about targeting automotive IDSs. This work provides an analysis of the feasibility of evasion adversarial machine learning attacks against a set of automotive IDSs. We show that state-of-the-art algorithms for generation of evasive inputs cannot always be applied to this end, we propose a novel algorithm for generating evasive inputs, and we demonstrate and evaluate the feasibility of our novel approach in decreasing the detectability of automotive attacks.

Nei veicoli moderni, le centraline, solitamente, comunicano tra loro tramite una rete CAN. Sebbene siano veloci ed economiche, le reti CAN sono anche particolarmente insicure, e molti ricercatori hanno dimostrato la possibilità di eseguire attacchi informatici sui veicoli sfruttando le vulnerabilità delle reti CAN. Gli Intrusion Detection Systems sono tra le contromisure più studiate. Un Intrusion Detection System (IDS) è un algoritmo che sfrutta un modello di Machine Learning per identificare gli attacchi. A loro volta, i modelli di Machine Learning sono vulnerabili a input adversarial (antagonisti) evasivi, ossia input specificamente tarati per indurre il modello a una classificazione errata. Gli attacchi adversarial sono stati ampiamente studiati contro il riconoscimento automatico di immagini e i sistemi di riconoscimento vocale, ma poca ricerca è stata fatta sulla loro capacità di evadere gli IDS, e non esiste alcuno studio, per quanto ne sappiamo, su applicazioni di questo tipo di attacchi contro IDS in ambito automotive. Questa tesi fornisce un'analisi della fattibilità di attacchi adversarial evasivi contro una serie di IDS in ambito automotive. Mostriamo che gli algoritmi dello stato dell'arte per generare input evasivi non possono sempre essere applicati in questo contesto, proponiamo un nuovo algoritmo per la generazione di input evasivi e dimostriamo e valutiamo la fattibilità del nostro approccio nel diminuire la rilevabilità degli attacchi in ambito automotive.

Evasion attacks against Intrusion Detection Systems on Communication Area Network

Noseda, Francesco
2020/2021

Abstract

In modern vehicles, ECUs usually communicate with each other via a CAN network. Albeit being fast and cheap, CAN networks are also largely unsafe, and many researchers demonstrated the possibility of executing cyberattacks on vehicles leveraging CAN vulnerabilities. Intrusion Detection Systems are being heavily studied as a countermeasure. An Intrusion Detection System (IDS) is an algorithm which leverages a Machine Learning model to identify attacks. In turn, Machine Learning models are vulnerable to evasive adversarial inputs, i.e. inputs specifically crafted to deceive a Machine Learning classifier and cause a misclassification. Adversarial attacks have been widely studied against image classification and voice recognition systems, but few published works focus on deceiving IDSs, and there is no study at all, to the best of our knowledge, about targeting automotive IDSs. This work provides an analysis of the feasibility of evasion adversarial machine learning attacks against a set of automotive IDSs. We show that state-of-the-art algorithms for generation of evasive inputs cannot always be applied to this end, we propose a novel algorithm for generating evasive inputs, and we demonstrate and evaluate the feasibility of our novel approach in decreasing the detectability of automotive attacks.
LONGARI, STEFANO
ING - Scuola di Ingegneria Industriale e dell'Informazione
28-apr-2022
2020/2021
Nei veicoli moderni, le centraline, solitamente, comunicano tra loro tramite una rete CAN. Sebbene siano veloci ed economiche, le reti CAN sono anche particolarmente insicure, e molti ricercatori hanno dimostrato la possibilità di eseguire attacchi informatici sui veicoli sfruttando le vulnerabilità delle reti CAN. Gli Intrusion Detection Systems sono tra le contromisure più studiate. Un Intrusion Detection System (IDS) è un algoritmo che sfrutta un modello di Machine Learning per identificare gli attacchi. A loro volta, i modelli di Machine Learning sono vulnerabili a input adversarial (antagonisti) evasivi, ossia input specificamente tarati per indurre il modello a una classificazione errata. Gli attacchi adversarial sono stati ampiamente studiati contro il riconoscimento automatico di immagini e i sistemi di riconoscimento vocale, ma poca ricerca è stata fatta sulla loro capacità di evadere gli IDS, e non esiste alcuno studio, per quanto ne sappiamo, su applicazioni di questo tipo di attacchi contro IDS in ambito automotive. Questa tesi fornisce un'analisi della fattibilità di attacchi adversarial evasivi contro una serie di IDS in ambito automotive. Mostriamo che gli algoritmi dello stato dell'arte per generare input evasivi non possono sempre essere applicati in questo contesto, proponiamo un nuovo algoritmo per la generazione di input evasivi e dimostriamo e valutiamo la fattibilità del nostro approccio nel diminuire la rilevabilità degli attacchi in ambito automotive.
File allegati
File Dimensione Formato  
2022_04_Noseda_01.pdf

non accessibile

Descrizione: Tesi
Dimensione 2.27 MB
Formato Adobe PDF
2.27 MB Adobe PDF   Visualizza/Apri
2022_04_Noseda_02.pdf

non accessibile

Descrizione: Executive Summary
Dimensione 342.55 kB
Formato Adobe PDF
342.55 kB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/187524