Adversarial attacks pose a significant threat to machine learning systems, and their impact is even more pronounced in Federated Learning (FL). In cybersecurity, FL is increasingly being adopted for Intrusion Detection Systems (IDS) in Internet of Things (IoT) environments, offering enhanced security while preserving data privacy. However, adversarial attacks can effectively bypass these detection systems, exposing critical vulnerabilities. This work examines the security risks of IDS in FL, particularly in IoT, where the distributed and heterogeneous nature of data further amplifies these challenges. In our experiments, we implement two types of backdoor attacks using the CICIDS-2017 and UNSW-NB15 datasets. Each experiment is conducted while respecting the constraints specific to the intrusion detection field. We compare two different kinds of attacks across a variety of scenarios, taking into account both IID (Independent and Identically Distributed) and non-IID data distributions. The results obtained demonstrate that IDS in IoT-based FL environments are highly vulnerable to adversarial machine learning techniques, particularly to more sophisticated and targeted attacks, such as those based on Generative Adversarial Networks (GANs).

Gli attacchi avversariali rappresentano una minaccia significativa per i sistemi di apprendimento automatico, e il loro impatto è ancora più pronunciato nel contesto dell’apprendimento federato (FL). Nel campo della cybersicurezza, il FL viene sempre più adottato per i sistemi di rilevamento delle intrusioni (IDS) negli ambienti dell’Internet delle cose (IoT), offrendo una maggiore sicurezza pur preservando la privacy dei dati. Tuttavia, gli attacchi avversariali possono aggirare efficacemente questi sistemi di rilevamento, esponendo vulnerabilità critiche. Questo lavoro analizza i rischi di sicurezza degli IDS nel FL, in particolare nell’IoT, dove la natura distribuita ed eterogenea dei dati amplifica ulteriormente queste sfide. Nei nostri esperimenti, implementiamo due tipi di attacchi di backdoor utilizzando i dataset CICIDS-2017 e UNSW-NB15. Ogni esperimento viene condotto rispettando i vincoli specifici del campo del rilevamento delle intrusioni. Confrontiamo due diversi tipi di attacchi in vari scenari, considerando sia distribuzioni IID (Indipendenti e Identicamente Distribuiti) che non-IID. I risultati ottenuti dimostrano che gli IDS negli ambienti FL per l'IoT sono altamente vulnerabili alle tecniche di apprendimento avversariale, in particolare agli attacchi più sofisticati e mirati, come quelli basati su Reti Generative Avversarie (GANs).

Backdoor attacks against federated learning-based IoT intrusion detection systems

PIGNATI, ALESSANDRO
2024/2025

Abstract

Adversarial attacks pose a significant threat to machine learning systems, and their impact is even more pronounced in Federated Learning (FL). In cybersecurity, FL is increasingly being adopted for Intrusion Detection Systems (IDS) in Internet of Things (IoT) environments, offering enhanced security while preserving data privacy. However, adversarial attacks can effectively bypass these detection systems, exposing critical vulnerabilities. This work examines the security risks of IDS in FL, particularly in IoT, where the distributed and heterogeneous nature of data further amplifies these challenges. In our experiments, we implement two types of backdoor attacks using the CICIDS-2017 and UNSW-NB15 datasets. Each experiment is conducted while respecting the constraints specific to the intrusion detection field. We compare two different kinds of attacks across a variety of scenarios, taking into account both IID (Independent and Identically Distributed) and non-IID data distributions. The results obtained demonstrate that IDS in IoT-based FL environments are highly vulnerable to adversarial machine learning techniques, particularly to more sophisticated and targeted attacks, such as those based on Generative Adversarial Networks (GANs).
Talhi, Chamseddine
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-apr-2025
2024/2025
Gli attacchi avversariali rappresentano una minaccia significativa per i sistemi di apprendimento automatico, e il loro impatto è ancora più pronunciato nel contesto dell’apprendimento federato (FL). Nel campo della cybersicurezza, il FL viene sempre più adottato per i sistemi di rilevamento delle intrusioni (IDS) negli ambienti dell’Internet delle cose (IoT), offrendo una maggiore sicurezza pur preservando la privacy dei dati. Tuttavia, gli attacchi avversariali possono aggirare efficacemente questi sistemi di rilevamento, esponendo vulnerabilità critiche. Questo lavoro analizza i rischi di sicurezza degli IDS nel FL, in particolare nell’IoT, dove la natura distribuita ed eterogenea dei dati amplifica ulteriormente queste sfide. Nei nostri esperimenti, implementiamo due tipi di attacchi di backdoor utilizzando i dataset CICIDS-2017 e UNSW-NB15. Ogni esperimento viene condotto rispettando i vincoli specifici del campo del rilevamento delle intrusioni. Confrontiamo due diversi tipi di attacchi in vari scenari, considerando sia distribuzioni IID (Indipendenti e Identicamente Distribuiti) che non-IID. I risultati ottenuti dimostrano che gli IDS negli ambienti FL per l'IoT sono altamente vulnerabili alle tecniche di apprendimento avversariale, in particolare agli attacchi più sofisticati e mirati, come quelli basati su Reti Generative Avversarie (GANs).
File allegati
File Dimensione Formato  
Thesis___Alessandro_Pignati___Scuola_di_Ingegneria_Industriale_e_dell_Informazione___Politecnico_di_Milano.pdf

accessibile in internet per tutti a partire dal 06/03/2026

Descrizione: Testo tesi
Dimensione 4.99 MB
Formato Adobe PDF
4.99 MB Adobe PDF   Visualizza/Apri
Executive_Summary___Alessandro_Pignati___Scuola_di_Ingegneria_Industriale_e_dell_Informazione___Politecnico_di_Milano.pdf

accessibile in internet per tutti a partire dal 06/03/2026

Descrizione: Executive summary
Dimensione 4.58 MB
Formato Adobe PDF
4.58 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/234683