The rise of hardware-programmable switches has sparked the interest of research community towards in-network computing, especially concerning traffic analysis directly in data-plane components. A recent and emerging trend in research focuses on implementing ML-based traffic analysis applications such as flow classification and attack detection, in programmable switches. A lot of different data plane implementations of ML models already exist in literature, however, each model implementation absorbs part of the physical resources in the data plane resources (e.g., stages in P4 programs, memory slots in the switches, etc.). Therefore, optimizing the data-plane implementations of multiple concurrent models with the objective of sharing physical resources may reveal beneficial, but is still under-investigated. For this reason, this thesis aims to develop a new resource-efficient implementation to simultaneously run multiple machine learning models on P4-programmable switches, focusing on DDoS attacks detection and traffic flows classification as ML-based classification models. Leveraging feature-based P4 implementation of ML models, we aim at optimizing feature selection across the different models taking into account hardware limitations on memory occupation and P4 stages and how these limitations impact on the performance of ML classifiers in terms of classification accuracy. We find that we find that feature sharing allows up to 40% improvement in stage utilization and up to 55.55% in memory occupation, keeping the models accuracy losses in a 1%-2% range.

La nascita degli switch programmabili ha suscitato l’interesse della comunità scientifica verso l’in-network computing, in particolare per quanto riguarda l’analisi del traffico nei dispositivi del piano dati. Una nuova ed emergente tendenza nella ricerca si concentra sull’implementazione di applicazioni di analisi del traffico basate su Machine Learning (ML), come la classificazione dei flussi e il rilevamento degli attacchi negli switch pro- grammabili. Molte implementazioni diverse di modelli di ML nel piano dati esistono già in letteratura, tuttavia, tutte le implementazioni dei modelli assorbono parte delle risorse fisiche del piano dati (ad esempio, stage nei programmi P4, slot di memoria negli switch, ecc.). Pertanto, l’ottimizzazione delle implementazioni del piano dati di più mod- elli simultanei con l’obiettivo di condividere risorse fisiche può rivelarsi vantaggiosa, ma è ancora poco studiata. Per questo motivo, questa tesi mira a sviluppare una nuova im- plementazione efficiente in termini di risorse per eseguire simultaneamente più modelli di machine learning sugli switch programmabili P4, concentrandosi sul rilevamento degli attacchi DDoS e sulla classificazione dei flussi di traffico come modelli di classificazione basata su Machine Learning. Sfruttando l’implementazione P4 basata sulle funzional- ità dei modelli di ML, puntiamo a ottimizzare la selezione delle funzionalità nei diversi modelli, tenendo conto delle limitazioni hardware sull’occupazione della memoria e sugli stage P4 e di come queste limitazioni influiscono sulle prestazioni dei classificatori ML in termini di accuratezza della classificazione. Abbiamo scoperto che la condivisione delle feature consente un miglioramento fino al 40% nell’utilizzo degli stage e fino al 55,55% nell’occupazione della memoria, mantenendo le perdite di accuratezza dei modelli in un intervallo dell’1%-2%.

Resource-efficient design and implementation of concurrent ML models in programmable data plane using multi-task feature selection

LANDI, ALFREDO
2024/2025

Abstract

The rise of hardware-programmable switches has sparked the interest of research community towards in-network computing, especially concerning traffic analysis directly in data-plane components. A recent and emerging trend in research focuses on implementing ML-based traffic analysis applications such as flow classification and attack detection, in programmable switches. A lot of different data plane implementations of ML models already exist in literature, however, each model implementation absorbs part of the physical resources in the data plane resources (e.g., stages in P4 programs, memory slots in the switches, etc.). Therefore, optimizing the data-plane implementations of multiple concurrent models with the objective of sharing physical resources may reveal beneficial, but is still under-investigated. For this reason, this thesis aims to develop a new resource-efficient implementation to simultaneously run multiple machine learning models on P4-programmable switches, focusing on DDoS attacks detection and traffic flows classification as ML-based classification models. Leveraging feature-based P4 implementation of ML models, we aim at optimizing feature selection across the different models taking into account hardware limitations on memory occupation and P4 stages and how these limitations impact on the performance of ML classifiers in terms of classification accuracy. We find that we find that feature sharing allows up to 40% improvement in stage utilization and up to 55.55% in memory occupation, keeping the models accuracy losses in a 1%-2% range.
KARANDIN, OLEG
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-apr-2025
2024/2025
La nascita degli switch programmabili ha suscitato l’interesse della comunità scientifica verso l’in-network computing, in particolare per quanto riguarda l’analisi del traffico nei dispositivi del piano dati. Una nuova ed emergente tendenza nella ricerca si concentra sull’implementazione di applicazioni di analisi del traffico basate su Machine Learning (ML), come la classificazione dei flussi e il rilevamento degli attacchi negli switch pro- grammabili. Molte implementazioni diverse di modelli di ML nel piano dati esistono già in letteratura, tuttavia, tutte le implementazioni dei modelli assorbono parte delle risorse fisiche del piano dati (ad esempio, stage nei programmi P4, slot di memoria negli switch, ecc.). Pertanto, l’ottimizzazione delle implementazioni del piano dati di più mod- elli simultanei con l’obiettivo di condividere risorse fisiche può rivelarsi vantaggiosa, ma è ancora poco studiata. Per questo motivo, questa tesi mira a sviluppare una nuova im- plementazione efficiente in termini di risorse per eseguire simultaneamente più modelli di machine learning sugli switch programmabili P4, concentrandosi sul rilevamento degli attacchi DDoS e sulla classificazione dei flussi di traffico come modelli di classificazione basata su Machine Learning. Sfruttando l’implementazione P4 basata sulle funzional- ità dei modelli di ML, puntiamo a ottimizzare la selezione delle funzionalità nei diversi modelli, tenendo conto delle limitazioni hardware sull’occupazione della memoria e sugli stage P4 e di come queste limitazioni influiscono sulle prestazioni dei classificatori ML in termini di accuratezza della classificazione. Abbiamo scoperto che la condivisione delle feature consente un miglioramento fino al 40% nell’utilizzo degli stage e fino al 55,55% nell’occupazione della memoria, mantenendo le perdite di accuratezza dei modelli in un intervallo dell’1%-2%.
File allegati
File Dimensione Formato  
2025_04_Landi_Tesi.pdf

non accessibile

Descrizione: Testo della Tesi
Dimensione 2.56 MB
Formato Adobe PDF
2.56 MB Adobe PDF   Visualizza/Apri
2025_04_Landi_Executive Summary.pdf

non accessibile

Descrizione: Testo dell'Executive Summary
Dimensione 743.58 kB
Formato Adobe PDF
743.58 kB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/236381