Edge and Internet of Things (IoT) deployments must sustain reliable, low-latency inference on devices exposed to thermal, electrical, and workload stress, where latency and stability degrade. Existing approaches are largely cloud-centric and seldom profile edge behavior into operational regimes or provide uncertainty-aware guidance for configuration. This study develops a regime-aware workflow to characterize, simulate, and optimize edge behavior under stress. Using controlled experiments on a Raspberry Pi 4B running video analytics with environmental and device telemetry, we clustered operating states into eight regimes and embedded regime-specific predictors in a Digital Twin (DT) routed by a surrogate classifier. Inside this characterization, dynamic regimes used Multilayer Perceptrons (MLPs) with calibrated 90\% prediction intervals (PIs), while a Gaussian Mixture Model (GMM) supported synthetic input generation. The key findings are: regime separation materially improves predictive accuracy in dynamic states; DT-driven Bayesian optimization identifies regime-consistent operating points that reduce execution time within regimes by up to 76\%, with minima as low as 65.8 ms; and the GMM+DT pipeline preserves device-level behavior, with close distributional alignment and conservative interval coverage. Practically, the results enable stress-aware what-if analysis, actionable guard-bands, and configuration policies that edge orchestrators can automate to sustain performance and resilience. Future work will expand devices and tasks, densify boundary data for tighter routing, embed the DT in online orchestration, and learn policies that balance latency and risk.
Le implementazioni edge e Internet of Things (IoT) devono garantire inferenza affidabile e a bassa latenza anche su dispositivi sottoposti a stress termico, elettrico e di carico, contesti nei quali latenza e stabilità tendono a degradarsi. Le soluzioni oggi disponibili, per lo più cloud-centriche, raramente profilano il comportamento dell’edge in distinti regimi operativi o forniscono indicazioni di prestazione con una chiara quantificazione dell’incertezza. Questa tesi propone un workflow “regime-aware” per caratterizzare, simulare e ottimizzare il comportamento dei nodi edge sotto stress. Sono condotti diversi esperimenti su Raspberry Pi 4B, in cui modelli di video analytics per la classificazione sono stati eseguiti sotto condizioni variabili; per ogni esperimento sono state raccolte telemetrie ambientali e di dispositivo. L’analisi dei dati ha individuato otto regimi, corrispondenti ad altrettanti stati operativi, da cui sono stati derivati predittori specifici, successivamente integrati in un Digital Twin (DT). Nei regimi dinamici, la previsione impiega Multilayer Perceptron (MLP) con intervalli di previsione calibrati al 90\%; una Gaussian Mixture Model (GMM) supporta la generazione di input sintetici. I principali risultati sono: (i) la scomposizione per regimi migliora sensibilmente l’accuratezza predittiva nei regimi dinamici; (ii) l’ottimizzazione bayesiana guidata dal DT individua punti di funzionamento coerenti con il regime che riducono i tempi di esecuzione in-regime fino al 76\%, con minimi di 65,8 ms; (iii) la pipeline GMM+DT preserva il comportamento a livello di dispositivo. Operativamente, il framework abilita analisi what-if sensibili allo stress, la definizione di margini di sicurezza (guard-band) e policy di configurazione automatizzabili dagli orchestratori, a supporto di prestazioni e resilienza. Il lavoro futuro include l’estensione a dispositivi e task differenti, l’integrazione del DT in scenari di orchestrazione online e l’apprendimento di policy capaci di bilanciare latenza e rischio.
Data analytics on edge-IoT behaviour towards knowledge retrieval and decision making
RONCHETTI, MARCO
2024/2025
Abstract
Edge and Internet of Things (IoT) deployments must sustain reliable, low-latency inference on devices exposed to thermal, electrical, and workload stress, where latency and stability degrade. Existing approaches are largely cloud-centric and seldom profile edge behavior into operational regimes or provide uncertainty-aware guidance for configuration. This study develops a regime-aware workflow to characterize, simulate, and optimize edge behavior under stress. Using controlled experiments on a Raspberry Pi 4B running video analytics with environmental and device telemetry, we clustered operating states into eight regimes and embedded regime-specific predictors in a Digital Twin (DT) routed by a surrogate classifier. Inside this characterization, dynamic regimes used Multilayer Perceptrons (MLPs) with calibrated 90\% prediction intervals (PIs), while a Gaussian Mixture Model (GMM) supported synthetic input generation. The key findings are: regime separation materially improves predictive accuracy in dynamic states; DT-driven Bayesian optimization identifies regime-consistent operating points that reduce execution time within regimes by up to 76\%, with minima as low as 65.8 ms; and the GMM+DT pipeline preserves device-level behavior, with close distributional alignment and conservative interval coverage. Practically, the results enable stress-aware what-if analysis, actionable guard-bands, and configuration policies that edge orchestrators can automate to sustain performance and resilience. Future work will expand devices and tasks, densify boundary data for tighter routing, embed the DT in online orchestration, and learn policies that balance latency and risk.| File | Dimensione | Formato | |
|---|---|---|---|
|
2025_12_Ronchetti.pdf
non accessibile
Descrizione: Testo Tesi
Dimensione
9.43 MB
Formato
Adobe PDF
|
9.43 MB | Adobe PDF | Visualizza/Apri |
|
2025_12_Ronchetti_Executive_Summary.pdf
non accessibile
Descrizione: Testo Executive Summary
Dimensione
1.47 MB
Formato
Adobe PDF
|
1.47 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/246300