Self-adaptive systems are increasingly incorporating black-box predictive models, such as neural networks, to guide decision-making and adaptation strategies. However, the opacity of these models complicates efforts to clarify the reasoning behind adaptation choices and assess their potential impacts on the environment. Moreover, these adaptation decisions typically result from resource-intensive optimization procedures that navigate vast search spaces while dealing with multiple, often conflicting objectives. The complexity here derives from the challenge of not being able to directly interpret or fully understand the internal workings of black-box models, often necessitating iterative approaches to achieve satisfactory results. To mitigate these challenges, this thesis introduces an explanation-driven approach to self-adaptation that leverages model-agnostic interpretable machine learning techniques, specifically feature importance ranking within the system’s feedback loop. Feature importance ranking, an interpretability method, identifies the key factors influencing adaptation choices, offering deeper insight into the model’s decision-making process. By improving the transparency of predictive models, this technique supports more informed and efficient adaptations, leading to a significant reduction in planning costs. The empirical evaluation, using three case studies (robotics, autonomous flying, and autonomous driving), highlights the cost-effectiveness of our approach in managing the trade-offs between adaptation performance and optimization efficiency.

I sistemi auto-adattivi stanno incorporando sempre più modelli predittivi black-box, come le reti neurali, per guidare le decisioni e le strategie di adattamento. Tuttavia, l'opacità di questi modelli complica gli sforzi per chiarire il ragionamento alla base delle scelte di adattamento e valutare i loro potenziali impatti sull'ambiente. Inoltre, queste decisioni di adattamento derivano tipicamente da procedure di ottimizzazione ad alta intensità di risorse che navigano in spazi di ricerca vasti, gestendo al contempo obiettivi multipli e spesso in conflitto. La complessità qui deriva dalla sfida di non poter interpretare direttamente o comprendere appieno il funzionamento interno dei modelli black-box, il che richiede spesso approcci iterativi per ottenere risultati soddisfacenti. Per mitigare queste sfide, questa tesi introduce un approccio incentrato sull'esplicabilità e sull'auto-adattamento che sfrutta tecniche di apprendimento automatico interpretabile e tecniche agnostiche rispetto ai modelli, in particolare il ranking dell'importanza delle caratteristiche del sistema. Il ranking identifica i fattori chiave che influenzano le scelte di adattamento, offrendo una comprensione più profonda del processo decisionale del modello. Migliorando la trasparenza dei modelli predittivi, questa tecnica supporta adattamenti più precisi ed efficienti, portando a una significativa riduzione dei costi di pianificazione. La valutazione empirica, attraverso tre casi di studio (robotica, volo autonomo e guida autonoma), evidenzia la convenienza di questo approccio nella gestione dei compromessi tra prestazioni di adattamento ed efficienza di ottimizzazione.

Efficient self-adaptation using model-agnostic interpretable machine learning

CORSA, PAOLO
2023/2024

Abstract

Self-adaptive systems are increasingly incorporating black-box predictive models, such as neural networks, to guide decision-making and adaptation strategies. However, the opacity of these models complicates efforts to clarify the reasoning behind adaptation choices and assess their potential impacts on the environment. Moreover, these adaptation decisions typically result from resource-intensive optimization procedures that navigate vast search spaces while dealing with multiple, often conflicting objectives. The complexity here derives from the challenge of not being able to directly interpret or fully understand the internal workings of black-box models, often necessitating iterative approaches to achieve satisfactory results. To mitigate these challenges, this thesis introduces an explanation-driven approach to self-adaptation that leverages model-agnostic interpretable machine learning techniques, specifically feature importance ranking within the system’s feedback loop. Feature importance ranking, an interpretability method, identifies the key factors influencing adaptation choices, offering deeper insight into the model’s decision-making process. By improving the transparency of predictive models, this technique supports more informed and efficient adaptations, leading to a significant reduction in planning costs. The empirical evaluation, using three case studies (robotics, autonomous flying, and autonomous driving), highlights the cost-effectiveness of our approach in managing the trade-offs between adaptation performance and optimization efficiency.
MIRANDOLA, RAFFAELA
ING - Scuola di Ingegneria Industriale e dell'Informazione
11-dic-2024
2023/2024
I sistemi auto-adattivi stanno incorporando sempre più modelli predittivi black-box, come le reti neurali, per guidare le decisioni e le strategie di adattamento. Tuttavia, l'opacità di questi modelli complica gli sforzi per chiarire il ragionamento alla base delle scelte di adattamento e valutare i loro potenziali impatti sull'ambiente. Inoltre, queste decisioni di adattamento derivano tipicamente da procedure di ottimizzazione ad alta intensità di risorse che navigano in spazi di ricerca vasti, gestendo al contempo obiettivi multipli e spesso in conflitto. La complessità qui deriva dalla sfida di non poter interpretare direttamente o comprendere appieno il funzionamento interno dei modelli black-box, il che richiede spesso approcci iterativi per ottenere risultati soddisfacenti. Per mitigare queste sfide, questa tesi introduce un approccio incentrato sull'esplicabilità e sull'auto-adattamento che sfrutta tecniche di apprendimento automatico interpretabile e tecniche agnostiche rispetto ai modelli, in particolare il ranking dell'importanza delle caratteristiche del sistema. Il ranking identifica i fattori chiave che influenzano le scelte di adattamento, offrendo una comprensione più profonda del processo decisionale del modello. Migliorando la trasparenza dei modelli predittivi, questa tecnica supporta adattamenti più precisi ed efficienti, portando a una significativa riduzione dei costi di pianificazione. La valutazione empirica, attraverso tre casi di studio (robotica, volo autonomo e guida autonoma), evidenzia la convenienza di questo approccio nella gestione dei compromessi tra prestazioni di adattamento ed efficienza di ottimizzazione.
File allegati
File Dimensione Formato  
2024_12_Corsa_ExecutiveSummary_02.pdf

accessibile in internet per tutti

Dimensione 720.58 kB
Formato Adobe PDF
720.58 kB Adobe PDF Visualizza/Apri
2024_12_Corsa_Tesi_01.pdf

accessibile in internet per tutti

Dimensione 2.62 MB
Formato Adobe PDF
2.62 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/230350