This Thesis addresses the need for Predictive Maintenance (PM) solutions that are not only accurate but also trustworthy. While Machine Learning (ML) has fostered increasingly advanced predictive capabilities, many state-of-the-art models remain opaque, limiting their adoption in safety-critical domains such as Aerospace and Aeronautics. In these contexts, where regulatory oversight and human safety are paramount, transparency must be balanced against accuracy. To meet this challenge, we put forth a hierarchy of needs for PM applications in high-risk settings, emphasizing interpretability, explainability, and actionability as primary requirements. Within this framework, the Mixture of Experts (MoE) architecture is identified as a starting point for reconciling fidelity with intelligibility. A cornerstone of the work is the introduction of CoCoAFusE, a novel Bayesian extension of MoEs. CoCoAFusE explicitly addresses the interplay between expert sub-models, offering analysts richer insights and broader representational capabilities towards complex data-generating mechanisms. Additional explainability tools are developed for both MoEs and CoCoAFusE, enhancing their applicability in dynamical system modeling and fault detection tasks. Empirical validation on synthetic data, public benchmarks, and industrial case studies demonstrates that CoCoAFusE can deliver accurate, transparent, and actionable predictions. Overall, this work aims at shrinking the gap between black-box effectiveness and human insights, contributing to the design of responsible AI systems that are both effective and trustworthy in critical engineering domains.

Questa Tesi ha per oggetto la necessità di soluzioni di Manutenzione Predittiva (PM) non solo accurate, ma anche affidabili. Sebbene il Machine Learning (ML) abbia permesso capacità predittive sempre più elevate, molti modelli all'avanguardia restano poco trasparenti, limitandone l'adozione in settori critici per la sicurezza, come quelli aerospaziali e aeronautici. In questi contesti, in cui la supervisione normativa e la sicurezza umana sono fondamentali, la trasparenza va bilanciata con l'accuratezza. Per affrontare questa sfida, proponiamo una gerarchia di valori per le applicazioni di PM in contesti ad alto rischio, enfatizzando l’interpretabilità, la spiegabilità e l’attuabilità come requisiti primari. In questo contesto, l'architettura Mixture of Experts (MoE) è adottata come punto di partenza per conciliare accuratezza e intelligibilità. Un pilastro del lavoro è l'introduzione di CoCoAFusE, un'estensione bayesiana dei MoE. CoCoAFusE descrive direttamente l'interazione tra sottomodelli esperti, offrendo agli analisti una prospettiva più approfondita sulla rappresentazione di meccanismi complessi di generazione dei dati. La Tesi introduce ulteriori strumenti di spiegabilità sia per i MoE sia per CoCoAFusE, migliorandone l'applicabilità nella descrizione di sistemi dinamici e nel rilevamento dei guasti. La validazione empirica su dati sintetici, benchmark pubblici e casi di studio industriali dimostra che CoCoAFusE può fornire previsioni accurate, trasparenti e attuabili. Nel complesso, questo lavoro mira a ridurre il divario tra l'efficacia degli approcci a "scatola nera" e le intuizioni umane, contribuendo alla progettazione di sistemi di intelligenza artificiale responsabili, efficaci e affidabili in ambiti ingegneristici critici.

Multi-model methods for explainable predictive maintenance of aeronautical systems

RAFFA UGOLINI, AURELIO
2025/2026

Abstract

This Thesis addresses the need for Predictive Maintenance (PM) solutions that are not only accurate but also trustworthy. While Machine Learning (ML) has fostered increasingly advanced predictive capabilities, many state-of-the-art models remain opaque, limiting their adoption in safety-critical domains such as Aerospace and Aeronautics. In these contexts, where regulatory oversight and human safety are paramount, transparency must be balanced against accuracy. To meet this challenge, we put forth a hierarchy of needs for PM applications in high-risk settings, emphasizing interpretability, explainability, and actionability as primary requirements. Within this framework, the Mixture of Experts (MoE) architecture is identified as a starting point for reconciling fidelity with intelligibility. A cornerstone of the work is the introduction of CoCoAFusE, a novel Bayesian extension of MoEs. CoCoAFusE explicitly addresses the interplay between expert sub-models, offering analysts richer insights and broader representational capabilities towards complex data-generating mechanisms. Additional explainability tools are developed for both MoEs and CoCoAFusE, enhancing their applicability in dynamical system modeling and fault detection tasks. Empirical validation on synthetic data, public benchmarks, and industrial case studies demonstrates that CoCoAFusE can deliver accurate, transparent, and actionable predictions. Overall, this work aims at shrinking the gap between black-box effectiveness and human insights, contributing to the design of responsible AI systems that are both effective and trustworthy in critical engineering domains.
SECCHI, PIERCESARE
ROVERI, MANUEL
23-feb-2026
Multi-model methods for explainable predictive maintenance of aeronautical systems
Questa Tesi ha per oggetto la necessità di soluzioni di Manutenzione Predittiva (PM) non solo accurate, ma anche affidabili. Sebbene il Machine Learning (ML) abbia permesso capacità predittive sempre più elevate, molti modelli all'avanguardia restano poco trasparenti, limitandone l'adozione in settori critici per la sicurezza, come quelli aerospaziali e aeronautici. In questi contesti, in cui la supervisione normativa e la sicurezza umana sono fondamentali, la trasparenza va bilanciata con l'accuratezza. Per affrontare questa sfida, proponiamo una gerarchia di valori per le applicazioni di PM in contesti ad alto rischio, enfatizzando l’interpretabilità, la spiegabilità e l’attuabilità come requisiti primari. In questo contesto, l'architettura Mixture of Experts (MoE) è adottata come punto di partenza per conciliare accuratezza e intelligibilità. Un pilastro del lavoro è l'introduzione di CoCoAFusE, un'estensione bayesiana dei MoE. CoCoAFusE descrive direttamente l'interazione tra sottomodelli esperti, offrendo agli analisti una prospettiva più approfondita sulla rappresentazione di meccanismi complessi di generazione dei dati. La Tesi introduce ulteriori strumenti di spiegabilità sia per i MoE sia per CoCoAFusE, migliorandone l'applicabilità nella descrizione di sistemi dinamici e nel rilevamento dei guasti. La validazione empirica su dati sintetici, benchmark pubblici e casi di studio industriali dimostra che CoCoAFusE può fornire previsioni accurate, trasparenti e attuabili. Nel complesso, questo lavoro mira a ridurre il divario tra l'efficacia degli approcci a "scatola nera" e le intuizioni umane, contribuendo alla progettazione di sistemi di intelligenza artificiale responsabili, efficaci e affidabili in ambiti ingegneristici critici.
File allegati
File Dimensione Formato  
thesis_camera_ready.pdf

non accessibile

Descrizione: Manuscript
Dimensione 9.07 MB
Formato Adobe PDF
9.07 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/249157