This thesis presents the methodology adopted to understand the decision-making process of artificial intelligence used in a structural monitoring application. The latter is an integral part of predictive maintenance, in which sensors placed on critical components are widely used to acquire real-time measurements useful to diagnose any structural damage. This maintenance strategy has become essential to guarantee the stringent safety standards required in the aeronautical sector, which is why over the years efforts have been made to make the diagnostic process intelligent and fully automatic. The help of neural networks has made this possible, but has also entailed some difficulties. The main cause of these difficulties is often the loss of control over their actions, which may not act on the given instructions. It is therefore important to anticipate and explain the decision-making process that leads the machine to dictate a choice. The proposed case study consists of a thin aluminium panel, instrumented with piezoelectric sensors that allow excitation of elastic waves and acquisition in time histories. This strategy allows the detection of faults thanks to the alterations undergone by the measured signals. The latter, obtained through a numerical model for different damage conditions, were transformed into grey scale images and then collected in different datasets, which were used to train convolutional neural networks in a supervised manner. The predictions obtained were interpreted by means of an innovative explainability algorithm, known as Layer-wise Relevance Propagation. The latter performs a backward propagation of the relevance starting from the output and then reaching, layer by layer, the input of the neural network. The result is a heatmap of relevance, from which it is possible to extract useful information in order to understand the decision-making process and deduce new guidelines to follow. In the first part of this thesis the whole procedure to implement the explainability algorithm, to interpret the heatmaps and to obtain understandable results is shown. Instead, the second part is focused on the obtained results, where thanks to the explainability it has been possible to open the black boxes of the convolutional neural networks. This allowed a gain of knowledge about the model compared to the initial situation. In addition, the physical correlation of the results obtained made it possible to increase the level of reliability and trust on the part of the end user. The latter plays a fundamental role in making a new technology ethically accepted by the whole society.

In questa tesi è presentata la metodologia adottata per comprendere il processo decisionale dell'intelligenza artificiale impiegata in un'applicazione di monitoraggio strutturale. Quest'ultima è parte integrante delle manutenzioni predittive, nelle quali si fa largo uso di sensori posizionati sulle componenti critiche, in modo tale da acquisire in tempo reale misurazioni utili per diagnosticare eventuali danni strutturali. Questa strategia manutentiva è divenuta fondamentale per garantire gli stringenti standard di sicurezza richiesti in ambito aeronautico, per questo motivo negli anni si è cercato di rendere il processo diagnostico intelligente e completamente automatico. L'ausilio delle reti neurali ha reso possibile tutto ciò, ma ha anche portato dietro con sé alcune difficoltà legate a questo mondo. La causa principale di queste criticità è spesso dovuta alla perdita del controllo delle loro azioni, le quali potrebbero non agire sulla base delle istruzioni date. Risulta quindi importante prevedere e spiegare il processo decisionale che conduce la macchina a dettare una scelta. Il caso studio proposto consiste in un pannello sottile di alluminio, strumentato con sensori piezoelettrici che permettono l'eccitazione di onde elastiche e l'acquisizione in storie temporali. Questa strategia consente l'individuazione di difettologie grazie alle alterazioni che subiscono i segnali misurati. Quest'ultimi, ottenuti attraverso un modello numerico per diverse condizioni di danno, sono stati trasformati in immagini in scala di grigio per poi essere raccolti in diversi dataset, i quali sono stati impiegati per addestrare in modo supervisionato le reti neurali convolutive. Le predizioni così ottenute sono state interpretate attraverso un innovativo algoritmo di spiegabilità, noto come Layer-wise Relevance Propagation. Quest'ultimo esegue una propagazione all'indietro della rilevanza partendo dall'output per poi raggiungere, strato per strato, l'input della rete neurale. Il risultato è una heatmap di rilevanza, dalla quale è possibile estrarre informazioni utili al fine di comprendere il processo decisionale e dedurre nuove linee guida da seguire. Nella prima parte di questa tesi è mostrata l'intera procedura per implementare l'algoritmo di spiegabilità, per interpretare le heatmap e per ottenere risultati comprensibili. La seconda parte invece è concentrata sui risultati ottenuti, dove grazie alla spiegabilità è stato possibile aprire le scatole nere delle reti neurali convolutive. Questo ha permesso di acquisire un guadagno di conoscenze sul modello rispetto alla situazione iniziale, inoltre la correlazione fisica dei risultati ottenuti ha permesso di incrementare il livello di affidabilità e fiducia da parte dell'utente finale. Quest'ultima infatti gioca un ruolo fondamentale per rendere una nuova tecnologia eticamente accettata dall'intera società.

Explainable convolutional neural networks for trustworthy structural health monitoring

Fabiano, Stefano
2020/2021

Abstract

This thesis presents the methodology adopted to understand the decision-making process of artificial intelligence used in a structural monitoring application. The latter is an integral part of predictive maintenance, in which sensors placed on critical components are widely used to acquire real-time measurements useful to diagnose any structural damage. This maintenance strategy has become essential to guarantee the stringent safety standards required in the aeronautical sector, which is why over the years efforts have been made to make the diagnostic process intelligent and fully automatic. The help of neural networks has made this possible, but has also entailed some difficulties. The main cause of these difficulties is often the loss of control over their actions, which may not act on the given instructions. It is therefore important to anticipate and explain the decision-making process that leads the machine to dictate a choice. The proposed case study consists of a thin aluminium panel, instrumented with piezoelectric sensors that allow excitation of elastic waves and acquisition in time histories. This strategy allows the detection of faults thanks to the alterations undergone by the measured signals. The latter, obtained through a numerical model for different damage conditions, were transformed into grey scale images and then collected in different datasets, which were used to train convolutional neural networks in a supervised manner. The predictions obtained were interpreted by means of an innovative explainability algorithm, known as Layer-wise Relevance Propagation. The latter performs a backward propagation of the relevance starting from the output and then reaching, layer by layer, the input of the neural network. The result is a heatmap of relevance, from which it is possible to extract useful information in order to understand the decision-making process and deduce new guidelines to follow. In the first part of this thesis the whole procedure to implement the explainability algorithm, to interpret the heatmaps and to obtain understandable results is shown. Instead, the second part is focused on the obtained results, where thanks to the explainability it has been possible to open the black boxes of the convolutional neural networks. This allowed a gain of knowledge about the model compared to the initial situation. In addition, the physical correlation of the results obtained made it possible to increase the level of reliability and trust on the part of the end user. The latter plays a fundamental role in making a new technology ethically accepted by the whole society.
CADINI, FRANCESCO
LOMAZZI, LUCA
ING - Scuola di Ingegneria Industriale e dell'Informazione
23-lug-2021
2020/2021
In questa tesi è presentata la metodologia adottata per comprendere il processo decisionale dell'intelligenza artificiale impiegata in un'applicazione di monitoraggio strutturale. Quest'ultima è parte integrante delle manutenzioni predittive, nelle quali si fa largo uso di sensori posizionati sulle componenti critiche, in modo tale da acquisire in tempo reale misurazioni utili per diagnosticare eventuali danni strutturali. Questa strategia manutentiva è divenuta fondamentale per garantire gli stringenti standard di sicurezza richiesti in ambito aeronautico, per questo motivo negli anni si è cercato di rendere il processo diagnostico intelligente e completamente automatico. L'ausilio delle reti neurali ha reso possibile tutto ciò, ma ha anche portato dietro con sé alcune difficoltà legate a questo mondo. La causa principale di queste criticità è spesso dovuta alla perdita del controllo delle loro azioni, le quali potrebbero non agire sulla base delle istruzioni date. Risulta quindi importante prevedere e spiegare il processo decisionale che conduce la macchina a dettare una scelta. Il caso studio proposto consiste in un pannello sottile di alluminio, strumentato con sensori piezoelettrici che permettono l'eccitazione di onde elastiche e l'acquisizione in storie temporali. Questa strategia consente l'individuazione di difettologie grazie alle alterazioni che subiscono i segnali misurati. Quest'ultimi, ottenuti attraverso un modello numerico per diverse condizioni di danno, sono stati trasformati in immagini in scala di grigio per poi essere raccolti in diversi dataset, i quali sono stati impiegati per addestrare in modo supervisionato le reti neurali convolutive. Le predizioni così ottenute sono state interpretate attraverso un innovativo algoritmo di spiegabilità, noto come Layer-wise Relevance Propagation. Quest'ultimo esegue una propagazione all'indietro della rilevanza partendo dall'output per poi raggiungere, strato per strato, l'input della rete neurale. Il risultato è una heatmap di rilevanza, dalla quale è possibile estrarre informazioni utili al fine di comprendere il processo decisionale e dedurre nuove linee guida da seguire. Nella prima parte di questa tesi è mostrata l'intera procedura per implementare l'algoritmo di spiegabilità, per interpretare le heatmap e per ottenere risultati comprensibili. La seconda parte invece è concentrata sui risultati ottenuti, dove grazie alla spiegabilità è stato possibile aprire le scatole nere delle reti neurali convolutive. Questo ha permesso di acquisire un guadagno di conoscenze sul modello rispetto alla situazione iniziale, inoltre la correlazione fisica dei risultati ottenuti ha permesso di incrementare il livello di affidabilità e fiducia da parte dell'utente finale. Quest'ultima infatti gioca un ruolo fondamentale per rendere una nuova tecnologia eticamente accettata dall'intera società.
File allegati
File Dimensione Formato  
2021_07_Fabiano.pdf

non accessibile

Dimensione 4.92 MB
Formato Adobe PDF
4.92 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/177277