This thesis presents novel artificial intelligence approaches to perform mesh adaptivity for finite element methods to solve partial differential problems where the solution is characterized by steep gradients. Engineers and scientists use finite element methods to model real-world phenomena that range between electromagnetics, structural mechanics, acoustic, fluid flow, heat transfer, and mass transport. The attainable accuracy depends on the resolution of the mesh that subdivides the physical domain into smaller elemental units called finite elements. As the finite elements that discretize the domain are reduced in size, the mesh increases resolution, and the numerical finite element solution approaches the exact solution to the partial differential problem. Increasing the resolution of the mesh improves the accuracy of the finite element approximation, but it also makes the numerical approach more expensive. To cope with this duality, a family of numerical methods called mesh adaptivity has been studied to design a mesh that attains an optimal compromise between desired accuracy and limited computational budget. The optimality criterion that drives the creation of an adapted mesh aims at optimizing a quantity of interest that estimates the error between the numerical solution and the unknown exact solution. When a functional evaluated on the numerical solution is used as error estimator to steer the mesh adaptivity, the approach is defined as goal-oriented. Standard goal-oriented mesh adaptivity is formulated as a control problem that requires solving the primal and the dual PDEs iteratively, and the number of iterations needed for the adapted mesh to converge (generally large) makes the goal oriented mesh adaptivity procedure computationally inconvenient. To reduce the computational cost of goal oriented mesh adaptivity, we present a new deep reinforcement learning (Deep RL) approach that formulates adaptive mesh as a Markov decision process (MDP) where an Agent is trained to autonomously adapt the computational grid to minimize a specific error estimator. Once the training of the Deep RL Agent is complete, the agent is validated by performing mesh adaptivity on partial differential equations and using error estimators different from the ones used during the training. The numerical studies conducted for validation confirm that the performance of the trained Deep RL agent is transferable to a broad class of partial differential problems and error estimators, and the computational time spent to perform mesh adaptivity with a pre-trained Deep RL agent is orders of magnitude smaller than the computational time spent by state-of-the-art goal oriented mesh adaptivity.

Questa tesi presenta nuovi approcci relativi all’ambito dell’adattazione di griglia ad elementi finiti. Usando metodi di intelligenza artificiale, si risolvono problemi differenziali parziali dove la soluzione è caratterizzata da forti gradienti. Metodi agli elementi finiti sono utilizzati per modellare fenomeni del mondo reale che spaziano tra elettromagnetismo, meccanica strutturale, acustica, flusso di fluidi, trasferimento di calore e trasporto di massa. La precisione raggiungibile dipende dalla risoluzione della griglia che suddivide il dominio fisico in unità elementari più piccole chiamate elementi finiti. L’aumento della risoluzione ne migliora la precisione, ma rende l’approccio numerico più oneroso. Per far fronte a questa dualità, esistono metodi numerici chiamati adattività di griglia che consentono di modellare una griglia raggiungendo un compromesso ottimale tra la precisione desiderata e costo computazionale. Quando è utilizzato un funzionale, come stimatore dell’errore per guidare l’adattazione della griglia, l’approccio è definito come goal-oriented. L’adattamento goal-oriented è formulato come un problema di controllo che richiede la risoluzione delle PDE primarie e duali iterativamente, e il numero di iterazioni necessarie affinché la griglia adattata converga (generalmente grande) rende la procedura di adattazione goal-oriented computazionalmente dispendiosa. Per ridurne il costo computazionale, presentiamo un nuovo approccio di deep reinforcement learning (Deep RL) che formula l’adattazione di griglia come un Markov Decision Process (MDP) dove un agente viene addestrato per adattare autonomamente la griglia computazionale minimizzando uno specifico stimatore dell’errore. Al termine dell’addestramento, l’agente viene validato eseguendo l’adattazione della griglia su equazioni differenziali parziali e utilizzando stimatori di errore diversi da quelli utilizzati durante l’addestramento. Gli studi numerici condotti per la validazione confermano che le prestazioni raggiunte sono trasferibili ad un’ampia classe di problemi differenziali parziali e stimatori di errore, e il tempo computazionale speso da un agente pre-addestrato è inferiore di alcuni ordini di grandezza rispetto al tempo computazionale speso dall’adattamento goal-oriented allo stato dell’arte.

Reinforcement learning for mesh adaptivity

MADDES, EVANDRO
2020/2021

Abstract

This thesis presents novel artificial intelligence approaches to perform mesh adaptivity for finite element methods to solve partial differential problems where the solution is characterized by steep gradients. Engineers and scientists use finite element methods to model real-world phenomena that range between electromagnetics, structural mechanics, acoustic, fluid flow, heat transfer, and mass transport. The attainable accuracy depends on the resolution of the mesh that subdivides the physical domain into smaller elemental units called finite elements. As the finite elements that discretize the domain are reduced in size, the mesh increases resolution, and the numerical finite element solution approaches the exact solution to the partial differential problem. Increasing the resolution of the mesh improves the accuracy of the finite element approximation, but it also makes the numerical approach more expensive. To cope with this duality, a family of numerical methods called mesh adaptivity has been studied to design a mesh that attains an optimal compromise between desired accuracy and limited computational budget. The optimality criterion that drives the creation of an adapted mesh aims at optimizing a quantity of interest that estimates the error between the numerical solution and the unknown exact solution. When a functional evaluated on the numerical solution is used as error estimator to steer the mesh adaptivity, the approach is defined as goal-oriented. Standard goal-oriented mesh adaptivity is formulated as a control problem that requires solving the primal and the dual PDEs iteratively, and the number of iterations needed for the adapted mesh to converge (generally large) makes the goal oriented mesh adaptivity procedure computationally inconvenient. To reduce the computational cost of goal oriented mesh adaptivity, we present a new deep reinforcement learning (Deep RL) approach that formulates adaptive mesh as a Markov decision process (MDP) where an Agent is trained to autonomously adapt the computational grid to minimize a specific error estimator. Once the training of the Deep RL Agent is complete, the agent is validated by performing mesh adaptivity on partial differential equations and using error estimators different from the ones used during the training. The numerical studies conducted for validation confirm that the performance of the trained Deep RL agent is transferable to a broad class of partial differential problems and error estimators, and the computational time spent to perform mesh adaptivity with a pre-trained Deep RL agent is orders of magnitude smaller than the computational time spent by state-of-the-art goal oriented mesh adaptivity.
PASINI, MASSIMILIANO LUPO
ING - Scuola di Ingegneria Industriale e dell'Informazione
21-dic-2021
2020/2021
Questa tesi presenta nuovi approcci relativi all’ambito dell’adattazione di griglia ad elementi finiti. Usando metodi di intelligenza artificiale, si risolvono problemi differenziali parziali dove la soluzione è caratterizzata da forti gradienti. Metodi agli elementi finiti sono utilizzati per modellare fenomeni del mondo reale che spaziano tra elettromagnetismo, meccanica strutturale, acustica, flusso di fluidi, trasferimento di calore e trasporto di massa. La precisione raggiungibile dipende dalla risoluzione della griglia che suddivide il dominio fisico in unità elementari più piccole chiamate elementi finiti. L’aumento della risoluzione ne migliora la precisione, ma rende l’approccio numerico più oneroso. Per far fronte a questa dualità, esistono metodi numerici chiamati adattività di griglia che consentono di modellare una griglia raggiungendo un compromesso ottimale tra la precisione desiderata e costo computazionale. Quando è utilizzato un funzionale, come stimatore dell’errore per guidare l’adattazione della griglia, l’approccio è definito come goal-oriented. L’adattamento goal-oriented è formulato come un problema di controllo che richiede la risoluzione delle PDE primarie e duali iterativamente, e il numero di iterazioni necessarie affinché la griglia adattata converga (generalmente grande) rende la procedura di adattazione goal-oriented computazionalmente dispendiosa. Per ridurne il costo computazionale, presentiamo un nuovo approccio di deep reinforcement learning (Deep RL) che formula l’adattazione di griglia come un Markov Decision Process (MDP) dove un agente viene addestrato per adattare autonomamente la griglia computazionale minimizzando uno specifico stimatore dell’errore. Al termine dell’addestramento, l’agente viene validato eseguendo l’adattazione della griglia su equazioni differenziali parziali e utilizzando stimatori di errore diversi da quelli utilizzati durante l’addestramento. Gli studi numerici condotti per la validazione confermano che le prestazioni raggiunte sono trasferibili ad un’ampia classe di problemi differenziali parziali e stimatori di errore, e il tempo computazionale speso da un agente pre-addestrato è inferiore di alcuni ordini di grandezza rispetto al tempo computazionale speso dall’adattamento goal-oriented allo stato dell’arte.
File allegati
File Dimensione Formato  
2021_12_Maddes.pdf

non accessibile

Descrizione: Executive summary and thesis work
Dimensione 29.99 MB
Formato Adobe PDF
29.99 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/182936