Adaptive mesh refinement is central to the efficient solution of partial differential equations (PDEs) by means of finite element methods (FEM). Classical r-adaptivity optimizes vertex positions but requires solving expensive auxiliary PDEs such as the Monge-Ampère equation, while classical h-adaptivity modifies topology through element subdivision but suffers from computationally expensive error indicator computation and remains fundamentally constrained by isotropic refinement patterns that impose accuracy ceilings. Combined hr-adaptive techniques naturally outperform single-modality approaches, yet they inherit both computational bottlenecks and the restricted cost-accuracy trade-off. An emerging field of machine learning methods for adaptive mesh refinement has sought to overcome these limitations, but existing approaches address h-adaptivity or r-adaptivity in isolation. In this respect, we present HypeR, a deep reinforcement learning framework that jointly optimizes mesh relocation and refinement in a unified formulation. HypeR casts the joint adaptation problem using tools from hypergraph neural networks and multi-agent reinforcement learning. Refinement is formulated as a heterogeneous multi-agent Markov Decision Process where a swarm of element agents decide discrete refinement actions, while relocation is implemented as an anisotropic diffusion-based policy operating on vertex agents with provable prevention of mesh tangling. The reward function combines local and global error reduction to promote general accuracy. Across benchmark PDEs, HypeR reduces approximation error by up to 6--10$\times$ versus state-of-art h-adaptive baselines at comparable element counts, breaking through the uniform refinement accuracy ceiling that constrains subdivision-only methods. The framework produces meshes with improved shape metrics and alignment to solution anisotropy, demonstrating that jointly learned hr-adaptivity strategies can substantially enhance the capabilities of automated mesh generation.

Il raffinamento adattivo delle maglie è centrale per la risoluzione efficiente di equazioni alle derivate parziali (PDE) mediante metodi agli elementi finiti (FEM). La r-adaptivity classica ottimizza le posizioni dei vertici ma richiede la risoluzione di costose PDE ausiliarie come l'equazione di Monge-Ampère, mentre la h-adaptivity classica modifica la topologia attraverso la suddivisione degli elementi ma soffre di computazioni di indicatori di errore computazionalmente costose e rimane fondamentalmente vincolata da pattern di raffinamento isotropi che impongono limiti di accuratezza. Le tecniche hr-adaptive combinate ottengono naturalmente prestazioni superiori rispetto agli approcci che utilizzano una sola modalità, ma ereditano entrambe le limitazioni: i colli di bottiglia computazionali e il compromesso limitato tra costo e accuratezza. Un campo emergente di metodi di machine learning per il raffinamento adattivo delle maglie ha cercato di superare queste limitazioni, ma gli approcci esistenti affrontano h-adaptivity o r-adaptivity in modo isolato. A questo riguardo, presentiamo HypeR, un framework di deep reinforcement learning che ottimizza congiuntamente la rilocazione e il raffinamento delle maglie in una formulazione unificata. HypeR formula il problema di adattamento congiunto utilizzando strumenti provenienti dalle reti neurali su ipergrafi e dal reinforcement learning multi-agente. Il raffinamento è formulato come un Processo di Decisione Markoviano multi-agente eterogeneo dove uno sciame di agenti elemento decide azioni di raffinamento discrete, mentre la rilocazione è implementata come una policy basata su diffusione anisotropa operante su agenti vertice con prevenzione dimostrabile del tangling delle maglie. La funzione di reward combina la riduzione dell'errore locale e globale per promuovere l'accuratezza generale. Su PDE benchmark, HypeR riduce l'errore di approssimazione fino a 6--10$\times$ rispetto alle baseline h-adaptive allo stato dell'arte con conteggi di elementi comparabili, superando il limite di accuratezza del raffinamento uniforme che vincola i metodi basati solo su suddivisione. Il framework produce maglie con metriche di forma migliorate e allineamento all'anisotropia della soluzione, dimostrando che strategie di hr-adaptivity apprese congiuntamente possono sostanzialmente migliorare le capacità della generazione automatica di maglie.

HypeR adaptivity: joint hr-adaptive meshing via hypergraph multi-agent deep reinforcement learning

Grillo, Niccolo
2024/2025

Abstract

Adaptive mesh refinement is central to the efficient solution of partial differential equations (PDEs) by means of finite element methods (FEM). Classical r-adaptivity optimizes vertex positions but requires solving expensive auxiliary PDEs such as the Monge-Ampère equation, while classical h-adaptivity modifies topology through element subdivision but suffers from computationally expensive error indicator computation and remains fundamentally constrained by isotropic refinement patterns that impose accuracy ceilings. Combined hr-adaptive techniques naturally outperform single-modality approaches, yet they inherit both computational bottlenecks and the restricted cost-accuracy trade-off. An emerging field of machine learning methods for adaptive mesh refinement has sought to overcome these limitations, but existing approaches address h-adaptivity or r-adaptivity in isolation. In this respect, we present HypeR, a deep reinforcement learning framework that jointly optimizes mesh relocation and refinement in a unified formulation. HypeR casts the joint adaptation problem using tools from hypergraph neural networks and multi-agent reinforcement learning. Refinement is formulated as a heterogeneous multi-agent Markov Decision Process where a swarm of element agents decide discrete refinement actions, while relocation is implemented as an anisotropic diffusion-based policy operating on vertex agents with provable prevention of mesh tangling. The reward function combines local and global error reduction to promote general accuracy. Across benchmark PDEs, HypeR reduces approximation error by up to 6--10$\times$ versus state-of-art h-adaptive baselines at comparable element counts, breaking through the uniform refinement accuracy ceiling that constrains subdivision-only methods. The framework produces meshes with improved shape metrics and alignment to solution anisotropy, demonstrating that jointly learned hr-adaptivity strategies can substantially enhance the capabilities of automated mesh generation.
LIÒ, PIETRO
SCHÖNLIEB, CAROLA-BIBIANE
ING - Scuola di Ingegneria Industriale e dell'Informazione
23-ott-2025
2024/2025
Il raffinamento adattivo delle maglie è centrale per la risoluzione efficiente di equazioni alle derivate parziali (PDE) mediante metodi agli elementi finiti (FEM). La r-adaptivity classica ottimizza le posizioni dei vertici ma richiede la risoluzione di costose PDE ausiliarie come l'equazione di Monge-Ampère, mentre la h-adaptivity classica modifica la topologia attraverso la suddivisione degli elementi ma soffre di computazioni di indicatori di errore computazionalmente costose e rimane fondamentalmente vincolata da pattern di raffinamento isotropi che impongono limiti di accuratezza. Le tecniche hr-adaptive combinate ottengono naturalmente prestazioni superiori rispetto agli approcci che utilizzano una sola modalità, ma ereditano entrambe le limitazioni: i colli di bottiglia computazionali e il compromesso limitato tra costo e accuratezza. Un campo emergente di metodi di machine learning per il raffinamento adattivo delle maglie ha cercato di superare queste limitazioni, ma gli approcci esistenti affrontano h-adaptivity o r-adaptivity in modo isolato. A questo riguardo, presentiamo HypeR, un framework di deep reinforcement learning che ottimizza congiuntamente la rilocazione e il raffinamento delle maglie in una formulazione unificata. HypeR formula il problema di adattamento congiunto utilizzando strumenti provenienti dalle reti neurali su ipergrafi e dal reinforcement learning multi-agente. Il raffinamento è formulato come un Processo di Decisione Markoviano multi-agente eterogeneo dove uno sciame di agenti elemento decide azioni di raffinamento discrete, mentre la rilocazione è implementata come una policy basata su diffusione anisotropa operante su agenti vertice con prevenzione dimostrabile del tangling delle maglie. La funzione di reward combina la riduzione dell'errore locale e globale per promuovere l'accuratezza generale. Su PDE benchmark, HypeR riduce l'errore di approssimazione fino a 6--10$\times$ rispetto alle baseline h-adaptive allo stato dell'arte con conteggi di elementi comparabili, superando il limite di accuratezza del raffinamento uniforme che vincola i metodi basati solo su suddivisione. Il framework produce maglie con metriche di forma migliorate e allineamento all'anisotropia della soluzione, dimostrando che strategie di hr-adaptivity apprese congiuntamente possono sostanzialmente migliorare le capacità della generazione automatica di maglie.
File allegati
File Dimensione Formato  
2025_10_Grillo_executive.pdf

accessibile in internet per tutti a partire dal 30/09/2026

Descrizione: EXECUTIVE SUMMARY
Dimensione 2.04 MB
Formato Adobe PDF
2.04 MB Adobe PDF   Visualizza/Apri
2025_10_Grillo_main.pdf

accessibile in internet per tutti a partire dal 30/09/2026

Descrizione: TESI PRINCIPALE - FORMATO ARTICOLO SCIENTIFICO
Dimensione 7.65 MB
Formato Adobe PDF
7.65 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/243714