Mixed-Dimensional PDEs arise in multiscale applications where lower-dimensional structures interact with a surrounding higher-dimensional medium, leading to large and often ill-conditioned problems at the continuous and discrete levels. These difficulties become more pronounced when we consider parametrized settings that embrace the geometric variability of the lower-dimensional manifold. In this thesis, we develop solution and preconditioning strategies for the discretization of parametrized 3D-1D mixed-dimensional problems, leveraging on the interaction between computational learning and numerical linear algebra. At the core of this effort is the Neural Preconditioner (NeP), a learnable non-linear preconditioning operator that generalizes across the geometric parameter space and significantly accelerates the convergence of iterative solvers over all considered parametric configurations. Two unsupervised training strategies are proposed and analyzed: a static approach that improves problem conditioning by acting on the operator spectrum, and a dynamic strategy that couples the NeP with the convergence properties of Krylov iterative methods. The resulting preconditioners demonstrate efficiency, robustness, and generalization across geometric configurations, discretizations, and problem scales. The thesis further investigates the use of neural surrogates within a Domain Decomposition framework, with the objective of developing a scalable and efficient reduced-order modeling strategy for mixed-dimensional problems. In parallel, we develop the saddle-point formulation of mixed-dimensional 3D-1D systems and discuss an operator preconditioner for it, uncovering intrinsic robustness limitations tied to geometric degeneracy of the mixed dimensional coupling operator. Together, these contributions highlight the potential of combining numerical linear algebra with machine-learning-based preconditioning to overcome the challenges of parametrized mixed-dimensional problems, establishing the basis for fast, adaptable, and scalable solvers.

Le equazioni alle derivate parziali miste-dimensionali emergono in applicazioni multiscala in cui strutture di dimensione topologica inferiore interagiscono con un mezzo circostante a dimensione topologica superiore, dando luogo a problemi di grandi dimensioni e spesso mal condizionati, sia a livello continuo sia discreto. Tali difficoltà diventano ancora più evidenti quando si considerano contesti parametrizzati che includono la variabilità geometrica della varietà a dimensione inferiore. In questa tesi sviluppiamo strategie di risoluzione e di precondizionamento per la discretizzazione di problemi misto-dimensionali parametrizzati 3D-1D, sfruttando l’interazione tra apprendimento computazionale e algebra lineare numerica. Al centro di questo lavoro vi è il Neural Preconditioner (NeP), un operatore di precondizionamento non lineare apprendibile che generalizza sull’intero spazio dei parametri geometrici e accelera in modo significativo la convergenza dei solutori iterativi per tutte le configurazioni parametriche considerate. Vengono proposte e analizzate due strategie di addestramento non supervisionato: un approccio statico, che migliora il condizionamento del problema agendo sullo spettro dell’operatore, e una strategia dinamica, che accoppia il NeP con le proprietà di convergenza dei metodi iterativi di Krylov. I precondizionatori risultanti mostrano efficienza, robustezza e capacità di generalizzazione rispetto a configurazioni geometriche, discretizzazioni e scale del problema. La tesi indaga inoltre l’uso di surrogati neurali all’interno di un quadro di decomposizione di dominio, con l’obiettivo di sviluppare una strategia di riduzione d’ordine scalabile ed efficiente per problemi misto-dimensionali. In parallelo, viene sviluppata la formulazione a punto di sella dei sistemi misto-dimensionali 3D-1D e discusso un relativo precondizionatore operatore, mettendo in luce limiti intrinseci di robustezza legati alla degenerazione geometrica dell’operatore di accoppiamento misto-dimensionale. Nel complesso, questi contributi evidenziano il potenziale della combinazione tra algebra lineare numerica e precondizionamento basato su machine learning per superare le sfide dei problemi misto-dimensionali parametrizzati, ponendo le basi per solutori rapidi, adattivi e scalabili.

Accelerating solvers for mixed dimensional problems with neural preconditioners

DIMOLA, NUNZIO
2025/2026

Abstract

Mixed-Dimensional PDEs arise in multiscale applications where lower-dimensional structures interact with a surrounding higher-dimensional medium, leading to large and often ill-conditioned problems at the continuous and discrete levels. These difficulties become more pronounced when we consider parametrized settings that embrace the geometric variability of the lower-dimensional manifold. In this thesis, we develop solution and preconditioning strategies for the discretization of parametrized 3D-1D mixed-dimensional problems, leveraging on the interaction between computational learning and numerical linear algebra. At the core of this effort is the Neural Preconditioner (NeP), a learnable non-linear preconditioning operator that generalizes across the geometric parameter space and significantly accelerates the convergence of iterative solvers over all considered parametric configurations. Two unsupervised training strategies are proposed and analyzed: a static approach that improves problem conditioning by acting on the operator spectrum, and a dynamic strategy that couples the NeP with the convergence properties of Krylov iterative methods. The resulting preconditioners demonstrate efficiency, robustness, and generalization across geometric configurations, discretizations, and problem scales. The thesis further investigates the use of neural surrogates within a Domain Decomposition framework, with the objective of developing a scalable and efficient reduced-order modeling strategy for mixed-dimensional problems. In parallel, we develop the saddle-point formulation of mixed-dimensional 3D-1D systems and discuss an operator preconditioner for it, uncovering intrinsic robustness limitations tied to geometric degeneracy of the mixed dimensional coupling operator. Together, these contributions highlight the potential of combining numerical linear algebra with machine-learning-based preconditioning to overcome the challenges of parametrized mixed-dimensional problems, establishing the basis for fast, adaptable, and scalable solvers.
CORREGGI, MICHELE
MARAZZINA, DANIELE
27-feb-2026
Accelerating solvers for mixed dimensional problems with neural preconditioners
Le equazioni alle derivate parziali miste-dimensionali emergono in applicazioni multiscala in cui strutture di dimensione topologica inferiore interagiscono con un mezzo circostante a dimensione topologica superiore, dando luogo a problemi di grandi dimensioni e spesso mal condizionati, sia a livello continuo sia discreto. Tali difficoltà diventano ancora più evidenti quando si considerano contesti parametrizzati che includono la variabilità geometrica della varietà a dimensione inferiore. In questa tesi sviluppiamo strategie di risoluzione e di precondizionamento per la discretizzazione di problemi misto-dimensionali parametrizzati 3D-1D, sfruttando l’interazione tra apprendimento computazionale e algebra lineare numerica. Al centro di questo lavoro vi è il Neural Preconditioner (NeP), un operatore di precondizionamento non lineare apprendibile che generalizza sull’intero spazio dei parametri geometrici e accelera in modo significativo la convergenza dei solutori iterativi per tutte le configurazioni parametriche considerate. Vengono proposte e analizzate due strategie di addestramento non supervisionato: un approccio statico, che migliora il condizionamento del problema agendo sullo spettro dell’operatore, e una strategia dinamica, che accoppia il NeP con le proprietà di convergenza dei metodi iterativi di Krylov. I precondizionatori risultanti mostrano efficienza, robustezza e capacità di generalizzazione rispetto a configurazioni geometriche, discretizzazioni e scale del problema. La tesi indaga inoltre l’uso di surrogati neurali all’interno di un quadro di decomposizione di dominio, con l’obiettivo di sviluppare una strategia di riduzione d’ordine scalabile ed efficiente per problemi misto-dimensionali. In parallelo, viene sviluppata la formulazione a punto di sella dei sistemi misto-dimensionali 3D-1D e discusso un relativo precondizionatore operatore, mettendo in luce limiti intrinseci di robustezza legati alla degenerazione geometrica dell’operatore di accoppiamento misto-dimensionale. Nel complesso, questi contributi evidenziano il potenziale della combinazione tra algebra lineare numerica e precondizionamento basato su machine learning per superare le sfide dei problemi misto-dimensionali parametrizzati, ponendo le basi per solutori rapidi, adattivi e scalabili.
File allegati
File Dimensione Formato  
TESI_NUNZIO_politesi.pdf

accessibile in internet per tutti

Descrizione: Nunzio Dimola PhD thesis
Dimensione 7.1 MB
Formato Adobe PDF
7.1 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/250282