A Deep Reinforcement Learning approach is proposed to assess the parameters of the Leishmann-Beddoes second generation reduced order model for dynamic stall. The algorithm implemented is a Deep Q-Network, trained with dynamic stall data obtained from CFD simulations for NACA0012 at different reduced frequencies k in the interval k = [0.02, 0.2]. The model implemented is compared with a Genetic Algorithm optimization presented in literature, using the same experimental and numerical reference cases. The results show a similar retrieving of parameters in the case of experimental references, while with numerical references the DQN obtain better results. In conclusion, the DQN method presented is more robust in the reduced frequency domain studied.

In questa tesi viene presentato un approccio basato sul Deep Reinforcement Learning per la determinazione dei parametri del modello di ordine ridotto di Leishman-Beddoes di seconda generazione per lo stallo dinamico. L’algoritmo implementato è di tipo Deep Q-Network (DQN), addestrato su dati di stallo dinamico ottenuti da simulazioni CFD per il profilo NACA0012 a diverse frequenze ridotte k nell’intervallo k = [0.02, 0.2]. Il modello sviluppato viene confrontato con un’ottimizzazione basata su algoritmo genetico presente in letteratura, utilizzando gli stessi casi di riferimento sperimentali e numerici. I risultati mostrano che, rispetto ai dati sperimentali, entrambi i metodi portano a un recupero dei parametri simile, mentre nel caso di riferimenti numerici il DQN fornisce una stima più accurata. Il metodo DQN risulta più robusto sul range di frequenze analizzato.

Reduced-order model for dynamic stall: a deep reinforcement learning approach for parameter optimization

Riva, Marco
2023/2024

Abstract

A Deep Reinforcement Learning approach is proposed to assess the parameters of the Leishmann-Beddoes second generation reduced order model for dynamic stall. The algorithm implemented is a Deep Q-Network, trained with dynamic stall data obtained from CFD simulations for NACA0012 at different reduced frequencies k in the interval k = [0.02, 0.2]. The model implemented is compared with a Genetic Algorithm optimization presented in literature, using the same experimental and numerical reference cases. The results show a similar retrieving of parameters in the case of experimental references, while with numerical references the DQN obtain better results. In conclusion, the DQN method presented is more robust in the reduced frequency domain studied.
BALDAN, GIACOMO
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-apr-2025
2023/2024
In questa tesi viene presentato un approccio basato sul Deep Reinforcement Learning per la determinazione dei parametri del modello di ordine ridotto di Leishman-Beddoes di seconda generazione per lo stallo dinamico. L’algoritmo implementato è di tipo Deep Q-Network (DQN), addestrato su dati di stallo dinamico ottenuti da simulazioni CFD per il profilo NACA0012 a diverse frequenze ridotte k nell’intervallo k = [0.02, 0.2]. Il modello sviluppato viene confrontato con un’ottimizzazione basata su algoritmo genetico presente in letteratura, utilizzando gli stessi casi di riferimento sperimentali e numerici. I risultati mostrano che, rispetto ai dati sperimentali, entrambi i metodi portano a un recupero dei parametri simile, mentre nel caso di riferimenti numerici il DQN fornisce una stima più accurata. Il metodo DQN risulta più robusto sul range di frequenze analizzato.
File allegati
File Dimensione Formato  
2025_04_Riva_Tesi.pdf

accessibile in internet solo dagli utenti autorizzati

Descrizione: Testo della tesi
Dimensione 2.24 MB
Formato Adobe PDF
2.24 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/234852