Dynamic pricing in the hotel industry poses the complex challenge of selling a finite inventory of hotel rooms within a limited time period. Traditional solution methods often rely on complex demand predictions that fail to capture and adapt to changing market dynamics. This research proposes a novel solution approach by integrating reinforcement learning (RL) with Bernstein polynomials, creating a robust framework for learning optimal dynamic pricing strategies under given price constraints. Due to the nature of RL, this is done directly through market interactions without needing pre-assumed demand dynamics. Using RL algorithms to parameterize Bernstein polynomials is not only new to dynamic pricing but also represents a novel approach to RL in general. The core of our solution employs policy gradient methods, capitalizing on their inherent capability to handle complex, high-dimensional state and action spaces by leveraging rich policy representations like neural networks. Our solution to the dynamic pricing problem introduces two approaches: one that provides a series of prices with monotonic constraints and another that allows the policy to only monotonically update the actions over the horizon and continuously review its previous decisions. Both solutions incorporate monotonicity constraints to ensure practicality and alignment with industry practices. Through comprehensive experimental validation, our solution proposals demonstrate marked superiority over historical benchmarks, underscoring the significant potential of combining RL with Bernstein polynomials in dynamic pricing strategies. This combination heralds a more controlled, flexible, and adaptable approach to dynamic pricing, providing a robust framework for price adjustment under explicit constraints.

Il pricing dinamico nell'industria alberghiera pone la complessa sfida di allocare un inventario finito di camere d'albergo entro un periodo di tempo limitato. I metodi di soluzione tradizionali spesso si basano su previsioni complesse della domanda che non riescono a catturare e adattarsi alle dinamiche di mercato in evoluzione. Questa ricerca propone un nuovo approccio di soluzione integrando l'apprendimento tramite rinforzo (RL) per mezzo dei polinomi di Bernstein, creando in questo modo un metodo robusto per apprendere strategie di pricing dinamico ottimali sotto dati vincoli di prezzo. Grazie alla natura del RL, ciò viene fatto direttamente attraverso interazioni di mercato senza la necessità di fare ipotesi sulla domanda future. Utilizzare algoritmi di RL per parametrizzare i polinomi di Bernstein non è solo nuovo per il problema di pricing, ma rappresenta anche un approccio innovativo in generale nelle applicazioni RL. Il nucleo della nostra soluzione impiega metodi di gradiente della policitca (policy gradient), sfruttando la loro capacità intrinseca di gestire spazi di stato e azione complessi e ad alta dimensionalità mediante l'utilizzo di rappresentazioni elaborate come le reti neurali. La nostra soluzione al problema del pricing dinamico introduce due formulazioni: una che fornisce una serie di prezzi con vincoli di monotnia e un'altra che impone i vincoli di prezzo consentendo alla politica di aggiornare solo monotonicamente e rivedere le proprie decisioni precedenti sequenzialmente. Entrambe le soluzioni incorporano vincoli di monotonia per garantire praticità e allineamento con le pratiche dell'industria. Attraverso una validazione sperimentale completa, le nostre proposte di soluzione dimostrano una netta superiorità rispetto ai benchmark storici, sottolineando il significativo potenziale della combinazione di RL con i polinomi di Bernstein nelle strategie di pricing. Questa combinazione evidenzia un approccio più controllato, flessibile e adattabile alla tariffazione dinamica, fornendo un robusto framework per l'aggiustamento dei prezzi sotto vincoli espliciti.

Enhancing dynamic pricing in the hotel industry with monotonic constraints: a reinforcement learning approach with Bernstein polynomials

DIETZ, CASPAR VICTOR
2022/2023

Abstract

Dynamic pricing in the hotel industry poses the complex challenge of selling a finite inventory of hotel rooms within a limited time period. Traditional solution methods often rely on complex demand predictions that fail to capture and adapt to changing market dynamics. This research proposes a novel solution approach by integrating reinforcement learning (RL) with Bernstein polynomials, creating a robust framework for learning optimal dynamic pricing strategies under given price constraints. Due to the nature of RL, this is done directly through market interactions without needing pre-assumed demand dynamics. Using RL algorithms to parameterize Bernstein polynomials is not only new to dynamic pricing but also represents a novel approach to RL in general. The core of our solution employs policy gradient methods, capitalizing on their inherent capability to handle complex, high-dimensional state and action spaces by leveraging rich policy representations like neural networks. Our solution to the dynamic pricing problem introduces two approaches: one that provides a series of prices with monotonic constraints and another that allows the policy to only monotonically update the actions over the horizon and continuously review its previous decisions. Both solutions incorporate monotonicity constraints to ensure practicality and alignment with industry practices. Through comprehensive experimental validation, our solution proposals demonstrate marked superiority over historical benchmarks, underscoring the significant potential of combining RL with Bernstein polynomials in dynamic pricing strategies. This combination heralds a more controlled, flexible, and adaptable approach to dynamic pricing, providing a robust framework for price adjustment under explicit constraints.
Sabbioni, Luca
Bisi, Lorenzo
ING - Scuola di Ingegneria Industriale e dell'Informazione
9-apr-2024
2022/2023
Il pricing dinamico nell'industria alberghiera pone la complessa sfida di allocare un inventario finito di camere d'albergo entro un periodo di tempo limitato. I metodi di soluzione tradizionali spesso si basano su previsioni complesse della domanda che non riescono a catturare e adattarsi alle dinamiche di mercato in evoluzione. Questa ricerca propone un nuovo approccio di soluzione integrando l'apprendimento tramite rinforzo (RL) per mezzo dei polinomi di Bernstein, creando in questo modo un metodo robusto per apprendere strategie di pricing dinamico ottimali sotto dati vincoli di prezzo. Grazie alla natura del RL, ciò viene fatto direttamente attraverso interazioni di mercato senza la necessità di fare ipotesi sulla domanda future. Utilizzare algoritmi di RL per parametrizzare i polinomi di Bernstein non è solo nuovo per il problema di pricing, ma rappresenta anche un approccio innovativo in generale nelle applicazioni RL. Il nucleo della nostra soluzione impiega metodi di gradiente della policitca (policy gradient), sfruttando la loro capacità intrinseca di gestire spazi di stato e azione complessi e ad alta dimensionalità mediante l'utilizzo di rappresentazioni elaborate come le reti neurali. La nostra soluzione al problema del pricing dinamico introduce due formulazioni: una che fornisce una serie di prezzi con vincoli di monotnia e un'altra che impone i vincoli di prezzo consentendo alla politica di aggiornare solo monotonicamente e rivedere le proprie decisioni precedenti sequenzialmente. Entrambe le soluzioni incorporano vincoli di monotonia per garantire praticità e allineamento con le pratiche dell'industria. Attraverso una validazione sperimentale completa, le nostre proposte di soluzione dimostrano una netta superiorità rispetto ai benchmark storici, sottolineando il significativo potenziale della combinazione di RL con i polinomi di Bernstein nelle strategie di pricing. Questa combinazione evidenzia un approccio più controllato, flessibile e adattabile alla tariffazione dinamica, fornendo un robusto framework per l'aggiustamento dei prezzi sotto vincoli espliciti.
File allegati
File Dimensione Formato  
2024_04_Dietz_Thesis_01.pdf

accessibile in internet per tutti

Descrizione: Thesis
Dimensione 18.31 MB
Formato Adobe PDF
18.31 MB Adobe PDF Visualizza/Apri
2024_04_Dietz_Executive_Summary_02.pdf

accessibile in internet per tutti

Descrizione: Executive Summary
Dimensione 1.12 MB
Formato Adobe PDF
1.12 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/218422