The present Ph.D. dissertation studies three different topics related to stochastic optimal control and stochastic analysis, pivoting on the theme of probabilistic representation formulae for viscosity solutions to nonlinear partial differential equations. After a general introduction, in the second chapter of the thesis we study double-obstacle quasi-variational inequalities, which are Hamilton-Jacobi-Bellman-Isaacs equations arising in two-player zero-sum stochastic differential games involving impulse controls. We first establish the dynamic programming principle for both the lower value function and the upper value function of the stochastic differential game. This allows us to prove that they satisfy, in the viscosity sense, the corresponding dynamic programming equation. We also provide a comparison theorem for the Hamilton-Jacobi-Bellman-Isaacs equation, from which it follows that the two value functions coincide and that the stochastic differential game admits a value. The third and fourth chapters of the dissertation deal with probabilistic representation formulae for viscosity solutions to path-dependent PDEs, in finite and infinite dimensions. More precisely, in the third chapter we focus on the finite dimensional case, and we adopt the definition of viscosity solutions for path-dependent PDEs recently introduced by Ekren, Touzi, and Zhang. We prove that non-Markovian forward-backward stochastic differential equations provide functional nonlinear Feynman-Kac formulae for viscosity solutions to semilinear path-dependent PDEs. This extends the result presented in Ekren, Keller, Touzi, and Zhang to the case with a possibly degenerate diffusion coefficient in the forward dynamics. The fourth chapter, on the other hand, is devoted to generalize the theory of viscosity solutions for path-dependent PDEs to the infinite dimensional case, providing also, as in the third chapter, a functional nonlinear Feynman-Kac representation formula for these equations. Finally, in the last chapter of the thesis we introduce a class of reflected backward stochastic differential equations with nonpositive jumps and upper barrier. We prove that there exists a unique minimal solution through a double penalization approach, under regularity assumptions on the barrier. In a suitable Markovian framework, we show that the minimal solution to our class of BSDEs provides a nonlinear Feynman-Kac formula to fully nonlinear variational inequalities of Hamilton-Jacobi-Bellman-Isaacs type arising in general zero-sum stochastic differential controller-and-stopper games, where control can affect both drift and diffusion term, and the diffusion coefficient can be degenerate. We also obtain a dual game formula for our BSDE minimal solution in terms of a family of equivalent probability measures and discount factors, which gives rise to an original representation for the value function of zero-sum stochastic differential controller-and-stopper games.
La presente tesi di dottorato studia tre differenti argomenti nell'ambito del controllo ottimo stocastico e dell'analisi stocastica, avendo come obiettivo comune il tema della rappresentazione probabilistica di soluzioni viscose di equazioni a derivate parziali nonlineari. Dopo un'introduzione generale, nel secondo capitolo della tesi si studiano disequazioni quasi-variazionali con doppio ostacolo, che corrispondono ad equazioni di Hamilton-Jacobi-Bellman-Isaacs per giochi differenziali stocastici con due giocatori, a somma zero, con controlli impulsivi. In primo luogo, si dimostra il principio della programmazione dinamica sia per la funzione valore inferiore sia per la funzione valore superiore del gioco differenziale stocastico. Come conseguenza, si mostra che tali funzioni valore risolvono in senso viscoso l'equazione della programmazione dinamica del gioco corrispondente. Si dimostra inoltre il teorema del confronto per l'equazione di Hamilton-Jacobi-Bellman-Isaacs, da cui discende che le due funzioni valore coincidono e il gioco differenziale stocastico ammette un valore. Nel terzo e quarto capitolo della tesi è trattato il tema delle formule di rappresentazione probabilistiche per soluzioni viscose di equazioni a derivate parziali path-dependent, in dimensione finita e infinita. Più precisamente, il terzo capitolo è focalizzato sul caso finito dimensionale, in cui si adotta la definizione di soluzione viscosa per equazioni path-dependent fornita recentemente da Ekren, Touzi, e Zhang. Si dimostra che certe equazioni differenziali stocastiche retrograde non-markoviane di tipo forward-backward forniscono formule di rappresentazione di Feynman-Kac nonlineari per soluzioni viscose di equazioni path-dependent semilineari. Tale risultato estende quanto ottenuto da Ekren, Keller, Touzi, and Zhang al caso in cui il coefficiente di diffusione dell'equazione forward può essere degenere. Il quarto capitolo, invece, è dedicato alla generalizzazione della teoria delle soluzioni viscose per equazioni a derivate parziali path-dependent al caso infinito dimensionale, fornendo anche, come nel terzo capitolo, formule di rappresentazione di Feynman-Kac nonlineari per tali equazioni. Infine, nell'ultimo capitolo della tesi si introduce una classe di equazioni differenziali stocastiche retrograde riflesse con salti nonpositivi e barriera superiore. Si dimostra che esiste un'unica soluzione minimale tramite una doppia penalizzazione, imponendo opportune condizioni di regolarità sulla barriera. Nel caso markoviano si mostra che la soluzione minimale fornisce una formula di rappresentazione di Feynman-Kac nonlineare per disequazioni variazionali di tipo Hamilton-Jacobi-Bellman-Isaacs che nascono da giochi differenziali stocastici a somma zero noti come "controller-and-stopper games", in cui è possibile controllare sia il drift sia il coefficiente di diffusione, inoltre quest'ultimo può essere degenere. Si ottiene anche una formula di rappresentazione duale per la soluzione minimale dell'equazione retrograda in termini di una famiglia di misure di probabilità equivalenti e fattori di sconto, che fornisce una rappresentazione alternativa per la funzione valore del gioco differenziale stocastico studiato.
Probabilistic Representation of Some Classes of Nonlinear PDEs and Connections with Stochastic Optimal Control and Stochastic Analysis
COSSO, ANDREA
Abstract
The present Ph.D. dissertation studies three different topics related to stochastic optimal control and stochastic analysis, pivoting on the theme of probabilistic representation formulae for viscosity solutions to nonlinear partial differential equations. After a general introduction, in the second chapter of the thesis we study double-obstacle quasi-variational inequalities, which are Hamilton-Jacobi-Bellman-Isaacs equations arising in two-player zero-sum stochastic differential games involving impulse controls. We first establish the dynamic programming principle for both the lower value function and the upper value function of the stochastic differential game. This allows us to prove that they satisfy, in the viscosity sense, the corresponding dynamic programming equation. We also provide a comparison theorem for the Hamilton-Jacobi-Bellman-Isaacs equation, from which it follows that the two value functions coincide and that the stochastic differential game admits a value. The third and fourth chapters of the dissertation deal with probabilistic representation formulae for viscosity solutions to path-dependent PDEs, in finite and infinite dimensions. More precisely, in the third chapter we focus on the finite dimensional case, and we adopt the definition of viscosity solutions for path-dependent PDEs recently introduced by Ekren, Touzi, and Zhang. We prove that non-Markovian forward-backward stochastic differential equations provide functional nonlinear Feynman-Kac formulae for viscosity solutions to semilinear path-dependent PDEs. This extends the result presented in Ekren, Keller, Touzi, and Zhang to the case with a possibly degenerate diffusion coefficient in the forward dynamics. The fourth chapter, on the other hand, is devoted to generalize the theory of viscosity solutions for path-dependent PDEs to the infinite dimensional case, providing also, as in the third chapter, a functional nonlinear Feynman-Kac representation formula for these equations. Finally, in the last chapter of the thesis we introduce a class of reflected backward stochastic differential equations with nonpositive jumps and upper barrier. We prove that there exists a unique minimal solution through a double penalization approach, under regularity assumptions on the barrier. In a suitable Markovian framework, we show that the minimal solution to our class of BSDEs provides a nonlinear Feynman-Kac formula to fully nonlinear variational inequalities of Hamilton-Jacobi-Bellman-Isaacs type arising in general zero-sum stochastic differential controller-and-stopper games, where control can affect both drift and diffusion term, and the diffusion coefficient can be degenerate. We also obtain a dual game formula for our BSDE minimal solution in terms of a family of equivalent probability measures and discount factors, which gives rise to an original representation for the value function of zero-sum stochastic differential controller-and-stopper games.File | Dimensione | Formato | |
---|---|---|---|
PhD Thesis.pdf
non accessibile
Descrizione: Testo della tesi
Dimensione
958.55 kB
Formato
Adobe PDF
|
958.55 kB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/88706