In this Doctoral Dissertation, we study two topics related to stochastic differential equations (SDEs) on Hilbert spaces. In the first part, after recalling classical results of the theory of SDEs on Hilbert spaces, we consider slow-fast systems of SDEs on Hilbert spaces, where the stochastic perturbations are given by Wiener processes with non trace-class covariance operators, possibly. Such systems depend on a small parameter, representing the ratio of time-scales between the two variables of the system, which are referred to as slow component and fast component, respectively. A crucial property of such systems is the averaging principle, which states that, under appropriate assumptions, the slow component converges to the so-called averaged component, which follows the so called averaged equation. In this setting we prove the $1/2$-strong order of convergence in the averaging principle, which is known to be optimal. We provide an application of such result to slow-fast reaction diffusion systems perturbed by white noise. In the second part of the Dissertation, after recalling classical results of the theory of optimal control problems of SDEs on Hilbert spaces, we study optimal control problems of stochastic delay differential equations (SDDEs). We consider two types of problems: one with delays in the state variable only and one with delays also in the control variable. To regain Markovianity and use the dynamic programming approach, we rewrite the problems as optimal control problems of SDEs on the Hilbert space $X =\mathbb R^n \times L^2([-d,0];\mathbb R^n)$. These infinite-dimensional formulations enable us to characterize the value functions of both problems as the unique viscosity solutions of the associated Hamilton-Jacobi-Bellman (HJB) equations, which are fully non-linear second-order partial differential equations on the Hilbert space $X$ with an unbounded operator. For the problem with delays in the state variable only, we prove a partial $C^{1,\alpha}$-regularity result of the value function with respect to the component in $\mathbb R^n$. When the diffusion is independent of the control, such result allows us to define a candidate optimal feedback control. However, due to the lack of $C^2$-regularity of the value function, we cannot prove a verification theorem using standard techniques based on Ito’s formula. Then, using a technical double approximation procedure, we construct regular approximants of the value function, which are viscosity supersolutions of perturbed HJB equations and are regular enough so that they satisfy Ito’s formula. This procedure allows us to prove a verification theorem and to construct optimal feedback controls. We provide applications of such results to Merton's type optimal portfolio problems, stochastic optimal advertising problems, and stochastic optimal investment problems with time-to-build.
In questa Dissertazione di Dottorato studiamo due argomenti relativi a equazioni differenziali stocastiche (SDEs) su spazi di Hilbert. Nella prima parte, dopo aver richiamato vari risultati classici della teoria delle SDEs su spazi di Hilbert, consideriamo sistemi lento-veloci di SDEs su spazi di Hilbert, in cui le perturbazioni stocastiche sono processi di Wiener con operatori di covarianza possibilmente non classe-traccia. Tali sistemi dipendono da un piccolo parametro che rappresenta il rapporto tra le scale temporali delle due variabili del sistema, che sono chiamate, rispettivamente, componente lenta e componente veloce. Una proprietà fodamentale di tali sistemi è il così detto principio di media. Questo afferma che, sotto opportune assunzioni, la componente lenta converge alla così detta componente mediata, che segue la così chiamata equazione mediata. In tale quadro dimostriamo l’ordine $1/2$ per la convergenza forte nel principio di media; questo è risaputo essere ottimo. Applichiamo inoltre tale risultato a sistemi di reazione-diffusione lento-veloci perturbati da rumore bianco. Nella seconda parte della Dissertazione, dopo aver richiamato vari risultati classici della teoria dei problemi di controllo ottimo di SDEs su spazi di Hilbert, studiamo problemi di controllo ottimo di equazioni differenziali stocastiche con ritardo (SDDEs). Consideriamo due tipi di problemi: uno con ritardo solo nella variabile di stato e uno con ritardo anche nella variabile di controllo. Per riottenere la Markovianità del sistema e usare l’approcio tramite programmazione dinamica, riscriviamo i problemi come problemi di controllo ottimo di SDEs sullo spazio di Hilbert $X =\mathbb R^n \times L^2([-d,0];\mathbb R^n)$. Queste formulazioni infinito-dimensionali ci permettono di caratterizzare le funzioni valore di entrambi i problemi come le uniche soluzioni di viscosità delle equazioni di Hamilton-Jacobi-Bellman (HJB) associate, che sono equazioni alle derivate parziali del secondo ordine totalmente non lineari sullo spazio di Hilbert $X$ con un operatore non limitato. Per il problema con ritardo solo sullo stato dimostriamo un risultato di regolarità parziale $C^{1,\alpha}$ della funzione valore rispetto alla componente in $\mathbb R^n$. Quando la diffusione è indipendente dal controllo tale risultato ci permette di definire un candidato controllo ottimo in forma di feedback. Tuttavia, poiché la funzione valore non è $C^2$, non possiamo dimostrare un teorema di verifica usando procedure standard basate sulla formula di Ito. Quindi, usando una complessa procedura di doppia approssimazione, costruiamo delle approssimanti della funzione valore, che sono supersoluzioni di viscosità di equazioni di HJB perturbate e che sono abbastanza regolari da soddisfare una formula di Ito. Questa procedura ci permette di dimostrare un teorema di verifica e di costruire controlli ottimi in forma di feedback. Applichiamo tali risultati a problemi di portafoglio ottimo di tipo Merton, a problemi di strategie pubblicitarie ottimali sotto incertezza stocastica e a problemi di investimento stocastico con ritardo.
SDEs on Hilbert spaces : slow-fast systems of SPDEs, stochastic optimal control with delays and applications to economics and finance
de FEO, FILIPPO
2023/2024
Abstract
In this Doctoral Dissertation, we study two topics related to stochastic differential equations (SDEs) on Hilbert spaces. In the first part, after recalling classical results of the theory of SDEs on Hilbert spaces, we consider slow-fast systems of SDEs on Hilbert spaces, where the stochastic perturbations are given by Wiener processes with non trace-class covariance operators, possibly. Such systems depend on a small parameter, representing the ratio of time-scales between the two variables of the system, which are referred to as slow component and fast component, respectively. A crucial property of such systems is the averaging principle, which states that, under appropriate assumptions, the slow component converges to the so-called averaged component, which follows the so called averaged equation. In this setting we prove the $1/2$-strong order of convergence in the averaging principle, which is known to be optimal. We provide an application of such result to slow-fast reaction diffusion systems perturbed by white noise. In the second part of the Dissertation, after recalling classical results of the theory of optimal control problems of SDEs on Hilbert spaces, we study optimal control problems of stochastic delay differential equations (SDDEs). We consider two types of problems: one with delays in the state variable only and one with delays also in the control variable. To regain Markovianity and use the dynamic programming approach, we rewrite the problems as optimal control problems of SDEs on the Hilbert space $X =\mathbb R^n \times L^2([-d,0];\mathbb R^n)$. These infinite-dimensional formulations enable us to characterize the value functions of both problems as the unique viscosity solutions of the associated Hamilton-Jacobi-Bellman (HJB) equations, which are fully non-linear second-order partial differential equations on the Hilbert space $X$ with an unbounded operator. For the problem with delays in the state variable only, we prove a partial $C^{1,\alpha}$-regularity result of the value function with respect to the component in $\mathbb R^n$. When the diffusion is independent of the control, such result allows us to define a candidate optimal feedback control. However, due to the lack of $C^2$-regularity of the value function, we cannot prove a verification theorem using standard techniques based on Ito’s formula. Then, using a technical double approximation procedure, we construct regular approximants of the value function, which are viscosity supersolutions of perturbed HJB equations and are regular enough so that they satisfy Ito’s formula. This procedure allows us to prove a verification theorem and to construct optimal feedback controls. We provide applications of such results to Merton's type optimal portfolio problems, stochastic optimal advertising problems, and stochastic optimal investment problems with time-to-build.File | Dimensione | Formato | |
---|---|---|---|
defeo.pdf
accessibile in internet per tutti
Dimensione
5.09 MB
Formato
Adobe PDF
|
5.09 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/220474