The ROF model has been proposed fot the first time by Rudin, Osher and Fatemi for the data recovery via minimization of quadratic functionals with a TV Tikhonov regularization; the idea prospered particularly in the field of corrupted images reconstruction, despite the mathematical difficulties introduced by the non-differentiability of the cost functional generated by the TV norm. In this work we propose two alternatives for the search of an approximated solution in the space H1; then we test both firstly on a discretized problem and then directly on the continuous one. The first idea is classical in the literature: with the introduction of a regularization, we make the entire cost functional differentiable; so it is possible to use iterative techniques of convex optimization such as the gradient algorithm or the Newton method for the linearization of the optimality conditions. On the other side, the second technique is the application of an algorithm proposed by Peypouquet and Cabot (article not yet published). This algorithm can be applied to optimization problems in Hilbert spaces for convex functionals that can be written as sum of a differentiable term with gradient Lipschitz-continuous and a term only lower-semicontinuous; it is based on the alternation of a gradient method step (to exploit the descent information in the differentiable term) and on a proximal point algorithm step (to deal with the non-differentiable term). The application of this algorithm is really interesting for the ROF model because the proximal step (that is generally implicit) has in this case explicit solution. Moreover, without the use of regularizations, this technique allows to take full advantage of the model thanks to the non-differentiability of the modulus and the multi-evaluation of the cost functional's sub-differential.

ROF è un modello proposto per la prima volta dagli autori Rudin, Osher e Fatemi per la ricostruzione di dati danneggiati attraverso la minimizzazione di funzionali quadratici con l'aggiunta di una regolarizzazione di Tikhonov del tipo variazione totale; l'idea ha trovato successo soprattutto nel campo delle immagini, malgrado la difficoltà matematica del problema relativa alla non-differenziabilità del funzionale costo generata dalla norma TV. In questo lavoro proponiamo due alternative per la ricerca di una soluzione approssimata nello spazio H1 e testiamo entrambe prima nel campo discreto e poi direttamente sul problema continuo. La prima è un'idea già presente nella letteratura relativa all'argomento: attraverso l'introduzione di una regolarizzazione, si rende differenziabile l'intero funzionale costo; a questo punto è possibile l'utilizzo di tecniche iterative di ottimizzazione convessa come l'algoritmo del gradiente o la linearizzazione delle condizioni di ottimalità attraverso il metodo di Newton. La seconda tecnica è invece l'applicazione di un algoritmo proposto Peypouquet e Cabot (articolo non ancora pubblicato); nello stesso riferimento è contenuto il risultato di convergenza debole con relativa dimostrazione. L'algoritmo in questione si applica a problemi di ottimizzazione in spazi di Hilbert per funzionali convessi che possono essere scritti come somma di un termine differenziabile con gradiente Lipschitz continuo e di un termine a cui si richiede solo la inf-semicontinuità e prevede l'alternanza di un passo del metodo del gradiente (per sfruttare l'informazione sulla direzione di discesa contenuta nel termine differenziabile) e di un passo del metodo del punto prossimale (per trattare il termine non differenziabile). L'applicazione di tale algoritmo è particolarmente interessante nel caso del modello ROF perchè il passo (in generale implicito) di algoritmo prossimale tiene soluzione esatta in forma chiusa; inoltre, non utilizzando alcuna regolarizzazione del modulo, questa tecnica permette di cogliere appieno la potenza del modello ROF: alla non-differenzibilità del modulo, infatti, corrisponde il fatto che il subdifferenziale del funzionale costo non sia composto dal solo elemento gradiente bensì da più elementi, cosa che apre un ampio ventaglio di possibilità per la soluzione.

Minimization of quadratic functionals with TV Tikhonov regularization and applications to data recovery

MOLINARI, CESARE
2013/2014

Abstract

The ROF model has been proposed fot the first time by Rudin, Osher and Fatemi for the data recovery via minimization of quadratic functionals with a TV Tikhonov regularization; the idea prospered particularly in the field of corrupted images reconstruction, despite the mathematical difficulties introduced by the non-differentiability of the cost functional generated by the TV norm. In this work we propose two alternatives for the search of an approximated solution in the space H1; then we test both firstly on a discretized problem and then directly on the continuous one. The first idea is classical in the literature: with the introduction of a regularization, we make the entire cost functional differentiable; so it is possible to use iterative techniques of convex optimization such as the gradient algorithm or the Newton method for the linearization of the optimality conditions. On the other side, the second technique is the application of an algorithm proposed by Peypouquet and Cabot (article not yet published). This algorithm can be applied to optimization problems in Hilbert spaces for convex functionals that can be written as sum of a differentiable term with gradient Lipschitz-continuous and a term only lower-semicontinuous; it is based on the alternation of a gradient method step (to exploit the descent information in the differentiable term) and on a proximal point algorithm step (to deal with the non-differentiable term). The application of this algorithm is really interesting for the ROF model because the proximal step (that is generally implicit) has in this case explicit solution. Moreover, without the use of regularizations, this technique allows to take full advantage of the model thanks to the non-differentiability of the modulus and the multi-evaluation of the cost functional's sub-differential.
PEYPOUQUET, JUAN
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-ott-2014
2013/2014
ROF è un modello proposto per la prima volta dagli autori Rudin, Osher e Fatemi per la ricostruzione di dati danneggiati attraverso la minimizzazione di funzionali quadratici con l'aggiunta di una regolarizzazione di Tikhonov del tipo variazione totale; l'idea ha trovato successo soprattutto nel campo delle immagini, malgrado la difficoltà matematica del problema relativa alla non-differenziabilità del funzionale costo generata dalla norma TV. In questo lavoro proponiamo due alternative per la ricerca di una soluzione approssimata nello spazio H1 e testiamo entrambe prima nel campo discreto e poi direttamente sul problema continuo. La prima è un'idea già presente nella letteratura relativa all'argomento: attraverso l'introduzione di una regolarizzazione, si rende differenziabile l'intero funzionale costo; a questo punto è possibile l'utilizzo di tecniche iterative di ottimizzazione convessa come l'algoritmo del gradiente o la linearizzazione delle condizioni di ottimalità attraverso il metodo di Newton. La seconda tecnica è invece l'applicazione di un algoritmo proposto Peypouquet e Cabot (articolo non ancora pubblicato); nello stesso riferimento è contenuto il risultato di convergenza debole con relativa dimostrazione. L'algoritmo in questione si applica a problemi di ottimizzazione in spazi di Hilbert per funzionali convessi che possono essere scritti come somma di un termine differenziabile con gradiente Lipschitz continuo e di un termine a cui si richiede solo la inf-semicontinuità e prevede l'alternanza di un passo del metodo del gradiente (per sfruttare l'informazione sulla direzione di discesa contenuta nel termine differenziabile) e di un passo del metodo del punto prossimale (per trattare il termine non differenziabile). L'applicazione di tale algoritmo è particolarmente interessante nel caso del modello ROF perchè il passo (in generale implicito) di algoritmo prossimale tiene soluzione esatta in forma chiusa; inoltre, non utilizzando alcuna regolarizzazione del modulo, questa tecnica permette di cogliere appieno la potenza del modello ROF: alla non-differenzibilità del modulo, infatti, corrisponde il fatto che il subdifferenziale del funzionale costo non sia composto dal solo elemento gradiente bensì da più elementi, cosa che apre un ampio ventaglio di possibilità per la soluzione.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
2014_10_Molinari.pdf

non accessibile

Descrizione: Testo della Tesi
Dimensione 1.64 MB
Formato Adobe PDF
1.64 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/96841