Although deep learning has significantly advanced medical image analysis, obtaining high-quality results still requires extensive and costly manual annotation. For image registration, unsupervised methods typically involve training a neural network using traditional registration dissimilarity metrics. As a first step in this work, we focus on an image-to-template registration problem, required in the context of the conception of a ventriculostomy simulator. A classical image registration approach, relying on the iterative optimization of transformation parameters was used to minimize a voxel intensity-based similarity metric. The dual need of achieving high precision in the alignement of the skulls, while avoiding the deformation of the internal structures of the brain, required the use of a weighted non-rigidity penalization function. In this work, we focus on affine registration and demonstrate that this conventional approach is unreliable when it comes to large transformations that need to be estimated. Instead, we introduce an unsupervised method for training an affine image registration network that does not rely on dissimilarity measures. Our method shows robust performance even when there are substantial differences in the field of view between images.

Sebbene il deep learning abbia fatto progredire in modo significativo l'analisi delle immagini mediche, l'ottenimento di risultati di alta qualità richiede ancora un'ampia e costosa annotazione manuale. Per la registrazione delle immagini, i metodi non supervisionati prevedono tipicamente l'addestramento di una rete neurale utilizzando le tradizionali metriche di dissimilarità della registrazione. Come primo passo in questo lavoro, ci concentriamo su un problema di registrazione immagine-template, richiesto nel contesto della concezione di un simulatore di ventricolostomia. Un approccio classico alla registrazione delle immagini, basato sull'ottimizzazione iterativa dei parametri di trasformazione, è stato utilizzato per minimizzare una metrica di somiglianza basata sull'intensità dei voxel. La duplice esigenza di ottenere un'elevata precisione nell'allineamento dei crani, evitando al contempo la deformazione delle strutture interne del cervello, ha richiesto l'uso di una funzione di penalizzazione non rigida ponderata. In questo lavoro, ci concentriamo sulla registrazione affine e dimostriamo che questo approccio convenzionale non è affidabile quando si tratta di grandi trasformazioni che devono essere stimate. Al contrario, introduciamo un metodo non supervisionato per l'addestramento di una rete di registrazione di immagini affini che non si basa su misure di dissimilarità. Il nostro metodo mostra prestazioni robuste anche in presenza di differenze sostanziali nel campo visivo delle immagini.

Unsupervised deep learning image to template registration without image dissimilarity loss

HACHICHA, SLIM
2022/2023

Abstract

Although deep learning has significantly advanced medical image analysis, obtaining high-quality results still requires extensive and costly manual annotation. For image registration, unsupervised methods typically involve training a neural network using traditional registration dissimilarity metrics. As a first step in this work, we focus on an image-to-template registration problem, required in the context of the conception of a ventriculostomy simulator. A classical image registration approach, relying on the iterative optimization of transformation parameters was used to minimize a voxel intensity-based similarity metric. The dual need of achieving high precision in the alignement of the skulls, while avoiding the deformation of the internal structures of the brain, required the use of a weighted non-rigidity penalization function. In this work, we focus on affine registration and demonstrate that this conventional approach is unreliable when it comes to large transformations that need to be estimated. Instead, we introduce an unsupervised method for training an affine image registration network that does not rely on dissimilarity measures. Our method shows robust performance even when there are substantial differences in the field of view between images.
SDIKA, MICHAËL
ING - Scuola di Ingegneria Industriale e dell'Informazione
5-ott-2023
2022/2023
Sebbene il deep learning abbia fatto progredire in modo significativo l'analisi delle immagini mediche, l'ottenimento di risultati di alta qualità richiede ancora un'ampia e costosa annotazione manuale. Per la registrazione delle immagini, i metodi non supervisionati prevedono tipicamente l'addestramento di una rete neurale utilizzando le tradizionali metriche di dissimilarità della registrazione. Come primo passo in questo lavoro, ci concentriamo su un problema di registrazione immagine-template, richiesto nel contesto della concezione di un simulatore di ventricolostomia. Un approccio classico alla registrazione delle immagini, basato sull'ottimizzazione iterativa dei parametri di trasformazione, è stato utilizzato per minimizzare una metrica di somiglianza basata sull'intensità dei voxel. La duplice esigenza di ottenere un'elevata precisione nell'allineamento dei crani, evitando al contempo la deformazione delle strutture interne del cervello, ha richiesto l'uso di una funzione di penalizzazione non rigida ponderata. In questo lavoro, ci concentriamo sulla registrazione affine e dimostriamo che questo approccio convenzionale non è affidabile quando si tratta di grandi trasformazioni che devono essere stimate. Al contrario, introduciamo un metodo non supervisionato per l'addestramento di una rete di registrazione di immagini affini che non si basa su misure di dissimilarità. Il nostro metodo mostra prestazioni robuste anche in presenza di differenze sostanziali nel campo visivo delle immagini.
File allegati
File Dimensione Formato  
2023_10_Hachicha_01.pdf

accessibile in internet per tutti

Dimensione 8.12 MB
Formato Adobe PDF
8.12 MB Adobe PDF Visualizza/Apri
2023_10_Hachicha_02.pdf

accessibile in internet per tutti

Dimensione 584.55 kB
Formato Adobe PDF
584.55 kB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/210666