The development of Computer Integrated Surgery (CIS) and robotic surgery has involved also neurosurgery. Keyhole neurosurgery interventions, which need accurate positioning of the surgical instrument, increased the overall accuracy of the intervention and the number of successful operations. The use of a stereotactic robot in neurosurgery operations provides the surgeon with a valuable tool for accurate positioning of surgical instruments, avoiding the use of the stereotactic head-frame and reducing trauma for the patient. The background of this thesis is robotic epilepsy surgery. The removal of the Epileptogenic zone needs a brain mapping procedure, in which the surgeon electrically stimulates different areas of the brain to test patient's responses. In this way, it is possible to identify the most important functional areas and to preserve them during the intervention. Since the brain mapping procedure must be performed several times during the surgery, the patient is left awake for the entire duration of the procedure. However, during the procedure the patient's head can undergo voluntary movements, induced movements or even an epileptic seizure; the head-frame holding the head restrains the possible movements, but does not assure their total removal. If a robot is helping to perform the operation, a motion compensation algorithm is needed to control its motion at high frequency and avoid damage. Ideally, the control frequency of the robot movement is about 1 kHz. Motion compensation is possible through a prediction of the next step of the target, that has to be done through an appropriate sensorization of the head-frame. Supervising the operation with an optical tracking system that constantly detects the position of the target and the position of the robot could be not sufficient to avoid damage. Optical Tracking Systems (OTSs), in fact, have low acquisition frequencies compared to the requirements and need a clear line of sight of at least three optical markers at each time step for the pose resolution of each reference frame. Inertial Measurement Units (IMUs), the combination of a triaxial accelerometer and a triaxial gyroscope, can provide motion detection at higher update rate, and can thus be suitable for motion prediction. However, inertial sensors suffer from drift, and provide measurements in the local reference frame. The combination of inertial and optical data can thus provide a solution to obtain accurate pose estimation at a high frequency. The prediction is done with the inertial data, acquired at high frequency, while the correction of the pose with optical data allows the prediction accuracy improvement. This thesis aims at developing a Sensor Fusion algorithm based on an Unscented Kalman Filter (UKF) able to integrate data coming from an OTS and an IMU, in order to get a reliable motion of the patient's head consistent with the accuracy required for neurosurgical operations. Since optical and inertial data are detected in two different reference frames, it was necessary to implement a calibration algorithm. A calibration method is proposed, based on the comparison between acceleration and angular velocity information coming from the inertial sensors and derived by the optical sensor. The correspondence between angular velocities returns the rotational part of the calibration matrix, while the correspondence between the acceleration components gives the translation vector. Gravity is of fundamental importance, as it is detected by the IMU but not associated with an actual movement of the body. This contribution must be subtracted from each sample, in order to compare data consistent with each other. The proposed calibration method has been compared with a geometric calibration, based on the detection of the accelerometer's position in the optical reference frame. The results show that the derivative's calibration method proposed provides repeatable solutions to the minimization of the cost function implemented to solve the overdetermined system. The calibration errors detected are compatible with the noise levels measured on the sensors, and are therefore considered generated by these. The developed Sensor Fusion (SF) algorithm aims at integrating data coming from inertial sensors together with the optical pose detected by the OTS. Integration of IMU data leads to increasing errors, due to integration drift. This prediction requires the supervision of an OTS, that corrects the position with accurate pose detection. As the integration of inertial data is a highly non linear process, sensor fusion is performed through UKF, that allows the resolution of the state model without the jacobian computation. Sensors' data are collected at different frequencies, getting inertial data at 100 Hz and optical data at 20 Hz. The prediction of the next pose is done whenever inertial data is available, correcting the prediction with the optical data at a lower frequency. Two different models are implemented and compared, a first order and a second order state model. In both models developed, the pose of the rigid body is represented as quaternion and position vector. The use of the quaternion to represent the rotation of a body eliminates the problems of gimbal lock that would occur instead with the use of Euler angles. However, quaternions provide redundant information, since they are composed of four variables with only three degrees of freedom (the unit norm requires that one of the variables is necessarily dependent on the other three). For this reason, the noise on the state variables has been modelled in the angular vector's space, thus obtaining three independent variables. Within the Kalman filter transformations between the two geometric spaces are used to exploit the best features of both representations. Results show that median errors are less than 1mm in both approaches, though the first order model shows significantly better results. The accuracy required in neurosurgical operations is 1 mm, and thus comparable with the obtained errors. The sampling frequency adopted was of an order of magnitude lower than the application requirements. This has allowed lower noise levels and the evaluation of the SF algorithm. The system is easily expandable to higher frame rates, according to the available hardware.

Con lo svilupparsi della Computer Integrated Surgery (CIS) la robotica chirurgica ha investito anche l'ambito della neurochirurgia. Gli interventi di neurochirurgia mininvasiva, che prevedono un accurato posizionamento dello strumento chirurgico, hanno visto l'incrementarsi dell'accuratezza delle operazioni, associato ad un conseguente aumento del numero di operazioni andate a buon fine. L'utilizzo di robot stereotassici in operazioni di neurochirurgia ha fornito al chirurgo un valido strumento per il posizionamento accurato degli strumenti chirurgici, consentendogli la possibilità di eliminare l'uso del casco stereotassico e diminuendo quindi il trauma per il paziente. Lo scenario chirurgico in cui si inserisce questa tesi è la neurochirurgia robotica per epilessia. La rimozione della zona epilettogena necessita della procedura di brain mapping, in cui il chirurgo stimola elettricamente diverse aree del cervello per valutare la reazione del paziente. In questo modo è possibile riconoscere le zone funzionalmente importanti e preservarle durante l'intervento. Poiché la procedura di brain mapping deve essere eseguita più volte durante l'operazione, il paziente viene lasciato sveglio per tutta la durata dell'intervento. Durante l'operazione è possibile che la testa del paziente si muova per movimenti volontari, per reazione alla stimolazione o per crisi epilettiche convulsive; la testiera che blocca il cranio del paziente limita i possibili movimenti ma non ne assicura la totale eliminazione. Nel caso in cui l'operazione sia eseguita con l'aiuto di un robot, quindi, si rende necessario un algoritmo di compensazione del movimento che ne controlli il movimento ad alta frequenza e gli permetta di non danneggiare il tessuto cerebrale. Idealmente la frequenza di controllo del movimento del robot è di 1 kHz, per permettere la compensazione del movimento. La compensazione del movimento è possibile attraverso una stima della posa futura del target, che deve essere effettuata tramite un'appropriata sensorizzazione della testiera. Il controllo dell'operazione con un localizzatore ottico che costantemente controlla la posa del target e del robot potrebbe non essere sufficiente per evitare il danno. I sistemi di localizzazione, infatti, hanno frequenze di acquisizione basse rispetto ai requisiti sopra citati, e hanno bisogno della visibilità contemporanea di almeno tre marcatori per definire la posa di ciascun corpo rigido. Una Inertial Measurement Unit (IMU), composta da un accelerometro e da un giroscopio triassiali, può fornire la rilevazione del movimento ad una frequenza più elevata, ed è quindi indicata per la predizione del movimento. Tuttavia, i sensori inerziali soffrono di deriva di integrazione e restituiscono i dati nel sistema di riferimento locale. La combinazione di sensori ottici ed inerziali può essere una soluzione per ottenere la posa accurata della testa ad una frequenza elevata. La predizione viene effettuata tramite dati inerziali, rilevati ad alta frequenza, mentre le correzione della posa tramite i dati ottici consente di incrementare l'accuratezza della stima. Questa tesi mira a sviluppare un algoritmo di Sensor Fusion basato su Unscented Kalman Filter (UKF) che fonda i dati provenienti da un localizzatore ottico e da una IMU per fornire una predizione del moto della testa compatibile con le accuratezze richieste durante gli interventi di neurochirurgia ad una frequenza sufficiente a permettere la compensazione del movimento. Poiché i dati ottici ed inerziali sono rilevati in due diversi sistemi di riferimento, è stato necessario implementare un algoritmo di calibrazione che permetta di fondere i dati rispetto ad un unico sistema di riferimento. Viene proposto un metodo di calibrazione basato sul confronto delle informazioni di accelerazione e velocità angolare misurate dai sensori inerziali e ricavate per derivazione numerica dalle informazioni ottiche. La corrispondenza tra le velocità angolari restituisce la parte rotazionale della matrice di calibrazione, mentre il confronto tra le componenti di accelerazione fornisce il valore del vettore traslazione. Di fondamentale importanza è il riconoscimento del contributo fornito dalla gravità, rilevato dalla IMU ma non associato ad un reale movimento del corpo. Questo contributo deve essere sottratto ad ogni acquisizione, in modo da poter confrontare dati coerenti fra loro. Il metodo di calibrazione proposto è stato confrontato con una calibrazione geometrica, basata sulla misura della posizione degli accelerometri rispetto al sistema di riferimento ottico locale. I risultati mostrano che il metodo di calibrazione tramite derivazione proposto fornisce soluzioni ripetibili alla minimizzazione della funzione di costo implementata per risolvere il sistema sovradeterminato. Gli errori di calibrazione rilevati sono compatibili con i livelli di rumore misurati sui sensori, e sono quindi da considerarsi generati da questi. L'algoritmo di Sensor Fusion (SF) sviluppato mira a integrare i dati provenienti dai sensori inerziali con la posa ottica derivante dal sistema di localizzazione. L'integrazione dei dati inerziali porta ad errori crescenti dovuti alla deriva di integrazione. La predizione effettuata su questi dati necessita della costante supervisione di un sistema ottico, che corregga la posizione predetta con un'accurata rilevazione della posa. Poiché l'integrazione dei dati inerziali è un processo altamente non lineare, la SF è effettuata tramite un UKF, che permette la risoluzione del modello di stato senza il calcolo dello jacobiano. I dati dei sensori vengono acquisiti a diverse frequenze, ottenendo i dati inerziali a 100 Hz e i dati ottici a 20 Hz. La predizione della posa successiva viene effettuata ogni volta che è disponibile un nuovo set di dati inerziali, correggendo la posa con i dati ottici ad una frequenza inferiore. Due metodi differenti sono stati implementati e confrontati, un modello di stato del primo e uno del secondo ordine. In entrambi i modelli sviluppati, la posa del corpo rigido è rappresentata all'interno dello stato da quaternione e coordinate cartesiane. L'utilizzo del quaternione per rappresentare la rotazione di un corpo elimina i problemi di discontinuità che si avrebbero invece con l'utilizzo degli angoli di Eulero. Tuttavia i quaternioni forniscono un'informazione ridondante, poiché sono composti da quattro variabili con tre soli gradi di libertà (la norma unitaria impone che una delle variabili sia necessariamente dipendente dalle altre tre). Per questo motivo, il rumore sulle variabili di stato è stato modellizzato nello spazio dei vettori angolari, ottenendo quindi tre variabili indipendenti. All'interno del filtro di Kalman vengono eseguiti alcune trasformazioni tra i due spazi geometrici per sfruttare al meglio le caratteristiche di entrambe le rappresentazioni. I risultati mostrano che gli errori mediani sono inferiori ad 1mm in entrambi gli approcci, nonostante il modello del primo ordine presenti risultati statisticamente migliori. L'accuratezza richiesta in interventi di neurochirurgia robotica è di 1 mm, e quindi confrontabile con gli errori ottenuti. La frequenza di campionamento adottata è stata di un ordine di grandezza inferiore rispetto alle richieste dell'applicazione. Questo ha però consentito di tenere bassi livelli di rumore e di valutare il funzionamento dell'algoritmo di SF. Il sistema è facilmente espandibile a frequenze di acquisizione maggiori, compatibilmente con le possibilità dell'hardware.

Sviluppo di un filtro di Kalman unscented per fusione di dati ottici e inerziali in ambito di neurochirurgia robotica

VALENTI, MARTA
2011/2012

Abstract

The development of Computer Integrated Surgery (CIS) and robotic surgery has involved also neurosurgery. Keyhole neurosurgery interventions, which need accurate positioning of the surgical instrument, increased the overall accuracy of the intervention and the number of successful operations. The use of a stereotactic robot in neurosurgery operations provides the surgeon with a valuable tool for accurate positioning of surgical instruments, avoiding the use of the stereotactic head-frame and reducing trauma for the patient. The background of this thesis is robotic epilepsy surgery. The removal of the Epileptogenic zone needs a brain mapping procedure, in which the surgeon electrically stimulates different areas of the brain to test patient's responses. In this way, it is possible to identify the most important functional areas and to preserve them during the intervention. Since the brain mapping procedure must be performed several times during the surgery, the patient is left awake for the entire duration of the procedure. However, during the procedure the patient's head can undergo voluntary movements, induced movements or even an epileptic seizure; the head-frame holding the head restrains the possible movements, but does not assure their total removal. If a robot is helping to perform the operation, a motion compensation algorithm is needed to control its motion at high frequency and avoid damage. Ideally, the control frequency of the robot movement is about 1 kHz. Motion compensation is possible through a prediction of the next step of the target, that has to be done through an appropriate sensorization of the head-frame. Supervising the operation with an optical tracking system that constantly detects the position of the target and the position of the robot could be not sufficient to avoid damage. Optical Tracking Systems (OTSs), in fact, have low acquisition frequencies compared to the requirements and need a clear line of sight of at least three optical markers at each time step for the pose resolution of each reference frame. Inertial Measurement Units (IMUs), the combination of a triaxial accelerometer and a triaxial gyroscope, can provide motion detection at higher update rate, and can thus be suitable for motion prediction. However, inertial sensors suffer from drift, and provide measurements in the local reference frame. The combination of inertial and optical data can thus provide a solution to obtain accurate pose estimation at a high frequency. The prediction is done with the inertial data, acquired at high frequency, while the correction of the pose with optical data allows the prediction accuracy improvement. This thesis aims at developing a Sensor Fusion algorithm based on an Unscented Kalman Filter (UKF) able to integrate data coming from an OTS and an IMU, in order to get a reliable motion of the patient's head consistent with the accuracy required for neurosurgical operations. Since optical and inertial data are detected in two different reference frames, it was necessary to implement a calibration algorithm. A calibration method is proposed, based on the comparison between acceleration and angular velocity information coming from the inertial sensors and derived by the optical sensor. The correspondence between angular velocities returns the rotational part of the calibration matrix, while the correspondence between the acceleration components gives the translation vector. Gravity is of fundamental importance, as it is detected by the IMU but not associated with an actual movement of the body. This contribution must be subtracted from each sample, in order to compare data consistent with each other. The proposed calibration method has been compared with a geometric calibration, based on the detection of the accelerometer's position in the optical reference frame. The results show that the derivative's calibration method proposed provides repeatable solutions to the minimization of the cost function implemented to solve the overdetermined system. The calibration errors detected are compatible with the noise levels measured on the sensors, and are therefore considered generated by these. The developed Sensor Fusion (SF) algorithm aims at integrating data coming from inertial sensors together with the optical pose detected by the OTS. Integration of IMU data leads to increasing errors, due to integration drift. This prediction requires the supervision of an OTS, that corrects the position with accurate pose detection. As the integration of inertial data is a highly non linear process, sensor fusion is performed through UKF, that allows the resolution of the state model without the jacobian computation. Sensors' data are collected at different frequencies, getting inertial data at 100 Hz and optical data at 20 Hz. The prediction of the next pose is done whenever inertial data is available, correcting the prediction with the optical data at a lower frequency. Two different models are implemented and compared, a first order and a second order state model. In both models developed, the pose of the rigid body is represented as quaternion and position vector. The use of the quaternion to represent the rotation of a body eliminates the problems of gimbal lock that would occur instead with the use of Euler angles. However, quaternions provide redundant information, since they are composed of four variables with only three degrees of freedom (the unit norm requires that one of the variables is necessarily dependent on the other three). For this reason, the noise on the state variables has been modelled in the angular vector's space, thus obtaining three independent variables. Within the Kalman filter transformations between the two geometric spaces are used to exploit the best features of both representations. Results show that median errors are less than 1mm in both approaches, though the first order model shows significantly better results. The accuracy required in neurosurgical operations is 1 mm, and thus comparable with the obtained errors. The sampling frequency adopted was of an order of magnitude lower than the application requirements. This has allowed lower noise levels and the evaluation of the SF algorithm. The system is easily expandable to higher frame rates, according to the available hardware.
COMPARETTI, MIRKO DANIELE
VACCARELLA, ALBERTO
ING II - Scuola di Ingegneria dei Sistemi
25-lug-2012
2011/2012
Con lo svilupparsi della Computer Integrated Surgery (CIS) la robotica chirurgica ha investito anche l'ambito della neurochirurgia. Gli interventi di neurochirurgia mininvasiva, che prevedono un accurato posizionamento dello strumento chirurgico, hanno visto l'incrementarsi dell'accuratezza delle operazioni, associato ad un conseguente aumento del numero di operazioni andate a buon fine. L'utilizzo di robot stereotassici in operazioni di neurochirurgia ha fornito al chirurgo un valido strumento per il posizionamento accurato degli strumenti chirurgici, consentendogli la possibilità di eliminare l'uso del casco stereotassico e diminuendo quindi il trauma per il paziente. Lo scenario chirurgico in cui si inserisce questa tesi è la neurochirurgia robotica per epilessia. La rimozione della zona epilettogena necessita della procedura di brain mapping, in cui il chirurgo stimola elettricamente diverse aree del cervello per valutare la reazione del paziente. In questo modo è possibile riconoscere le zone funzionalmente importanti e preservarle durante l'intervento. Poiché la procedura di brain mapping deve essere eseguita più volte durante l'operazione, il paziente viene lasciato sveglio per tutta la durata dell'intervento. Durante l'operazione è possibile che la testa del paziente si muova per movimenti volontari, per reazione alla stimolazione o per crisi epilettiche convulsive; la testiera che blocca il cranio del paziente limita i possibili movimenti ma non ne assicura la totale eliminazione. Nel caso in cui l'operazione sia eseguita con l'aiuto di un robot, quindi, si rende necessario un algoritmo di compensazione del movimento che ne controlli il movimento ad alta frequenza e gli permetta di non danneggiare il tessuto cerebrale. Idealmente la frequenza di controllo del movimento del robot è di 1 kHz, per permettere la compensazione del movimento. La compensazione del movimento è possibile attraverso una stima della posa futura del target, che deve essere effettuata tramite un'appropriata sensorizzazione della testiera. Il controllo dell'operazione con un localizzatore ottico che costantemente controlla la posa del target e del robot potrebbe non essere sufficiente per evitare il danno. I sistemi di localizzazione, infatti, hanno frequenze di acquisizione basse rispetto ai requisiti sopra citati, e hanno bisogno della visibilità contemporanea di almeno tre marcatori per definire la posa di ciascun corpo rigido. Una Inertial Measurement Unit (IMU), composta da un accelerometro e da un giroscopio triassiali, può fornire la rilevazione del movimento ad una frequenza più elevata, ed è quindi indicata per la predizione del movimento. Tuttavia, i sensori inerziali soffrono di deriva di integrazione e restituiscono i dati nel sistema di riferimento locale. La combinazione di sensori ottici ed inerziali può essere una soluzione per ottenere la posa accurata della testa ad una frequenza elevata. La predizione viene effettuata tramite dati inerziali, rilevati ad alta frequenza, mentre le correzione della posa tramite i dati ottici consente di incrementare l'accuratezza della stima. Questa tesi mira a sviluppare un algoritmo di Sensor Fusion basato su Unscented Kalman Filter (UKF) che fonda i dati provenienti da un localizzatore ottico e da una IMU per fornire una predizione del moto della testa compatibile con le accuratezze richieste durante gli interventi di neurochirurgia ad una frequenza sufficiente a permettere la compensazione del movimento. Poiché i dati ottici ed inerziali sono rilevati in due diversi sistemi di riferimento, è stato necessario implementare un algoritmo di calibrazione che permetta di fondere i dati rispetto ad un unico sistema di riferimento. Viene proposto un metodo di calibrazione basato sul confronto delle informazioni di accelerazione e velocità angolare misurate dai sensori inerziali e ricavate per derivazione numerica dalle informazioni ottiche. La corrispondenza tra le velocità angolari restituisce la parte rotazionale della matrice di calibrazione, mentre il confronto tra le componenti di accelerazione fornisce il valore del vettore traslazione. Di fondamentale importanza è il riconoscimento del contributo fornito dalla gravità, rilevato dalla IMU ma non associato ad un reale movimento del corpo. Questo contributo deve essere sottratto ad ogni acquisizione, in modo da poter confrontare dati coerenti fra loro. Il metodo di calibrazione proposto è stato confrontato con una calibrazione geometrica, basata sulla misura della posizione degli accelerometri rispetto al sistema di riferimento ottico locale. I risultati mostrano che il metodo di calibrazione tramite derivazione proposto fornisce soluzioni ripetibili alla minimizzazione della funzione di costo implementata per risolvere il sistema sovradeterminato. Gli errori di calibrazione rilevati sono compatibili con i livelli di rumore misurati sui sensori, e sono quindi da considerarsi generati da questi. L'algoritmo di Sensor Fusion (SF) sviluppato mira a integrare i dati provenienti dai sensori inerziali con la posa ottica derivante dal sistema di localizzazione. L'integrazione dei dati inerziali porta ad errori crescenti dovuti alla deriva di integrazione. La predizione effettuata su questi dati necessita della costante supervisione di un sistema ottico, che corregga la posizione predetta con un'accurata rilevazione della posa. Poiché l'integrazione dei dati inerziali è un processo altamente non lineare, la SF è effettuata tramite un UKF, che permette la risoluzione del modello di stato senza il calcolo dello jacobiano. I dati dei sensori vengono acquisiti a diverse frequenze, ottenendo i dati inerziali a 100 Hz e i dati ottici a 20 Hz. La predizione della posa successiva viene effettuata ogni volta che è disponibile un nuovo set di dati inerziali, correggendo la posa con i dati ottici ad una frequenza inferiore. Due metodi differenti sono stati implementati e confrontati, un modello di stato del primo e uno del secondo ordine. In entrambi i modelli sviluppati, la posa del corpo rigido è rappresentata all'interno dello stato da quaternione e coordinate cartesiane. L'utilizzo del quaternione per rappresentare la rotazione di un corpo elimina i problemi di discontinuità che si avrebbero invece con l'utilizzo degli angoli di Eulero. Tuttavia i quaternioni forniscono un'informazione ridondante, poiché sono composti da quattro variabili con tre soli gradi di libertà (la norma unitaria impone che una delle variabili sia necessariamente dipendente dalle altre tre). Per questo motivo, il rumore sulle variabili di stato è stato modellizzato nello spazio dei vettori angolari, ottenendo quindi tre variabili indipendenti. All'interno del filtro di Kalman vengono eseguiti alcune trasformazioni tra i due spazi geometrici per sfruttare al meglio le caratteristiche di entrambe le rappresentazioni. I risultati mostrano che gli errori mediani sono inferiori ad 1mm in entrambi gli approcci, nonostante il modello del primo ordine presenti risultati statisticamente migliori. L'accuratezza richiesta in interventi di neurochirurgia robotica è di 1 mm, e quindi confrontabile con gli errori ottenuti. La frequenza di campionamento adottata è stata di un ordine di grandezza inferiore rispetto alle richieste dell'applicazione. Questo ha però consentito di tenere bassi livelli di rumore e di valutare il funzionamento dell'algoritmo di SF. Il sistema è facilmente espandibile a frequenze di acquisizione maggiori, compatibilmente con le possibilità dell'hardware.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
2012_07_Valenti.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 5.01 MB
Formato Adobe PDF
5.01 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/59461