In quantum control, the objective is to guide a quantum system to a desired state or implement specific transformations, often by adjusting external factors, such as field amplitudes. The two core components of quantum optimal control (QOC) are controllability, the system’s capacity to reach a state through external inputs, and quantum optimal control methods, which calculate the control fields necessary for high-fidelity operations. This thesis explores the potential of Reinforcement Learning (RL) as an alternative to traditional QOC algorithms, such as GRAPE and others. Developed for the open-source organization QuTiP as part of the Google Summer of Code 2024, this RL-based framework, built within the qutip-qoc module, integrates an RL algorithm with QOC tools. By using libraries like Gymnasium and StableBaselines, the framework provides custom RL environments for quantum tasks, allowing for standardized input/output within qutip-qoc and facilitating comparison with other algorithms.

Nel controllo quantistico, l'obiettivo è guidare un sistema quantistico verso uno stato desiderato o implementare specifiche trasformazioni, spesso regolando fattori esterni, come le ampiezze dei campi. I due componenti principali del controllo ottimale quantistico (QOC) sono la controllabilità, ossia la capacità del sistema di raggiungere uno stato tramite input esterni, e i metodi di controllo ottimale quantistico, che calcolano i campi di controllo necessari per operazioni ad alta fedeltà. Questa tesi esplora il potenziale del Reinforcement Learning (RL) come alternativa agli algoritmi QOC tradizionali, come GRAPE e altri. Sviluppato per l'organizzazione open-source QuTiP come parte del Google Summer of Code 2024, questo framework basato su RL, costruito all'interno del modulo qutip-qoc, integra un algoritmo di RL con strumenti di QOC. Utilizzando librerie come Gymnasium e StableBaselines, il framework fornisce ambienti RL personalizzati per task quantistici, permettendo input/output standardizzati all'interno di qutip-qoc e facilitando il confronto con altri algoritmi.

Reinforcement learning for quantum optimal control

Parato, Alessio
2023/2024

Abstract

In quantum control, the objective is to guide a quantum system to a desired state or implement specific transformations, often by adjusting external factors, such as field amplitudes. The two core components of quantum optimal control (QOC) are controllability, the system’s capacity to reach a state through external inputs, and quantum optimal control methods, which calculate the control fields necessary for high-fidelity operations. This thesis explores the potential of Reinforcement Learning (RL) as an alternative to traditional QOC algorithms, such as GRAPE and others. Developed for the open-source organization QuTiP as part of the Google Summer of Code 2024, this RL-based framework, built within the qutip-qoc module, integrates an RL algorithm with QOC tools. By using libraries like Gymnasium and StableBaselines, the framework provides custom RL environments for quantum tasks, allowing for standardized input/output within qutip-qoc and facilitating comparison with other algorithms.
HOPF, PATRICK
PITCHFORD, ALEXANDER
REALE, SIMONE
ING - Scuola di Ingegneria Industriale e dell'Informazione
11-dic-2024
2023/2024
Nel controllo quantistico, l'obiettivo è guidare un sistema quantistico verso uno stato desiderato o implementare specifiche trasformazioni, spesso regolando fattori esterni, come le ampiezze dei campi. I due componenti principali del controllo ottimale quantistico (QOC) sono la controllabilità, ossia la capacità del sistema di raggiungere uno stato tramite input esterni, e i metodi di controllo ottimale quantistico, che calcolano i campi di controllo necessari per operazioni ad alta fedeltà. Questa tesi esplora il potenziale del Reinforcement Learning (RL) come alternativa agli algoritmi QOC tradizionali, come GRAPE e altri. Sviluppato per l'organizzazione open-source QuTiP come parte del Google Summer of Code 2024, questo framework basato su RL, costruito all'interno del modulo qutip-qoc, integra un algoritmo di RL con strumenti di QOC. Utilizzando librerie come Gymnasium e StableBaselines, il framework fornisce ambienti RL personalizzati per task quantistici, permettendo input/output standardizzati all'interno di qutip-qoc e facilitando il confronto con altri algoritmi.
File allegati
File Dimensione Formato  
2024_12_Parato_Executive Summary.pdf

accessibile in internet solo dagli utenti autorizzati

Descrizione: Executive Summary
Dimensione 1.22 MB
Formato Adobe PDF
1.22 MB Adobe PDF   Visualizza/Apri
2024_12_Parato_Tesi.pdf

accessibile in internet solo dagli utenti autorizzati

Descrizione: Tesi
Dimensione 10.11 MB
Formato Adobe PDF
10.11 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/231512