In quantum control, the objective is to guide a quantum system to a desired state or implement specific transformations, often by adjusting external factors, such as field amplitudes. The two core components of quantum optimal control (QOC) are controllability, the system’s capacity to reach a state through external inputs, and quantum optimal control methods, which calculate the control fields necessary for high-fidelity operations. This thesis explores the potential of Reinforcement Learning (RL) as an alternative to traditional QOC algorithms, such as GRAPE and others. Developed for the open-source organization QuTiP as part of the Google Summer of Code 2024, this RL-based framework, built within the qutip-qoc module, integrates an RL algorithm with QOC tools. By using libraries like Gymnasium and StableBaselines, the framework provides custom RL environments for quantum tasks, allowing for standardized input/output within qutip-qoc and facilitating comparison with other algorithms.
Nel controllo quantistico, l'obiettivo è guidare un sistema quantistico verso uno stato desiderato o implementare specifiche trasformazioni, spesso regolando fattori esterni, come le ampiezze dei campi. I due componenti principali del controllo ottimale quantistico (QOC) sono la controllabilità, ossia la capacità del sistema di raggiungere uno stato tramite input esterni, e i metodi di controllo ottimale quantistico, che calcolano i campi di controllo necessari per operazioni ad alta fedeltà. Questa tesi esplora il potenziale del Reinforcement Learning (RL) come alternativa agli algoritmi QOC tradizionali, come GRAPE e altri. Sviluppato per l'organizzazione open-source QuTiP come parte del Google Summer of Code 2024, questo framework basato su RL, costruito all'interno del modulo qutip-qoc, integra un algoritmo di RL con strumenti di QOC. Utilizzando librerie come Gymnasium e StableBaselines, il framework fornisce ambienti RL personalizzati per task quantistici, permettendo input/output standardizzati all'interno di qutip-qoc e facilitando il confronto con altri algoritmi.
Reinforcement learning for quantum optimal control
Parato, Alessio
2023/2024
Abstract
In quantum control, the objective is to guide a quantum system to a desired state or implement specific transformations, often by adjusting external factors, such as field amplitudes. The two core components of quantum optimal control (QOC) are controllability, the system’s capacity to reach a state through external inputs, and quantum optimal control methods, which calculate the control fields necessary for high-fidelity operations. This thesis explores the potential of Reinforcement Learning (RL) as an alternative to traditional QOC algorithms, such as GRAPE and others. Developed for the open-source organization QuTiP as part of the Google Summer of Code 2024, this RL-based framework, built within the qutip-qoc module, integrates an RL algorithm with QOC tools. By using libraries like Gymnasium and StableBaselines, the framework provides custom RL environments for quantum tasks, allowing for standardized input/output within qutip-qoc and facilitating comparison with other algorithms.File | Dimensione | Formato | |
---|---|---|---|
2024_12_Parato_Executive Summary.pdf
accessibile in internet solo dagli utenti autorizzati
Descrizione: Executive Summary
Dimensione
1.22 MB
Formato
Adobe PDF
|
1.22 MB | Adobe PDF | Visualizza/Apri |
2024_12_Parato_Tesi.pdf
accessibile in internet solo dagli utenti autorizzati
Descrizione: Tesi
Dimensione
10.11 MB
Formato
Adobe PDF
|
10.11 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/231512