Emerging Artificial Intelligence applications leverage all of the available computing tiers, operating seamlessly across Edge and Cloud platforms. Deploying applications at the network's periphery enables faster processing times, while cloud computing allows for increased scalability. Dealing with such a dynamic, modular, and diverse environment requires managing resources to ensure satisfaction of Quality of Service constraints and the minimization of costs. A novel framework based on Reinforcement Learning was proposed to handle the variability in a runtime computing continuum scenario: FIGARO (reinForcement learnInG mAnagement acRoss computing cOntinuum). An initial offline training period has been developed to reduce the training time where the agent learns from the insights provided by a design-time tool. However, the first version of FIGARO was limited to applications including up to two components. This work tackles this problem by generalizing the state space definition and streamlining the preliminary offline training.
Le emergenti applicazioni di Intelligenza Artificiale sfruttano tutti i tier di calcolo disponibili, operando in modo fluido tra piattaforme Edge e Cloud. La distribuzione delle applicazioni ai margini della rete consente tempi di elaborazione più rapidi, mentre il cloud computing permette una maggiore scalabilità. Organizzare un sistema così dinamico, modulare e diversificato richiede una gestione delle risorse che garantisca la soddisfazione dei vincoli di Qualità del Servizio e la minimizzazione dei costi. È stato proposto un nuovo framework basato sull'Apprendimento per Rinforzo per gestire le variazioni in uno scenario di computing continuum in tempo reale: FIGARO (reinForcement learnInG mAnagement acRoss computing cOntinuum). È stato sviluppato un periodo iniziale di addestramento offline per ridurre il tempo di addestramento, durante il quale l'agente apprende dalle informazioni fornite da uno strumento di progettazione. Tuttavia, la prima versione di FIGARO era limitata alle applicazioni che includono fino a due componenti. Questo lavoro di tesi affronta il problema generalizzando la definizione dello spazio degli stati e semplificando l'addestramento offline preliminare.
Training reinforcement learning agents for the computing continuum: the FIGARO framework
PRESICCI, BENEDETTA
2022/2023
Abstract
Emerging Artificial Intelligence applications leverage all of the available computing tiers, operating seamlessly across Edge and Cloud platforms. Deploying applications at the network's periphery enables faster processing times, while cloud computing allows for increased scalability. Dealing with such a dynamic, modular, and diverse environment requires managing resources to ensure satisfaction of Quality of Service constraints and the minimization of costs. A novel framework based on Reinforcement Learning was proposed to handle the variability in a runtime computing continuum scenario: FIGARO (reinForcement learnInG mAnagement acRoss computing cOntinuum). An initial offline training period has been developed to reduce the training time where the agent learns from the insights provided by a design-time tool. However, the first version of FIGARO was limited to applications including up to two components. This work tackles this problem by generalizing the state space definition and streamlining the preliminary offline training.File | Dimensione | Formato | |
---|---|---|---|
Benedetta_Presicci_Tesi.pdf
non accessibile
Descrizione: thesis
Dimensione
1.85 MB
Formato
Adobe PDF
|
1.85 MB | Adobe PDF | Visualizza/Apri |
Executive_Summary_Benedetta_Presicci.pdf
non accessibile
Descrizione: executive summary
Dimensione
516.82 kB
Formato
Adobe PDF
|
516.82 kB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/218274