Recent recommender systems offer extremely well-personalized advice, but training them with deep learning can be challenging. Incremental training can overcome these challenges by adapting to the continuously changing user preferences and using computing resources more efficiently for faster deployment. This thesis focuses on incremental training approaches for sequence-aware recommender systems using deep learning. We aim to implement these approaches to allow SDMRec ( a re-implementation of the Sequential Deep Matching model from Oracle's Lab recommender system library) to overcome the limitations of offline-only deployment. To do so, the model is trained incrementally with three different categories of approaches which include sample-based approaches, which keep and replay a reservoir of data from the past; and model-based approaches, which involve updating the model using new data while also preserving the knowledge gained from previous data. This last category is identified as the most promising and novel and in particular, we focused on knowledge distillation because previous research has proven it effective in avoiding performance degradation while keeping training time stable in deep learning models. Our work not only confirms these findings but also fills in the gaps in previous literature by proposing a novel model-based approach that trains the model through knowledge distillation. The innovation lies in the fact that we have included different selection strategies and parameters to balance how to gain knowledge from the reservoir. The knowledge so acquired is then transferred by customizing the training steps of SDMRec. The developed strategies were compared and evaluated to ensure their feasibility through extensive experiments which simulated incremental training in different settings, relevant to Oracle Labs Company's use cases.

I sistemi di raccomandazione offrono consigli personalizzati molto efficaci, ma realizzarli e allenarli utilizzando algoritmi di deep learning può essere difficile. L'addestramento incrementale contribuisce a superare queste sfide adattandosi continuamente alle preferenze dell'utente e utilizzando le risorse in modo più efficiente per un utilizzo più rapida. Questa tesi si concentra sull'addestramento incrementale di sistemi di raccomandazione sequenziali che usano deep learning. Il nostro obiettivo è implementare questi approcci per consentire a SDMRec (una re-implementazione del modello Sequential Deep Matching dalla libreria di sistemi di raccomandazione di Oracle Labs) di superare le limitazioni del training offline. Per fare ciò, il modello viene addestrato incrementalmente con tre diverse categorie di approcci, che includono approcci sample-based, che conservano e riproducono una riserva di dati dal passato; e approcci model-based, che implicano l'aggiornamento del modello utilizzando nuovi dati mentre si preserva la conoscenza acquisita dai dati precedenti. L'ultima categoria è identificata come la più promettente e innovativa. In particolare, ci siamo focalizzati sulla tecnica di knowledge-distillation perché ricerche preliminari hanno dimostrato che è efficace per evitare la riduzione delle prestazioni pur mantenendo stabile il tempo nei modelli di deep learning. Il nostro lavoro non solo conferma queste scoperte, ma colma anche le lacune nella letteratura precedente proponendo un nuovo approccio basato l'addestramento del modello tramite knowledge distillation. L'innovazione sta nel fatto che abbiamo incluso diverse strategie di selezione e parametri per bilanciare come acquisire conoscenza dalla riserva. La conoscenza così acquisita viene quindi trasferita personalizzando le fasi di addestramento di SDMRec. Le strategie sviluppate sono state confrontate e valutate per garantirne l'utilità attraverso numerosi esperimenti che hanno simulato l'addestramento incrementale in diversi contesti, pertinenti ai casi d'interesse per l'azienda Oracle Labs.

Incremental training methods for sequence-aware deep-learning-based recommender systems

Galzerano, Arianna
2021/2022

Abstract

Recent recommender systems offer extremely well-personalized advice, but training them with deep learning can be challenging. Incremental training can overcome these challenges by adapting to the continuously changing user preferences and using computing resources more efficiently for faster deployment. This thesis focuses on incremental training approaches for sequence-aware recommender systems using deep learning. We aim to implement these approaches to allow SDMRec ( a re-implementation of the Sequential Deep Matching model from Oracle's Lab recommender system library) to overcome the limitations of offline-only deployment. To do so, the model is trained incrementally with three different categories of approaches which include sample-based approaches, which keep and replay a reservoir of data from the past; and model-based approaches, which involve updating the model using new data while also preserving the knowledge gained from previous data. This last category is identified as the most promising and novel and in particular, we focused on knowledge distillation because previous research has proven it effective in avoiding performance degradation while keeping training time stable in deep learning models. Our work not only confirms these findings but also fills in the gaps in previous literature by proposing a novel model-based approach that trains the model through knowledge distillation. The innovation lies in the fact that we have included different selection strategies and parameters to balance how to gain knowledge from the reservoir. The knowledge so acquired is then transferred by customizing the training steps of SDMRec. The developed strategies were compared and evaluated to ensure their feasibility through extensive experiments which simulated incremental training in different settings, relevant to Oracle Labs Company's use cases.
HILLOULIN, DAMIEN
ING - Scuola di Ingegneria Industriale e dell'Informazione
4-mag-2023
2021/2022
I sistemi di raccomandazione offrono consigli personalizzati molto efficaci, ma realizzarli e allenarli utilizzando algoritmi di deep learning può essere difficile. L'addestramento incrementale contribuisce a superare queste sfide adattandosi continuamente alle preferenze dell'utente e utilizzando le risorse in modo più efficiente per un utilizzo più rapida. Questa tesi si concentra sull'addestramento incrementale di sistemi di raccomandazione sequenziali che usano deep learning. Il nostro obiettivo è implementare questi approcci per consentire a SDMRec (una re-implementazione del modello Sequential Deep Matching dalla libreria di sistemi di raccomandazione di Oracle Labs) di superare le limitazioni del training offline. Per fare ciò, il modello viene addestrato incrementalmente con tre diverse categorie di approcci, che includono approcci sample-based, che conservano e riproducono una riserva di dati dal passato; e approcci model-based, che implicano l'aggiornamento del modello utilizzando nuovi dati mentre si preserva la conoscenza acquisita dai dati precedenti. L'ultima categoria è identificata come la più promettente e innovativa. In particolare, ci siamo focalizzati sulla tecnica di knowledge-distillation perché ricerche preliminari hanno dimostrato che è efficace per evitare la riduzione delle prestazioni pur mantenendo stabile il tempo nei modelli di deep learning. Il nostro lavoro non solo conferma queste scoperte, ma colma anche le lacune nella letteratura precedente proponendo un nuovo approccio basato l'addestramento del modello tramite knowledge distillation. L'innovazione sta nel fatto che abbiamo incluso diverse strategie di selezione e parametri per bilanciare come acquisire conoscenza dalla riserva. La conoscenza così acquisita viene quindi trasferita personalizzando le fasi di addestramento di SDMRec. Le strategie sviluppate sono state confrontate e valutate per garantirne l'utilità attraverso numerosi esperimenti che hanno simulato l'addestramento incrementale in diversi contesti, pertinenti ai casi d'interesse per l'azienda Oracle Labs.
File allegati
File Dimensione Formato  
2023_05_Galzerano_01_Thesis.pdf

solo utenti autorizzati dal 12/04/2024

Descrizione: testo tesi
Dimensione 2.75 MB
Formato Adobe PDF
2.75 MB Adobe PDF   Visualizza/Apri
2023_05_Galzerano_02_Executive_Summary.pdf

solo utenti autorizzati dal 12/04/2024

Descrizione: testo executive summary
Dimensione 555.88 kB
Formato Adobe PDF
555.88 kB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/202618