Fornire spiegazioni per le raccomandazioni è essenziale per garantire la trasparenza e l'affidabilità dei sistemi di raccomandazione. Quando il modello interno di raccomandazione manca di interpretabilità intrinseca, come avviene in molti sistemi contemporanei complessi ed opachi, o quando l'accesso al sistema non è disponibile (ad esempio, nel caso della raccomandazione come servizio), diventa imperativo generare spiegazioni in modo post-hoc, cioè dopo che il sistema ha finito la fase di training. Il focus di questo lavoro è sulle spiegazioni controfattuali, che nel contesto dei sistemi di raccomandazione si riferiscono a quei minimi cambiamenti all'input che farebbero sì che il sistema non emetta la raccomandazione che deve essere spiegata. Le spiegazioni controfattuali migliorano la comprensione degli utenti dei sistemi di raccomandazione e agevolano la comprensione e la fiducia degli utenti nei processi decisionali. I metodi esistenti per generare spiegazioni controfattuali post-hoc nei sistemi di raccomandazione di solito adottano un approccio grey-box, facendo affidamento su un modello di machine learning addestrato. Le spiegazioni controfattuali post-hoc model-agnostic (black-box) sono rare a causa delle sfide poste da uno spazio di ricerca vasto. Il paradigma standard nei approcci model-agnostic è addestrare un modello interpretabile sugli stessi dati o costruire un modello surrogato locale progettato per approssimare le decisioni del sistema. Di conseguenza, gli approcci model-agnostic esistenti affrontano sfide di fedeltà. Poiché le spiegazioni sono generate da un modello diverso da quello che emette le raccomandazioni, non possono essere del tutto veritiere e possono solo fornire giustificazioni plausibili delle relazioni osservate nei dati di addestramento. In questo lavoro viene proposto un approccio che sfrutta l'ottimizzazione bayesiana (BayesOpt) per scoprire spiegazioni controfattuali ottimali in modo efficiente, che siano veritiere, private, comprensibili e praticabili. L'idea chiave è fornire spiegazioni controfattuali, definite come quei piccoli cambiamenti nella cronologia di interazione dell'utente che farebbero sì che il sistema non emetta la raccomandazione che deve essere spiegata. In questo modo, l'approccio BayesOpt trova spiegazioni controfattuali concise senza avere accesso al modello interno di raccomandazione, rispettando la privacy degli utenti.
Providing explanations for recommendations is essential in ensuring the transparency and trustworthiness of recommender systems. When the internal recommendation model lacks inherent interpretability, such as in many complex and opaque contemporary systems, or when access to the system is not available (e.g., in the scenario of recommendation as a service), it becomes imperative to generate explanations post-hoc, meaning after the system has undergone training. The focus of this work is on counterfactual explanations, which in the context of recommender systems refers to those minimal changes to the input that would result in the system not making the recommendation that is to be explained. Counterfactual explanations enhance users' understanding of recommender systems and facilitate user comprehension and trust in decision-making processes. Existing methods for generating post-hoc counterfactual explanations in recommender systems typically adopt a grey-box approach, relying on a trained machine learning model. Model-agnostic (black-box) post-hoc counterfactual explanations are rare due to the challenges posed by a vast search space. The standard paradigm in model-agnostic approaches is to train an interpretable model on the same dataor building a local surrogate model designed to approximate the decisions of the system. Consequently, existing model-agnostic approaches face challenges in fidelity. Since explanations are generated by a different model than the one making the recommendations, they cannot be entirely truthful and can only provide plausible rationalizations of the observed relationships in the training data. In this work is proposed an approach that leverages Bayesian optimization (BayesOpt) to discover optimal counterfactual explanations efficiently that are truthful, private, scrutable, and actionable. The key idea is to provide counterfactual explanations, defined as those small changes to the user’s interaction history that would result in the system not making the recommendation that is to be explained. In this way, the BayesOpt approach finds concise counterfactual explanations without access to the internal recommendation model, respecting users' privacy.
Model-agnostic counterfactual explanation for recommendations using Bayesian optimization
Faouzi, Dounia
2023/2024
Abstract
Fornire spiegazioni per le raccomandazioni è essenziale per garantire la trasparenza e l'affidabilità dei sistemi di raccomandazione. Quando il modello interno di raccomandazione manca di interpretabilità intrinseca, come avviene in molti sistemi contemporanei complessi ed opachi, o quando l'accesso al sistema non è disponibile (ad esempio, nel caso della raccomandazione come servizio), diventa imperativo generare spiegazioni in modo post-hoc, cioè dopo che il sistema ha finito la fase di training. Il focus di questo lavoro è sulle spiegazioni controfattuali, che nel contesto dei sistemi di raccomandazione si riferiscono a quei minimi cambiamenti all'input che farebbero sì che il sistema non emetta la raccomandazione che deve essere spiegata. Le spiegazioni controfattuali migliorano la comprensione degli utenti dei sistemi di raccomandazione e agevolano la comprensione e la fiducia degli utenti nei processi decisionali. I metodi esistenti per generare spiegazioni controfattuali post-hoc nei sistemi di raccomandazione di solito adottano un approccio grey-box, facendo affidamento su un modello di machine learning addestrato. Le spiegazioni controfattuali post-hoc model-agnostic (black-box) sono rare a causa delle sfide poste da uno spazio di ricerca vasto. Il paradigma standard nei approcci model-agnostic è addestrare un modello interpretabile sugli stessi dati o costruire un modello surrogato locale progettato per approssimare le decisioni del sistema. Di conseguenza, gli approcci model-agnostic esistenti affrontano sfide di fedeltà. Poiché le spiegazioni sono generate da un modello diverso da quello che emette le raccomandazioni, non possono essere del tutto veritiere e possono solo fornire giustificazioni plausibili delle relazioni osservate nei dati di addestramento. In questo lavoro viene proposto un approccio che sfrutta l'ottimizzazione bayesiana (BayesOpt) per scoprire spiegazioni controfattuali ottimali in modo efficiente, che siano veritiere, private, comprensibili e praticabili. L'idea chiave è fornire spiegazioni controfattuali, definite come quei piccoli cambiamenti nella cronologia di interazione dell'utente che farebbero sì che il sistema non emetta la raccomandazione che deve essere spiegata. In questo modo, l'approccio BayesOpt trova spiegazioni controfattuali concise senza avere accesso al modello interno di raccomandazione, rispettando la privacy degli utenti.File | Dimensione | Formato | |
---|---|---|---|
Dounia_Faouzi_Executive_Summary.pdf
accessibile in internet solo dagli utenti autorizzati
Dimensione
1.51 MB
Formato
Adobe PDF
|
1.51 MB | Adobe PDF | Visualizza/Apri |
Dounia_Faouzi_Thesis.pdf
accessibile in internet solo dagli utenti autorizzati
Dimensione
8.66 MB
Formato
Adobe PDF
|
8.66 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/218473