In recent years, Neural Networks have become essential in machine learning, offering effective solutions to a wide range of complex problems. However, their deep and often intricate architectures make them difficult to interpret, earning them the reputation of “Black Box” models. This thesis investigates Shapley Values, a concept originating in Game Theory, as a powerful tool for interpreting Neural Networks. We introduce Shapley Values in the context of Cooperative Game Theory, leveraging their strong theoretical foundation to explain the inner workings of Neural Networks. Through the use of KernelSHAP, a model-agnostic approach, we apply Shapley Values to a Convolutional Neural Network designed for image classification. By analyzing individual feature contributions—specifically the pixels— we aim to understand model predictions at a granular level. Our results reveal that Shapley Values provide not only interpretable explanations but also bring significant theoretical rigor to model interpretation. This robust theoretical framework differentiates SHAP from other interpretability methods, underscoring its potential for broader application across various Neural Network architectures and domains.
Negli ultimi anni, le reti neurali sono diventate fondamentali nel campo del machine learning, offrendo soluzioni efficaci a una vasta gamma di problemi complessi. Tuttavia, le loro architetture profonde e spesso intricate le rendono difficili da interpretare, conferendo loro la reputazione di modelli “Scatola Nera”. Questa tesi indaga i Valori di Shapley, un concetto originato dalla Teoria dei Giochi, come uno strumento per interpretare le Reti Neurali. Introduciamo i Valori di Shapley nel contesto della Teoria dei Giochi Cooperativi, sfruttando la loro solida base teorica per spiegare il funzionamento interno delle Reti Neurali. Attraverso l'uso di KernelSHAP, un approccio agnostico rispetto al modello, applichiamo i Valori di Shapley a una Rete Neurale Convoluzionale progettata per la classificazione delle immagini. Analizzando il contributo delle singole caratteristiche, in questo caso i pixel, miriamo a comprendere le predizioni del modello a un livello dettagliato. I nostri risultati rivelano che i Valori di Shapley forniscono non solo spiegazioni interpretabili, ma aggiungono anche un significativo rigore teorico all'interpretazione del modello. Questa solida base teorica distingue SHAP da altri metodi di interpretabilità, evidenziandone il potenziale per un'applicazione più ampia a diverse architetture di Reti Neurali e in vari domini.
A new approach to neural networks: the Shapley Values
VIETRI, DAVIDE
2023/2024
Abstract
In recent years, Neural Networks have become essential in machine learning, offering effective solutions to a wide range of complex problems. However, their deep and often intricate architectures make them difficult to interpret, earning them the reputation of “Black Box” models. This thesis investigates Shapley Values, a concept originating in Game Theory, as a powerful tool for interpreting Neural Networks. We introduce Shapley Values in the context of Cooperative Game Theory, leveraging their strong theoretical foundation to explain the inner workings of Neural Networks. Through the use of KernelSHAP, a model-agnostic approach, we apply Shapley Values to a Convolutional Neural Network designed for image classification. By analyzing individual feature contributions—specifically the pixels— we aim to understand model predictions at a granular level. Our results reveal that Shapley Values provide not only interpretable explanations but also bring significant theoretical rigor to model interpretation. This robust theoretical framework differentiates SHAP from other interpretability methods, underscoring its potential for broader application across various Neural Network architectures and domains.File | Dimensione | Formato | |
---|---|---|---|
2024_12_Vietri_Executive_Summary.pdf
accessibile in internet per tutti
Dimensione
1.01 MB
Formato
Adobe PDF
|
1.01 MB | Adobe PDF | Visualizza/Apri |
2024_12_Vietri_Thesis.pdf
accessibile in internet per tutti
Dimensione
3.89 MB
Formato
Adobe PDF
|
3.89 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/230497