In the last few years, we have assisted to and extended and shared effort in the scientific community: build AI-powered systems embracing the Human Centred AI discipline which aim is on amplifying, augmenting, and enhancing human performance in ways that make AI systems reliable, safe and trustworthy. In this direction, Explainable AI, the branch of artificial intelligence that encompasses the methods and processes that enable users to understand and trust the results and output created by machine learning algorithms, is one of the most promising fields. Even if literature about explainable AI techniques is growing and growing every day, since the necessity to cope with the explainability-performance trade off of the most effective deep learning algorithm or the new regulations that made mandatory providing ‘right for explanations’, only in the last few years the XAI research community has embraced a more broader and multidisciplinary view on the topic shifting from serving only data scientist and domain experts and adopting an end user-centred approach. From this efforts literature agreed on the necessity to improve explanation effectiveness in terms of understandability and usability. AI novices, user with without any or little previous experience in the AI field are the user group most disregarded by them that’s why they has been selected as the main target of this work. This thesis covered the topic of Understandable AI and Explanation Usability from AI novices’ perspective and contributed to the literature on designing explainable AI user experiences in the context of explainable interfaces providing actionable insights for practitioners to design explanatory narratives serving user needs, expressed, according to the question driven design approach for explainable AI, as question users may have in mind while they are seeking for explanations. The methodology has exploited a participatory design approach which involved 10 semi structured interviews with AI novices to answer to the following research questions: What is the AI novice reasoning at the first interaction with explanation types? What information are easily caught, what mental model they inform, what is their perceived usefulness and their intention of use? and Explanatory forms/explanation type can convey the information needed to AI novices to answers the prototypical questions given by the question driven design approach? The discussion has covered the first research question providing insights in terms of user friendliness and perceived usefulness and highlighting user’s opinion in terms of applicable context of use and possible strategies to improve their visualisation in order to overcome possible misleading factors. Additionally, from this analysis we have been able recognize patterns of user-explanation interaction for AI novices. For what concern the second research question, from the first user study focused on the capability of explanation type to serve user explanatory needs (namely, answer the 10 prototypical questions) resulted the a fine-grained explanatory forms analysis, an actionable resource for XUI designers which list, for each of them, what question are able to answer differentiating the one given in an efficient manner i.e., providing complete or partial answer and if they are given with effectiveness aka if the information grasped to answer them are directly or indirectly given, thus, more or less cognitive demanding. Additionally, we have reversed the explanatory forms’ results providing an additional fine-grained question analysis which provide, for each of the 10 prototypical questions what the most suitable explanatory form are to answer them in order to fulfil user needs (i.e. providing complete answer). For each question the elements extracted from the form to answer them are summarised differentiating what ones can provide complete or partial hints to serve the whole XAI community in the development of new XAI techniques able to provide the most effective explainable experiences even for AI novices, in the near future.

Negli ultimi anni, con l'avvento dell'AI era la scientifica si è unita sotto un obiettivo comune: costruire sistemi dotati di IA che abbracciano la disciplina Human Centred AI, il cui obiettivo è quello di amplificare, incrementare e migliorare le prestazioni umane in modo da rendere i sistemi di IA affidabili e sicuri. In questa direzione, l'IA spiegabile, la branca dell'intelligenza artificiale che comprende i metodi e i processi che consentono agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di apprendimento automatico, è uno dei campi più promettenti. Anche se la letteratura sulle tecniche di IA spiegabile cresce ogni giorno di più, a partire dalla necessità di affrontare il trade off spiegabilità-prestazioni degli algoritmo di deep learning o di rispettare le nuove normative che hanno reso obbligatorio il "diritto alle spiegazioni", solo negli ultimi anni la comunità di ricerca sull'AI spiegabile ha abbracciato una visione più ampia e multidisciplinare sull'argomento, spostandosi dal servire solo gli analisti dei dati e gli esperti di domain ad adottare un approccio incentrato sull'utente finale. Da questi sforzi la comunità scinetifica ha concordato la necessità di migliorare l'efficacia delle spiegazioni in termini di comprensibilità e usabilità. I novizi dell'IA, gli utenti con nessuna o poca esperienza nel campo dell'IA, sono il gruppo di utenti più trascurato dalla ricerca sul tema, per questo motivo sono stati scelti come target principale di questo lavoro. Questa tesi affronta il tema dell'IA comprensibile e dell'usabilità esplicativa dal punto di vista dei nuovi utenti dell'IA e contribuisce alla letteratura che riguarda la user experience design dell'IA spiegabile nel contesto della progettazione di interfacce spiegabili (XUI), fornendo spunti pratici per la progettazione di spiegazioni che rispondano alle esigenze degli utenti, espresse, secondo il question driven design approach for XAI come le domande che gli utenti potrebbero avere in mente quando son alla ricerca di spiegazioni. La metodologia adottata sfrutta un approccio di progettazione partecipativa comprendenti 10 interviste semi-strutturate a utenti non esperti di Intelligenza artificiale con l'obiettivo di rispondere alle seguenti domande di ricerca: Qual è il ragionamento dei novizi dell'AI alla prima interazione con i diversi tipi di spiegazione? Quali informazioni riescono a veicolare, quale modello mentale sono in grado di generale, qual è la loro utilità percepita e la loro intenzione d'uso? e: le tipologie di spiegazione possono trasmettere le informazioni necessarie ai novizi dell'IA per rispondere alle domande prototipiche fornite dal question driven design approach? La discussione parte dalla prima domanda di ricerca, fornendo approfondimenti in termini di facilità d'uso e utilità percepita e mettendo in evidenza l'opinione degli utenti in termini di opportunità d'uso e di possibili strategie per migliorare le attuali techniche di visualizzazione in termine comprensione e rappresentazione al fine di superare eventuali fattori di malinterpretazione. Inoltre, da questa analisi sono stati identificati diversi pattern di interazione utente-spiegazione per i meno esperti dell'IA. Per quanto riguarda la seconda domanda di ricerca, dal primo studio sull'utente incentrato sulla capacità del tipo di spiegazione di soddisfare i bisogni esplicativi dell'utente (ovvero, rispondere alle 10 domande prototipiche) è emersa un'analisi delle visualizzazioni disponibili, una risorsa utilizzabile per i designer di XUI che elenca, per ognuna di esse, a quali domande sono in grado di rispondere differenziando quelle fornite in modo efficiente, ovvero, fornendo una risposta completa o parziale da quelle fornite con minor efficacia se le informazioni acquisite per rispondere sono fornite direttamente o indirettamente, quindi, più o meno impegnative dal punto di vista cognitivo. Inoltre, cambiando prospettiva sui risultati ottenuti riguardo le visualizzazioni siamo riusciti a fornire un'ulteriore analisi dettagliata delle domande che, per ognuna delle 10 domande prototipiche, indica la visualizzazione più adatta a rispondere alle esigenze dell'utente (cioè a fornire una risposta completa). Per ogni domanda vengono riassunti gli elementi estratti dal modulo di risposta, differenziando quelli che possono fornire suggerimenti completi da quelli parziali, per informare l'intera comunità XAI nello sviluppo di nuove tecniche XAI in grado di fornire le più spiegazioni più efficaci anche ai principianti dell'IA, nel prossimo futuro.

Understandable aI and explanation usability : a fine-grained analysis of the state of art of explainable aI visualisations from aI novices perspective

Macolino, Francesca
2021/2022

Abstract

In the last few years, we have assisted to and extended and shared effort in the scientific community: build AI-powered systems embracing the Human Centred AI discipline which aim is on amplifying, augmenting, and enhancing human performance in ways that make AI systems reliable, safe and trustworthy. In this direction, Explainable AI, the branch of artificial intelligence that encompasses the methods and processes that enable users to understand and trust the results and output created by machine learning algorithms, is one of the most promising fields. Even if literature about explainable AI techniques is growing and growing every day, since the necessity to cope with the explainability-performance trade off of the most effective deep learning algorithm or the new regulations that made mandatory providing ‘right for explanations’, only in the last few years the XAI research community has embraced a more broader and multidisciplinary view on the topic shifting from serving only data scientist and domain experts and adopting an end user-centred approach. From this efforts literature agreed on the necessity to improve explanation effectiveness in terms of understandability and usability. AI novices, user with without any or little previous experience in the AI field are the user group most disregarded by them that’s why they has been selected as the main target of this work. This thesis covered the topic of Understandable AI and Explanation Usability from AI novices’ perspective and contributed to the literature on designing explainable AI user experiences in the context of explainable interfaces providing actionable insights for practitioners to design explanatory narratives serving user needs, expressed, according to the question driven design approach for explainable AI, as question users may have in mind while they are seeking for explanations. The methodology has exploited a participatory design approach which involved 10 semi structured interviews with AI novices to answer to the following research questions: What is the AI novice reasoning at the first interaction with explanation types? What information are easily caught, what mental model they inform, what is their perceived usefulness and their intention of use? and Explanatory forms/explanation type can convey the information needed to AI novices to answers the prototypical questions given by the question driven design approach? The discussion has covered the first research question providing insights in terms of user friendliness and perceived usefulness and highlighting user’s opinion in terms of applicable context of use and possible strategies to improve their visualisation in order to overcome possible misleading factors. Additionally, from this analysis we have been able recognize patterns of user-explanation interaction for AI novices. For what concern the second research question, from the first user study focused on the capability of explanation type to serve user explanatory needs (namely, answer the 10 prototypical questions) resulted the a fine-grained explanatory forms analysis, an actionable resource for XUI designers which list, for each of them, what question are able to answer differentiating the one given in an efficient manner i.e., providing complete or partial answer and if they are given with effectiveness aka if the information grasped to answer them are directly or indirectly given, thus, more or less cognitive demanding. Additionally, we have reversed the explanatory forms’ results providing an additional fine-grained question analysis which provide, for each of the 10 prototypical questions what the most suitable explanatory form are to answer them in order to fulfil user needs (i.e. providing complete answer). For each question the elements extracted from the form to answer them are summarised differentiating what ones can provide complete or partial hints to serve the whole XAI community in the development of new XAI techniques able to provide the most effective explainable experiences even for AI novices, in the near future.
ARC III - Scuola del Design
4-mag-2023
2021/2022
Negli ultimi anni, con l'avvento dell'AI era la scientifica si è unita sotto un obiettivo comune: costruire sistemi dotati di IA che abbracciano la disciplina Human Centred AI, il cui obiettivo è quello di amplificare, incrementare e migliorare le prestazioni umane in modo da rendere i sistemi di IA affidabili e sicuri. In questa direzione, l'IA spiegabile, la branca dell'intelligenza artificiale che comprende i metodi e i processi che consentono agli utenti di comprendere e fidarsi dei risultati e degli output creati dagli algoritmi di apprendimento automatico, è uno dei campi più promettenti. Anche se la letteratura sulle tecniche di IA spiegabile cresce ogni giorno di più, a partire dalla necessità di affrontare il trade off spiegabilità-prestazioni degli algoritmo di deep learning o di rispettare le nuove normative che hanno reso obbligatorio il "diritto alle spiegazioni", solo negli ultimi anni la comunità di ricerca sull'AI spiegabile ha abbracciato una visione più ampia e multidisciplinare sull'argomento, spostandosi dal servire solo gli analisti dei dati e gli esperti di domain ad adottare un approccio incentrato sull'utente finale. Da questi sforzi la comunità scinetifica ha concordato la necessità di migliorare l'efficacia delle spiegazioni in termini di comprensibilità e usabilità. I novizi dell'IA, gli utenti con nessuna o poca esperienza nel campo dell'IA, sono il gruppo di utenti più trascurato dalla ricerca sul tema, per questo motivo sono stati scelti come target principale di questo lavoro. Questa tesi affronta il tema dell'IA comprensibile e dell'usabilità esplicativa dal punto di vista dei nuovi utenti dell'IA e contribuisce alla letteratura che riguarda la user experience design dell'IA spiegabile nel contesto della progettazione di interfacce spiegabili (XUI), fornendo spunti pratici per la progettazione di spiegazioni che rispondano alle esigenze degli utenti, espresse, secondo il question driven design approach for XAI come le domande che gli utenti potrebbero avere in mente quando son alla ricerca di spiegazioni. La metodologia adottata sfrutta un approccio di progettazione partecipativa comprendenti 10 interviste semi-strutturate a utenti non esperti di Intelligenza artificiale con l'obiettivo di rispondere alle seguenti domande di ricerca: Qual è il ragionamento dei novizi dell'AI alla prima interazione con i diversi tipi di spiegazione? Quali informazioni riescono a veicolare, quale modello mentale sono in grado di generale, qual è la loro utilità percepita e la loro intenzione d'uso? e: le tipologie di spiegazione possono trasmettere le informazioni necessarie ai novizi dell'IA per rispondere alle domande prototipiche fornite dal question driven design approach? La discussione parte dalla prima domanda di ricerca, fornendo approfondimenti in termini di facilità d'uso e utilità percepita e mettendo in evidenza l'opinione degli utenti in termini di opportunità d'uso e di possibili strategie per migliorare le attuali techniche di visualizzazione in termine comprensione e rappresentazione al fine di superare eventuali fattori di malinterpretazione. Inoltre, da questa analisi sono stati identificati diversi pattern di interazione utente-spiegazione per i meno esperti dell'IA. Per quanto riguarda la seconda domanda di ricerca, dal primo studio sull'utente incentrato sulla capacità del tipo di spiegazione di soddisfare i bisogni esplicativi dell'utente (ovvero, rispondere alle 10 domande prototipiche) è emersa un'analisi delle visualizzazioni disponibili, una risorsa utilizzabile per i designer di XUI che elenca, per ognuna di esse, a quali domande sono in grado di rispondere differenziando quelle fornite in modo efficiente, ovvero, fornendo una risposta completa o parziale da quelle fornite con minor efficacia se le informazioni acquisite per rispondere sono fornite direttamente o indirettamente, quindi, più o meno impegnative dal punto di vista cognitivo. Inoltre, cambiando prospettiva sui risultati ottenuti riguardo le visualizzazioni siamo riusciti a fornire un'ulteriore analisi dettagliata delle domande che, per ognuna delle 10 domande prototipiche, indica la visualizzazione più adatta a rispondere alle esigenze dell'utente (cioè a fornire una risposta completa). Per ogni domanda vengono riassunti gli elementi estratti dal modulo di risposta, differenziando quelli che possono fornire suggerimenti completi da quelli parziali, per informare l'intera comunità XAI nello sviluppo di nuove tecniche XAI in grado di fornire le più spiegazioni più efficaci anche ai principianti dell'IA, nel prossimo futuro.
File allegati
File Dimensione Formato  
2023_5_Macolino.pdf

accessibile in internet per tutti

Descrizione: Understandable AI and Explanation Usability: a fine-grained analysis of the state of art of Explainable AI visualisation from AI novices perspective
Dimensione 7.8 MB
Formato Adobe PDF
7.8 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/208367