In the field of mobile applications, the integration of Artificial Intelligence (AI) features is becoming increasingly prevalent. However, the opaque nature of AI’s decision-making processes often leaves users feeling disconnected and distrustful of the technology. To address this challenge, the emerging field of Explainable AI (XAI) seeks to make AI operations more understandable and transparent. Despite growing interest in this field, it's only recently that studies have begun to consider the perspective of everyday users, moving beyond a focus on those with technical expertise. However, to this day, there is a notable scarcity of empirical research demonstrating XAI's practical implementation in real-world applications. This thesis aims to bridge this gap, exploring the integration of XAI into consumer mobile applications, aiming to verify the impact that explainability might have on user trust and engagement, by making AI decision-making transparent and understandable. Through a detailed examination of existing XAI frameworks, user-centric design principles, and the incorporation of XAI interfaces within Splice—a mobile video editing application—the research seeks to identify optimal strategies for explaining AI processes to users. The study focuses on the balance between detail level and user comprehension, effective delivery methods for XAI features, and the impact of these features on user trust and perceived utility. By employing a qualitative research approach, including user interviews and usability testing, findings reveal that the presence of explainability elements, aligned with user needs and cognitive styles, significantly improves user experience, fostering a deeper trust in AI-driven applications. This work adds to the broader knowledge of how to design and use explainable AI in mobile apps to effectively meet user expectations and improve interactions with AI technologies, offering suggestions for further studies.
Nel campo delle applicazioni digitali, l'integrazione di funzionalità che sfruttano l’Intelligenza Artificiale (IA) sta diventando sempre più diffusa. Tuttavia, la natura opaca dei processi decisionali dell'IA lascia spesso gli utenti disorientati e diffidenti nei confronti della tecnologia. Per affrontare questa sifda, Il campo emergente dell’Explainable AI (XAI) si pone come obiettivo di rendere le operazioni dell'IA più comprensibili e trasparenti. Nonostante il crescente interesse in questo campo, solo di recente gli studi hanno iniziato ad esaminare la prospettiva degli utenti finali, andando oltre lo studio del campo in relazione a utenti tecnici. Tuttavia, ad oggi, vi è una notevole scarsità di casi studi che dimostrino l'implementazione pratica della XAI in applicazioni reali. Questa tesi mira a colmare questa lacuna, esplorando l'integrazione della XAI nelle applicazioni mobili per i consumatori finali, con l'obiettivo di verificarne l'impatto sulla fiducia e sul coinvolgimento degli utenti, rendendo trasparente e comprensibile il processo decisionale dell'IA. Attraverso un esame dettagliato dei framework XAI esistenti, principi di design e l'incorporazione di interface di XAI in Splice—un'applicazione mobile di montaggio video—lo studio si pone di identificare strategie ottimali per rendere i processi dell'IA trasparenti agli utenti. In particolare, lo studio si concentra sulla ricerca del giusto bilanciamento tra il livello di dettaglio e la comprensione dell'utente, metodi di comunicazione efficaci e l'impatto della presenza di elementi di XAI sulla fiducia e l'utilità percepita dall'utente. Impiegando un approccio di ricerca qualitativa, che include interviste agli utenti e test di usabilità, i risultati rivelano che la presenza di elementi di spiegabilità, allineati alle esigenze e agli stili cognitivi degli utenti, migliora significativamente l'esperienza utente, favorendo una fiducia più profonda nelle applicazioni guidate dall'IA. Questa ricerca contribuisce alla comprensione più ampia di come l’XAI possa essere progettata ed implementata efficacemente nelle applicazioni mobili per soddisfare le aspettative degli utenti e migliorare l'interazione con le tecnologie IA, offrendo suggerimenti per ulteriori studi.
Designing for explainability : fostering trust in ai features in consumer mobile applications
Mazzuca, Claudia
2023/2024
Abstract
In the field of mobile applications, the integration of Artificial Intelligence (AI) features is becoming increasingly prevalent. However, the opaque nature of AI’s decision-making processes often leaves users feeling disconnected and distrustful of the technology. To address this challenge, the emerging field of Explainable AI (XAI) seeks to make AI operations more understandable and transparent. Despite growing interest in this field, it's only recently that studies have begun to consider the perspective of everyday users, moving beyond a focus on those with technical expertise. However, to this day, there is a notable scarcity of empirical research demonstrating XAI's practical implementation in real-world applications. This thesis aims to bridge this gap, exploring the integration of XAI into consumer mobile applications, aiming to verify the impact that explainability might have on user trust and engagement, by making AI decision-making transparent and understandable. Through a detailed examination of existing XAI frameworks, user-centric design principles, and the incorporation of XAI interfaces within Splice—a mobile video editing application—the research seeks to identify optimal strategies for explaining AI processes to users. The study focuses on the balance between detail level and user comprehension, effective delivery methods for XAI features, and the impact of these features on user trust and perceived utility. By employing a qualitative research approach, including user interviews and usability testing, findings reveal that the presence of explainability elements, aligned with user needs and cognitive styles, significantly improves user experience, fostering a deeper trust in AI-driven applications. This work adds to the broader knowledge of how to design and use explainable AI in mobile apps to effectively meet user expectations and improve interactions with AI technologies, offering suggestions for further studies.File | Dimensione | Formato | |
---|---|---|---|
2024_04_Mazzuca.pdf
non accessibile
Dimensione
4.93 MB
Formato
Adobe PDF
|
4.93 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/218525