Recent advancements in Natural Language Processing (NLP) increased the interest in Explainable AI, a research field aiming at providing explanations for the internal functioning of black-box models. Often, explainability methods applied to NLP models are enabled by human-generated data identifying elements in the input text that effectively support the output. Even though the explanations they provide may be accurate, these are seldom representative of the reasoning a human actor would apply to solve the task. As a result, they may leave end users dissatisfied or confused. This thesis makes a first step in the direction of providing complete and human-understandable explanations through the acquisition of a dataset representing human rationale applied to NLP tasks. This work builds on Rationale Mappings and Rationale Trees, formalizations existing in the literature describing how to organize human rationale in tree-based data structures. More specifically, this thesis contributes a methodology engaging human annotators in providing their rationale in the form of Rationale Mappings, its implementation as a crowdsourcing web application, and its validation with experimental studies, showing its effectiveness and leading to the collection of a dataset of Rationale Trees for some NLP tasks of interest.
I recenti progressi nel campo dell'Elaborazione del Linguaggio Naturale (NLP) hanno accresciuto l'interesse per l'Intelligenza Artificiale Spiegabile (XAI), un ambito di ricerca che mira a fornire spiegazioni sul funzionamento interno dei modelli a scatola nera. Spesso, i metodi di XAI applicati ai modelli di NLP sono supportati da dati generati dall'uomo che identificano gli elementi del testo in ingresso al modello che ne giustificano il risultato in uscita. Nonostante gli approcci suddetti forniscano spiegazioni accurate, queste spesso si rivelano non essere rappresentative del ragionamento che un attore umano adotterebbe nello svolgimento dell'attività. Di conseguenza, tali spiegazioni potrebbero generare confusione o risultare poco soddisfacenti per gli utenti finali. Questa tesi compie un primo passo nella direzione di fornire spiegazioni che siano allo stesso tempo complete e comprensibili per gli umani, in particolare attraverso l'acquisizione di dati rappresentativi del ragionamento umano applicato alle attività di NLP. Questo lavoro si basa sulle Mappature di Ragionamento e sugli Alberi di Ragionamento, delle formalizzazioni già presentate in letteratura che descrivono come organizzare il ragionamento umano in strutture dati ad albero. Più nello specifico, il contributo di questa tesi consiste nella definizione di una metodologia per coinvolgere annotatori umani allo scopo di raccogliere i loro ragionamenti sotto forma di Mappature di Ragionamento, la sua implementazione in un'applicazione web basata su di essa, e la sua validazione attraverso alcuni studi sperimentali, che consentono sia di valutarne l'efficacia, sia di raccogliere Alberi di Ragionamento per alcune attività di NLP.
A human-centered approach to the collection of rationale trees for explainable NLP
Naldi, Valentina
2022/2023
Abstract
Recent advancements in Natural Language Processing (NLP) increased the interest in Explainable AI, a research field aiming at providing explanations for the internal functioning of black-box models. Often, explainability methods applied to NLP models are enabled by human-generated data identifying elements in the input text that effectively support the output. Even though the explanations they provide may be accurate, these are seldom representative of the reasoning a human actor would apply to solve the task. As a result, they may leave end users dissatisfied or confused. This thesis makes a first step in the direction of providing complete and human-understandable explanations through the acquisition of a dataset representing human rationale applied to NLP tasks. This work builds on Rationale Mappings and Rationale Trees, formalizations existing in the literature describing how to organize human rationale in tree-based data structures. More specifically, this thesis contributes a methodology engaging human annotators in providing their rationale in the form of Rationale Mappings, its implementation as a crowdsourcing web application, and its validation with experimental studies, showing its effectiveness and leading to the collection of a dataset of Rationale Trees for some NLP tasks of interest.File | Dimensione | Formato | |
---|---|---|---|
2024_04_Naldi_Tesi_01.pdf
accessibile in internet solo dagli utenti autorizzati
Descrizione: testo della tesi
Dimensione
14.69 MB
Formato
Adobe PDF
|
14.69 MB | Adobe PDF | Visualizza/Apri |
2024_04_Naldi_Executive Summary_02.pdf
accessibile in internet solo dagli utenti autorizzati
Descrizione: Executive Summary
Dimensione
651.55 kB
Formato
Adobe PDF
|
651.55 kB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/219242