Technological progress has led in the last decade to the development of increasingly intelligent and autonomous artificial intelligence systems, but at the same time also complex and difficult to understand. In some areas, the opacity of these systems calls into question their application, despite the results provided by these technologies are undoubtedly useful: this reluctance is particularly high in the medical sector, in which stringent requirements limit the use of AI technologies both from the ethical and legal point of view and from the application one. This thesis aims to present one of the possible solutions to the problem of opacity of AI technologies, called Explainable Artificial Intelligence. These tools aim to be an evolution of the classic AI techniques but increasing their level of transparency: in doing so these instruments become more comprehensible, so more controllable, correctable, and reliable. Following this path, you can implement these technologies even in the most reluctant sectors, such as the medical, because their work is more understandable to both developers, and end users. This review allows to say that, despite the development of Explainable Artificial Intelligence is still in an early stage, the potential is very high: the benefits that can be derived from the explanations and justifications of the work done by automated systems allow to enrich the knowledge that one has both on the development of these tools, and on the areas in which they are applied. There are of course problems and limitations, but with a joint effort of developers, industry experts and end-users, you can bypass these problems and increase the integration of AI in areas still reluctant.

Il progresso tecnologico ha portato nell'ultimo decennio allo sviluppo di sistemi di intelligenza artificiale sempre più intelligenti e autonomi, ma allo stesso tempo anche complessi e di difficile comprensione. In alcune aree, l'opacità di questi sistemi mette in discussione la loro applicazione, nonostante i risultati forniti da queste tecnologie siano indubbiamente utili: questa avversione è particolarmente elevata nel settore medico, in cui requisiti rigorosi limitano l'uso delle tecnologie dell'AI sia dal punto di vista etico e giuridico, che da quello applicativo. Questa tesi mira a presentare una delle possibili soluzioni al problema dell'opacità delle tecnologie AI, chiamata Intelligenza Artificiale Spiegabile. Questi strumenti mirano ad essere un'evoluzione delle classiche tecniche di AI ma aumentandone il livello di trasparenza: così facendo questi strumenti diventano più comprensibili, quindi più controllabili, correggibili e affidabili. Seguendo questo percorso, è possibile implementare queste tecnologie anche nei settori più riluttanti, come quello medico, perché il loro lavoro è più comprensibile sia per gli sviluppatori, sia per gli utenti finali. Questo lavoro permette di dire che, nonostante lo sviluppo dell’Intelligenza Artificiale Spiegabile sia ancora in una fase iniziale, il suo potenziale è molto alto: i benefici che possono derivare dalle spiegazioni e giustificazioni del lavoro svolto dai sistemi automatizzati permettono di arricchire le conoscenze che si hanno sia sullo sviluppo di questi strumenti, sia sulle aree in cui vengono applicati. Naturalmente ci sono problemi e limitazioni, ma con uno sforzo congiunto di sviluppatori, esperti del settore e utenti finali, è possibile aggirare questi problemi e aumentare l'integrazione di AI in aree ancora restie.

Explainable artificial intelligence : review and applications in medical field

FIORANI, SIMONE
2020/2021

Abstract

Technological progress has led in the last decade to the development of increasingly intelligent and autonomous artificial intelligence systems, but at the same time also complex and difficult to understand. In some areas, the opacity of these systems calls into question their application, despite the results provided by these technologies are undoubtedly useful: this reluctance is particularly high in the medical sector, in which stringent requirements limit the use of AI technologies both from the ethical and legal point of view and from the application one. This thesis aims to present one of the possible solutions to the problem of opacity of AI technologies, called Explainable Artificial Intelligence. These tools aim to be an evolution of the classic AI techniques but increasing their level of transparency: in doing so these instruments become more comprehensible, so more controllable, correctable, and reliable. Following this path, you can implement these technologies even in the most reluctant sectors, such as the medical, because their work is more understandable to both developers, and end users. This review allows to say that, despite the development of Explainable Artificial Intelligence is still in an early stage, the potential is very high: the benefits that can be derived from the explanations and justifications of the work done by automated systems allow to enrich the knowledge that one has both on the development of these tools, and on the areas in which they are applied. There are of course problems and limitations, but with a joint effort of developers, industry experts and end-users, you can bypass these problems and increase the integration of AI in areas still reluctant.
ING - Scuola di Ingegneria Industriale e dell'Informazione
7-ott-2021
2020/2021
Il progresso tecnologico ha portato nell'ultimo decennio allo sviluppo di sistemi di intelligenza artificiale sempre più intelligenti e autonomi, ma allo stesso tempo anche complessi e di difficile comprensione. In alcune aree, l'opacità di questi sistemi mette in discussione la loro applicazione, nonostante i risultati forniti da queste tecnologie siano indubbiamente utili: questa avversione è particolarmente elevata nel settore medico, in cui requisiti rigorosi limitano l'uso delle tecnologie dell'AI sia dal punto di vista etico e giuridico, che da quello applicativo. Questa tesi mira a presentare una delle possibili soluzioni al problema dell'opacità delle tecnologie AI, chiamata Intelligenza Artificiale Spiegabile. Questi strumenti mirano ad essere un'evoluzione delle classiche tecniche di AI ma aumentandone il livello di trasparenza: così facendo questi strumenti diventano più comprensibili, quindi più controllabili, correggibili e affidabili. Seguendo questo percorso, è possibile implementare queste tecnologie anche nei settori più riluttanti, come quello medico, perché il loro lavoro è più comprensibile sia per gli sviluppatori, sia per gli utenti finali. Questo lavoro permette di dire che, nonostante lo sviluppo dell’Intelligenza Artificiale Spiegabile sia ancora in una fase iniziale, il suo potenziale è molto alto: i benefici che possono derivare dalle spiegazioni e giustificazioni del lavoro svolto dai sistemi automatizzati permettono di arricchire le conoscenze che si hanno sia sullo sviluppo di questi strumenti, sia sulle aree in cui vengono applicati. Naturalmente ci sono problemi e limitazioni, ma con uno sforzo congiunto di sviluppatori, esperti del settore e utenti finali, è possibile aggirare questi problemi e aumentare l'integrazione di AI in aree ancora restie.
File allegati
File Dimensione Formato  
2020_10_Fiorani.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 3.27 MB
Formato Adobe PDF
3.27 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/179059