The field of Artificial Intelligence (AI) is developing exceptionally quickly today, and innovation has a predominant role in it. However, what happens when these technologies inevitably make mistakes? The most critical question that has to be asked before starting any innovation path using AI has to be “should we develop this?” instead of “can we develop it?”. There are many ethical concerns about advanced technologies: social, economic, philosophical, and behavioral considerations are just a few examples. The main problem that emerged analyzing the state of the art of the field of AI ethics is the gap in terms of information and knowledge among academia and industry. While research on ethical AI is advancing quickly and reaching important milestones, it is still complex and costly to bring this knowledge into the mindset of companies. This gap has led to businesses tackling ethical dilemmas only after AI projects are completed and applications have reached widespread market adoption, which is often already too late. The aim of this thesis is the creation of a design methodology to help companies address ethical issues directly in the ideation phase of any AI project. To achieve this goal, a toolkit has been created that uses the human-centered design methodology to create AI products / services that are ethically correct. The toolkit is designed to be used in the ideation phase of the development process of AI systems and has the function of creating and spreading awareness.

Il campo dell’intelligenza artificiale (IA) si sta sviluppando sempre più rapidamente e l’innovazione ha un ruolo predominante in esso. Ma cosa succede quando queste tecnologie inevitabilmente commettono errori? La domanda più critica che deve essere posta prima di iniziare qualsiasi percorso di innovazione utilizzando l’intelligenza artificiale dovrebbe essere “dovremmo svilupparlo?” invece di “possiamo svilupparlo?” Ci sono molte tematiche etiche riguardo queste nuove tecnologie: considerazioni sociali, economiche, filosofiche e comportamentali sono solo alcuni esempi. Il problema principale emerso analizzando lo stato dell’arte nel campo dell’etica dell’IA è il divario in termini di informazioni e conoscenze tra università e industria. Mentre la ricerca sull’impatto etico dell’intelligenza artificiale sta avanzando rapidamente e raggiungendo traguardi importanti, è ancora complesso e costoso portare questa conoscenza all’interno del mondo dell’industria. Questo divario ha portato le aziende ad affrontare i dilemmi etici solo dopo che i progetti di intelligenza artificiale sono stati completati e le applicazioni hanno raggiunto una diffusa adozione sul mercato, quando spesso è già troppo tardi. Lo scopo di questa tesi è la creazione di una metodologia progettuale per aiutare le aziende ad affrontare le questioni etiche direttamente nella fase di ideazione di un progetto che incorpora l’IA. Per raggiungere tale obiettivo è stato creato un toolkit che utilizza la metodologia dello human-centered design per creare prodotti/servizi di IA che siano eticamente corretti. Il toolkit è pensato per essere utilizzato nella fase di ideazione del processo di sviluppo di sistemi IA ed ha la funzione di creare e diffondere consapevolezza.

AI for good. A human-centered design method to tackle ethical issues in the ideation phase of AI solutions

Mascheroni, Beatrice
2019/2020

Abstract

The field of Artificial Intelligence (AI) is developing exceptionally quickly today, and innovation has a predominant role in it. However, what happens when these technologies inevitably make mistakes? The most critical question that has to be asked before starting any innovation path using AI has to be “should we develop this?” instead of “can we develop it?”. There are many ethical concerns about advanced technologies: social, economic, philosophical, and behavioral considerations are just a few examples. The main problem that emerged analyzing the state of the art of the field of AI ethics is the gap in terms of information and knowledge among academia and industry. While research on ethical AI is advancing quickly and reaching important milestones, it is still complex and costly to bring this knowledge into the mindset of companies. This gap has led to businesses tackling ethical dilemmas only after AI projects are completed and applications have reached widespread market adoption, which is often already too late. The aim of this thesis is the creation of a design methodology to help companies address ethical issues directly in the ideation phase of any AI project. To achieve this goal, a toolkit has been created that uses the human-centered design methodology to create AI products / services that are ethically correct. The toolkit is designed to be used in the ideation phase of the development process of AI systems and has the function of creating and spreading awareness.
ARC III - Scuola del Design
9-giu-2021
2019/2020
Il campo dell’intelligenza artificiale (IA) si sta sviluppando sempre più rapidamente e l’innovazione ha un ruolo predominante in esso. Ma cosa succede quando queste tecnologie inevitabilmente commettono errori? La domanda più critica che deve essere posta prima di iniziare qualsiasi percorso di innovazione utilizzando l’intelligenza artificiale dovrebbe essere “dovremmo svilupparlo?” invece di “possiamo svilupparlo?” Ci sono molte tematiche etiche riguardo queste nuove tecnologie: considerazioni sociali, economiche, filosofiche e comportamentali sono solo alcuni esempi. Il problema principale emerso analizzando lo stato dell’arte nel campo dell’etica dell’IA è il divario in termini di informazioni e conoscenze tra università e industria. Mentre la ricerca sull’impatto etico dell’intelligenza artificiale sta avanzando rapidamente e raggiungendo traguardi importanti, è ancora complesso e costoso portare questa conoscenza all’interno del mondo dell’industria. Questo divario ha portato le aziende ad affrontare i dilemmi etici solo dopo che i progetti di intelligenza artificiale sono stati completati e le applicazioni hanno raggiunto una diffusa adozione sul mercato, quando spesso è già troppo tardi. Lo scopo di questa tesi è la creazione di una metodologia progettuale per aiutare le aziende ad affrontare le questioni etiche direttamente nella fase di ideazione di un progetto che incorpora l’IA. Per raggiungere tale obiettivo è stato creato un toolkit che utilizza la metodologia dello human-centered design per creare prodotti/servizi di IA che siano eticamente corretti. Il toolkit è pensato per essere utilizzato nella fase di ideazione del processo di sviluppo di sistemi IA ed ha la funzione di creare e diffondere consapevolezza.
File allegati
File Dimensione Formato  
Tesi_Mascheroni.pdf

non accessibile

Dimensione 13.03 MB
Formato Adobe PDF
13.03 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/175276