Artificial intelligence (AI) systems have become deeply embedded in our daily lives, often reinforcing existing societal power dynamics and inequalities. This thesis explores the intersection of AI, design, and power structures, demonstrating how AI technologies perpetuate systems of oppression. By leveraging feminist and intersectional theories, it critically examines the discriminatory aspects of AI and the role of design in these dynamics. This study aims to foster awareness, investigate AI's biases, and explore potential design interventions that could foster positive societal change. Through a comprehensive literature review and analysis of real-world cases, this research highlights the urgent need to address the ethical and social implications of AI technologies. The research conducted in this thesis reveals several critical insights. Firstly, it underscores the importance of applying a feminist and intersectional lens to understand the power dynamics inherent in AI systems. This approach illuminates how technology disproportionately affects marginalised communities, emphasising the necessity of considering these perspectives in design processes. Secondly, the study contributes to filling a significant research gap in decision support systems (DSS), particularly the impact of user interfaces on decision-making biases. By proposing guidelines for bias mitigation in DSS design, this thesis offers a foundation for future empirical studies and practical applications. Lastly, a manifesto is proposed, informed by intersectional and feminist theories, current AI regulations, and real-world cases, serves as a valuable resource for policymakers and AI developers, guiding the ethical deployment of AI technologies.

I sistemi di intelligenza artificiale (IA) sono diventati profondamente integrati nella nostra vita quotidiana, spesso rafforzando le dinamiche di potere e le disuguaglianze esistenti nella società. Questa tesi esplora l'intersezione tra IA, design e strutture di potere, dimostrando come le tecnologie di IA perpetuino sistemi di oppressione. Facendo leva sulle teorie femministe intersezionali, esamina criticamente gli aspetti discriminatori dell'IA e il ruolo che il design ha in queste dinamiche. Questo studio mira a promuovere la consapevolezza, a indagare i pregiudizi dell'intelligenza artificiale e ad esplorare potenziali interventi di design che potrebbero favorire cambiamenti positivi della società. Attraverso l’analisi della letteratura e dei casi studio, questa ricerca evidenzia l'urgente necessità di affrontare le implicazioni etiche e sociali delle tecnologie di IA. La ricerca condotta in questa tesi rivela diverse informazioni critiche. In primo luogo, sottolinea l'importanza di applicare una lente femminista e intersezionale per comprendere le dinamiche di potere insite nei sistemi di intelligenza artificiale. Questo approccio evidenzia come la tecnologia colpisca in modo sproporzionato le comunità emarginate, sottolineando la necessità di considerare queste prospettive nei processi di progettazione. In secondo luogo, lo studio contribuisce a colmare una significativa lacuna nella ricerca sui sistemi di supporto alle decisioni (SSD), in particolare sull'impatto delle interfacce utente sui pregiudizi decisionali. Proponendo linee guida per la mitigazione dei bias nella progettazione dei SSD, questa tesi offre una base per futuri studi empirici e applicazioni pratiche. Infine, propone un manifesto, informato dalle teorie intersezionali e femministe, dalle attuali normative sull'IA e da casi reali, serve come risorsa preziosa per i policymaker e gli sviluppatori di IA, guidando l'implementazione etica delle tecnologie di IA.

Designing intersectional strategies for AI: mitigating bias in decision support systems

Carvalho da Silva Barata, Miguel
2023/2024

Abstract

Artificial intelligence (AI) systems have become deeply embedded in our daily lives, often reinforcing existing societal power dynamics and inequalities. This thesis explores the intersection of AI, design, and power structures, demonstrating how AI technologies perpetuate systems of oppression. By leveraging feminist and intersectional theories, it critically examines the discriminatory aspects of AI and the role of design in these dynamics. This study aims to foster awareness, investigate AI's biases, and explore potential design interventions that could foster positive societal change. Through a comprehensive literature review and analysis of real-world cases, this research highlights the urgent need to address the ethical and social implications of AI technologies. The research conducted in this thesis reveals several critical insights. Firstly, it underscores the importance of applying a feminist and intersectional lens to understand the power dynamics inherent in AI systems. This approach illuminates how technology disproportionately affects marginalised communities, emphasising the necessity of considering these perspectives in design processes. Secondly, the study contributes to filling a significant research gap in decision support systems (DSS), particularly the impact of user interfaces on decision-making biases. By proposing guidelines for bias mitigation in DSS design, this thesis offers a foundation for future empirical studies and practical applications. Lastly, a manifesto is proposed, informed by intersectional and feminist theories, current AI regulations, and real-world cases, serves as a valuable resource for policymakers and AI developers, guiding the ethical deployment of AI technologies.
ARC III - Scuola del Design
16-lug-2024
2023/2024
I sistemi di intelligenza artificiale (IA) sono diventati profondamente integrati nella nostra vita quotidiana, spesso rafforzando le dinamiche di potere e le disuguaglianze esistenti nella società. Questa tesi esplora l'intersezione tra IA, design e strutture di potere, dimostrando come le tecnologie di IA perpetuino sistemi di oppressione. Facendo leva sulle teorie femministe intersezionali, esamina criticamente gli aspetti discriminatori dell'IA e il ruolo che il design ha in queste dinamiche. Questo studio mira a promuovere la consapevolezza, a indagare i pregiudizi dell'intelligenza artificiale e ad esplorare potenziali interventi di design che potrebbero favorire cambiamenti positivi della società. Attraverso l’analisi della letteratura e dei casi studio, questa ricerca evidenzia l'urgente necessità di affrontare le implicazioni etiche e sociali delle tecnologie di IA. La ricerca condotta in questa tesi rivela diverse informazioni critiche. In primo luogo, sottolinea l'importanza di applicare una lente femminista e intersezionale per comprendere le dinamiche di potere insite nei sistemi di intelligenza artificiale. Questo approccio evidenzia come la tecnologia colpisca in modo sproporzionato le comunità emarginate, sottolineando la necessità di considerare queste prospettive nei processi di progettazione. In secondo luogo, lo studio contribuisce a colmare una significativa lacuna nella ricerca sui sistemi di supporto alle decisioni (SSD), in particolare sull'impatto delle interfacce utente sui pregiudizi decisionali. Proponendo linee guida per la mitigazione dei bias nella progettazione dei SSD, questa tesi offre una base per futuri studi empirici e applicazioni pratiche. Infine, propone un manifesto, informato dalle teorie intersezionali e femministe, dalle attuali normative sull'IA e da casi reali, serve come risorsa preziosa per i policymaker e gli sviluppatori di IA, guidando l'implementazione etica delle tecnologie di IA.
File allegati
File Dimensione Formato  
Tesi Miguel.pdf

accessibile in internet solo dagli utenti autorizzati

Dimensione 1.61 MB
Formato Adobe PDF
1.61 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/223595