This thesis addresses the critical issue of biased algorithms and unfair rankings that have permeated various sectors, including search engines, recommendation systems, and hiring practices. These biases can lead to discriminatory outcomes in a data-driven world, especially against marginalized and underrepresented groups. Efforts towards responsible data science and responsible artificial intelligence aim to mitigate these biases and promote fairness, diversity, and transparency. However, most fairness-aware ranking methods singularly focus on protected attributes such as race, gender, or socio-economic status, neglecting the intersectionality of these attributes. This intersectionality framework, which recognizes the complex interplay between multiple social identities, is crucial to ensure fair rankings do not perpetuate existing inequalities. The thesis explores the importance of incorporating intersectionality into developing fair ranking systems. The contribution of this research is a comprehensive and comparative overview of existing literature on intersectional fair ranking in computer science and a synoptic table summarizing the various methodologies. The thesis highlights the need for intersectionality in the quest for fairness and emphasizes that fairness does not necessarily imply intersectionality.

Questa tesi affronta la questione critica degli algoritmi affetti da bias e degli ordinamenti ingiusti che hanno permeato vari settori, tra cui i motori di ricerca, i sistemi di raccomandazione e le pratiche di assunzione. In un mondo guidato dai dati, questi pregiudizi possono portare a risultati discriminatori, soprattutto nei confronti di gruppi emarginati e sottorappresentati. Gli sforzi per una scienza dei dati e un’intelligenza artificiale responsabili mirano a mitigare questi pregiudizi e a promuovere l’equità, la diversità e la trasparenza. Tuttavia, la maggior parte dei metodi di ordinamento consapevoli dell’equità si concentrano su singoli attributi protetti come l’etnia, il genere o lo status socio-economico, trascurando l’intersezionalità di questi attributi. Questo concetto di intersezionalità, che riconosce la complessa interazione tra molteplici identità sociali, è fondamentale per garantire che gli ordinamenti equi non perpetuino le disuguaglianze esistenti. La tesi esplora l’importanza di incorporare l’intersezionalità nello sviluppo di sistemi di ordinamento equi. Il contributo di questa ricerca è una panoramica completa e comparativa della letteratura esistente sul ordinamento equo intersezionale in informatica e una tabella sinottica che riassume le varie metodologie. La tesi videnzia la necessità dell’intersezionalità nella ricerca dell’equità e sottolinea che l’equità non implica necessariamente l’intersezionalità.

A survey on intersectionality in fair rankings

Piccirillo, Giuseppe
2022/2023

Abstract

This thesis addresses the critical issue of biased algorithms and unfair rankings that have permeated various sectors, including search engines, recommendation systems, and hiring practices. These biases can lead to discriminatory outcomes in a data-driven world, especially against marginalized and underrepresented groups. Efforts towards responsible data science and responsible artificial intelligence aim to mitigate these biases and promote fairness, diversity, and transparency. However, most fairness-aware ranking methods singularly focus on protected attributes such as race, gender, or socio-economic status, neglecting the intersectionality of these attributes. This intersectionality framework, which recognizes the complex interplay between multiple social identities, is crucial to ensure fair rankings do not perpetuate existing inequalities. The thesis explores the importance of incorporating intersectionality into developing fair ranking systems. The contribution of this research is a comprehensive and comparative overview of existing literature on intersectional fair ranking in computer science and a synoptic table summarizing the various methodologies. The thesis highlights the need for intersectionality in the quest for fairness and emphasizes that fairness does not necessarily imply intersectionality.
ING - Scuola di Ingegneria Industriale e dell'Informazione
18-lug-2023
2022/2023
Questa tesi affronta la questione critica degli algoritmi affetti da bias e degli ordinamenti ingiusti che hanno permeato vari settori, tra cui i motori di ricerca, i sistemi di raccomandazione e le pratiche di assunzione. In un mondo guidato dai dati, questi pregiudizi possono portare a risultati discriminatori, soprattutto nei confronti di gruppi emarginati e sottorappresentati. Gli sforzi per una scienza dei dati e un’intelligenza artificiale responsabili mirano a mitigare questi pregiudizi e a promuovere l’equità, la diversità e la trasparenza. Tuttavia, la maggior parte dei metodi di ordinamento consapevoli dell’equità si concentrano su singoli attributi protetti come l’etnia, il genere o lo status socio-economico, trascurando l’intersezionalità di questi attributi. Questo concetto di intersezionalità, che riconosce la complessa interazione tra molteplici identità sociali, è fondamentale per garantire che gli ordinamenti equi non perpetuino le disuguaglianze esistenti. La tesi esplora l’importanza di incorporare l’intersezionalità nello sviluppo di sistemi di ordinamento equi. Il contributo di questa ricerca è una panoramica completa e comparativa della letteratura esistente sul ordinamento equo intersezionale in informatica e una tabella sinottica che riassume le varie metodologie. La tesi videnzia la necessità dell’intersezionalità nella ricerca dell’equità e sottolinea che l’equità non implica necessariamente l’intersezionalità.
File allegati
File Dimensione Formato  
2023_07_Piccirillo.pdf

non accessibile

Descrizione: tesi
Dimensione 1.4 MB
Formato Adobe PDF
1.4 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/212279