Algorithmic fairness is a broad area, which is receiving increasing attention in recent years. It examines forms of discrimination that can arise in algorithmic systems making or aiding human decisions across multiple facets of life and application domains. In technical practice, algorithmic fairness is often reduced to a distributive problem expressed through optimization or parity metrics. This reduction obscures harms that arise when credibility, knowledge, and understanding are unevenly distributed - who is believed, whose perspectives shape understanding, and how adoption spreads. This dissertation argues that fairness analysis must be anchored in a broader theory of justice in order to make such harms intelligible, and develops a formal extension of algorithmic fairness in that direction. Building on Miranda Fricker’s account of epistemic (testimonial and hermeneutical) injustice, we articulate an epistemic conception of fairness suited for networked settings, where influence, uptake, and adoption are mediated by social power asymmetries. We formalize this within opinion dynamics models by extending the Linear Threshold Model to encode two epistemic dimensions: reliability (the influence an agent ought to have) and credibility (the influence actually afforded, potentially distorted by identity-based prejudice). Credibility is modeled both as an individual trait and as a relational property of speaker-hearer pairs, revealing conditions under which credibility deficits or excesses reconfigure cascades. From this we derive Epistemic Fairness (EF) as a design principle that treats credibility distortions as structural features to be corrected so that afforded influence tracks warranted reliability, thereby targeting the testimonial pattern of epistemic injustice. Embedding EF in closed-loop control (via a Linear Quadratic Regulator formulation) shows that accounting for an epistemic dimension not only exposes structural harms overlooked by standard metrics but also improves policy efficiency by leveraging social contagion, often achieving targets with fewer external incentives. Numerical experiments and a data-driven study of sustainable-mobility adoption (constructed from EU survey data) demonstrate that correcting epistemic distortions can reduce the external incentives required to achieve policy goals by exploiting social contagion more efficiently. Finally, the framework is extended to hermeneutical injustice in advertising environments, where targeting can impose epistemic exclusion (systematic under-exposure) or epistemic bombing (systematic over-exposure). We propose a Hermeneutical Fairness (HF) objective that penalizes such distortions in conceptual access and implement it in an operational algorithm for exposure adjustment. Overall, the contribution is dual. Philosophically, the work reframes algorithmic fairness as an epistemic problem rooted in the distribution of credibility and interpretive resources. Technically, it translates this reframing into formal models and control-based interventions that can be deployed as decision-support tools, showing that incorporating an epistemic dimension changes not only how fairness is defined but also how policy efficiency is assessed.

La fairness algoritmica è un tema molto discusso, che negli ultimi anni sta ricevendo crescente attenzione. Esamina le forme di discriminazione che possono sorgere nei sistemi algoritmici che prendono o supportano decisioni umane in molteplici aspetti della vita e di domini applicativi. Tecnicamente, la fairness algoritmica è spesso ridotta ad un problema distributivo espresso attraverso metriche di ottimizzazione o parità. Questa riduzione nasconde i danni che si verificano quando credibilità, conoscenza e comprensione sono distribuite in modo non uniforme: chi viene creduto, quali prospettive plasmano la comprensione e come si diffonde l'adozione. Questa tesi sostiene che l'analisi della fairness deve essere ancorata ad una teoria della giustizia più ampia per rendere tali danni comprensibili, e sviluppa un'estensione formale della fairness algoritmica in tale direzione. Basandoci sulla teoria dell'ingiustizia epistemica (testimoniale ed ermeneutica) di Miranda Fricker, articoliamo una concezione epistemica dell'equità adatta a contesti in rete, dove influenza, assorbimento e adozione sono mediati da asimmetrie di potere sociale. Formalizziamo questo concetto all'interno di modelli di dinamica dell'opinione, estendendo il Linear Threshold Model per codificare due dimensioni epistemiche: l'affidabilità (l'influenza che un agente dovrebbe avere) e la credibilità (l'influenza effettivamente esercitata, potenzialmente distorta da pregiudizi basati sull'identità). La credibilità è modellata sia come tratto individuale che come proprietà relazionale delle coppie parlante-ascoltatore, rivelando le condizioni in cui deficit o eccessi di credibilità riconfigurano le cascate. Da ciò deriviamo l'Epistemic Fairness (EF) come principio di progettazione che tratta le distorsioni di credibilità come caratteristiche strutturali da correggere, incorporando così il carattere testimoniale dell'ingiustizia epistemica. L'integrazione dell'EF nel controllo a circuito chiuso mostra che tenere conto di una dimensione epistemica non solo espone danni strutturali trascurati dalle metriche standard, ma migliora anche l'efficienza delle politiche sfruttando il contagio sociale, spesso raggiungendo obiettivi con minori incentivi esterni. Esperimenti numerici e uno studio basato sui dati sull'adozione della mobilità sostenibile (costruito a partire da dati di indagini UE) dimostrano che correggere le distorsioni epistemiche può ridurre gli incentivi esterni necessari per raggiungere gli obiettivi politici, sfruttando il contagio sociale in modo più efficiente. Infine, il quadro viene esteso all'ingiustizia ermeneutica in contesti pubblicitari, dove il targeting può imporre l'esclusione epistemica (sottoesposizione sistematica) o il bombardamento epistemico (sovraesposizione sistematica). Proponiamo un obiettivo di Hermeneutical Fairness (HF) che penalizza tali distorsioni nell'accesso concettuale e lo implementiamo in un algoritmo operativo per la regolazione dell'esposizione. Nel complesso, il contributo è duplice. Filosoficamente, il lavoro riformula la fairness algoritmica come un problema epistemico radicato nella distribuzione di credibilità e risorse interpretative. Tecnicamente, traduce questa riformulazione in modelli formali e interventi basati sul controllo che possono essere implementati come strumenti di supporto alle decisioni, dimostrando che l'incorporazione di una dimensione epistemica modifica non solo il modo in cui viene definita la fairness, ma anche il modo in cui viene valutata l'efficienza delle politiche.

Modeling epistemic fairness in networked opinion dynamics: a socio-technical approach

QUARESMINI, CAMILLA
2025/2026

Abstract

Algorithmic fairness is a broad area, which is receiving increasing attention in recent years. It examines forms of discrimination that can arise in algorithmic systems making or aiding human decisions across multiple facets of life and application domains. In technical practice, algorithmic fairness is often reduced to a distributive problem expressed through optimization or parity metrics. This reduction obscures harms that arise when credibility, knowledge, and understanding are unevenly distributed - who is believed, whose perspectives shape understanding, and how adoption spreads. This dissertation argues that fairness analysis must be anchored in a broader theory of justice in order to make such harms intelligible, and develops a formal extension of algorithmic fairness in that direction. Building on Miranda Fricker’s account of epistemic (testimonial and hermeneutical) injustice, we articulate an epistemic conception of fairness suited for networked settings, where influence, uptake, and adoption are mediated by social power asymmetries. We formalize this within opinion dynamics models by extending the Linear Threshold Model to encode two epistemic dimensions: reliability (the influence an agent ought to have) and credibility (the influence actually afforded, potentially distorted by identity-based prejudice). Credibility is modeled both as an individual trait and as a relational property of speaker-hearer pairs, revealing conditions under which credibility deficits or excesses reconfigure cascades. From this we derive Epistemic Fairness (EF) as a design principle that treats credibility distortions as structural features to be corrected so that afforded influence tracks warranted reliability, thereby targeting the testimonial pattern of epistemic injustice. Embedding EF in closed-loop control (via a Linear Quadratic Regulator formulation) shows that accounting for an epistemic dimension not only exposes structural harms overlooked by standard metrics but also improves policy efficiency by leveraging social contagion, often achieving targets with fewer external incentives. Numerical experiments and a data-driven study of sustainable-mobility adoption (constructed from EU survey data) demonstrate that correcting epistemic distortions can reduce the external incentives required to achieve policy goals by exploiting social contagion more efficiently. Finally, the framework is extended to hermeneutical injustice in advertising environments, where targeting can impose epistemic exclusion (systematic under-exposure) or epistemic bombing (systematic over-exposure). We propose a Hermeneutical Fairness (HF) objective that penalizes such distortions in conceptual access and implement it in an operational algorithm for exposure adjustment. Overall, the contribution is dual. Philosophically, the work reframes algorithmic fairness as an epistemic problem rooted in the distribution of credibility and interpretive resources. Technically, it translates this reframing into formal models and control-based interventions that can be deployed as decision-support tools, showing that incorporating an epistemic dimension changes not only how fairness is defined but also how policy efficiency is assessed.
CASTELLETTI, ANDREA FRANCESCO
VOLONTE', PAOLO GAETANO
BRESCHI, VALENTINA
SCHIAFFONATI, VIOLA
5-feb-2026
La fairness algoritmica è un tema molto discusso, che negli ultimi anni sta ricevendo crescente attenzione. Esamina le forme di discriminazione che possono sorgere nei sistemi algoritmici che prendono o supportano decisioni umane in molteplici aspetti della vita e di domini applicativi. Tecnicamente, la fairness algoritmica è spesso ridotta ad un problema distributivo espresso attraverso metriche di ottimizzazione o parità. Questa riduzione nasconde i danni che si verificano quando credibilità, conoscenza e comprensione sono distribuite in modo non uniforme: chi viene creduto, quali prospettive plasmano la comprensione e come si diffonde l'adozione. Questa tesi sostiene che l'analisi della fairness deve essere ancorata ad una teoria della giustizia più ampia per rendere tali danni comprensibili, e sviluppa un'estensione formale della fairness algoritmica in tale direzione. Basandoci sulla teoria dell'ingiustizia epistemica (testimoniale ed ermeneutica) di Miranda Fricker, articoliamo una concezione epistemica dell'equità adatta a contesti in rete, dove influenza, assorbimento e adozione sono mediati da asimmetrie di potere sociale. Formalizziamo questo concetto all'interno di modelli di dinamica dell'opinione, estendendo il Linear Threshold Model per codificare due dimensioni epistemiche: l'affidabilità (l'influenza che un agente dovrebbe avere) e la credibilità (l'influenza effettivamente esercitata, potenzialmente distorta da pregiudizi basati sull'identità). La credibilità è modellata sia come tratto individuale che come proprietà relazionale delle coppie parlante-ascoltatore, rivelando le condizioni in cui deficit o eccessi di credibilità riconfigurano le cascate. Da ciò deriviamo l'Epistemic Fairness (EF) come principio di progettazione che tratta le distorsioni di credibilità come caratteristiche strutturali da correggere, incorporando così il carattere testimoniale dell'ingiustizia epistemica. L'integrazione dell'EF nel controllo a circuito chiuso mostra che tenere conto di una dimensione epistemica non solo espone danni strutturali trascurati dalle metriche standard, ma migliora anche l'efficienza delle politiche sfruttando il contagio sociale, spesso raggiungendo obiettivi con minori incentivi esterni. Esperimenti numerici e uno studio basato sui dati sull'adozione della mobilità sostenibile (costruito a partire da dati di indagini UE) dimostrano che correggere le distorsioni epistemiche può ridurre gli incentivi esterni necessari per raggiungere gli obiettivi politici, sfruttando il contagio sociale in modo più efficiente. Infine, il quadro viene esteso all'ingiustizia ermeneutica in contesti pubblicitari, dove il targeting può imporre l'esclusione epistemica (sottoesposizione sistematica) o il bombardamento epistemico (sovraesposizione sistematica). Proponiamo un obiettivo di Hermeneutical Fairness (HF) che penalizza tali distorsioni nell'accesso concettuale e lo implementiamo in un algoritmo operativo per la regolazione dell'esposizione. Nel complesso, il contributo è duplice. Filosoficamente, il lavoro riformula la fairness algoritmica come un problema epistemico radicato nella distribuzione di credibilità e risorse interpretative. Tecnicamente, traduce questa riformulazione in modelli formali e interventi basati sul controllo che possono essere implementati come strumenti di supporto alle decisioni, dimostrando che l'incorporazione di una dimensione epistemica modifica non solo il modo in cui viene definita la fairness, ma anche il modo in cui viene valutata l'efficienza delle politiche.
File allegati
File Dimensione Formato  
Quaresmini_Thesis.pdf

accessibile in internet per tutti

Dimensione 8.58 MB
Formato Adobe PDF
8.58 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/248697