Algorithms are to most people incomprehensible and in that respect treated as universally true. In order to exist, they feed on data that are, nevertheless, chosen, selected and filtered by humans, and implemented by them. In this process multiple biases lurk, of which gender bias is the most frequent. The dissertation aims to investigate how the dimension of the communication design can support the research and development of fairer and more inclusive artificial intelligences. Using the deconstruction lens of design and gender studies, the ultimate goal is to provide a tool that can analyze and detect the presence of gender bias in the visual content of IA training.

Gli algoritmi sono ai più incomprensibili e in tal senso trattati come universalmente veritieri. Per esistere si nutrono di dati che sono però scelti, selezionati e filtrati da esseri umani e infine da questi ultimi implementati. Nel processo si annidano molteplici bias, tra cui spiccano per numero i gender bias. La tesi vuole indagare come la dimensione del progetto di comunicazione possa supportare la ricerca e lo sviluppo di intelligenze artificiali più eque ed inclusive. Avvalendosi della lente di decostruzione del design e degli studi di genere, il fine ultimo è fornire uno strumento che possa individuare la presenza di gender bias nei contenuti visivi di allenamento delle intelligenze artificiali.

Il peccato originale delle intelligenze artificiali

Bazzan, Beatrice
2020/2021

Abstract

Algorithms are to most people incomprehensible and in that respect treated as universally true. In order to exist, they feed on data that are, nevertheless, chosen, selected and filtered by humans, and implemented by them. In this process multiple biases lurk, of which gender bias is the most frequent. The dissertation aims to investigate how the dimension of the communication design can support the research and development of fairer and more inclusive artificial intelligences. Using the deconstruction lens of design and gender studies, the ultimate goal is to provide a tool that can analyze and detect the presence of gender bias in the visual content of IA training.
CASNATI, FRANCESCA
ARC III - Scuola del Design
28-apr-2022
2020/2021
Gli algoritmi sono ai più incomprensibili e in tal senso trattati come universalmente veritieri. Per esistere si nutrono di dati che sono però scelti, selezionati e filtrati da esseri umani e infine da questi ultimi implementati. Nel processo si annidano molteplici bias, tra cui spiccano per numero i gender bias. La tesi vuole indagare come la dimensione del progetto di comunicazione possa supportare la ricerca e lo sviluppo di intelligenze artificiali più eque ed inclusive. Avvalendosi della lente di decostruzione del design e degli studi di genere, il fine ultimo è fornire uno strumento che possa individuare la presenza di gender bias nei contenuti visivi di allenamento delle intelligenze artificiali.
File allegati
File Dimensione Formato  
Il-peccato-originale-delle-intelligenze-artificiali_Bazzan-2022.pdf

accessibile in internet per tutti

Dimensione 12.88 MB
Formato Adobe PDF
12.88 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/187945