Technology has gained an increasingly crucial role for us, either we use it for support or enhancement of our activities, or we directly delegate tasks to these ever blossoming tools that have found their path from a more mechanical world to a digital one, with such a landscape, we are at a point in which many persons trust more technology itself than their fellow human beings, it is important to have a critical eye of the new developments that appear day by day, and to generate awareness that these tools are not flawless and should not be blindly trusted, this is no different for the AI systems, that have boomed in the past 2 years, systems to which we delegate some of our work or tasks in order to save time or money, from these, one of the biggest AI tools that appeared in the recent 2 years was the Image Genarative AI, with Dall-E being the biggest example. With the appearance of tools like Dall-E, one of the main questions was how good it could do the work of a human, and how good it could depict reality, and precisely this last question called my attention, because reality is not always perfect or pleasurable, there are unfair things, tragedies, etc., and it is constantly changing, we are in a time of change in which as a society topics like inclusion and diversity of many kinds have gained importance and the awareness of the people (Even if there is still a long way to go), so I wondered if the inequalities and unfairness of the world would also be translated into the AI realm, as I was already aware of a previous polemic of google AI wrongly tagging black people as gorillas, and during one of my study courses I had worked with image generative AI and I had noticed some gender stereotypes and biases. So, I decided to do some experiments with dall-E and obtained what I considered were some more biased results, where gender stereotypes could be seen, then I decided to start this work, because even though not every image presented a bias or stereotype, some did, and that kind of images communicated a wrong message, a message that the millions of daily users of image generative AI possibly were not aware of, so I took my first step by studying the origins of AI, with some focus on the gender and racial fairness (As I was already aware of this kind of biases) during its history and development, because understanding how it worked could be useful for me to comprehend the causes of these problems and propose solutions to them, and also because it was possible that some other issues had taken place, not only recently like the google one, but also before, when computer sciences were starting, maybe these problems had been present in AI and computer sciences for a long time, or even since their origin. After the research phase I decided to experiment a lot with image generative AI, to identify different biases in different contexts, and have a broader landscape of the issues to be addressed. I wanted to combine the experimentation with a research in which it was possible to know the opinions of the users, with the objective to see their relationship with image generative IA and understand if they were aware of the problems I identified and was trying to confirm through the AI experimentation, once I had these two sides of my research done, the goal was to analyze ethically the fairness and issues related to biases and stereotypes in this kind of AI, to finally propose a set of guidelines that hopefully could start a change in the subject, this process is gathered and presented in this thesis, in order to generate awareness to the users and developers of these technologies, and contribute to a society with less biases and stereotypes by generating a more responsible Image generative AI and a more responsible use of it. Towards the future, a further step on this way could be to start working directly in the development groups, and with our knowledge as communication designers start curating the content, both the outputs (What is communicated by the images), and the inputs (What material is being used to train the AI), also working with communities and users to develop strategies that reinforce awareness and a critical point of view on these technologies.

La tecnologia ha acquisito un ruolo sempre più cruciale per noi: la utilizziamo per supportare o migliorare le nostre attività, oppure delegare direttamente compiti a questi strumenti in continua evoluzione che hanno trovato il loro percorso da un mondo più meccanico a uno digitale. Con un panorama del genere, è importante avere un occhio critico verso i nuovi sviluppi che appaiono giorno dopo giorno e generare consapevolezza che questi strumenti non sono infallibili e non dovrebbero essere utilizzati ciecamente. Questo non è diverso per i sistemi di intelligenza artificiale, che sono esplosi negli ultimi 2 anni, sistemi a cui deleghiamo parte del nostro lavoro o compiti per risparmiare tempo o denaro. Tra questi, uno dei più grandi strumenti di intelligenza artificiale apparsi negli ultimi 2 anni è stato l'AI generativa di immagini, con Dall-E che ne rappresenta il più grande esempio. Con la comparsa di strumenti come Dall-E, una delle principali domande era quanto bene potesse fare il lavoro di un essere umano e quanto bene potesse rappresentare la realtà. Ed è proprio questa ultima domanda che ha attirato la mia attenzione, perché la realtà non è sempre perfetta o piacevole, ci sono ingiustizie, tragedie, ecc., ed è in costante cambiamento. Viviamo in un'epoca di cambiamento in cui, come società, temi come l'inclusione e la diversità di molti tipi hanno guadagnato importanza e consapevolezza tra le persone (anche se c'è ancora molta strada da fare). Quindi mi sono chiesto se le disuguaglianze e le ingiustizie del mondo si sarebbero tradotte anche nel regno dell'intelligenza artificiale, dato che ero già a conoscenza di una polemica precedente sull'AI di Google che aveva erroneamente etichettato persone di colore come gorilla. Durante uno dei miei corsi di studio avevo lavorato con AI generativa di immagini e avevo notato alcuni stereotipi di genere e pregiudizi. Così ho deciso di fare alcuni esperimenti con Dall-E e ho ottenuto quelli che consideravo risultati più pregiudizievoli, dove potevano essere visti stereotipi di genere. Poi ho deciso di iniziare questo lavoro, perché anche se non tutte le immagini presentavano un pregiudizio o uno stereotipo, alcune lo facevano, e quel tipo di immagini comunicava un messaggio sbagliato, un messaggio di cui i milioni di utenti quotidiani dell'AI generativa di immagini forse non erano consapevoli. Ho quindi fatto il primo passo studiando le origini dell'IA, con un certo focus sull'equità di genere e razziale (poiché ero già consapevole di questo tipo di pregiudizi) durante la sua storia e il suo sviluppo, perché capire come funzionava poteva essere utile per comprendere le cause di questi problemi e proporre soluzioni, e anche perché era possibile che si fossero verificati altri problemi, non solo di recente come quello di Google, ma anche prima, quando le scienze informatiche stavano iniziando. Forse questi problemi erano presenti nell'IA e nelle scienze informatiche da molto tempo, o addirittura dalla loro origine. Dopo la fase di ricerca ho deciso di sperimentare molto con l'AI generativa di immagini, per identificare diversi pregiudizi in diversi contesti e avere un panorama più ampio dei problemi da affrontare. Volevo combinare la sperimentazione con una ricerca in cui fosse possibile conoscere le opinioni degli utenti, con l'obiettivo di vedere la loro relazione con l'AI generativa di immagini e capire se fossero consapevoli dei problemi che avevo identificato e stavo cercando di confermare attraverso l'esperimento con l'AI. Una volta completate queste due parti della mia ricerca, l'obiettivo era analizzare eticamente l'equità e le questioni legate a pregiudizi e stereotipi in questo tipo di AI, per infine proporre una serie di linee guida che, si spera, potessero iniziare un cambiamento in materia. Questo processo è raccolto e presentato in questa tesi, con l'obiettivo di generare consapevolezza tra gli utenti e gli sviluppatori di queste tecnologie e contribuire a una società con meno pregiudizi e stereotipi, generando un'AI generativa di immagini più responsabile e un uso più responsabile di essa. Per il futuro, un ulteriore passo in questa direzione potrebbe essere lavorare direttamente nei gruppi di sviluppo e, con le nostre conoscenze come designer della comunicazione, iniziare a curare i contenuti, sia gli output (ciò che viene comunicato dalle immagini) sia gli input (il materiale utilizzato per addestrare l'AI), lavorando anche con le comunità e gli utenti per sviluppare strategie che rafforzino la consapevolezza e un punto di vista critico su queste tecnologie.

Behind the screen : biases and stereotypes in dall-e AI-generated images

RAIGOSO RAIGOSO, NICOLÁS
2023/2024

Abstract

Technology has gained an increasingly crucial role for us, either we use it for support or enhancement of our activities, or we directly delegate tasks to these ever blossoming tools that have found their path from a more mechanical world to a digital one, with such a landscape, we are at a point in which many persons trust more technology itself than their fellow human beings, it is important to have a critical eye of the new developments that appear day by day, and to generate awareness that these tools are not flawless and should not be blindly trusted, this is no different for the AI systems, that have boomed in the past 2 years, systems to which we delegate some of our work or tasks in order to save time or money, from these, one of the biggest AI tools that appeared in the recent 2 years was the Image Genarative AI, with Dall-E being the biggest example. With the appearance of tools like Dall-E, one of the main questions was how good it could do the work of a human, and how good it could depict reality, and precisely this last question called my attention, because reality is not always perfect or pleasurable, there are unfair things, tragedies, etc., and it is constantly changing, we are in a time of change in which as a society topics like inclusion and diversity of many kinds have gained importance and the awareness of the people (Even if there is still a long way to go), so I wondered if the inequalities and unfairness of the world would also be translated into the AI realm, as I was already aware of a previous polemic of google AI wrongly tagging black people as gorillas, and during one of my study courses I had worked with image generative AI and I had noticed some gender stereotypes and biases. So, I decided to do some experiments with dall-E and obtained what I considered were some more biased results, where gender stereotypes could be seen, then I decided to start this work, because even though not every image presented a bias or stereotype, some did, and that kind of images communicated a wrong message, a message that the millions of daily users of image generative AI possibly were not aware of, so I took my first step by studying the origins of AI, with some focus on the gender and racial fairness (As I was already aware of this kind of biases) during its history and development, because understanding how it worked could be useful for me to comprehend the causes of these problems and propose solutions to them, and also because it was possible that some other issues had taken place, not only recently like the google one, but also before, when computer sciences were starting, maybe these problems had been present in AI and computer sciences for a long time, or even since their origin. After the research phase I decided to experiment a lot with image generative AI, to identify different biases in different contexts, and have a broader landscape of the issues to be addressed. I wanted to combine the experimentation with a research in which it was possible to know the opinions of the users, with the objective to see their relationship with image generative IA and understand if they were aware of the problems I identified and was trying to confirm through the AI experimentation, once I had these two sides of my research done, the goal was to analyze ethically the fairness and issues related to biases and stereotypes in this kind of AI, to finally propose a set of guidelines that hopefully could start a change in the subject, this process is gathered and presented in this thesis, in order to generate awareness to the users and developers of these technologies, and contribute to a society with less biases and stereotypes by generating a more responsible Image generative AI and a more responsible use of it. Towards the future, a further step on this way could be to start working directly in the development groups, and with our knowledge as communication designers start curating the content, both the outputs (What is communicated by the images), and the inputs (What material is being used to train the AI), also working with communities and users to develop strategies that reinforce awareness and a critical point of view on these technologies.
ARC III - Scuola del Design
16-lug-2024
2023/2024
La tecnologia ha acquisito un ruolo sempre più cruciale per noi: la utilizziamo per supportare o migliorare le nostre attività, oppure delegare direttamente compiti a questi strumenti in continua evoluzione che hanno trovato il loro percorso da un mondo più meccanico a uno digitale. Con un panorama del genere, è importante avere un occhio critico verso i nuovi sviluppi che appaiono giorno dopo giorno e generare consapevolezza che questi strumenti non sono infallibili e non dovrebbero essere utilizzati ciecamente. Questo non è diverso per i sistemi di intelligenza artificiale, che sono esplosi negli ultimi 2 anni, sistemi a cui deleghiamo parte del nostro lavoro o compiti per risparmiare tempo o denaro. Tra questi, uno dei più grandi strumenti di intelligenza artificiale apparsi negli ultimi 2 anni è stato l'AI generativa di immagini, con Dall-E che ne rappresenta il più grande esempio. Con la comparsa di strumenti come Dall-E, una delle principali domande era quanto bene potesse fare il lavoro di un essere umano e quanto bene potesse rappresentare la realtà. Ed è proprio questa ultima domanda che ha attirato la mia attenzione, perché la realtà non è sempre perfetta o piacevole, ci sono ingiustizie, tragedie, ecc., ed è in costante cambiamento. Viviamo in un'epoca di cambiamento in cui, come società, temi come l'inclusione e la diversità di molti tipi hanno guadagnato importanza e consapevolezza tra le persone (anche se c'è ancora molta strada da fare). Quindi mi sono chiesto se le disuguaglianze e le ingiustizie del mondo si sarebbero tradotte anche nel regno dell'intelligenza artificiale, dato che ero già a conoscenza di una polemica precedente sull'AI di Google che aveva erroneamente etichettato persone di colore come gorilla. Durante uno dei miei corsi di studio avevo lavorato con AI generativa di immagini e avevo notato alcuni stereotipi di genere e pregiudizi. Così ho deciso di fare alcuni esperimenti con Dall-E e ho ottenuto quelli che consideravo risultati più pregiudizievoli, dove potevano essere visti stereotipi di genere. Poi ho deciso di iniziare questo lavoro, perché anche se non tutte le immagini presentavano un pregiudizio o uno stereotipo, alcune lo facevano, e quel tipo di immagini comunicava un messaggio sbagliato, un messaggio di cui i milioni di utenti quotidiani dell'AI generativa di immagini forse non erano consapevoli. Ho quindi fatto il primo passo studiando le origini dell'IA, con un certo focus sull'equità di genere e razziale (poiché ero già consapevole di questo tipo di pregiudizi) durante la sua storia e il suo sviluppo, perché capire come funzionava poteva essere utile per comprendere le cause di questi problemi e proporre soluzioni, e anche perché era possibile che si fossero verificati altri problemi, non solo di recente come quello di Google, ma anche prima, quando le scienze informatiche stavano iniziando. Forse questi problemi erano presenti nell'IA e nelle scienze informatiche da molto tempo, o addirittura dalla loro origine. Dopo la fase di ricerca ho deciso di sperimentare molto con l'AI generativa di immagini, per identificare diversi pregiudizi in diversi contesti e avere un panorama più ampio dei problemi da affrontare. Volevo combinare la sperimentazione con una ricerca in cui fosse possibile conoscere le opinioni degli utenti, con l'obiettivo di vedere la loro relazione con l'AI generativa di immagini e capire se fossero consapevoli dei problemi che avevo identificato e stavo cercando di confermare attraverso l'esperimento con l'AI. Una volta completate queste due parti della mia ricerca, l'obiettivo era analizzare eticamente l'equità e le questioni legate a pregiudizi e stereotipi in questo tipo di AI, per infine proporre una serie di linee guida che, si spera, potessero iniziare un cambiamento in materia. Questo processo è raccolto e presentato in questa tesi, con l'obiettivo di generare consapevolezza tra gli utenti e gli sviluppatori di queste tecnologie e contribuire a una società con meno pregiudizi e stereotipi, generando un'AI generativa di immagini più responsabile e un uso più responsabile di essa. Per il futuro, un ulteriore passo in questa direzione potrebbe essere lavorare direttamente nei gruppi di sviluppo e, con le nostre conoscenze come designer della comunicazione, iniziare a curare i contenuti, sia gli output (ciò che viene comunicato dalle immagini) sia gli input (il materiale utilizzato per addestrare l'AI), lavorando anche con le comunità e gli utenti per sviluppare strategie che rafforzino la consapevolezza e un punto di vista critico su queste tecnologie.
File allegati
File Dimensione Formato  
2024_07_Raigoso.pdf

accessibile in internet per tutti

Descrizione: Tesi Impaginata: Behind the screen. Biases and stereotypes in dall-e AI-Generated images
Dimensione 1.46 MB
Formato Adobe PDF
1.46 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/223348