Viviamo in una “società dell’informazione”, dove i dati personali sono diventati una preziosa risorsa economica. Ogni giorno utilizziamo servizi che ci chiedono semplicemente di accettare un’informativa sulla privacy, col tacito accordo di poter poi in cambio raccogliere informazioni su di noi. Informazioni che vanno dal numero di click fatti su un sito alla precisa posizione geografica durante tutto l’arco della giornata. Oltre ad aver migliorato numerosissimi aspetti della nostra vita, questo ha anche fatto sì che istituzioni pubbliche e aziende private abbiano ora la possibilità di ammassare sempre maggiori quantità di dati e, col continuo progresso tecnologico, di analizzarli sempre più velocemente ed efficacemente. In una società dove condividere informazioni personali per accedere ad ogni servizio diventa la norma, e dove algoritmi proprietari prendono decisioni per gli utenti in base ai loro dati, si viene a creare una pericolosa asimmetria di potere tra il detentore dei dati e l’individuo. Se da una parte questo ha preoccupanti ripercussioni sul potere che gli Stati acquisiscono sui loro cittadini – e.g. le rivelazioni di Edward Snowden sulla sorveglianza di massa praticata dall’NSA1, che non saranno però oggetto di questa tesi – anche nel settore privato la condivisione di dati personali ha delle conseguenze dirette sulle persone: social network, motori di ricerca, acquisti online, etc. portano tutti alla profilazione degli utenti a scopi commerciali. Ci sono diversi attori che tentano di contrastare questa asimmetria. Associazioni, enti, aziende e singoli attivisti si impegnano quotidianamente per alimentare un dibattito sulla privacy che è fondamentale, sia per lo sviluppo di pratiche aziendali che tengano conto dei diritti dei consumatori che per la tutela dei diritti dei cittadini in una società moderna e perennemente connessa. Dal punto di vista del designer che deve collaborare in progetti sulla privacy, la questione diventa metodologica. Come si possono mappare processi inizialmente invisibili, coperti da un velo di complessità tecnologica e, a volte, di barriere legali? Come queste caratteristiche influenzano il processo progettuale? Gli strumenti e metodi di cui il designer dispone sono ancora adeguati o vanno riadattati? Ne servono di nuovi? Per rispondere a queste domande verrà utilizzato un approccio sperimentale, che parte dall’osservazione della realtà, o di ciò che di essa si può vedere, permettendo allo stesso tempo di generare riflessioni sull’evoluzione di cultura e pratica del design. Questa tesi riporta in particolare due esperimenti: la riprogettazione di un’interfaccia per un’applicazione mobile che monitori le informazioni mandate a terze parti dal nostro smartphone; la creazione di uno strumento digitale per portare alla luce la presenza di un algoritmo che influenza la nostra percezione della realtà su Facebook. In questo modo verranno esplorati due aspetti fondamentali: le opacità relative all’accesso dei dati – chi li detiene, quando e quanto spesso vengono utilizzati – e le opacità relative al loro utilizzo – come i dati vengono elaborati e le conseguenze per l’utente.

Privacy e scatole nere : comunicare i processi opachi prodotti dalla tecnologia digitale

INVERNIZZI, MICHELE
2015/2016

Abstract

Viviamo in una “società dell’informazione”, dove i dati personali sono diventati una preziosa risorsa economica. Ogni giorno utilizziamo servizi che ci chiedono semplicemente di accettare un’informativa sulla privacy, col tacito accordo di poter poi in cambio raccogliere informazioni su di noi. Informazioni che vanno dal numero di click fatti su un sito alla precisa posizione geografica durante tutto l’arco della giornata. Oltre ad aver migliorato numerosissimi aspetti della nostra vita, questo ha anche fatto sì che istituzioni pubbliche e aziende private abbiano ora la possibilità di ammassare sempre maggiori quantità di dati e, col continuo progresso tecnologico, di analizzarli sempre più velocemente ed efficacemente. In una società dove condividere informazioni personali per accedere ad ogni servizio diventa la norma, e dove algoritmi proprietari prendono decisioni per gli utenti in base ai loro dati, si viene a creare una pericolosa asimmetria di potere tra il detentore dei dati e l’individuo. Se da una parte questo ha preoccupanti ripercussioni sul potere che gli Stati acquisiscono sui loro cittadini – e.g. le rivelazioni di Edward Snowden sulla sorveglianza di massa praticata dall’NSA1, che non saranno però oggetto di questa tesi – anche nel settore privato la condivisione di dati personali ha delle conseguenze dirette sulle persone: social network, motori di ricerca, acquisti online, etc. portano tutti alla profilazione degli utenti a scopi commerciali. Ci sono diversi attori che tentano di contrastare questa asimmetria. Associazioni, enti, aziende e singoli attivisti si impegnano quotidianamente per alimentare un dibattito sulla privacy che è fondamentale, sia per lo sviluppo di pratiche aziendali che tengano conto dei diritti dei consumatori che per la tutela dei diritti dei cittadini in una società moderna e perennemente connessa. Dal punto di vista del designer che deve collaborare in progetti sulla privacy, la questione diventa metodologica. Come si possono mappare processi inizialmente invisibili, coperti da un velo di complessità tecnologica e, a volte, di barriere legali? Come queste caratteristiche influenzano il processo progettuale? Gli strumenti e metodi di cui il designer dispone sono ancora adeguati o vanno riadattati? Ne servono di nuovi? Per rispondere a queste domande verrà utilizzato un approccio sperimentale, che parte dall’osservazione della realtà, o di ciò che di essa si può vedere, permettendo allo stesso tempo di generare riflessioni sull’evoluzione di cultura e pratica del design. Questa tesi riporta in particolare due esperimenti: la riprogettazione di un’interfaccia per un’applicazione mobile che monitori le informazioni mandate a terze parti dal nostro smartphone; la creazione di uno strumento digitale per portare alla luce la presenza di un algoritmo che influenza la nostra percezione della realtà su Facebook. In questo modo verranno esplorati due aspetti fondamentali: le opacità relative all’accesso dei dati – chi li detiene, quando e quanto spesso vengono utilizzati – e le opacità relative al loro utilizzo – come i dati vengono elaborati e le conseguenze per l’utente.
LIOY, ANTONIO
ARC III - Scuola del Design
27-apr-2017
2015/2016
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
2017_04_Invernizzi.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 31.37 MB
Formato Adobe PDF
31.37 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/133042