Today, the urban air pollution is become a serious problem which involves the whole World. The heavy and negative impact of human society on the environment has been demonstrated by different studies. The necessity of finding useful and operational solutions is imminent in order to improve the quality of human life, that otherwise will continue to gradually worse. For this reason, it is important to improve the methodologies to the air quality monitoring through the use of numerical models and measurements. Under the previous considerations, this master thesis is focus on the application of data assimilation methods through the use of a dispersion pollutant model, SIRANE (Soulhac et al., 2011), and innovative low-cost micro-sensors, used in the project URPOLSENS (2015 – 2017) that involves the city of Lyon in France. The development of new technologies has led to the idea of adopting sophisticated urban monitoring networks. In the last years, this innovation is found in different projects, as Open Sense (2014). The need of having information over hotspots and local concentrations requires the substitution of the widely used fixed monitoring stations with a new generation of sensors. Nevertheless this innovation presents different complications (Kumar et al., 2015). Indeed, in the innovative perspective of the present work is important to understand the impact related to the gradual increment of sensors’ number and how this could influence the performance of the assimilation methods used on previous studies (Nguyen, 2017). These latter methods are the BIAS method and the Best Linear Unbiased Estimator (BLUE), which demonstrate a significant drawback when they treat a huge amount of sensors. For this reason, it will be discussed the possibility of use a more suitable and original approach that takes advantage of the new amount of data available. In fact, methods based on the Artificial Neural Networks (ANN) results appropriate to overcome the previous difficulties and reach the thesis goal, in addition to opening up new future perspectives. Finally, in an overall point of view, all the results obtained will contribute to give important suggestions for the most advanced phases of the whole project and for future researches on the urban air quality monitoring field.

Al giorno d'oggi l'inquinamento atmosferico urbano è diventato un problema mondiale. Molti studi hanno dimostrato che la nostra società ha un impatto negativo e consistente sul ambiente. Inoltre sottolineano il bisogno di capire meglio il problema in modo da trovare soluzioni utili e funzionali. L'ultimo rapporto dell'Agenzia Europea dell'Ambiente (EEA, 2016) riporta che malgrado un lento miglioramento della qualità dell'aria, l'inquinamento atmosferico rimane il principale fattore di rischio ambientale per la salute in Europa. Inoltre lo studio di Lim et al. (2013) ha trovato che l'inquinamento atmosferico dato da combustibili solidi rimane uno dei tre principali fattori di rischio per quanto riguarda il numero complessivo delle malattie registrate. Inoltre la Agenzia per la Ricerca sul Cancro ha classificato l'inquinamento ambientale come agente cancerogeno (IARC et al., 2013). Gli inquinamenti rilasciati nell'atmosfera ogni giorno dalla nostra società hanno un impatto critico sull'ecosistema e sono responsabili del cambiamento climatico in atto. L'inquinamento dell'aria affetta la vegetazione, così come l'acqua, il suolo e complessivamente l'ecosistema di cui fanno parte. L'ozono O3 a livello del suolo danneggia le colture, le foreste e le piante riducendo il loro fattore di crescita. Gli ossidi di azoto NOx, il diossido di zolfo SO2 e l'ammoniaca NH3 contribuiscono all'acidità del suolo, del acqua e dei fiumi producendo una perdita della biodiversità. Alcuni degli inquinanti in questione agiscono anche sul clima, influenzando il cambiamento climatico e il riscaldamento globale nel breve termine. Inoltre, i cambiamenti sul clima possono modificare i fenomeni di dispersione, trasporto, deposizione e formazione degli inquinanti. Tutti i fattori fin'ora elencati insieme ad altri generano un grande impatto economico. La Commissione Europea ha stimato che i costi relazionati alla salute nel 2010 si aggira attorno a € 330 - 940 miliardi. Includendo i seguenti danni economici diretti: € 15 miliardi per i giorni di lavoro persi, € 4 miliardi per i costi sanitari, € 3 miliardi per la perdita dei campi di coltura e € 1 miliardo di danni agli edifici e monumenti (EEA, 2016). Di conseguenza una azione effettiva per la mitigazione del inquinamento atmosferico, come suggerito da EEA (2016) e altri, principalmente consiste nel comprendere meglio le cause del fenomeno, come gli inquinanti vengono trasportati e trasformati nell'atmosfera e in che misura impattano sull'uomo, sul clima e conseguentemente sulla società e sull'economia. Inoltre le soluzione olistiche devono coinvolgere sviluppi tecnici, strutturali e cambiamenti comportamentali. In questo scenario, il presente lavoro di tesi si concentra sulla migliore comprensione della dispersione degli inquinanti nelle aree urbane attraverso l'utilizzo di una nuova generazione di sensori di misurazione. Il tutto al interno del progetto URPOLSENS (2015 – 2017) per il monitoraggio di Lione, in Francia. Attualmente il monitoraggio della qualità dell'aria è condotto in tutto il mondo principalmente attraverso l'utilizzo di una rete di stazioni di rilevamento fisse ed sparse nelle città (EEA, 2016; Kumar et al., 2015). Questa rete, tuttavia, non permette di catturare fenomeni spazio-temporali eterogenei e nemmeno identificare i picchi d'inquinamento. In più, questi strumenti sono parecchio costosi e non è possibile posizionare un elevato numero di loro nelle città. Infatti, il costo di una singola stazione fissa si aggira tra € 5000 e qualche decina di migliaia di euro. Di conseguenza non si può sviluppare una strategia robusta e in tempo reale per il controllo delle esposizioni. Comunque, negli ultimi anni sono venuti alla luce progetti di ricerca che usano approcci innovativi per la raccolta dei dati sulla qualità dell'aria. Per esempio, il progetto OpenSense (Open Sense, 2014) ha lo scopo di monitorare la qualità dell'aria attraverso sensori mobili senza fili in modo da capire meglio la variazione dei principali inquinanti nelle città. Così come il progetto DISCOVER-AQ, condotto dalla NASA. Il cambiamento delle procedure convenzionali permette di avere informazioni in tempo reale in una rete spaziale più densa. Tuttavia questi cambiamenti portano con sé anche dei problemi, come la minore accuratezza dei sensori e la gestione della trasmissione, conservazione e analisi di pacchetti di dati molto grandi (Kumar et al., 2015). Da questo nuovo punto di vista, lo sviluppo di reti di monitoraggio basate su micro-sensori a basso costo hanno guadagnato importanza e portato nuove sfide tecniche. L'incremento delle informazioni tempo-spaziali permette di conoscere meglio le concentrazioni degli inquinanti atmosferici in quelle aree urbane dove attualmente sono semplicemente stimate. Il costo di ogni micro-sensore è molto inferiore a quello delle stazioni fisse. Infatti, esso si aggira attorno a € 100 e € 500. Tuttavia rimane ancora un problema il tempo di calibrazione dei sensori che con una durata di un anno circa può presentare degli ulteriori costi di manutenzione, come ad esempio capita coi sensori αlphasense. I modelli usati per estimare e predire la dispersione degli inquinanti beneficiano di questo nuovo approccio. Infatti, è noto che sia i modelli numerici che le misure sono soggette a errori di diversi tipi. Comunque, mentre gli errori di misura posso essere stimati meglio, gli errori del modello sono difficile da gestire perché presentano incertezze sia sugli ingressi che sul modello stesso. I metodi di assimilazione hanno dimostrato di giocare un importante ruolo nella gestione del problema precedente. L'assimilazione dati ha come obbiettivo utilizzare tutte le informazioni disponibili per determinare nel migliore modo possibile lo stato del sistema considerato (Talagrand, 1997). Ad esempio, nel presente lavoro, vengono utilizzate le misure per estimare e correggere il modello numerico in esame. Quindi, come appena appresso, i metodi di assimilazione richiedono principalmente due ingredienti: il modello numero e le misure. Tuttavia, è necessario tenere in considerazione anche altri fattori per migliorare i metodi di assimilazione e ottenere risultati più rappresentativi della realtà. Questi metodi sono stati molto impiegati nelle previsioni meteorologiche, ma sono molto usati anche in altri campi. Infatti recentemente hanno dimostrato buoni risultati anche nel campo del inquinamento ambientale (Tilloy et al., 2013). In accordo con le considerazioni precedenti, questa tesi si è focalizzata sull'assimilazione dati di un modello di dispersione degli inquinanti atmosferici attraverso l'utilizzo di un elevato numero di micro-sensori. In altre parole, si vuole correggere il modello numerico attraverso le misurazioni. Queste ultime godono di una maggiore precisione puntuale ma purtroppo sono limitate nel numero e non permettono di avere informazioni ovunque nel dominio di controllo. Dall'altra parte, il modello numerico fornisce le concentrazioni su un maggior numero di punti sulla mappa, a seconda della griglia di calcolo, ma tali risultati sono meno precisi a causa delle incertezze intrinseche nel modello. Allo stato attuale nessuno dei due strumenti in questione è in grado di lavorare da solo e fornire dei risultati adeguati ad un buon monitoraggio della qualità dell'aria. Pertanto, attraverso i metodi di assimilazione vengono attuate le correzioni opportune e sfruttati i vantaggi di entrambi gli strumenti. Infatti, alla fine si vuole avere un modello numerico più affidabile attraverso le misurazioni che sono più rappresentative della realtà. Il modello numerico in questione è SIRANE (Soulhac et al., 2011), il quale è stato sviluppato negli ultimi 15 anni dalla squadra AIR (Air Impact & Risk) del Laboratorio di Meccanica dei Fluidi e Acustica del Ecole Centrale de Lyon. SIRANE è stato concepito con l'obbiettivo di simulare la dispersione degli inquinanti urbani emessi da particolari sorgenti: sorgenti lineari (emissioni del traffico), sorgenti puntiformi (ciminiere) o sorgenti di superficie (gruppi di ciminiere domestiche o industriali). Esso opera nella scala distrettuale. Questa scala va da qualche centinaia di metri fino a qualche chilometro. La scala temporale, invece, è di un'ora. Inoltre il modello assume una approssimazione quasi-stazionaria. Ad ogni passo temporale, le concentrazioni calcolate non tengono conto delle emissioni ai passi precedenti. Il modello principalmente suddivide il dominio di calcolo in due sottodomini: la regione del tessuto urbano e lo strato limite atmosferico sovrastante. Il primo sottodominio è modellato come una rete semplificata di segmenti stradali. La rappresentazione tridimensionale, invece, è costituita da una rete di scatole in quanto il modello geometrico tiene conto anche dell'altezza degli edifici. Inoltre il flusso lungo ogni strada è condotto dalla componente parallela del vento esterno lungo la strada. Si assume che gli inquinanti si mescolino uniformemente in ogni strada. SIRANE dispone di tre meccanismi di trasporto per il calcolo delle concentrazioni lungo ogni strada. Essi sono: il trasferimento convettivo di massa lungo ogni strada, il trasferimento turbolento attraverso l'interfaccia dei due sottodomini e il trasporto convettivo ad ogni intersezione. Dall'altra parte, il flusso sopra la regione del tessuto urbano è modellato dalla teoria di similarità di Monin-Obuklov. Il sottostrato di rugosità viene trascurato e il flusso sovrastante viene considerato uniforme nel piano orizzontale. La dispersione degli inquinanti, attraverso fenomeni di advezione o diffusione, in questo sottodomini è modellato da un pennacchio gaussiano. Il presente modello numerico è stato adoperato per simulare la dispersione degli inquinanti per l'intero mese di Febbraio del 2014 in un'area di 4x4 km nel centro di Lione. Tale simulazione rappresenterà il caso di riferimento nelle fasi successive del lavoro di tesi. Per valutare preventivamente l'uso di una rete di micro-sensori, prima ancora della messa in opera della rete vera e propria, prevista per la fine del 2017, una soluzione è stata trovata attraverso l'impiego dello stesso modello numerico. Infatti, attraverso la perturbazione degli ingressi del modello sono state generate una serie di scenari artificiali. Questi hanno giocato il ruolo di osservazioni fittizie e sono stati accoppiati al caso di riferimento generato dagli ingressi privi di perturbazioni. Sono stati generati 20 casi artificiali dalla modifica degli ingressi legati alla geometria, alla meteorologia e alle emissioni del traffico. Le osservazioni fittizie sono state confrontate con il caso di riferimento. Il confronto è svolto attraverso degli indici statistici largamente usati per la validazione dei modelli di dispersione e presenti nello studio di Hanna et Chang (2012). L'indice prediletto per lo svolgimento dell'assimilazione è stato la Radice dell'Errore Quadratico Medio (RMSE) in quanto riesce ad entrare in gioco direttamente o quasi negli algoritmi di ottimizzazione usati. In ogni modo, alla fine del lavoro è stato svolto un confronto più completo coinvolgendo anche altri indici statistici di rilevanza. Tornando al confronto tra il caso di riferimento e quelli artificiali, attraverso uno studio di sensibilità sono stati individuati i casi più significativi, cioè quelli che riportavano un RMSE simile ad un caso reale. \`{E} stato possibile trovare questo valore grazie alla tesi di dottorato di Nguyen (2017). I casi prescelti sono stati in seguito analizzati attraverso i metodi di assimilazione. I modelli usati per l'assimilazione sono prevalentemente di due tipi: i modelli classici e i modelli basi sulle Reti Neurali Artificiali (ANN). I primi sono i modelli maggiormente usati nell'attualità nel campo dell'inquinamento urbano in quanto dimostrano ottimi risultati quando vengono usati un numero limitato di sensori. I principali metodi analizzati di questo tipo sono il metodo BIAS e il metodo BLUE. Soprattutto quest'ultimo riscuote grande successo (Tilloy et al., 2013; Nguyen, 2017). Nella presente tesi si sono ripresi questi metodi dalle ricerche precedentemente svolte. Le analisi condotte confermano le prestazioni dei metodi in questione, tuttavia ciò non è abbastanza. Infatti, questi metodi non si avvantaggiano dalle nuove informazioni derivate da un numero maggiore di sensori. Per questo motivo, è stato necessario chiamare in gioco una nuovo tipo di metodo. Le reti neurali artificiali si basano sul comportamento del cervello umano e attraverso un processo di apprendimento sono in grado di imparare. In linea di massima, più informazioni sono disponibili, la rete neurale impara più facilmente. Secondo Haykin (2009), una rete neurale è un processo distribuito in parallelo svolto da unità di elaborazione semplici che hanno una naturale propensione ad immagazzinare conoscenze apprese attraverso l'esperienza, rendendole disponibili all'utilizzo. Esso assomiglia al cervello in due aspetti: le conoscenze vengono acquisite dalla rete neurale attraverso un processo di apprendimento, chiamato anche processo di allenamento, e le forze delle connessioni neurali, note come pesi sinaptici, sono usate per immagazzinare le conoscenze apprese. Nel presente lavoro, è stato sfruttato un algoritmo di apprendimento con supervisore poiché le uscite desiderate (le concentrazioni delle osservazioni) sono note. Quindi è possibile allenare la rete neurale attraverso le concentrazioni del modello insieme ai principali ingressi del modello e le uscite desiderate, rappresentate dalle osservazioni fittizie. Infine, grazie alla proprietà di generalizzazione delle reti neurali è possibile correggere il modello anche nelle zone dove non sono presenti le osservazioni fittizie. Questo è un metodo più dispendioso dal punto di vista computazionale ma la sua naturale parallelizzazione permette di sfruttare strumenti come la GPU (Graphics Processing Unit) per svolgere il processo di apprendimento (Raschka, 2015). I risultati ottenuti sono nettamente migliori rispetto ai metodi classici e soprattutto tengono conto del numero di sensori. Più sensori vengono usati, meglio viene svolto il processo di assimilazione. Infatti nel caso più perturbato, cioè quello più difficile da correggere attraverso l'assimilazione, l'uso delle reti neurali ha consentito di avere prestazioni oltre il 15 % superiori rispetto ai metodi classici. Il tutto conservando un andamento che prevede ulteriori miglioramenti al aumentare del numero di sensori usati per l'assimilazione. La potenzialità delle reti neurali potrebbe rappresentare anche una soluzione ai problemi di calibrazione dei sensori low-cost. Infatti, in una campagna di monitoraggio su più anni, è possibile ipotizzare l'utilizzo di un numero elevato di sensori il primo anno con lo scopo di allenare nel miglior modo possibile la rete neurale artificiale. Gli anni successivi, invece, verrebbero impiegati meno sensori. La mancanza di sensori potrebbe essere sopperita dalla rete neurale ben allenata, che però continuerebbe ad imparare attraverso un processo di rafforzamento della rete. Questa prospettiva futura e altre possono rappresentare un buono spunto di partenza per ulteriori ricerche in questo ambito nel quale le reti neurali si presentano come uno strumento innovativo e che si presta ad ulteriori approfondimenti.

Simulation of urban pollutants anda data assimilation through innovative low-cost sensors

MEJIA ESTRADA, JHEYSON BRAYAM
2016/2017

Abstract

Today, the urban air pollution is become a serious problem which involves the whole World. The heavy and negative impact of human society on the environment has been demonstrated by different studies. The necessity of finding useful and operational solutions is imminent in order to improve the quality of human life, that otherwise will continue to gradually worse. For this reason, it is important to improve the methodologies to the air quality monitoring through the use of numerical models and measurements. Under the previous considerations, this master thesis is focus on the application of data assimilation methods through the use of a dispersion pollutant model, SIRANE (Soulhac et al., 2011), and innovative low-cost micro-sensors, used in the project URPOLSENS (2015 – 2017) that involves the city of Lyon in France. The development of new technologies has led to the idea of adopting sophisticated urban monitoring networks. In the last years, this innovation is found in different projects, as Open Sense (2014). The need of having information over hotspots and local concentrations requires the substitution of the widely used fixed monitoring stations with a new generation of sensors. Nevertheless this innovation presents different complications (Kumar et al., 2015). Indeed, in the innovative perspective of the present work is important to understand the impact related to the gradual increment of sensors’ number and how this could influence the performance of the assimilation methods used on previous studies (Nguyen, 2017). These latter methods are the BIAS method and the Best Linear Unbiased Estimator (BLUE), which demonstrate a significant drawback when they treat a huge amount of sensors. For this reason, it will be discussed the possibility of use a more suitable and original approach that takes advantage of the new amount of data available. In fact, methods based on the Artificial Neural Networks (ANN) results appropriate to overcome the previous difficulties and reach the thesis goal, in addition to opening up new future perspectives. Finally, in an overall point of view, all the results obtained will contribute to give important suggestions for the most advanced phases of the whole project and for future researches on the urban air quality monitoring field.
SOULHAC, LIONEL
ING - Scuola di Ingegneria Industriale e dell'Informazione
27-lug-2017
2016/2017
Al giorno d'oggi l'inquinamento atmosferico urbano è diventato un problema mondiale. Molti studi hanno dimostrato che la nostra società ha un impatto negativo e consistente sul ambiente. Inoltre sottolineano il bisogno di capire meglio il problema in modo da trovare soluzioni utili e funzionali. L'ultimo rapporto dell'Agenzia Europea dell'Ambiente (EEA, 2016) riporta che malgrado un lento miglioramento della qualità dell'aria, l'inquinamento atmosferico rimane il principale fattore di rischio ambientale per la salute in Europa. Inoltre lo studio di Lim et al. (2013) ha trovato che l'inquinamento atmosferico dato da combustibili solidi rimane uno dei tre principali fattori di rischio per quanto riguarda il numero complessivo delle malattie registrate. Inoltre la Agenzia per la Ricerca sul Cancro ha classificato l'inquinamento ambientale come agente cancerogeno (IARC et al., 2013). Gli inquinamenti rilasciati nell'atmosfera ogni giorno dalla nostra società hanno un impatto critico sull'ecosistema e sono responsabili del cambiamento climatico in atto. L'inquinamento dell'aria affetta la vegetazione, così come l'acqua, il suolo e complessivamente l'ecosistema di cui fanno parte. L'ozono O3 a livello del suolo danneggia le colture, le foreste e le piante riducendo il loro fattore di crescita. Gli ossidi di azoto NOx, il diossido di zolfo SO2 e l'ammoniaca NH3 contribuiscono all'acidità del suolo, del acqua e dei fiumi producendo una perdita della biodiversità. Alcuni degli inquinanti in questione agiscono anche sul clima, influenzando il cambiamento climatico e il riscaldamento globale nel breve termine. Inoltre, i cambiamenti sul clima possono modificare i fenomeni di dispersione, trasporto, deposizione e formazione degli inquinanti. Tutti i fattori fin'ora elencati insieme ad altri generano un grande impatto economico. La Commissione Europea ha stimato che i costi relazionati alla salute nel 2010 si aggira attorno a € 330 - 940 miliardi. Includendo i seguenti danni economici diretti: € 15 miliardi per i giorni di lavoro persi, € 4 miliardi per i costi sanitari, € 3 miliardi per la perdita dei campi di coltura e € 1 miliardo di danni agli edifici e monumenti (EEA, 2016). Di conseguenza una azione effettiva per la mitigazione del inquinamento atmosferico, come suggerito da EEA (2016) e altri, principalmente consiste nel comprendere meglio le cause del fenomeno, come gli inquinanti vengono trasportati e trasformati nell'atmosfera e in che misura impattano sull'uomo, sul clima e conseguentemente sulla società e sull'economia. Inoltre le soluzione olistiche devono coinvolgere sviluppi tecnici, strutturali e cambiamenti comportamentali. In questo scenario, il presente lavoro di tesi si concentra sulla migliore comprensione della dispersione degli inquinanti nelle aree urbane attraverso l'utilizzo di una nuova generazione di sensori di misurazione. Il tutto al interno del progetto URPOLSENS (2015 – 2017) per il monitoraggio di Lione, in Francia. Attualmente il monitoraggio della qualità dell'aria è condotto in tutto il mondo principalmente attraverso l'utilizzo di una rete di stazioni di rilevamento fisse ed sparse nelle città (EEA, 2016; Kumar et al., 2015). Questa rete, tuttavia, non permette di catturare fenomeni spazio-temporali eterogenei e nemmeno identificare i picchi d'inquinamento. In più, questi strumenti sono parecchio costosi e non è possibile posizionare un elevato numero di loro nelle città. Infatti, il costo di una singola stazione fissa si aggira tra € 5000 e qualche decina di migliaia di euro. Di conseguenza non si può sviluppare una strategia robusta e in tempo reale per il controllo delle esposizioni. Comunque, negli ultimi anni sono venuti alla luce progetti di ricerca che usano approcci innovativi per la raccolta dei dati sulla qualità dell'aria. Per esempio, il progetto OpenSense (Open Sense, 2014) ha lo scopo di monitorare la qualità dell'aria attraverso sensori mobili senza fili in modo da capire meglio la variazione dei principali inquinanti nelle città. Così come il progetto DISCOVER-AQ, condotto dalla NASA. Il cambiamento delle procedure convenzionali permette di avere informazioni in tempo reale in una rete spaziale più densa. Tuttavia questi cambiamenti portano con sé anche dei problemi, come la minore accuratezza dei sensori e la gestione della trasmissione, conservazione e analisi di pacchetti di dati molto grandi (Kumar et al., 2015). Da questo nuovo punto di vista, lo sviluppo di reti di monitoraggio basate su micro-sensori a basso costo hanno guadagnato importanza e portato nuove sfide tecniche. L'incremento delle informazioni tempo-spaziali permette di conoscere meglio le concentrazioni degli inquinanti atmosferici in quelle aree urbane dove attualmente sono semplicemente stimate. Il costo di ogni micro-sensore è molto inferiore a quello delle stazioni fisse. Infatti, esso si aggira attorno a € 100 e € 500. Tuttavia rimane ancora un problema il tempo di calibrazione dei sensori che con una durata di un anno circa può presentare degli ulteriori costi di manutenzione, come ad esempio capita coi sensori αlphasense. I modelli usati per estimare e predire la dispersione degli inquinanti beneficiano di questo nuovo approccio. Infatti, è noto che sia i modelli numerici che le misure sono soggette a errori di diversi tipi. Comunque, mentre gli errori di misura posso essere stimati meglio, gli errori del modello sono difficile da gestire perché presentano incertezze sia sugli ingressi che sul modello stesso. I metodi di assimilazione hanno dimostrato di giocare un importante ruolo nella gestione del problema precedente. L'assimilazione dati ha come obbiettivo utilizzare tutte le informazioni disponibili per determinare nel migliore modo possibile lo stato del sistema considerato (Talagrand, 1997). Ad esempio, nel presente lavoro, vengono utilizzate le misure per estimare e correggere il modello numerico in esame. Quindi, come appena appresso, i metodi di assimilazione richiedono principalmente due ingredienti: il modello numero e le misure. Tuttavia, è necessario tenere in considerazione anche altri fattori per migliorare i metodi di assimilazione e ottenere risultati più rappresentativi della realtà. Questi metodi sono stati molto impiegati nelle previsioni meteorologiche, ma sono molto usati anche in altri campi. Infatti recentemente hanno dimostrato buoni risultati anche nel campo del inquinamento ambientale (Tilloy et al., 2013). In accordo con le considerazioni precedenti, questa tesi si è focalizzata sull'assimilazione dati di un modello di dispersione degli inquinanti atmosferici attraverso l'utilizzo di un elevato numero di micro-sensori. In altre parole, si vuole correggere il modello numerico attraverso le misurazioni. Queste ultime godono di una maggiore precisione puntuale ma purtroppo sono limitate nel numero e non permettono di avere informazioni ovunque nel dominio di controllo. Dall'altra parte, il modello numerico fornisce le concentrazioni su un maggior numero di punti sulla mappa, a seconda della griglia di calcolo, ma tali risultati sono meno precisi a causa delle incertezze intrinseche nel modello. Allo stato attuale nessuno dei due strumenti in questione è in grado di lavorare da solo e fornire dei risultati adeguati ad un buon monitoraggio della qualità dell'aria. Pertanto, attraverso i metodi di assimilazione vengono attuate le correzioni opportune e sfruttati i vantaggi di entrambi gli strumenti. Infatti, alla fine si vuole avere un modello numerico più affidabile attraverso le misurazioni che sono più rappresentative della realtà. Il modello numerico in questione è SIRANE (Soulhac et al., 2011), il quale è stato sviluppato negli ultimi 15 anni dalla squadra AIR (Air Impact & Risk) del Laboratorio di Meccanica dei Fluidi e Acustica del Ecole Centrale de Lyon. SIRANE è stato concepito con l'obbiettivo di simulare la dispersione degli inquinanti urbani emessi da particolari sorgenti: sorgenti lineari (emissioni del traffico), sorgenti puntiformi (ciminiere) o sorgenti di superficie (gruppi di ciminiere domestiche o industriali). Esso opera nella scala distrettuale. Questa scala va da qualche centinaia di metri fino a qualche chilometro. La scala temporale, invece, è di un'ora. Inoltre il modello assume una approssimazione quasi-stazionaria. Ad ogni passo temporale, le concentrazioni calcolate non tengono conto delle emissioni ai passi precedenti. Il modello principalmente suddivide il dominio di calcolo in due sottodomini: la regione del tessuto urbano e lo strato limite atmosferico sovrastante. Il primo sottodominio è modellato come una rete semplificata di segmenti stradali. La rappresentazione tridimensionale, invece, è costituita da una rete di scatole in quanto il modello geometrico tiene conto anche dell'altezza degli edifici. Inoltre il flusso lungo ogni strada è condotto dalla componente parallela del vento esterno lungo la strada. Si assume che gli inquinanti si mescolino uniformemente in ogni strada. SIRANE dispone di tre meccanismi di trasporto per il calcolo delle concentrazioni lungo ogni strada. Essi sono: il trasferimento convettivo di massa lungo ogni strada, il trasferimento turbolento attraverso l'interfaccia dei due sottodomini e il trasporto convettivo ad ogni intersezione. Dall'altra parte, il flusso sopra la regione del tessuto urbano è modellato dalla teoria di similarità di Monin-Obuklov. Il sottostrato di rugosità viene trascurato e il flusso sovrastante viene considerato uniforme nel piano orizzontale. La dispersione degli inquinanti, attraverso fenomeni di advezione o diffusione, in questo sottodomini è modellato da un pennacchio gaussiano. Il presente modello numerico è stato adoperato per simulare la dispersione degli inquinanti per l'intero mese di Febbraio del 2014 in un'area di 4x4 km nel centro di Lione. Tale simulazione rappresenterà il caso di riferimento nelle fasi successive del lavoro di tesi. Per valutare preventivamente l'uso di una rete di micro-sensori, prima ancora della messa in opera della rete vera e propria, prevista per la fine del 2017, una soluzione è stata trovata attraverso l'impiego dello stesso modello numerico. Infatti, attraverso la perturbazione degli ingressi del modello sono state generate una serie di scenari artificiali. Questi hanno giocato il ruolo di osservazioni fittizie e sono stati accoppiati al caso di riferimento generato dagli ingressi privi di perturbazioni. Sono stati generati 20 casi artificiali dalla modifica degli ingressi legati alla geometria, alla meteorologia e alle emissioni del traffico. Le osservazioni fittizie sono state confrontate con il caso di riferimento. Il confronto è svolto attraverso degli indici statistici largamente usati per la validazione dei modelli di dispersione e presenti nello studio di Hanna et Chang (2012). L'indice prediletto per lo svolgimento dell'assimilazione è stato la Radice dell'Errore Quadratico Medio (RMSE) in quanto riesce ad entrare in gioco direttamente o quasi negli algoritmi di ottimizzazione usati. In ogni modo, alla fine del lavoro è stato svolto un confronto più completo coinvolgendo anche altri indici statistici di rilevanza. Tornando al confronto tra il caso di riferimento e quelli artificiali, attraverso uno studio di sensibilità sono stati individuati i casi più significativi, cioè quelli che riportavano un RMSE simile ad un caso reale. \`{E} stato possibile trovare questo valore grazie alla tesi di dottorato di Nguyen (2017). I casi prescelti sono stati in seguito analizzati attraverso i metodi di assimilazione. I modelli usati per l'assimilazione sono prevalentemente di due tipi: i modelli classici e i modelli basi sulle Reti Neurali Artificiali (ANN). I primi sono i modelli maggiormente usati nell'attualità nel campo dell'inquinamento urbano in quanto dimostrano ottimi risultati quando vengono usati un numero limitato di sensori. I principali metodi analizzati di questo tipo sono il metodo BIAS e il metodo BLUE. Soprattutto quest'ultimo riscuote grande successo (Tilloy et al., 2013; Nguyen, 2017). Nella presente tesi si sono ripresi questi metodi dalle ricerche precedentemente svolte. Le analisi condotte confermano le prestazioni dei metodi in questione, tuttavia ciò non è abbastanza. Infatti, questi metodi non si avvantaggiano dalle nuove informazioni derivate da un numero maggiore di sensori. Per questo motivo, è stato necessario chiamare in gioco una nuovo tipo di metodo. Le reti neurali artificiali si basano sul comportamento del cervello umano e attraverso un processo di apprendimento sono in grado di imparare. In linea di massima, più informazioni sono disponibili, la rete neurale impara più facilmente. Secondo Haykin (2009), una rete neurale è un processo distribuito in parallelo svolto da unità di elaborazione semplici che hanno una naturale propensione ad immagazzinare conoscenze apprese attraverso l'esperienza, rendendole disponibili all'utilizzo. Esso assomiglia al cervello in due aspetti: le conoscenze vengono acquisite dalla rete neurale attraverso un processo di apprendimento, chiamato anche processo di allenamento, e le forze delle connessioni neurali, note come pesi sinaptici, sono usate per immagazzinare le conoscenze apprese. Nel presente lavoro, è stato sfruttato un algoritmo di apprendimento con supervisore poiché le uscite desiderate (le concentrazioni delle osservazioni) sono note. Quindi è possibile allenare la rete neurale attraverso le concentrazioni del modello insieme ai principali ingressi del modello e le uscite desiderate, rappresentate dalle osservazioni fittizie. Infine, grazie alla proprietà di generalizzazione delle reti neurali è possibile correggere il modello anche nelle zone dove non sono presenti le osservazioni fittizie. Questo è un metodo più dispendioso dal punto di vista computazionale ma la sua naturale parallelizzazione permette di sfruttare strumenti come la GPU (Graphics Processing Unit) per svolgere il processo di apprendimento (Raschka, 2015). I risultati ottenuti sono nettamente migliori rispetto ai metodi classici e soprattutto tengono conto del numero di sensori. Più sensori vengono usati, meglio viene svolto il processo di assimilazione. Infatti nel caso più perturbato, cioè quello più difficile da correggere attraverso l'assimilazione, l'uso delle reti neurali ha consentito di avere prestazioni oltre il 15 % superiori rispetto ai metodi classici. Il tutto conservando un andamento che prevede ulteriori miglioramenti al aumentare del numero di sensori usati per l'assimilazione. La potenzialità delle reti neurali potrebbe rappresentare anche una soluzione ai problemi di calibrazione dei sensori low-cost. Infatti, in una campagna di monitoraggio su più anni, è possibile ipotizzare l'utilizzo di un numero elevato di sensori il primo anno con lo scopo di allenare nel miglior modo possibile la rete neurale artificiale. Gli anni successivi, invece, verrebbero impiegati meno sensori. La mancanza di sensori potrebbe essere sopperita dalla rete neurale ben allenata, che però continuerebbe ad imparare attraverso un processo di rafforzamento della rete. Questa prospettiva futura e altre possono rappresentare un buono spunto di partenza per ulteriori ricerche in questo ambito nel quale le reti neurali si presentano come uno strumento innovativo e che si presta ad ulteriori approfondimenti.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
17_07_Mejia_Estrada.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 13.85 MB
Formato Adobe PDF
13.85 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/135231