Many companies have just realized about the increasing importance of data quality for enterprises which offer a high degree of customization. The competitiveness of enterprises in the Information era depends on their ability to offer personalized services based on an increasingly fine segmentation of their customer base. The relevance of Data Quality could be ensured by checking the effects of its lack. Poor quality results in social and economic losses. In this work we are addressing a technique to analyze the business process and to compare different checking configurations, that could be applied to processes in order to reduce the time's interval between the source of a fault and its notification by the quality monitor to the process manager and to measure the data quality of the process. This interval represents a critical aspect that influences the success of repair strategies, because reducing it could make more easy to find the causes of the fault. The methodology for the analysis is composed of different formalisms used to investigate different quality aspects. The first analysis involves the data collection. The second phase of this methodology studies the process flow, researching the dependences of data that causes failure. After the analysis, we provide a set of possible quality monitor configurations. Each one of this configurations is suitable for a specific scenario of process requirements. Finally we propose a method to choose the best configuration. To do this we applied some changes in the implementation of the Quality Block, that is the monitor dedicated to check if the quality requirements are satisfied. First of all, we divided it according to two different criteria. On one hand, we splited this block creating a sub-block for each quality dimension. On the other hand, we implemented a block that measures the quality dimension on every database used that the process uses. This simplification lets the process designer to save process execution time because its allows he or she to fix only the needed sub-blocks in a certain point of the process flow, avoiding the repetition of the same monitor in a sequential point.

Molte imprese hanno ormai compreso i benefici a cui porta una buona gestione dei dati. La qualità dei dati è fondamentale per le aziende che offrono ai loro clienti servizi e prodotti con un elevato livello di personalizzazione. La competitività delle imprese nell'era dell'Informazione dipende dalla loro abilità di offrire servizi personalizzati basati su una precisa segmentazione dei clienti. La rilevanza della qualità dei dati può essere capita se si osservano gli effetti della sua mancanza. Infatti la scarsa qualità dei dati può sfociare in predite sia economiche che sociali. In questo lavoro abbiamo mostrato una tecnica per analizzare un processo e confrontare diverse configurazioni di verifica della qualità dei dati, che possono essere applicate al processo per misurarne le performance di qualità. Questa metodologia di analisi è composta da vari formalismi usati per investigare diversi aspetti che influenzano la qualità. La prima analisi riguarda le collezioni di dati aziendali, mentre la seconda fase studia il processo alla ricerca delle dipendenze che causano i guasti. Una volta spiegato come analizzare il processo, abbiamo mostrato alcune possibili configurazioni per effettuare le verifiche di qualità, specificando un metodo di scelta che permetta di preferire uno scenario agli altri. Durante lo svolgimento di questa tesi abbiamo deciso di disegnare il Quality Block, cioè il monitor utilizzato per le verifiche di qualità che è uno dei fulcri di questa tesi e che è stato da noi concepito secondo due prospettive traversali. La prima prevede che ci sia un blocco dedicato al calcolo di ogni dimensione. Mentre l'altra prevede che ci siano blocchi differenti per misurare le prestazioni di qualità per ciascuno dei database. Queste scomposizioni riducono la complessità del processo complessivo ed il tempo di esecuzione, perchè evitano la ripetizione di alcune verifiche.

Monitoraggio della qualità dei dati in processi aziendali

VILLANI, LAURA
2010/2011

Abstract

Many companies have just realized about the increasing importance of data quality for enterprises which offer a high degree of customization. The competitiveness of enterprises in the Information era depends on their ability to offer personalized services based on an increasingly fine segmentation of their customer base. The relevance of Data Quality could be ensured by checking the effects of its lack. Poor quality results in social and economic losses. In this work we are addressing a technique to analyze the business process and to compare different checking configurations, that could be applied to processes in order to reduce the time's interval between the source of a fault and its notification by the quality monitor to the process manager and to measure the data quality of the process. This interval represents a critical aspect that influences the success of repair strategies, because reducing it could make more easy to find the causes of the fault. The methodology for the analysis is composed of different formalisms used to investigate different quality aspects. The first analysis involves the data collection. The second phase of this methodology studies the process flow, researching the dependences of data that causes failure. After the analysis, we provide a set of possible quality monitor configurations. Each one of this configurations is suitable for a specific scenario of process requirements. Finally we propose a method to choose the best configuration. To do this we applied some changes in the implementation of the Quality Block, that is the monitor dedicated to check if the quality requirements are satisfied. First of all, we divided it according to two different criteria. On one hand, we splited this block creating a sub-block for each quality dimension. On the other hand, we implemented a block that measures the quality dimension on every database used that the process uses. This simplification lets the process designer to save process execution time because its allows he or she to fix only the needed sub-blocks in a certain point of the process flow, avoiding the repetition of the same monitor in a sequential point.
ING V - Scuola di Ingegneria dell'Informazione
20-lug-2011
2010/2011
Molte imprese hanno ormai compreso i benefici a cui porta una buona gestione dei dati. La qualità dei dati è fondamentale per le aziende che offrono ai loro clienti servizi e prodotti con un elevato livello di personalizzazione. La competitività delle imprese nell'era dell'Informazione dipende dalla loro abilità di offrire servizi personalizzati basati su una precisa segmentazione dei clienti. La rilevanza della qualità dei dati può essere capita se si osservano gli effetti della sua mancanza. Infatti la scarsa qualità dei dati può sfociare in predite sia economiche che sociali. In questo lavoro abbiamo mostrato una tecnica per analizzare un processo e confrontare diverse configurazioni di verifica della qualità dei dati, che possono essere applicate al processo per misurarne le performance di qualità. Questa metodologia di analisi è composta da vari formalismi usati per investigare diversi aspetti che influenzano la qualità. La prima analisi riguarda le collezioni di dati aziendali, mentre la seconda fase studia il processo alla ricerca delle dipendenze che causano i guasti. Una volta spiegato come analizzare il processo, abbiamo mostrato alcune possibili configurazioni per effettuare le verifiche di qualità, specificando un metodo di scelta che permetta di preferire uno scenario agli altri. Durante lo svolgimento di questa tesi abbiamo deciso di disegnare il Quality Block, cioè il monitor utilizzato per le verifiche di qualità che è uno dei fulcri di questa tesi e che è stato da noi concepito secondo due prospettive traversali. La prima prevede che ci sia un blocco dedicato al calcolo di ogni dimensione. Mentre l'altra prevede che ci siano blocchi differenti per misurare le prestazioni di qualità per ciascuno dei database. Queste scomposizioni riducono la complessità del processo complessivo ed il tempo di esecuzione, perchè evitano la ripetizione di alcune verifiche.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
2011_07_Villani.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 2.58 MB
Formato Adobe PDF
2.58 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/21024