This essay will present the results of an analysis lead to identify the best forecasting model to assess previsions about the future demand of the articles sold by the company involved in the project, AMT S.r.l. Achieving this target will allow to improve the already existing inventory management system as well as the budgeting process performed by the company. The main purpose is indeed to make the two activities more rationale and faster, pushing on the application of mathematical models and IT integration. Making the two activities more automated will lead the company to free resources (HR time) to be allocated to activities with a higher valued added (for instance, expanding the customer base). This goal assumes a more relevant meaning considering that HR represents the main source of competitive advantage for the company that found its success over the high level of service offered to its customers. As consequence release them from no-core activities would allow to better defend the competitiveness of the firm as well as finding new way to increase customer satisfaction. The whole work has been developed with the collaboration of all the company’s employee, starting from the C.E.O, during an internship started at the end of March 2017. After a brief description of the company shown in the first chapter, the second and third ones will be dedicated to describe how the two above mentioned process (respectively the budgeting and the inventory management) are currently performed, providing examples of their usage and highlighting possible changes to be implemented to overcame their limits. As will became clear after these two sections, between all the possible changes identified, there’s a transversal potential improvement that the two processes have in common: the need to implement a more accurate forecasting system. Reaching this target would allow to solve one of the most critical limits of the current inventory management software also giving a strong contribution to the budgeting process in terms of automation and rationality. Finally, higher coherence will be reached by linking the two processes to the same source of data (demand forecasts). The consideration done in the last paragraph justify the reason why the larger part of this thesis (chapter six and seven) will be dedicated to the research of a reliable forecasting system and more specifically to a quantitative model based on time series analysis. The will of finding a quantitative model derives from the need to push as much as possible on automation leaving to the experience and expertise of the workforce only the role of supervising and eventually adjusting the output provided by the mathematical algorithms. The analysis is focalised on a specific family of quantitate methods, known as time-series analysis while other methods based of statistical regression has been excluded due to the difficulty in finding proper predictors. The approach adopted to perform the analysis has been to select a series of different forecasting methods choosing them from the most popular in the literature. As additional selection criterion has been considered the level of complexity of the model: too complex algorithms (as the Box and Jenkins one) will be too difficult to be implemented in the company’s ERP and in spite of their effectiveness they would never represent a desirable choice. All the selected forecasting models have been applied over each time series measuring their predictions’ effectiveness through a series of accuracy measures. To perform these evaluations the time series have been broken up into two intervals: a training period of two years (to initialise the model) and a test period of one year (to measure the accuracy). The best fitting forecasting model, for each time series, has been identify using the Mean Absolute Percentage Error (MAPE) as main driver (the best choice is to select the algorithm with the lowest MAPE) fixing a threshold by the 50% to make the model eligible to be considered. MAPE has been selected as preferred index in the light of both: its relative nature (that would give an immediate idea of the intensity of the gap registered) and its absolute nature (that would exclude the balancing effects of positive and negative signs). To deeply test the accuracy of the selected models an economic simulation has been lead using final values from the time series and forecasts generated by the best fitting prediction model. The aim is to assess the “yearly inefficiencies cost” by considering the average number of stock-out per year (and the related quantities) and the average amount of final stock at the end of the year (only considering the part that exceed the desired reserve that represents an opportunity cost related to an unneeded immobilization of capital). Stock-out has been valued considering the margin reduction caused by the need to turn to a faster but more expensive supplier while excess of stocks are valued at the cost of acquisition. This new metric will allow the company to decide whether to use the suggested model for a certain code or not, considering the potential economic risk connected. Initially the analysis has been performed considering a monthly granularity in the definition of the time series, decision that was taken coherently with the unit of time currently adopted in both the inventory management and the budgeting process. The results obtained with this level of detail are poor, only six over nineteen codes (31.5%) did respect the fixed threshold while most of the others were affected by high level of inaccuracy (on average above 130%). This outcome was not completely surprising considering that 60% of the demand profile analysed were classified as “Lumpy”, the most difficult typology to be managed (high variability of quantities and high average demand interarrival time). Willing to reach a better result it has been decided to extend the dimension of the time unit, passing from a monthly granularity to a trimestral one. From a statistical point of view this would allow to smooth the time series making it more predictable. The same approach described above has then be applied to the new time series. The outcome of the new analysis had signed, as expected a significant improvement reducing the amount of “lumpy” profiles to the 15.7% as consequence of the reduced interarrival times and quantities variability. The change of granularity as signed for the majority of the codes a reduction of the MAPE associated to the best fitting algorithm: almost 74% (14/19) had experienced an improvement, on average by the 89%. Despite these good results, due to the high inaccuracy signed before, only 36% of these fourteen codes overcome the threshold fixed over MAPE (<50%). In five cases, against every expectation, it was found that the accuracy of the model become poorer by adopting a larger granularity. By matching the results of the two analyses (chapter 8), selecting the best fitting model and granularity for each code, it was possible to link only the 52% (11) of the articles involved to a forecasting method with a decent accuracy. An investigation has been done in order to find the root cause of the high unpredictability of the considered time series. After some considerations, it has been identified as main cause the low number of customers per code and the high incidence of a single customer on the majority of the volume sold. Has higher is the number of customers that generate the demand as higher will be its predictability because the aggregated results are the sum of many independent demand (balancing effects of those who reach higher results than before and those who sign poorer performances). In the specific case considered 40% of the articles is bought by less than six clients while only 25% has more than ten. Additionally, if one (or very few) customers have a high incidence on the yearly sold quantities of a single code, the predictability became even poorer (is almost like having a single customer). Analysing the time series, it was found that on average the most influent client covers at least the 60% of the yearly sold quantities while 80% is covered on average by three customers. Considering the limited coverage offered by the models found it has been suggested an alternative way to support the sales forecasting process. The idea is to synthetize into a unique report all the information and data that could be helpful to support the salesforce in the definition of qualitative forecasts (as the number of customers, their incidence over yearly sold quantities, their growth rate and others). This alternative solution is less performing than the initial sought one (poorer automation) but it would however allow to reduce the effort needed to generate forecasts partially meeting the initial target.

Questa tesina presenta i risultati di un’analisi condotta al fine di identificare il miglior modello di previsione della domanda da associare agli articoli venduti dall’azienda AMT S.r.l. Raggiungere questo obiettivo permetterebbe all’azienda di migliorare i processi di budgeting e di gestione delle scorte rendendoli più razionali e veloci tramite l’utilizzo di modelli matematici e dell’integrazione IT. Automatizzare queste attività consentirà all’azienda di liberare risorse (tempo uomo) che potranno quindi essere dedicate ad attività a maggior valore aggiunto (ad esempio estendere l’attuale parco clienti). Questo target assume un significato ancor più rilevante se si considera che il personale è al tempo stesso una risorsa scarsa e la principale fonte di vantaggio competitivo per l’azienda (che fa del servizio il suo punto di forza). Di conseguenza sollevare le risorse umane da attività non-core consentirà di allocare in modo più efficiente il loro tempo, creando maggiore valore per l’azienda. Questo lavoro è stato svolto con la collaborazione di tutto il personale dell’azienda, a partire dal C.E.O, durante un tirocinio iniziato a marzo 2017. Dopo una breve descrizione dell’azienda (Capitolo 1), il secondo e terzo capitolo saranno dedicati a descrivere come le due attività sopra menzionate (rispettivamente il processo di budgeting e quello di gestione delle scorte) vengono attualmente svolte in azienda evidenziandone i limiti e proponendo soluzioni alternative per superarli. Come apparirà chiaro dopo queste prime due sezioni, tra tutti i possibili miglioramenti evidenziati ve né uno che risulta essere trasversale alle due attività: implementare un miglior sistema di previsione della domanda. Conseguire questo obiettivo permetterebbe di superare una delle principali criticità dell’attuale sistema di gestione delle scorte e al tempo stesso renderebbe più veloce e razionale il processo di stesura del budget delle vendite. Le considerazioni riportate nel paragrafo precedente giustificano quindi la ragione per cui la maggior parte di questa tesi è focalizzata sul processo di ricerca di un modello di previsione della domanda più affidabile. In particolare ci si è imposti di trovare un modello di tipo quantitativo basato sull’analisi delle serie storiche. A motivare questa scelta è stata l’esigenza di avere un algoritmo previsionale di tipo matematico che limitasse l’intervento della forza vendita alla sola fase finale di aggiustamento dei risultati. L’approccio adottato per l’analisi è stato quello di selezionare un insieme di modelli di previsione, scelti tra quelli più diffusi in letteratura, da poter applicare alle serie storiche relative alle vendite dell’azienda. Un ulteriore criterio di selezione è stato quello di escludere modelli troppo complessi (es. ARIMA) in quanto di difficile implementazione ed utilizzo all’interno del gestionale aziendale. Tutti gli algoritmi scelti sono quindi stati applicati alle serie storiche oggetto di analisi procedendo poi al calcolo delle principali metriche di errore al fine di valutarne l’accuratezza. Al fine di condurre queste valutazioni è stato necessario fissare l’orizzonte temporale su di un arco di tre anni andando poi a scomporre la serie in due sotto-intervalli: un primo periodo di 2 anni è stato usato per inizializzare e ottimizzare i parametri del modello (training), un secondo periodo di un anno è poi stato usato per calcolare gli scostamenti tra dati previsti e dati a consuntivo (test). Il modello più adatto per ciascuno codice è stato identificato utilizzando il MAPE (errore medio assoluto percentuale) come principale driver di scelta. La scelta di utilizzare tale metrica tra le tante disponibili è da ricondursi: alla sua natura assoluta (che lo rende immune dall’effetto di bilanciamento dei segni) e dalla sua natura relativa (che rende un’idea immediata del peso dell’errore). Al fine di analizzare in modo più approfondito gli effetti dell’erraticità di ciascun modello scelto è stata condotta una simulazione (sempre su dati passati) mirata a calcolare il costo annuo medio delle inefficienze. Tale indicatore è dato dalla somma di due componenti: il costo legato alle rotture di stock e il costo opportunità legato all’immobilizzo anticipato di capitale sotto forma di scorte finali (al 31/12). La prima componente viene valorizzata moltiplicando la quantità media annua relativa agli stock out per il margine lordo unitario dell’articolo considerato. Al margine lordo viene poi applicato un coefficiente di sconto pari al 20% considerando che in caso di rottura l’azienda può ricorrere nella maggior parte dei casi a fornitori alternativi, più veloci ma anche più costosi. La seconda componente viene invece calcolata moltiplicando il costo unitario di acquisto per il valore medio delle scorte finali. Non viene considerato l’intero ammontare registrato ma solo la parte che eccede il 25% della quantità annua venduta ritenendo questa percentuale come accettabile in ragione dei tempi medi di consegna dei fornitori e del livello di sicurezza delle scorte. L’analisi è quindi stata condotta sfruttando inizialmente una granularità mensile per definire l’unità temporale della serie storica; tale scelta appare coerente con l’attuale temporizzazione adottata sia a livello di budget che livello di programmazione delle scorte. I risultati ottenuti si sono però rivelati insoddisfacenti: solo sei codici su diciannove (31.5%) hanno rispettato la soglia prescelta (MAPE<50%) mentre gli altri hanno raggiunto un tasso di errore mediamente del 130%. Questo risultato non era del tutto inatteso considerando che il 60% dei codici analizzati si è rivelato essere caratterizzato da una domanda di tipo “Lumpy” con un elevata variabilità dei volumi e dei tempi medi di arrivo della domanda. Volendo migliorare l’efficacia dell’analisi si è quindi optato per estendere l’unità temporale al trimestre. Statisticamente questa scelta dovrebbe rendere il profilo delle serie più smorzato e quindi prevedibile. È stato quindi applicato lo stesso approccio descritto in precedenza sulle nuove serie storiche ottenendo significativi miglioramenti: la percentuale di codici “lumpy” è scesa al 15.7% a seguito dell’annullamento di periodi a domanda zero (o comunque molto bassa). Il MAPE per la maggior parte dei codici (74%) ha subito una netta riduzione (in media del 89%). Nonostante questi risultati positivi solo il 36% degli articoli ha superato la soglia prevista (MAPE<50%) Unendo i risultati delle due analisi, selezionando per ciascun codice il miglior modello-granularità, è stato quindi possibile associare al 52% dei codici (11) un algoritmo con una accuratezza accettabile. Una possibile causa della bassa prevedibilità delle vendite di questi articoli è stata identificata nel basso numero di clienti per articolo: nel 40% dei casi i clienti sono meno di sei mentre solo nel 24% sono più di 10. Statisticamente la prevedibilità aumenta all’aumentare del numero di variabili indipendenti che costituiscono la domanda. Inoltre l’incidenza del singolo cliente sull’ammontare annuo dei volumi assorbiti si è rivelata essere molto elevata. Mediamente il primo cliente cumula più del 60& delle vendite mentre l’80% viene mediamente coperto dai primi tre acquirenti. Considerando la limitata copertura offerta dai modelli considerati è stato quindi suggerito un approccio alternativo per migliorare l’efficienza del processo di previsione. L’idea è quella di creare un report sintetico in cui una serie di informazioni e dati utili (numero di clienti, curve di concentrazione, tasso di crescita dei volumi per cliente e articolo…) vengono proposti all’operatore che è quindi supportato nel processo di stima dei dati di vendita futuri. Tale soluzione si rivela essere un compromesso tra l’obiettivo iniziale ed il metodo attuale riuscendo a migliorare l’efficienza dei processi senza però raggiungere il livello di automazione prefissato.

Demand forecasting : development of a forecasting system to support budgeting process and inventory management in an Italian SME

ZANI, GUIDO
2016/2017

Abstract

This essay will present the results of an analysis lead to identify the best forecasting model to assess previsions about the future demand of the articles sold by the company involved in the project, AMT S.r.l. Achieving this target will allow to improve the already existing inventory management system as well as the budgeting process performed by the company. The main purpose is indeed to make the two activities more rationale and faster, pushing on the application of mathematical models and IT integration. Making the two activities more automated will lead the company to free resources (HR time) to be allocated to activities with a higher valued added (for instance, expanding the customer base). This goal assumes a more relevant meaning considering that HR represents the main source of competitive advantage for the company that found its success over the high level of service offered to its customers. As consequence release them from no-core activities would allow to better defend the competitiveness of the firm as well as finding new way to increase customer satisfaction. The whole work has been developed with the collaboration of all the company’s employee, starting from the C.E.O, during an internship started at the end of March 2017. After a brief description of the company shown in the first chapter, the second and third ones will be dedicated to describe how the two above mentioned process (respectively the budgeting and the inventory management) are currently performed, providing examples of their usage and highlighting possible changes to be implemented to overcame their limits. As will became clear after these two sections, between all the possible changes identified, there’s a transversal potential improvement that the two processes have in common: the need to implement a more accurate forecasting system. Reaching this target would allow to solve one of the most critical limits of the current inventory management software also giving a strong contribution to the budgeting process in terms of automation and rationality. Finally, higher coherence will be reached by linking the two processes to the same source of data (demand forecasts). The consideration done in the last paragraph justify the reason why the larger part of this thesis (chapter six and seven) will be dedicated to the research of a reliable forecasting system and more specifically to a quantitative model based on time series analysis. The will of finding a quantitative model derives from the need to push as much as possible on automation leaving to the experience and expertise of the workforce only the role of supervising and eventually adjusting the output provided by the mathematical algorithms. The analysis is focalised on a specific family of quantitate methods, known as time-series analysis while other methods based of statistical regression has been excluded due to the difficulty in finding proper predictors. The approach adopted to perform the analysis has been to select a series of different forecasting methods choosing them from the most popular in the literature. As additional selection criterion has been considered the level of complexity of the model: too complex algorithms (as the Box and Jenkins one) will be too difficult to be implemented in the company’s ERP and in spite of their effectiveness they would never represent a desirable choice. All the selected forecasting models have been applied over each time series measuring their predictions’ effectiveness through a series of accuracy measures. To perform these evaluations the time series have been broken up into two intervals: a training period of two years (to initialise the model) and a test period of one year (to measure the accuracy). The best fitting forecasting model, for each time series, has been identify using the Mean Absolute Percentage Error (MAPE) as main driver (the best choice is to select the algorithm with the lowest MAPE) fixing a threshold by the 50% to make the model eligible to be considered. MAPE has been selected as preferred index in the light of both: its relative nature (that would give an immediate idea of the intensity of the gap registered) and its absolute nature (that would exclude the balancing effects of positive and negative signs). To deeply test the accuracy of the selected models an economic simulation has been lead using final values from the time series and forecasts generated by the best fitting prediction model. The aim is to assess the “yearly inefficiencies cost” by considering the average number of stock-out per year (and the related quantities) and the average amount of final stock at the end of the year (only considering the part that exceed the desired reserve that represents an opportunity cost related to an unneeded immobilization of capital). Stock-out has been valued considering the margin reduction caused by the need to turn to a faster but more expensive supplier while excess of stocks are valued at the cost of acquisition. This new metric will allow the company to decide whether to use the suggested model for a certain code or not, considering the potential economic risk connected. Initially the analysis has been performed considering a monthly granularity in the definition of the time series, decision that was taken coherently with the unit of time currently adopted in both the inventory management and the budgeting process. The results obtained with this level of detail are poor, only six over nineteen codes (31.5%) did respect the fixed threshold while most of the others were affected by high level of inaccuracy (on average above 130%). This outcome was not completely surprising considering that 60% of the demand profile analysed were classified as “Lumpy”, the most difficult typology to be managed (high variability of quantities and high average demand interarrival time). Willing to reach a better result it has been decided to extend the dimension of the time unit, passing from a monthly granularity to a trimestral one. From a statistical point of view this would allow to smooth the time series making it more predictable. The same approach described above has then be applied to the new time series. The outcome of the new analysis had signed, as expected a significant improvement reducing the amount of “lumpy” profiles to the 15.7% as consequence of the reduced interarrival times and quantities variability. The change of granularity as signed for the majority of the codes a reduction of the MAPE associated to the best fitting algorithm: almost 74% (14/19) had experienced an improvement, on average by the 89%. Despite these good results, due to the high inaccuracy signed before, only 36% of these fourteen codes overcome the threshold fixed over MAPE (<50%). In five cases, against every expectation, it was found that the accuracy of the model become poorer by adopting a larger granularity. By matching the results of the two analyses (chapter 8), selecting the best fitting model and granularity for each code, it was possible to link only the 52% (11) of the articles involved to a forecasting method with a decent accuracy. An investigation has been done in order to find the root cause of the high unpredictability of the considered time series. After some considerations, it has been identified as main cause the low number of customers per code and the high incidence of a single customer on the majority of the volume sold. Has higher is the number of customers that generate the demand as higher will be its predictability because the aggregated results are the sum of many independent demand (balancing effects of those who reach higher results than before and those who sign poorer performances). In the specific case considered 40% of the articles is bought by less than six clients while only 25% has more than ten. Additionally, if one (or very few) customers have a high incidence on the yearly sold quantities of a single code, the predictability became even poorer (is almost like having a single customer). Analysing the time series, it was found that on average the most influent client covers at least the 60% of the yearly sold quantities while 80% is covered on average by three customers. Considering the limited coverage offered by the models found it has been suggested an alternative way to support the sales forecasting process. The idea is to synthetize into a unique report all the information and data that could be helpful to support the salesforce in the definition of qualitative forecasts (as the number of customers, their incidence over yearly sold quantities, their growth rate and others). This alternative solution is less performing than the initial sought one (poorer automation) but it would however allow to reduce the effort needed to generate forecasts partially meeting the initial target.
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-ott-2017
2016/2017
Questa tesina presenta i risultati di un’analisi condotta al fine di identificare il miglior modello di previsione della domanda da associare agli articoli venduti dall’azienda AMT S.r.l. Raggiungere questo obiettivo permetterebbe all’azienda di migliorare i processi di budgeting e di gestione delle scorte rendendoli più razionali e veloci tramite l’utilizzo di modelli matematici e dell’integrazione IT. Automatizzare queste attività consentirà all’azienda di liberare risorse (tempo uomo) che potranno quindi essere dedicate ad attività a maggior valore aggiunto (ad esempio estendere l’attuale parco clienti). Questo target assume un significato ancor più rilevante se si considera che il personale è al tempo stesso una risorsa scarsa e la principale fonte di vantaggio competitivo per l’azienda (che fa del servizio il suo punto di forza). Di conseguenza sollevare le risorse umane da attività non-core consentirà di allocare in modo più efficiente il loro tempo, creando maggiore valore per l’azienda. Questo lavoro è stato svolto con la collaborazione di tutto il personale dell’azienda, a partire dal C.E.O, durante un tirocinio iniziato a marzo 2017. Dopo una breve descrizione dell’azienda (Capitolo 1), il secondo e terzo capitolo saranno dedicati a descrivere come le due attività sopra menzionate (rispettivamente il processo di budgeting e quello di gestione delle scorte) vengono attualmente svolte in azienda evidenziandone i limiti e proponendo soluzioni alternative per superarli. Come apparirà chiaro dopo queste prime due sezioni, tra tutti i possibili miglioramenti evidenziati ve né uno che risulta essere trasversale alle due attività: implementare un miglior sistema di previsione della domanda. Conseguire questo obiettivo permetterebbe di superare una delle principali criticità dell’attuale sistema di gestione delle scorte e al tempo stesso renderebbe più veloce e razionale il processo di stesura del budget delle vendite. Le considerazioni riportate nel paragrafo precedente giustificano quindi la ragione per cui la maggior parte di questa tesi è focalizzata sul processo di ricerca di un modello di previsione della domanda più affidabile. In particolare ci si è imposti di trovare un modello di tipo quantitativo basato sull’analisi delle serie storiche. A motivare questa scelta è stata l’esigenza di avere un algoritmo previsionale di tipo matematico che limitasse l’intervento della forza vendita alla sola fase finale di aggiustamento dei risultati. L’approccio adottato per l’analisi è stato quello di selezionare un insieme di modelli di previsione, scelti tra quelli più diffusi in letteratura, da poter applicare alle serie storiche relative alle vendite dell’azienda. Un ulteriore criterio di selezione è stato quello di escludere modelli troppo complessi (es. ARIMA) in quanto di difficile implementazione ed utilizzo all’interno del gestionale aziendale. Tutti gli algoritmi scelti sono quindi stati applicati alle serie storiche oggetto di analisi procedendo poi al calcolo delle principali metriche di errore al fine di valutarne l’accuratezza. Al fine di condurre queste valutazioni è stato necessario fissare l’orizzonte temporale su di un arco di tre anni andando poi a scomporre la serie in due sotto-intervalli: un primo periodo di 2 anni è stato usato per inizializzare e ottimizzare i parametri del modello (training), un secondo periodo di un anno è poi stato usato per calcolare gli scostamenti tra dati previsti e dati a consuntivo (test). Il modello più adatto per ciascuno codice è stato identificato utilizzando il MAPE (errore medio assoluto percentuale) come principale driver di scelta. La scelta di utilizzare tale metrica tra le tante disponibili è da ricondursi: alla sua natura assoluta (che lo rende immune dall’effetto di bilanciamento dei segni) e dalla sua natura relativa (che rende un’idea immediata del peso dell’errore). Al fine di analizzare in modo più approfondito gli effetti dell’erraticità di ciascun modello scelto è stata condotta una simulazione (sempre su dati passati) mirata a calcolare il costo annuo medio delle inefficienze. Tale indicatore è dato dalla somma di due componenti: il costo legato alle rotture di stock e il costo opportunità legato all’immobilizzo anticipato di capitale sotto forma di scorte finali (al 31/12). La prima componente viene valorizzata moltiplicando la quantità media annua relativa agli stock out per il margine lordo unitario dell’articolo considerato. Al margine lordo viene poi applicato un coefficiente di sconto pari al 20% considerando che in caso di rottura l’azienda può ricorrere nella maggior parte dei casi a fornitori alternativi, più veloci ma anche più costosi. La seconda componente viene invece calcolata moltiplicando il costo unitario di acquisto per il valore medio delle scorte finali. Non viene considerato l’intero ammontare registrato ma solo la parte che eccede il 25% della quantità annua venduta ritenendo questa percentuale come accettabile in ragione dei tempi medi di consegna dei fornitori e del livello di sicurezza delle scorte. L’analisi è quindi stata condotta sfruttando inizialmente una granularità mensile per definire l’unità temporale della serie storica; tale scelta appare coerente con l’attuale temporizzazione adottata sia a livello di budget che livello di programmazione delle scorte. I risultati ottenuti si sono però rivelati insoddisfacenti: solo sei codici su diciannove (31.5%) hanno rispettato la soglia prescelta (MAPE<50%) mentre gli altri hanno raggiunto un tasso di errore mediamente del 130%. Questo risultato non era del tutto inatteso considerando che il 60% dei codici analizzati si è rivelato essere caratterizzato da una domanda di tipo “Lumpy” con un elevata variabilità dei volumi e dei tempi medi di arrivo della domanda. Volendo migliorare l’efficacia dell’analisi si è quindi optato per estendere l’unità temporale al trimestre. Statisticamente questa scelta dovrebbe rendere il profilo delle serie più smorzato e quindi prevedibile. È stato quindi applicato lo stesso approccio descritto in precedenza sulle nuove serie storiche ottenendo significativi miglioramenti: la percentuale di codici “lumpy” è scesa al 15.7% a seguito dell’annullamento di periodi a domanda zero (o comunque molto bassa). Il MAPE per la maggior parte dei codici (74%) ha subito una netta riduzione (in media del 89%). Nonostante questi risultati positivi solo il 36% degli articoli ha superato la soglia prevista (MAPE<50%) Unendo i risultati delle due analisi, selezionando per ciascun codice il miglior modello-granularità, è stato quindi possibile associare al 52% dei codici (11) un algoritmo con una accuratezza accettabile. Una possibile causa della bassa prevedibilità delle vendite di questi articoli è stata identificata nel basso numero di clienti per articolo: nel 40% dei casi i clienti sono meno di sei mentre solo nel 24% sono più di 10. Statisticamente la prevedibilità aumenta all’aumentare del numero di variabili indipendenti che costituiscono la domanda. Inoltre l’incidenza del singolo cliente sull’ammontare annuo dei volumi assorbiti si è rivelata essere molto elevata. Mediamente il primo cliente cumula più del 60& delle vendite mentre l’80% viene mediamente coperto dai primi tre acquirenti. Considerando la limitata copertura offerta dai modelli considerati è stato quindi suggerito un approccio alternativo per migliorare l’efficienza del processo di previsione. L’idea è quella di creare un report sintetico in cui una serie di informazioni e dati utili (numero di clienti, curve di concentrazione, tasso di crescita dei volumi per cliente e articolo…) vengono proposti all’operatore che è quindi supportato nel processo di stima dei dati di vendita futuri. Tale soluzione si rivela essere un compromesso tra l’obiettivo iniziale ed il metodo attuale riuscendo a migliorare l’efficienza dei processi senza però raggiungere il livello di automazione prefissato.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
Tesina_Zani_Guido.pdf

non accessibile

Descrizione: Testo della tesi
Dimensione 3.1 MB
Formato Adobe PDF
3.1 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/136402