The IT infrastructures of companies and research centres are implementing new technologies to satisfy the increasing need of computing resources for big data analysis. In this context, resource profiling plays a crucial role to identify areas where to improve the utilisation efficiency. In order to deal with the profiling and optimisation of computing resources, two complementary approaches can be adopted: the measurement-based approach and the model-based approach. The measurement-based approach gathers and analyses performance metrics executing benchmark applications on computing resources. Instead, the model-based approach implies the design and implementation of a model as an abstraction of the real system, selecting only those aspects relevant to the study. This Thesis originates from a project followed by the author within the CERN IT department. CERN is an international scientific laboratory that conducts fundamental researches in the domain of elementary particle physics. The project concerns the profiling of a bunch of 240 servers used to sustain the High Energy Physics workloads in the CERN batch system. The virtualised resources have been tested through a benchmarking process in order to extract performance metrics that have been analysed in detail. Finally, the creation of a model that simulates the real system behaviour, starting from the aforementioned measures, has been flanked to the analytical approach.
Le infrastrutture IT delle aziende e dei centri di ricerca stanno implementando nuove tecnologie per soddisfare la crescente necessità di risorse computazionali, tali da supportare l’analisi di big data. In questo contesto, il monitoraggio delle risorse assume un ruolo fondamentale per l'identificazione dei settori in cui migliorare l'efficienza d'utilizzo. Le procedure di profilazione e di ottimizzazione delle risorse di calcolo possono essere affrontate mediante due approcci, quello analitico e quello modellistico. Il primo raccoglie e analizza metriche di performance eseguendo attività di benchmarking sulle risorse; il secondo ha lo scopo di realizzare un modello del sistema reale, selezionando le caratteristiche rilevanti ai fini dello studio. La presente Tesi nasce da un progetto seguito dallo scrivente autore presso il dipartimento IT del CERN. Il CERN è un laboratorio internazionale che conduce ricerche nel campo della fisica delle particelle elementari. Il progetto riguarda il profiling di un nuovo gruppo di 240 server impiegati all'interno del sistema batch del CERN, con l'obiettivo di sostenere i carichi computazionali richiesti dai progetti di ricerca nel campo dell'High Energy Physics. Le risorse virtualizzate sono state testate attraverso un processo di benchmarking al fine di verificarne le metriche di performance tramite una dettagliata attività di analisi. L'approccio analitico è stato infine affiancato dalla creazione di un modello che simulasse il comportamento del sistema reale a partire dalle metriche precedentemente ricavate.
Performance measurements in a high throughput computing environment
SCHIAVI, FRANCESCA CECILIA
2015/2016
Abstract
The IT infrastructures of companies and research centres are implementing new technologies to satisfy the increasing need of computing resources for big data analysis. In this context, resource profiling plays a crucial role to identify areas where to improve the utilisation efficiency. In order to deal with the profiling and optimisation of computing resources, two complementary approaches can be adopted: the measurement-based approach and the model-based approach. The measurement-based approach gathers and analyses performance metrics executing benchmark applications on computing resources. Instead, the model-based approach implies the design and implementation of a model as an abstraction of the real system, selecting only those aspects relevant to the study. This Thesis originates from a project followed by the author within the CERN IT department. CERN is an international scientific laboratory that conducts fundamental researches in the domain of elementary particle physics. The project concerns the profiling of a bunch of 240 servers used to sustain the High Energy Physics workloads in the CERN batch system. The virtualised resources have been tested through a benchmarking process in order to extract performance metrics that have been analysed in detail. Finally, the creation of a model that simulates the real system behaviour, starting from the aforementioned measures, has been flanked to the analytical approach.File | Dimensione | Formato | |
---|---|---|---|
2017_04_Schiavi.pdf
accessibile in internet per tutti
Descrizione: Testo della tesi
Dimensione
13.16 MB
Formato
Adobe PDF
|
13.16 MB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/133883