Genomes are complex systems, and not just static and monolithic entities. They represent the ensemble of the hereditary information of an organism or, in evolutionary terms, of a species. Sequencing sciences offered through the last two decades the possibility to dive into this complexity. This scientific revolution led to a series of paradigm changes, and the collateral need of efficient technical and methodological innovations. However, this process was not gradual, exposing genome research to an explosive data deluge, thus causing a series of bottlenecks: technological, computational, and methodological, due to the existence of efficient data reduction and analysis algorithm, capable of capturing the informative portion of genomic complexity. In the last years, there have been huge efforts towards the generation of unified standards and databases, ontologies, integrated platforms, integrative methodologies, to provide a strong theoretical background, capable of capturing true biological variation, often masked behind marginal synergic processes. The goal of this thesis was to shed light on this last problem, trying to expose a unifying theoretical foundation needed to approach the study of genome complexity.

I genomi sono sistemi complessi, e non semplici entità monolitiche. Il genoma rappresenta l'insieme dell'informazione ereditaria di un organismo o, in termini evoluzionistici, di una specie. Nelle ultime due decadi, le tecnologie di sequenziamento del DNA hanno offerto la concreta possibilità di esplorare tale complessità. Questa rivoluzione scientifica ha portato ad una serie di profonde modificazioni dei paradigmi, ed un collaterale bisogno di sempre più efficienti ed innovativi modelli e soluzioni tecnologiche. Tuttavia, questo processo non è stato graduale, esponendo la ricerca genomica ad un accumulo esplosivo di dati, che sono stati la causa di diverse criticità: tecnologiche, computazionali, e metodologiche. Queste criticità possono essere risolte sviluppando efficienti modelli statistici ed algoritmi di data reduction, capaci di catturare la porzione informativa di un complesso sistema biologico. Negli ultimi anni, ci sono stati numerosi sforzi di produrre standard che unificassero lo scambio e l'integrazione dei dati, attraverso database, ontologie, piattaforme dedicate e metodologie integrative, per fornire una forte base teorica per l'analisi ed il mining dei dati. Lo scopo finale di questa tesi è quello di illustrare tale base teorica, e di come possa essere applicata per la risoluzione di grandi problematiche nel campo della ricerca genomica.

Novel genome-scale data models and algorithms for molecular medicine and biomedical research

PALLUZZI, FERNANDO

Abstract

Genomes are complex systems, and not just static and monolithic entities. They represent the ensemble of the hereditary information of an organism or, in evolutionary terms, of a species. Sequencing sciences offered through the last two decades the possibility to dive into this complexity. This scientific revolution led to a series of paradigm changes, and the collateral need of efficient technical and methodological innovations. However, this process was not gradual, exposing genome research to an explosive data deluge, thus causing a series of bottlenecks: technological, computational, and methodological, due to the existence of efficient data reduction and analysis algorithm, capable of capturing the informative portion of genomic complexity. In the last years, there have been huge efforts towards the generation of unified standards and databases, ontologies, integrated platforms, integrative methodologies, to provide a strong theoretical background, capable of capturing true biological variation, often masked behind marginal synergic processes. The goal of this thesis was to shed light on this last problem, trying to expose a unifying theoretical foundation needed to approach the study of genome complexity.
BONARINI, ANDREA
PERNICI, BARBARA
6-mar-2017
I genomi sono sistemi complessi, e non semplici entità monolitiche. Il genoma rappresenta l'insieme dell'informazione ereditaria di un organismo o, in termini evoluzionistici, di una specie. Nelle ultime due decadi, le tecnologie di sequenziamento del DNA hanno offerto la concreta possibilità di esplorare tale complessità. Questa rivoluzione scientifica ha portato ad una serie di profonde modificazioni dei paradigmi, ed un collaterale bisogno di sempre più efficienti ed innovativi modelli e soluzioni tecnologiche. Tuttavia, questo processo non è stato graduale, esponendo la ricerca genomica ad un accumulo esplosivo di dati, che sono stati la causa di diverse criticità: tecnologiche, computazionali, e metodologiche. Queste criticità possono essere risolte sviluppando efficienti modelli statistici ed algoritmi di data reduction, capaci di catturare la porzione informativa di un complesso sistema biologico. Negli ultimi anni, ci sono stati numerosi sforzi di produrre standard che unificassero lo scambio e l'integrazione dei dati, attraverso database, ontologie, piattaforme dedicate e metodologie integrative, per fornire una forte base teorica per l'analisi ed il mining dei dati. Lo scopo finale di questa tesi è quello di illustrare tale base teorica, e di come possa essere applicata per la risoluzione di grandi problematiche nel campo della ricerca genomica.
Tesi di dottorato
File allegati
File Dimensione Formato  
FPalluzzi_PhD_ThesisDEIB_PoliMiFormat.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi FPalluzzi
Dimensione 5.75 MB
Formato Adobe PDF
5.75 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/132413