Sensory systems in the brain transform variable and noisy inputs into reliable patterns to ensure discrimination and appropriate behavior. Theoretical models have proposed dimensional expansion and sparse activity as key strategies for separating neural patterns. Although these approaches provide valuable analytical insight, they ignore critical biological constraints, relying on assumptions that do not match the physical structure of the brain. In particular, dense random connectivity, zero-mean synaptic weights and purely feed-forward architectures limit their biological plausibility and their capacity to reflect physiological sensory transformations. This thesis examines how biologically motivated network features influence the relationship between dimensional expansion, sparseness, and linear separability. Starting from a feed-forward expansion framework, we first introduce non-zero mean synaptic weights and then incorporate sparse anatomical connectivity and recurrent interactions. Each of these features has a unique effect on the separability of the representations. Non-zero mean synaptic weights increase correlations and degrade classification performance, whereas sparse connectivity and recurrent inhibition can regulate activity, reduce detrimental correlations, and restore separability. Using theoretical analysis supported by numerical simulations, we characterize how these mechanisms shape population activity distributions, intra-cluster variability and classification error across parameter regimes. The results clarify how expansion, representational sparsity, sparse connectivity and recurrence jointly determine the reliability of neural representations under realistic constraints. This study specifies the circumstances under which the computational benefits predicted by idealized models persist when more realistic biological phenomena are included, and defines a structure for relating the circuit architecture to the efficiency of neural classification.This thesis examines how biologically motivated network features modify these conclusions. Starting from a feed-forward expansion framework, we first introduce non-zero mean synaptic weights and then incorporate sparse anatomical connectivity and recurrent interactions. Each of these features has a unique effect on the separability of the representations. Non-zero mean synaptic weights increase correlations and degrade classification performance, whereas sparse connectivity and recurrent inhibition can regulate activity, reduce detrimental correlations, and restore separability. Using theoretical analysis supported by numerical simulations, we characterize how these mechanisms shape population activity distributions, intra-cluster variability and classification error across parameter regimes. The results clarify how expansion, representational sparsity, sparse connectivity and recurrence jointly determine the reliability of neural representations under realistic constraints. This study specifies the circumstances under which the computational benefits predicted by idealized models persist when more realistic biological phenomena are included, and defines a structure for relating the circuit architecture to the efficiency of neural classification.

I sistemi sensoriali trasformano input variabili e rumorosi in rappresentazioni neurali che permettono discriminazioni e comportamenti affidabili. I modelli teorici hanno proposto l’espansione dimensionale e l’attività sparsa come strategie fondamentali per separare i pattern neurali. Sebbene tali approcci forniscano importanti intuizioni analitiche, essi trascurano vincoli biologici critici, basandosi su assunzioni che rispecchiano solo parzialmente i circuiti corticali reali: connettività casuale densa, pesi sinaptici con media nulla, architetture solo feed-forward, sono tratti che ne limitano la plausibilità biologica e il potere predittivo. Questa tesi analizza come caratteristiche biologicamente plausibili influenzino la relazione tra espansione dimensionale, sparsità e separabilità lineare. Partendo da un’espansione dimensionale e attività sparsa, spesso, vengono citate come meccanismi per migliorare la separabilità dei pattern. Questi elementi producono effetti distinti e talvolta opposti. Pesi sinaptici a media non nulla aumentano le correlazioni e degradano le prestazioni di classificazione, mentre connettività sparsa e inibizione ricorrente possono regolare l’attività, ridurre correlazioni dannose e recuperare la separabilità. Attraverso analisi teoriche supportate da simulazioni numeriche, caratterizziamo come questi meccanismi influenzino la geometria delle rappresentazioni, la variabilità e l’errore di classificazione in diversi regimi di parametri. I risultati chiariscono come espansione, sparsità e ricorrenza determinino congiuntamente l’affidabilità delle rappresentazioni neurali in presenza di vincoli realistici. Nel complesso, questo lavoro identifica le condizioni in cui i vantaggi computazionali di modelli idealizzati persistono in reti più biologicamente plausibili, offrendo un quadro per mettere in relazione la struttura dei circuiti con l’attività neurale osservata. Questa tesi analizza come caratteristiche di rete biologicamente motivate modifichino tali conclusioni. Partendo da un'espansione dimensionale e attività sparsa, spesso, vengono citate come meccanismi per migliorare la separabilità dei pattern. Questi elementi producono effetti distinti e talvolta opposti. Pesi sinaptici a media non nulla aumentano le correlazioni e degradano le prestazioni di classificazione, mentre connettività sparsa e inibizione ricorrente possono regolare l’attività, ridurre correlazioni dannose e recuperare la separabilità. Attraverso analisi teoriche supportate da simulazioni numeriche, caratterizziamo come questi meccanismi influenzino la geometria delle rappresentazioni, la variabilità e l’errore di classificazione in diversi regimi di parametri. I risultati chiariscono come espansione, sparsità e ricorrenza determinino congiuntamente l’affidabilità delle rappresentazioni neurali in presenza di vincoli realistici. Nel complesso, questo lavoro identifica le condizioni in cui i vantaggi computazionali di modelli idealizzati persistono in reti più biologicamente plausibili, offrendo un quadro per mettere in relazione la struttura dei circuiti con l'attività neurale osservata.

Network structure and pattern separability in neural circuits: the role of sparseness and recurrence

Cazzaniga, Letizia
2024/2025

Abstract

Sensory systems in the brain transform variable and noisy inputs into reliable patterns to ensure discrimination and appropriate behavior. Theoretical models have proposed dimensional expansion and sparse activity as key strategies for separating neural patterns. Although these approaches provide valuable analytical insight, they ignore critical biological constraints, relying on assumptions that do not match the physical structure of the brain. In particular, dense random connectivity, zero-mean synaptic weights and purely feed-forward architectures limit their biological plausibility and their capacity to reflect physiological sensory transformations. This thesis examines how biologically motivated network features influence the relationship between dimensional expansion, sparseness, and linear separability. Starting from a feed-forward expansion framework, we first introduce non-zero mean synaptic weights and then incorporate sparse anatomical connectivity and recurrent interactions. Each of these features has a unique effect on the separability of the representations. Non-zero mean synaptic weights increase correlations and degrade classification performance, whereas sparse connectivity and recurrent inhibition can regulate activity, reduce detrimental correlations, and restore separability. Using theoretical analysis supported by numerical simulations, we characterize how these mechanisms shape population activity distributions, intra-cluster variability and classification error across parameter regimes. The results clarify how expansion, representational sparsity, sparse connectivity and recurrence jointly determine the reliability of neural representations under realistic constraints. This study specifies the circumstances under which the computational benefits predicted by idealized models persist when more realistic biological phenomena are included, and defines a structure for relating the circuit architecture to the efficiency of neural classification.This thesis examines how biologically motivated network features modify these conclusions. Starting from a feed-forward expansion framework, we first introduce non-zero mean synaptic weights and then incorporate sparse anatomical connectivity and recurrent interactions. Each of these features has a unique effect on the separability of the representations. Non-zero mean synaptic weights increase correlations and degrade classification performance, whereas sparse connectivity and recurrent inhibition can regulate activity, reduce detrimental correlations, and restore separability. Using theoretical analysis supported by numerical simulations, we characterize how these mechanisms shape population activity distributions, intra-cluster variability and classification error across parameter regimes. The results clarify how expansion, representational sparsity, sparse connectivity and recurrence jointly determine the reliability of neural representations under realistic constraints. This study specifies the circumstances under which the computational benefits predicted by idealized models persist when more realistic biological phenomena are included, and defines a structure for relating the circuit architecture to the efficiency of neural classification.
ING - Scuola di Ingegneria Industriale e dell'Informazione
26-mar-2026
2024/2025
I sistemi sensoriali trasformano input variabili e rumorosi in rappresentazioni neurali che permettono discriminazioni e comportamenti affidabili. I modelli teorici hanno proposto l’espansione dimensionale e l’attività sparsa come strategie fondamentali per separare i pattern neurali. Sebbene tali approcci forniscano importanti intuizioni analitiche, essi trascurano vincoli biologici critici, basandosi su assunzioni che rispecchiano solo parzialmente i circuiti corticali reali: connettività casuale densa, pesi sinaptici con media nulla, architetture solo feed-forward, sono tratti che ne limitano la plausibilità biologica e il potere predittivo. Questa tesi analizza come caratteristiche biologicamente plausibili influenzino la relazione tra espansione dimensionale, sparsità e separabilità lineare. Partendo da un’espansione dimensionale e attività sparsa, spesso, vengono citate come meccanismi per migliorare la separabilità dei pattern. Questi elementi producono effetti distinti e talvolta opposti. Pesi sinaptici a media non nulla aumentano le correlazioni e degradano le prestazioni di classificazione, mentre connettività sparsa e inibizione ricorrente possono regolare l’attività, ridurre correlazioni dannose e recuperare la separabilità. Attraverso analisi teoriche supportate da simulazioni numeriche, caratterizziamo come questi meccanismi influenzino la geometria delle rappresentazioni, la variabilità e l’errore di classificazione in diversi regimi di parametri. I risultati chiariscono come espansione, sparsità e ricorrenza determinino congiuntamente l’affidabilità delle rappresentazioni neurali in presenza di vincoli realistici. Nel complesso, questo lavoro identifica le condizioni in cui i vantaggi computazionali di modelli idealizzati persistono in reti più biologicamente plausibili, offrendo un quadro per mettere in relazione la struttura dei circuiti con l’attività neurale osservata. Questa tesi analizza come caratteristiche di rete biologicamente motivate modifichino tali conclusioni. Partendo da un'espansione dimensionale e attività sparsa, spesso, vengono citate come meccanismi per migliorare la separabilità dei pattern. Questi elementi producono effetti distinti e talvolta opposti. Pesi sinaptici a media non nulla aumentano le correlazioni e degradano le prestazioni di classificazione, mentre connettività sparsa e inibizione ricorrente possono regolare l’attività, ridurre correlazioni dannose e recuperare la separabilità. Attraverso analisi teoriche supportate da simulazioni numeriche, caratterizziamo come questi meccanismi influenzino la geometria delle rappresentazioni, la variabilità e l’errore di classificazione in diversi regimi di parametri. I risultati chiariscono come espansione, sparsità e ricorrenza determinino congiuntamente l’affidabilità delle rappresentazioni neurali in presenza di vincoli realistici. Nel complesso, questo lavoro identifica le condizioni in cui i vantaggi computazionali di modelli idealizzati persistono in reti più biologicamente plausibili, offrendo un quadro per mettere in relazione la struttura dei circuiti con l'attività neurale osservata.
File allegati
File Dimensione Formato  
2026_03_Cazzaniga_Executive_Summary.pdf

accessibile in internet per tutti a partire dal 28/02/2027

Descrizione: Executive summary
Dimensione 1.79 MB
Formato Adobe PDF
1.79 MB Adobe PDF   Visualizza/Apri
2026_03_Cazzaniga_Tesi.pdf

accessibile in internet per tutti a partire dal 28/02/2027

Descrizione: Tesi
Dimensione 4.63 MB
Formato Adobe PDF
4.63 MB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/252921