The unchecked spread of misinformation and disinformation calls for computational models capable of assessing the veracity of digital content. This thesis introduces a novel truth verification framework that integrates classical Indian epistemology—specifically Nyaya philosophy—with modern computational techniques. By leveraging Nyaya’s structured approach to valid knowledge acquisition, this research develops a Deep Neural Network model for misinformation detection, structured around the four fundamental valid means of knowledge acquisition, such as: perception (pratyaksa), inference (anumana), comparison (upamana), and verbal testimony (śabda). The methodology is built on the PHEME dataset, a journalist-annotated corpus of social media posts labeled according to their veracity. This research employs hierarchical clustering to get an understanding of the dataset, achieving enhanced classification accuracy by improving semantic coherence, which is then measured with silouhette analysis. Additionally, sentiment analysis is incorporated to evaluate the emotional undertones of misinformation narratives, providing deeper insights into how deceptive content spreads. Convolutional Neural Networks (CNNs) are utilized, embedded with the features extracted with the sentinent analysis, to operationalize śabda, learning from annotated examples to assess credibility and classify new tweets with high accuracy. Results demonstrate that embedding Nyaya epistemological principles improves misinformation detection. The proposed framework achieves an 85% classification accuracy when sentiment analysis features are incorporated. The study underscores the relevance of classical truth theories in addressing modern challenges in misinformation.

La propagazione incontrollata di disinformazione e fake news richiede lo sviluppo di modelli computazionali capaci di valutare l'affidabilità dei contenuti digitali. Questa tesi propone un framework innovativo per la verifica della verità, integrando i principi della filosofia epistemologica indiana Nyāya con tecniche avanzate di Deep Neural Networks. Basandosi sulla struttura dei mezzi di conoscenza validi (pramāṇas) della Nyāya, il modello computazionale sviluppato in questa ricerca si fonda su quattro pilastri epistemologici: percezione (pratyakṣa), inferenza (anumāna), confronto (upamāna) e testimonianza verbale (śabda). La metodologia si basa sul dataset PHEME, una raccolta annotata da giornalisti di post sui social media categorizzati in base alla loro veridicità. L’analisi impiega clustering gerarchico per capire il dataset, migliorando l'accuratezza della classificazione attraverso un perfezionamento della coesione semantica e della separazione, misurato tramite la silouhette analysis. L'integrazione dell’analisi del sentiment consente di valutare il tono emotivo dei testi, arricchendo il processo di rilevamento della disinformazione. Le reti neurali convoluzionali (CNNs) vengono utilizzate per modellare il principio epistemico della testimonianza verbale (śabda), alle quali sono aggiunte le features ricavate dall'analisi del sentiment, addestrandosi su dati annotati per apprendere schemi di credibilità e classificare nuovi tweet con elevata accuratezza. I risultati dimostrano che l’integrazione dei principi epistemologici Nyāya nella verifica computazionale della verità migliora significativamente l'identificazione della disinformazione. Il framework sviluppato raggiunge un’accuratezza dell'85%, evidenziando l’efficacia di un approccio multidimensionale. Lo studio sottolinea la rilevanza delle tradizioni filosofiche classiche per affrontare le sfide contemporanee della disinformazione.

Pursuit of the truth: a philosophically inspired computational model for truth verification in social media

Santoro, Claudia
2023/2024

Abstract

The unchecked spread of misinformation and disinformation calls for computational models capable of assessing the veracity of digital content. This thesis introduces a novel truth verification framework that integrates classical Indian epistemology—specifically Nyaya philosophy—with modern computational techniques. By leveraging Nyaya’s structured approach to valid knowledge acquisition, this research develops a Deep Neural Network model for misinformation detection, structured around the four fundamental valid means of knowledge acquisition, such as: perception (pratyaksa), inference (anumana), comparison (upamana), and verbal testimony (śabda). The methodology is built on the PHEME dataset, a journalist-annotated corpus of social media posts labeled according to their veracity. This research employs hierarchical clustering to get an understanding of the dataset, achieving enhanced classification accuracy by improving semantic coherence, which is then measured with silouhette analysis. Additionally, sentiment analysis is incorporated to evaluate the emotional undertones of misinformation narratives, providing deeper insights into how deceptive content spreads. Convolutional Neural Networks (CNNs) are utilized, embedded with the features extracted with the sentinent analysis, to operationalize śabda, learning from annotated examples to assess credibility and classify new tweets with high accuracy. Results demonstrate that embedding Nyaya epistemological principles improves misinformation detection. The proposed framework achieves an 85% classification accuracy when sentiment analysis features are incorporated. The study underscores the relevance of classical truth theories in addressing modern challenges in misinformation.
BONO, CARLO ALBERTO
ING - Scuola di Ingegneria Industriale e dell'Informazione
3-apr-2025
2023/2024
La propagazione incontrollata di disinformazione e fake news richiede lo sviluppo di modelli computazionali capaci di valutare l'affidabilità dei contenuti digitali. Questa tesi propone un framework innovativo per la verifica della verità, integrando i principi della filosofia epistemologica indiana Nyāya con tecniche avanzate di Deep Neural Networks. Basandosi sulla struttura dei mezzi di conoscenza validi (pramāṇas) della Nyāya, il modello computazionale sviluppato in questa ricerca si fonda su quattro pilastri epistemologici: percezione (pratyakṣa), inferenza (anumāna), confronto (upamāna) e testimonianza verbale (śabda). La metodologia si basa sul dataset PHEME, una raccolta annotata da giornalisti di post sui social media categorizzati in base alla loro veridicità. L’analisi impiega clustering gerarchico per capire il dataset, migliorando l'accuratezza della classificazione attraverso un perfezionamento della coesione semantica e della separazione, misurato tramite la silouhette analysis. L'integrazione dell’analisi del sentiment consente di valutare il tono emotivo dei testi, arricchendo il processo di rilevamento della disinformazione. Le reti neurali convoluzionali (CNNs) vengono utilizzate per modellare il principio epistemico della testimonianza verbale (śabda), alle quali sono aggiunte le features ricavate dall'analisi del sentiment, addestrandosi su dati annotati per apprendere schemi di credibilità e classificare nuovi tweet con elevata accuratezza. I risultati dimostrano che l’integrazione dei principi epistemologici Nyāya nella verifica computazionale della verità migliora significativamente l'identificazione della disinformazione. Il framework sviluppato raggiunge un’accuratezza dell'85%, evidenziando l’efficacia di un approccio multidimensionale. Lo studio sottolinea la rilevanza delle tradizioni filosofiche classiche per affrontare le sfide contemporanee della disinformazione.
File allegati
File Dimensione Formato  
2025_04_Santoro_Tesi.pdf

solo utenti autorizzati a partire dal 12/03/2026

Dimensione 1.55 MB
Formato Adobe PDF
1.55 MB Adobe PDF   Visualizza/Apri
2025_04_Santoro_Executive_Summary.pdf

solo utenti autorizzati a partire dal 12/03/2026

Dimensione 553.49 kB
Formato Adobe PDF
553.49 kB Adobe PDF   Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/234701