Fraud Detection Systems are common in companies, financial institutions, and e-commerce to prevent fraud and to reduce money loss at the minimum. The Nilson Report [2] estimated a $27.85 billion loss in 2018, expected to reach $40 billion by 2027 in the credit card payment sector. The FBI’s Internet Crime Complaint Center reported [1] that in 2020, they received 791,790 complaints of suspected Internet crime, with reported losses exceeding $4.2 billion. The high number of suspected frauds makes them impossible to be checked manually. This is why Machine Learning models are used in Fraud Detection Systems. These models are susceptible to Adversarial Attacks that exploit vulnerabilities in the model’s decision-making process. Adversarial Attacks can cause the model to misclassify a fraudulent transaction as legitimate, leading to a financial loss for the company. In this thesis, we propose a review of the current literature on adversarial attacks in the fraud detection domain. This survey aims to define what are the techniques that are not already studied (or not enough studied), giving a possible direction to future research. Moreover, we aim to highlight the problems in the research, giving a possible solution. We provided also a coarse-grained analysis of defensive techniques. This cluster is not exhaustive research but aims to give weights to adversariality effects in defensive models. Our findings about the state-of-the-art of adversarial attacks suggest a possible realization of a common framework to compare different works in the same domain. In particular, we noticed that there is no common way to evaluate attacks belonging to the same domain. Many papers are using different evaluation metrics, often without considering the success rate of an attack, a parameter that, in our opinion, is fundamental to understanding the potentiality of a threat. Moreover, we found that there are domains in which adversariality is not studied. These domains can be seen as a possible future path for the research.

I sistemi di rilevamento delle frodi sono comuni nelle aziende, nelle istituzioni finanziarie e nell’e-commerce per prevenire le frodi e ridurre al minimo le perdite di denaro. Il Nilson Report [2] ha stimato una perdita di $ 27,85 miliardi nel 2018, che dovrebbe raggiungere $40 miliardi entro il 2027 nel’ambito dei pagamenti con carta di credito. L’Internet Crime Complaint Center dell’FBI ha riferito [1] che nel 2020 ha ricevuto 791.790 denunce di crimini su Internet, con perdite dichiarate superiori a $ 4,2 miliardi. L’elevato numero di presunte frodi ne rende impossibile il controllo manuale. Questo è il motivo per cui i modelli di Machine Learning vengono utilizzati nei sistemi di rilevamento delle frodi. Questi modelli sono suscettibili agli attacchi avversariali che sfruttano le vulnerabilità nel processo decisionale del modello. Gli attacchi avversariali possono indurre il modello a classificare erroneamente una transazione fraudolenta come legittima, portando a una perdita finanziaria per l’azienda. In questa tesi, proponiamo una revisione dell’attuale letteratura sugli attacchi adversarial nel dominio del rilevamento delle frodi. Questa indagine mira a definire quali sono le tecniche che non sono ancora studiate (o non abbastanza studiate), dando una possibile direzione alla ricerca futura. Inoltre, miriamo a evidenziare i problemi nella ricerca, dando una possibile soluzione. Abbiamo fornito anche un’analisi a grana grossa delle tecniche difensive. Questo cluster non è una ricerca esaustiva ma mira a dare pesi sugli effetti dell’avversarialità nei modelli difensivi. Le nostre scoperte sullo stato dell’arte degli attacchi avversariali suggeriscono una possibile realizzazione di un framework comune per confrontare opere diverse nello stesso dominio. In particolare, abbiamo notato che non esiste un modo comune per valutare gli attacchi appartenenti allo stesso dominio. Molti paper utilizzano diverse metriche di valutazione, spesso senza considerare il tasso di successo di un attacco, parametro che, a nostro avviso, è fondamentale per comprendere le potenzialità di una minaccia. Inoltre, abbiamo scoperto che ci sono domini in cui l’avversarialità non è studiata. Questi domini possono essere visti come un possibile percorso futuro per la ricerca.

Adversarial machine learning techniques in Fraud Detection : a Survey

Battaglia, Alessio
2022/2023

Abstract

Fraud Detection Systems are common in companies, financial institutions, and e-commerce to prevent fraud and to reduce money loss at the minimum. The Nilson Report [2] estimated a $27.85 billion loss in 2018, expected to reach $40 billion by 2027 in the credit card payment sector. The FBI’s Internet Crime Complaint Center reported [1] that in 2020, they received 791,790 complaints of suspected Internet crime, with reported losses exceeding $4.2 billion. The high number of suspected frauds makes them impossible to be checked manually. This is why Machine Learning models are used in Fraud Detection Systems. These models are susceptible to Adversarial Attacks that exploit vulnerabilities in the model’s decision-making process. Adversarial Attacks can cause the model to misclassify a fraudulent transaction as legitimate, leading to a financial loss for the company. In this thesis, we propose a review of the current literature on adversarial attacks in the fraud detection domain. This survey aims to define what are the techniques that are not already studied (or not enough studied), giving a possible direction to future research. Moreover, we aim to highlight the problems in the research, giving a possible solution. We provided also a coarse-grained analysis of defensive techniques. This cluster is not exhaustive research but aims to give weights to adversariality effects in defensive models. Our findings about the state-of-the-art of adversarial attacks suggest a possible realization of a common framework to compare different works in the same domain. In particular, we noticed that there is no common way to evaluate attacks belonging to the same domain. Many papers are using different evaluation metrics, often without considering the success rate of an attack, a parameter that, in our opinion, is fundamental to understanding the potentiality of a threat. Moreover, we found that there are domains in which adversariality is not studied. These domains can be seen as a possible future path for the research.
PALADINI, TOMMASO
ZANERO, STEFANO
ING - Scuola di Ingegneria Industriale e dell'Informazione
4-mag-2023
2022/2023
I sistemi di rilevamento delle frodi sono comuni nelle aziende, nelle istituzioni finanziarie e nell’e-commerce per prevenire le frodi e ridurre al minimo le perdite di denaro. Il Nilson Report [2] ha stimato una perdita di $ 27,85 miliardi nel 2018, che dovrebbe raggiungere $40 miliardi entro il 2027 nel’ambito dei pagamenti con carta di credito. L’Internet Crime Complaint Center dell’FBI ha riferito [1] che nel 2020 ha ricevuto 791.790 denunce di crimini su Internet, con perdite dichiarate superiori a $ 4,2 miliardi. L’elevato numero di presunte frodi ne rende impossibile il controllo manuale. Questo è il motivo per cui i modelli di Machine Learning vengono utilizzati nei sistemi di rilevamento delle frodi. Questi modelli sono suscettibili agli attacchi avversariali che sfruttano le vulnerabilità nel processo decisionale del modello. Gli attacchi avversariali possono indurre il modello a classificare erroneamente una transazione fraudolenta come legittima, portando a una perdita finanziaria per l’azienda. In questa tesi, proponiamo una revisione dell’attuale letteratura sugli attacchi adversarial nel dominio del rilevamento delle frodi. Questa indagine mira a definire quali sono le tecniche che non sono ancora studiate (o non abbastanza studiate), dando una possibile direzione alla ricerca futura. Inoltre, miriamo a evidenziare i problemi nella ricerca, dando una possibile soluzione. Abbiamo fornito anche un’analisi a grana grossa delle tecniche difensive. Questo cluster non è una ricerca esaustiva ma mira a dare pesi sugli effetti dell’avversarialità nei modelli difensivi. Le nostre scoperte sullo stato dell’arte degli attacchi avversariali suggeriscono una possibile realizzazione di un framework comune per confrontare opere diverse nello stesso dominio. In particolare, abbiamo notato che non esiste un modo comune per valutare gli attacchi appartenenti allo stesso dominio. Molti paper utilizzano diverse metriche di valutazione, spesso senza considerare il tasso di successo di un attacco, parametro che, a nostro avviso, è fondamentale per comprendere le potenzialità di una minaccia. Inoltre, abbiamo scoperto che ci sono domini in cui l’avversarialità non è studiata. Questi domini possono essere visti come un possibile percorso futuro per la ricerca.
File allegati
File Dimensione Formato  
2023_05_Battaglia.pdf

accessibile in internet per tutti

Dimensione 1.63 MB
Formato Adobe PDF
1.63 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/207392