In the last years the large diffusion of digital photo/video-cameras and of image retouching software has completely changed how normal people judge the truthfulness of visual content available on Internet. In fact, currently the image forgery is so easy that any image that documents a real event is considered with some suspect. In the last twenty years many forensic methods able to identify doctored images in a blind way have been developed. In general these techniques are based on the principle that any forgery disturbs the intrinsic statistical properties of the considered image with respect to those associated to the original (unaltered) visual content. Often, when an image reveals that post-processing operations or compressions has been applied on it this is interpreted as an indication that some malicious tampering has been applied to it. This is not always true, but for sure who alter an image always applies some global post-process to mask the introduced modifications. For this reason tools able to discover that some global editing or compression has been applied to an image can be used to identify visual contents whose genuineness could be doubtful. Starting from this basic idea, this work, developed at GipsaLab in Grenoble, suggests a scheme to build a classifier able to recognize a set of possible (common) global image modifications. When no one of the considered modifications are discovered this can be considered as a strong hint regarding the fact that the considered image is in its original form. In this work the following global manipulations have been considered: JPEG-compression, Gaussian random noise addition, median filtering, average and sharpening filtering. In particular from the considered image a set of feature (calculated in the pixel and DCT domain) are evaluated. They are the input to a one class classifier targeted to distinguish original versus altered (in a malicious or innocent way) images. Simulations on a large set of real images show that almost all considered modifications are recognized with accuracy higher than 85%. Comparisons with other methods presented in the literature have shown the quality of the proposed approach.

La vasta diffusione di macchine fotografiche e videocamere digitali e di software che permettono il ritocco di immagini ha diminuito la fiducia delle persone nei confronti delle informazioni visive. La contraffazione di immagini è oggi così semplice che qualunque documentazione visiva di un evento reale sarebbe da considerarsi dubbia. Negli ultimi vent’anni sono stati sviluppati diversi metodi forensi in grado di identificare falsificazioni di immagini senza avere alcuna informazione a priori. In generale queste tecniche sono basate su un principio che ogni contraffazione cambia le proprietà statistiche intrinseche all’immagine ripetto a quelle associate ai contenuti originali. Spesso il comprimere un’immagine o sottoporla a determinati processi viene considerato indice di alterazione per fini illeciti. Questo non è sempre vero, ma sicuramente l’alterazione dei contenuti di un’immagine è sempre seguita da una manipolazione globale per nascondere le modifiche apportate. Per questa ragione, strumenti capaci di individuare la presenza di una correzione o una compressione possono essere usati per verificare l’autenticità di un’immagine i cui contenuti siano stati messi in discussione. Il presente lavoro, sviluppato presso il GipsaLab di Grenoble, suggerisce uno schema per costruire un classificatore capace di riconoscere un insieme di possibili (comuni) alterazioni globali dell’immagine. Le modifiche prese in esame sono in particolare la compressione JPEG, l’aggiunta di rumore gaussiano, l’applicazione del filtro mediano, l’applicazione del filtro medio e lo sharpening; si può assumere che la loro assenza possa essere considerata un forte indizio a favore dell’originalità dei contenuti dell’immagine. In particolare, dalle immagini è estratto un insieme di features (calcolate nel dominio dei pixels e della DCT), utilizzato poi come input di un classificatore One-Class mirato a distinguere le immagini originali dalle altre. Le simulazioni fatte su un grande numero di immagini reali mostrano che quasi tutte le modifiche considerate sono riconosciute con un’accuracy superiore all’85%. Il confronto con altri metodi presenti in letteratura mostra la qualità dell’approccio proposto.

An approach for detecting global image manipulations

CHIESA, VALERIA
2013/2014

Abstract

In the last years the large diffusion of digital photo/video-cameras and of image retouching software has completely changed how normal people judge the truthfulness of visual content available on Internet. In fact, currently the image forgery is so easy that any image that documents a real event is considered with some suspect. In the last twenty years many forensic methods able to identify doctored images in a blind way have been developed. In general these techniques are based on the principle that any forgery disturbs the intrinsic statistical properties of the considered image with respect to those associated to the original (unaltered) visual content. Often, when an image reveals that post-processing operations or compressions has been applied on it this is interpreted as an indication that some malicious tampering has been applied to it. This is not always true, but for sure who alter an image always applies some global post-process to mask the introduced modifications. For this reason tools able to discover that some global editing or compression has been applied to an image can be used to identify visual contents whose genuineness could be doubtful. Starting from this basic idea, this work, developed at GipsaLab in Grenoble, suggests a scheme to build a classifier able to recognize a set of possible (common) global image modifications. When no one of the considered modifications are discovered this can be considered as a strong hint regarding the fact that the considered image is in its original form. In this work the following global manipulations have been considered: JPEG-compression, Gaussian random noise addition, median filtering, average and sharpening filtering. In particular from the considered image a set of feature (calculated in the pixel and DCT domain) are evaluated. They are the input to a one class classifier targeted to distinguish original versus altered (in a malicious or innocent way) images. Simulations on a large set of real images show that almost all considered modifications are recognized with accuracy higher than 85%. Comparisons with other methods presented in the literature have shown the quality of the proposed approach.
CAYRE, FRANCOIS
WANG, KAI
ING - Scuola di Ingegneria Industriale e dell'Informazione
18-dic-2014
2013/2014
La vasta diffusione di macchine fotografiche e videocamere digitali e di software che permettono il ritocco di immagini ha diminuito la fiducia delle persone nei confronti delle informazioni visive. La contraffazione di immagini è oggi così semplice che qualunque documentazione visiva di un evento reale sarebbe da considerarsi dubbia. Negli ultimi vent’anni sono stati sviluppati diversi metodi forensi in grado di identificare falsificazioni di immagini senza avere alcuna informazione a priori. In generale queste tecniche sono basate su un principio che ogni contraffazione cambia le proprietà statistiche intrinseche all’immagine ripetto a quelle associate ai contenuti originali. Spesso il comprimere un’immagine o sottoporla a determinati processi viene considerato indice di alterazione per fini illeciti. Questo non è sempre vero, ma sicuramente l’alterazione dei contenuti di un’immagine è sempre seguita da una manipolazione globale per nascondere le modifiche apportate. Per questa ragione, strumenti capaci di individuare la presenza di una correzione o una compressione possono essere usati per verificare l’autenticità di un’immagine i cui contenuti siano stati messi in discussione. Il presente lavoro, sviluppato presso il GipsaLab di Grenoble, suggerisce uno schema per costruire un classificatore capace di riconoscere un insieme di possibili (comuni) alterazioni globali dell’immagine. Le modifiche prese in esame sono in particolare la compressione JPEG, l’aggiunta di rumore gaussiano, l’applicazione del filtro mediano, l’applicazione del filtro medio e lo sharpening; si può assumere che la loro assenza possa essere considerata un forte indizio a favore dell’originalità dei contenuti dell’immagine. In particolare, dalle immagini è estratto un insieme di features (calcolate nel dominio dei pixels e della DCT), utilizzato poi come input di un classificatore One-Class mirato a distinguere le immagini originali dalle altre. Le simulazioni fatte su un grande numero di immagini reali mostrano che quasi tutte le modifiche considerate sono riconosciute con un’accuracy superiore all’85%. Il confronto con altri metodi presenti in letteratura mostra la qualità dell’approccio proposto.
Tesi di laurea Magistrale
File allegati
File Dimensione Formato  
2014_12_Chiesa.pdf

accessibile in internet per tutti

Descrizione: Testo della tesi
Dimensione 6.46 MB
Formato Adobe PDF
6.46 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/102151