Rilevamento e classificazione falsi profondi tramite errore
CasaCasa > Blog > Rilevamento e classificazione falsi profondi tramite errore

Rilevamento e classificazione falsi profondi tramite errore

Jul 18, 2023

Rapporti scientifici volume 13, numero articolo: 7422 (2023) Citare questo articolo

1607 Accessi

3 Altmetrico

Dettagli sulle metriche

L’ampia disponibilità di contenuti di facile accesso sui social media, insieme agli strumenti avanzati e all’infrastruttura informatica poco costosa, ha reso molto facile per le persone produrre falsi profondi che possono causare la diffusione di disinformazione e bufale. Questo rapido progresso può causare panico e caos poiché chiunque può facilmente creare propaganda utilizzando queste tecnologie. Pertanto, un solido sistema per distinguere tra contenuti reali e falsi è diventato cruciale nell’era dei social media. Questo articolo propone un metodo automatizzato per classificare le immagini false profonde utilizzando metodologie basate sul Deep Learning e sul Machine Learning. I tradizionali sistemi basati sul Machine Learning (ML) che utilizzano l’estrazione artigianale delle funzionalità non riescono a catturare modelli più complessi che sono scarsamente compresi o facilmente rappresentati utilizzando funzionalità semplici. Questi sistemi non possono generalizzare bene ai dati invisibili. Inoltre, questi sistemi sono sensibili al rumore o alle variazioni dei dati, che possono ridurne le prestazioni. Pertanto, questi problemi possono limitare la loro utilità nelle applicazioni del mondo reale in cui i dati si evolvono costantemente. Il framework proposto esegue inizialmente un'analisi del livello di errore dell'immagine per determinare se l'immagine è stata modificata. Questa immagine viene quindi fornita alle reti neurali convoluzionali per l'estrazione profonda delle funzionalità. I vettori di caratteristiche risultanti vengono quindi classificati tramite Support Vector Machines e K-Nearest Neighbours eseguendo l'ottimizzazione degli iperparametri. Il metodo proposto ha raggiunto la massima precisione dell'89,5% tramite Residual Network e K-Nearest Neighbor. I risultati dimostrano l'efficienza e la robustezza della tecnica proposta; quindi, può essere utilizzato per rilevare immagini profondamente false e ridurre la potenziale minaccia di diffamazione e propaganda.

Nell’ultimo decennio, i contenuti dei social media come fotografie e film sono cresciuti in modo esponenziale online grazie a dispositivi poco costosi come smartphone, fotocamere e computer. L’aumento delle applicazioni dei social media ha consentito alle persone di condividere rapidamente questi contenuti su tutte le piattaforme, aumentando drasticamente i contenuti online e fornendo un facile accesso. Allo stesso tempo, abbiamo assistito a enormi progressi negli algoritmi complessi ma efficienti di machine learning (ML) e Deep Learning (DL) che possono essere utilizzati per manipolare contenuti audiovisivi per diffondere disinformazione e danneggiare la reputazione delle persone online. Ora viviamo in tempi in cui la diffusione della disinformazione può essere facilmente utilizzata per influenzare le opinioni delle persone e può essere utilizzata per manipolare le elezioni o diffamare qualsiasi individuo. La creazione di deep fake si è evoluta notevolmente negli ultimi anni e potrebbe essere utilizzata per diffondere disinformazione in tutto il mondo, costituendo presto una seria minaccia. I deep fake sono contenuti audio e video sintetizzati generati tramite algoritmi AI. L'utilizzo di video come prova in controversie legali e procedimenti penali è una pratica standard. È necessario stabilire l'autenticità e l'integrità di qualsiasi video inviato come prova. Soprattutto quando la generazione di deep fake diventa più complessa, si prevede che questo diventerà un compito difficile.

Esistono le seguenti categorie di video deep fake: scambio di volti, sintesi e manipolazione dei tratti del viso. Nei deep fake con scambio di volti, il volto di una persona viene scambiato con quello della persona di origine per creare un video falso per prendere di mira una persona per attività che non ha commesso1, il che può offuscare la reputazione della persona2. In un altro tipo di deep fake chiamato sincronizzazione labiale, le labbra della persona bersaglio vengono manipolate per alterare i movimenti secondo una determinata traccia audio. Lo scopo della sincronizzazione labiale è simulare la voce dell'aggressore della vittima facendo parlare qualcuno con quella voce. Con il burattinaio, vengono prodotti falsi profondi imitando le espressioni facciali, i movimenti degli occhi e i movimenti della testa del bersaglio. Utilizzando profili fittizi, ciò avviene per diffondere informazioni false sui social media. Ultimo ma non meno importante, i falsi audio profondi o la clonazione vocale vengono utilizzati per manipolare la voce di un individuo associando all'oratore qualcosa che non ha detto in realtà1,3.