Skip to main content

Deepfake: cosa sono, come riconoscerli e smascherarli

Deepfake

Nel mondo digitale odierno, i deepfake stanno rapidamente emergendo come una delle tecnologie più affascinanti e allo stesso tempo più inquietanti. Utilizzando l'intelligenza artificiale e l'apprendimento automatico, i deepfake possono creare video e immagini straordinariamente realistici in cui le persone fanno o dicono cose che non hanno mai fatto nella realtà.

Questo fenomeno sta aprendo nuove possibilità in campi come l'intrattenimento e l'educazione, ma sta anche sollevando serie preoccupazioni etiche e di sicurezza. In questo articolo, esploreremo il significato di deepfake, come vengono creati i deepfake, le loro applicazioni più comuni e le sfide che pongono alla società. Inoltre, discuteremo delle misure che governi e aziende stanno adottando per regolamentare e mitigare i rischi associati a questa potente tecnologia.

Cosa si intende per deepfake?

Un deepfake è una tecnica che utilizza l'intelligenza artificiale per creare immagini o video falsi, molto realistici, di persone. La parola "deepfake" deriva dalla combinazione di "deep learning" (una branca dell'intelligenza artificiale) e "fake" (falso). I deepfake vengono realizzati attraverso reti neurali artificiali, in particolare le reti generative avversarie (GAN), che sono in grado di apprendere e replicare caratteristiche visive e vocali di una persona.

Le applicazioni dei deepfake possono variare notevolmente, di seguito qualche esempio.

  1. Intrattenimento: creazione di contenuti in cui celebrità o personaggi storici fanno o dicono cose che non hanno mai fatto nella realtà.
  2. Cinema e TV: utilizzo per far rivivere attori scomparsi o per ringiovanire personaggi.
  3. Satira e parodie: creazione di video satirici che imitano personaggi pubblici.

Come viene creato un deepfake?

La creazione di un deepfake coinvolge diverse tecniche avanzate di intelligenza artificiale e machine learning, in particolare l'uso di reti neurali generative avversarie (GAN). Ecco una panoramica del processo:

Raccolta dei dati

Il primo passo è raccogliere un ampio set di dati di immagini e video della persona da imitare. Più materiale si ha a disposizione, migliore sarà il risultato finale. Questi dati vengono utilizzati per addestrare il modello AI.

Pre-elaborazione dei dati

Pulizia e preparazione dei dati che implica che le immagini e i video raccolti vengono elaborati per normalizzare le dimensioni, la risoluzione e gli angoli di visualizzazione. Questo passaggio può includere l'estrazione dei volti dalle immagini e la loro allineamento per garantire che siano coerenti e ben definiti.

3. Addestramento del modello

Uso delle Reti Generative Avversarie (GAN), che  sono composte da due reti neurali principali.

  • Generatore: questa rete cerca di creare immagini false (deepfake) che siano il più realistiche possibile.
  • Discriminatore: questa rete cerca di distinguere tra le immagini reali e quelle generate dal Generatore.

Il Generatore e il Discriminatore vengono addestrati insieme in un processo iterativo. Il Generatore tenta continuamente di migliorare la qualità delle immagini false, mentre il Discriminatore diventa sempre più abile a identificare le immagini false. Questo processo continua finché il Discriminatore non riesce più a distinguere in modo affidabile tra immagini reali e false.

Generazione del deepfake

Una volta che il modello è addestrato, si passa all'applicazione del modello realizzato, che può essere utilizzato per generare nuovi video o immagini. Il volto della persona target viene sovrapposto al corpo di un attore o un'attrice, sincronizzando movimenti e espressioni facciali in modo da sembrare naturale.

Post-elaborazione

Il video o l'immagine generata possono essere ulteriormente migliorati utilizzando tecniche di editing video per rendere le transizioni più fluide e naturali. Questo può includere la correzione del colore, la regolazione dell'illuminazione e la sincronizzazione labiale accurata.

Tecnologie e software deepkake utilizzati

Alcuni degli strumenti e software comuni utilizzati nella creazione dei deepfake includono:

  • TensorFlow e PyTorch: Librerie di machine learning utilizzate per costruire e addestrare reti neurali.
  • FaceSwap, DeepFaceLab, e altri software open-source: Strumenti specifici per la creazione di deepfake che semplificano il processo di addestramento e generazione.

Sfide e considerazioni etiche

La creazione di deepfake non è solo una questione tecnica, ma solleva anche importanti considerazioni etiche. L'uso improprio dei deepfake può avere conseguenze gravi, come la diffusione di disinformazione o la violazione della privacy. Pertanto, è essenziale considerare attentamente l'uso di questa tecnologia e adottare misure per prevenire abusi.

In che modo un deepfake può risultare pericoloso?

I deepfake possono essere pericolosi in vari modi, e il loro potenziale danno può avere ripercussioni su diversi aspetti della società. Ecco alcuni dei principali pericoli associati ai deepfake.

Disinformazione e manipolazione dell'opinione pubblica

  • Notizie false: i deepfake possono essere utilizzati per creare video falsi di politici o altre figure pubbliche che fanno dichiarazioni non vere, influenzando l'opinione pubblica e manipolando le elezioni o altre decisioni democratiche.
  • Propaganda: governi o gruppi possono usare i deepfake per diffondere propaganda, creando video che mostrano eventi o discorsi che non sono mai avvenuti.

Violazione della privacy e danni alla reputazione

  • Pornografia non consensuale: come menzionato in precedenza, i deepfake possono essere usati per creare video pornografici falsi senza il consenso della persona coinvolta, causando danni emotivi e alla reputazione.
  • Diffamazione: individui possono essere falsamente rappresentati in situazioni compromettenti o illegali, rovinando la loro reputazione e vita personale.

Frodi e truffe

  • Impersonificazione: i deepfake possono essere utilizzati per impersonare persone in videochiamate, ingannando amici, familiari o colleghi per ottenere informazioni sensibili o denaro.
  • Spear phishing: creare video falsi di dirigenti aziendali che danno istruzioni ai dipendenti di trasferire fondi o condividere informazioni riservate.

Sicurezza nazionale

  • Spionaggio e sabotaggio: i deepfake possono essere utilizzati per creare disinformazione a livello nazionale o internazionale, causando tensioni diplomatiche o sabotando operazioni militari e di intelligence.
  • Radicalizzazione: gruppi terroristici o estremisti possono usare deepfake per reclutare membri o incitare alla violenza mostrando video falsi di leader o figure influenti.

Erosione della fiducia

  • Sfida alla verità: con la diffusione dei deepfake, diventa sempre più difficile per le persone distinguere tra ciò che è reale e ciò che è falso. Questo può portare a una crisi di fiducia nei media, nelle istituzioni e nelle comunicazioni digitali in generale.

Effetti psicologici e sociali

  • Ansia e paranoia: la possibilità di essere vittima di un deepfake può causare ansia e paranoia nelle persone, che possono sentirsi costantemente osservate e a rischio di manipolazione.
  • Divisività sociale: i deepfake possono essere utilizzati per creare o esacerbare divisioni sociali e politiche, mostrando persone di gruppi opposti in atteggiamenti provocatori o offensivi.

Misure di Contromisura e Prevenzione

  • Sviluppo di tecnologie di rilevamento: ricercatori e aziende stanno sviluppando strumenti per rilevare deepfake e autenticare contenuti multimediali.
  • Legislazione e regolamentazione: molti paesi stanno lavorando per aggiornare le loro leggi e regolamentazioni per affrontare l'uso illecito dei deepfake.
  • Educazione e consapevolezza: informare il pubblico sui pericoli dei deepfake e su come identificarli può aiutare a ridurre il loro impatto negativo.

I deepfake rappresentano una sfida significativa per la società moderna, richiedendo una risposta coordinata tra tecnologi, legislatori, e la società civile per mitigare i loro rischi.

Come smascherare un deepfake?

Smascherare un deepfake può essere complesso, ma esistono diverse tecniche e strategie che possono essere utilizzate per rilevare la presenza di manipolazioni nei video e nelle immagini. Ecco alcuni dei metodi principali:

Analisi visiva

  • Movimenti degli occhi e della bocca: i deepfake spesso hanno difficoltà a replicare movimenti oculari naturali e sincronizzazione labiale perfetta durante il parlato.
  • Inconsistenze nelle espressioni facciali: cambiamenti improvvisi o non naturali nelle espressioni facciali possono essere un segnale di manipolazione.
  • Dettagli dell'illuminazione e delle ombre: le incongruenze nell'illuminazione e nelle ombre tra il volto e il resto della scena possono indicare un deepfake.

Analisi audio

  • Qualità del suono: le discrepanze tra la qualità dell'audio e quella del video possono suggerire manipolazione.
  • Sincronizzazione labiale: una mancata corrispondenza tra il movimento delle labbra e l'audio può essere un indicatore di un deepfake.

Strumenti di rilevamento automatico

  • Software di rilevamento dei deepfake: esistono vari strumenti software sviluppati per rilevare deepfake utilizzando algoritmi di machine learning. Alcuni di questi includono:
    • FaceForensics++: un dataset e una suite di strumenti per la rilevazione di deepfake.
    • DeepFaceLab: utilizzato sia per creare che per rilevare deepfake.
    • Truepic e Amber Authenticate: strumenti che forniscono autenticazione dei contenuti digitali.

Analisi forense digitale

  • Metadati: analizzare i metadati del file video o immagine può rivelare informazioni sulla sua origine e le modifiche apportate.
  • Analisi dei pixel: la verifica delle incongruenze a livello di pixel può aiutare a individuare aree manipolate.

Tecniche basate su reti neurali

  • Reti neurali convoluzionali (CNN): utilizzate per analizzare immagini e video alla ricerca di segni di manipolazione.
  • Reti neurali ricorrenti (RNN): utilizzate per analizzare sequenze di video e rilevare anomalie nel movimento e nella temporalità.

Confronto con fonti affidabili

  • Verifica incrociata: confrontare il video o l'immagine sospetta con contenuti provenienti da fonti affidabili e verificabili può aiutare a confermare o smentire l'autenticità.
  • Controllo delle fonti: verificare l'affidabilità della fonte che ha diffuso il contenuto può fornire ulteriori indizi sulla sua autenticità.

Educazione e consapevolezza

  • Sensibilizzazione pubblica: informare le persone sui deepfake e insegnare loro come rilevarli può aumentare la resistenza collettiva a queste manipolazioni.
  • Analisi critica: incoraggiare un'analisi critica dei contenuti digitali e un sano scetticismo verso video e immagini che sembrano sospetti.

Risorse e collaborazioni

  • Collaborazione con esperti: lavorare con esperti di sicurezza informatica, forensica digitale e intelligenza artificiale può migliorare le capacità di rilevamento.
  • Piattaforme social: molte piattaforme social stanno implementando strumenti per identificare e segnalare deepfake, e collaborare con queste piattaforme può aiutare a diffondere consapevolezza e soluzioni.

 

Regolamentazione sul deepfake

La regolamentazione dei deepfake è un argomento in continua evoluzione, con molti paesi che stanno cercando di adottare leggi e politiche per affrontare i rischi associati a questa tecnologia.

Negli Stati Uniti, la California ha approvato due leggi nel 2019 per contrastare i deepfake. Una di queste rende illegale creare o distribuire deepfake pornografici senza il consenso della persona coinvolta, mentre l'altra proibisce la diffusione di deepfake politici entro 60 giorni dalle elezioni. Anche il Texas ha approvato una legge che rende illegale usare deepfake per ingannare gli elettori o influenzare le elezioni. A livello federale, ci sono stati tentativi di introdurre leggi specifiche, ma al momento non esiste una normativa federale specifica sui deepfake.

Nell'Unione Europea, il Regolamento Generale sulla Protezione dei Dati (GDPR) offre una protezione legale per i dati personali, che potrebbe essere applicata ai deepfake che violano la privacy. Inoltre, il Digital Services Act (DSA) è stato proposto per migliorare la responsabilità delle piattaforme online nella gestione di contenuti falsi e dannosi, inclusi i deepfake.

Il Regno Unito sta lavorando all'Online Harms White Paper, che propone una regolamentazione più rigorosa per le piattaforme online per proteggere gli utenti da contenuti dannosi, inclusi i deepfake. Le leggi esistenti sulla diffamazione e la privacy possono già essere utilizzate per intraprendere azioni legali contro la creazione e distribuzione di deepfake dannosi.

Anche la Cina ha introdotto regolamenti specifici sull'intelligenza artificiale che richiedono che i contenuti generati da questa tecnologia, inclusi i deepfake, siano chiaramente identificati come tali.

A livello globale, diverse aziende tecnologiche e piattaforme social stanno collaborando per sviluppare standard e strumenti per rilevare e gestire i deepfake. Anche organizzazioni internazionali come le Nazioni Unite e l'Interpol stanno esplorando modi per affrontare le sfide poste dai deepfake.

Una delle principali sfide nella regolamentazione dei deepfake è trovare un equilibrio tra la protezione delle persone dai danni e la salvaguardia della libertà di espressione. Anche con leggi in vigore, applicarle può essere difficile a causa della natura anonima e globale di Internet. Inoltre, man mano che la tecnologia dei deepfake diventa più sofisticata, anche le leggi dovranno evolversi per rimanere efficaci.

In sintesi, la regolamentazione dei deepfake richiede un approccio dinamico e proattivo. È necessario che governi, aziende e società civile lavorino insieme per proteggere le persone e le società dai possibili danni che i deepfake possono causare, adattando continuamente le normative alle nuove sfide poste da questa tecnologia in rapida evoluzione.

Il ruolo delle agenzie investigative nell'ambito dei deepfake

Le agenzie investigative svolgono un ruolo cruciale nella lotta contro l'uso illecito dei deepfake, una tecnologia che sta rivoluzionando il panorama della sicurezza digitale e della criminalità informatica. Di seguito esploriamo i vari modi in cui le investigazioni privato lavorano per affrontare le sfide poste dai deepfake.

Rilevamento e analisi forense

Le agenzie investigative stanno sviluppando e utilizzando strumenti avanzati di rilevamento per identificare i deepfake. Questi strumenti utilizzano algoritmi di intelligenza artificiale per analizzare video e immagini alla ricerca di segni di manipolazione. L'analisi forense digitale, che include l'esame dei metadati e la verifica delle incongruenze nei pixel, è diventata una parte fondamentale delle indagini.

Formazione e specializzazione

Per stare al passo con l'evoluzione tecnologica, le agenzie investigative investono nella formazione del personale. Gli investigatori vengono addestrati a riconoscere i deepfake e a utilizzare i software di rilevamento. La specializzazione in tecnologie emergenti è essenziale per affrontare minacce sofisticate.

Collaborazione con entità tecnologiche

Le agenzie investigative collaborano strettamente con aziende tecnologiche, università e centri di ricerca per sviluppare nuove tecnologie e metodologie di rilevamento. Queste partnership sono fondamentali per creare soluzioni innovative e condividere informazioni sulle ultime tendenze e tecniche di manipolazione.

Legislazione e regolamentazione

Le agenzie investigative lavorano con i legislatori per sviluppare e implementare leggi che regolamentino l'uso dei deepfake. Esse forniscono consulenze tecniche per aiutare a creare normative efficaci che possano essere applicate per perseguire legalmente coloro che utilizzano i deepfake a fini criminali.

Sensibilizzazione e educazione pubblica

Parte del ruolo delle agenzie investigative è educare il pubblico sui pericoli dei deepfake. Questo include campagne di sensibilizzazione per informare le persone su come riconoscere i deepfake e cosa fare se diventano vittime di questa tecnologia. L'educazione è un elemento chiave per ridurre l'impatto dei deepfake sulla società.

Indagini e azioni legali

Le agenzie investigative sono responsabili di condurre indagini su casi di uso illecito dei deepfake. Questo può includere tutto, dalla pornografia non consensuale alla disinformazione politica. Una volta identificati i colpevoli, le agenzie lavorano con i procuratori per assicurare che vengano perseguiti secondo la legge.

Hai bisogno d'aiuto?

© Fidavo Limited

Dublino, 1 Watermill Lawn Raheny, D05 5K738 - 729232