Deepfake: distinguere vero e falso in tribunale

Nell’era dell’Intelligenza Artificiale, l’uso dei deepfake è in costante aumento, rendendo il tema particolarmente critico in ambito giuridico. Testimonianze e presunte “prove” digitali falsificate possono incidere in modo determinante sul processo probatorio, fino a comprometterne l’esito. 

Cosa sono i deepfake?

I deepfake sono contenuti multimediali creati manipolando immagini e audio reali tramite algoritmi avanzati di machine learning. Possono ricreare in modo estremamente realistico i movimenti e le caratteristiche di volti e corpi, così come imitare fedelmente una voce.
Inizialmente costosi e poco diffusi, oggi i deepfake sono facilmente realizzabili, grazie alla diffusione di strumenti sempre più accessibili e di semplice utilizzo.
I deepfake rappresentano una crescente minaccia per la sicurezza informatica e sociale: non solo possono essere sfruttati per frodi aziendali (come l’impersonificazione di figure autorevoli per ottenere accesso a dati sensibili o convincere le vittime a fornire informazioni personali o effettuare transazioni economiche), ma a livello sociale, i deepfake favoriscono la disinformazione e la manipolazione dell’opinione pubblica ed inoltre possono essere impiegati per creare contenuti denigratori o umilianti, causando gravi danni psicologici e reputazionali alle vittime.

Il deepfake in tribunale

Con la diffusione crescente di video deepfake, alla portata anche dei meno esperti, sarà dunque sempre più urgente dibattere sugli strumenti investigativi e giuridici per proteggere le vittime di questi contenuti.
Perché un “documento visivo” possa essere utilizzato in un procedimento giudiziario, è essenziale dimostrarne l’originalità. L’attendibilità di una fonte digitale è quindi un tema delicato, che richiede competenze tecnico-scientifiche in continua evoluzione; dunque, anche nel caso dei video deepfake per accertare la verità e rilevare la falsità dei contenuti il metodo più efficace resta quello scientifico. 

Tecniche di individuazione dei deepfake nelle indagini digitali

L’analisi forense di immagini richiede personale con solide competenze tecniche nell’image processing, capace di interpretare le informazioni estratte nel contesto giudiziario. Questo tipo di analisi può essere suddiviso in diverse categorie principali:

  • la rilevazione di manipolazioni (Image forgery identification), ovvero l’ individuazione di alterazioni nel contenuto, come aggiunte o rimozioni di elementi;
  • l’ identificazione della sorgente (Source camera identification), che consiste nella determinazione del dispositivo che ha generato il file e nella distinzione tra immagini naturali e generate al computer;
  • il restauro e il miglioramento (Image reconstruction/restoration/enhancement), ovvero il recupero e il miglioramento della qualità di immagini deteriorate per rendere leggibile il contenuto originale;
  • l’analisi dinamica (Image/video analysis), cioè lo studio di sequenze video per ricostruire la cronologia di eventi o comportamenti;
  • la ricostruzione 3D e comparazione, ovvero l’estrazione di informazioni dimensionali e tridimensionali per misurazioni, confronti tra immagini o identificazione di individui attraverso caratteristiche fisiche e antropologiche;
  • la steganalisi, ovvero l’ individuazione di dati nascosti all’interno di immagini mediante tecniche steganografiche.

L’efficacia delle tecniche forensi dipende dal trattamento applicato dopo la manipolazione. Comprimere o ridimensionare un’immagine può cancellare molte tracce visibili. Queste procedure costituiscono la base dei sistemi di video forensics attuali, utilizzati anche per l’analisi dei deepfake.

Cenni al quadro normativo europeo 

L’Unione Europea ha avviato una regolamentazione organica dell’intelligenza artificiale con l’AI Act, che incide direttamente anche sulla produzione e sull’uso dei deepfake. Il regolamento adotta un approccio basato sul rischio e non vieta in modo generalizzato i contenuti sintetici, ma introduce obblighi di trasparenza per i sistemi di IA capaci di generare o manipolare immagini, audio e video realistici.

In particolare, i contenuti artificialmente generati o alterati devono essere chiaramente identificabili come tali, salvo specifiche eccezioni previste per finalità di sicurezza o indagine, purché disciplinate dalla legge e accompagnate da adeguate garanzie. Questo principio assume rilievo anche in ambito giudiziario, poiché la mancata dichiarazione dell’origine artificiale di un contenuto può incidere sulla sua valutazione come prova.