L’irruzione dell’intelligenza artificiale generativa nel perimetro del rito penale impone una radicale decostruzione delle categorie classiche della prova documentale, minacciando la funzione cognitiva del dibattimento.
Nel panorama del diritto processuale penale contemporaneo, stiamo assistendo a quello che potremmo definire un vero e proprio trauma epistemologico. Per decenni, la prassi giudiziaria ha riposto una fiducia quasi fideistica nel dato audiovisivo, elevandolo a rango di prova regina in virtù di una presunta capacità di “congelare” il fatto storico in una forma oggettiva e inalterabile.
Tuttavia, l’avvento dei deepfake — artefatti multimediali generati attraverso reti neurali che ricalcano con perfezione millimetrica sembiante, voce e gestualità di soggetti reali — scardina alla radice il presupposto ontologico su cui poggia l’art. 234 c.p.p. Non siamo più di fronte a una manipolazione “esterna” di un supporto preesistente, ma alla creazione di una realtà parallela che possiede tutti i crismi estetici della genuinità.
Il problema che l’avvocato e il magistrato si trovano oggi a dover gestire non è più soltanto la verifica della catena di custodia del dato, ma la messa in discussione della stessa natura rappresentativa della prova. Se il documento non è più “estensione della memoria”, ma “frutto di un calcolo probabilistico”, il processo rischia di trasformarsi in una dialettica tra algoritmi, dove la verità dibattimentale finisce per smarrirsi in un labirinto di specchi digitali.
Questa eclissi della verità non riguarda solo l’introduzione di prove false, ma investe la capacità stessa del sistema di distinguere il fatto dalla sua simulazione, portando il giudice verso una paralizzante “epistemologia del sospetto” che potrebbe minare la finalità ultima della giustizia penale.
Indice degli argomenti
Deepfake nel processo penale e crisi della prova documentale
Nel redigere l’articolo 234 del Codice di procedura penale, il legislatore del 1988 ha cristallizzato una nozione di documento basata sulla “rappresentazione” di fatti, persone o cose. In quella visione, il documento era inteso come un medium passivo, una traccia lasciata dalla realtà su un supporto (carta, pellicola, nastro magnetico). Oggi, la dottrina più attenta deve interrogarsi se un video generato interamente da un’intelligenza artificiale possa ancora rientrare nel perimetro di questa norma o se, al contrario, non debba essere qualificato come una prova atipica ex art. 189 c.p.p., con tutto ciò che ne consegue in termini di ammissibilità e garanzie difensive.
Il deepfake non rappresenta un fatto: esso “simula” un fatto che non è mai avvenuto. Ci troviamo dunque di fronte a un “nuovo falso documentale” che sfugge alle tradizionali categorie codicistiche di falsità materiale e ideologica. Mentre la falsità materiale presuppone un’alterazione o una contraffazione di un originale, nel caso del contenuto sintetico l’originale non esiste affatto; il documento nasce “falso” nella sua stessa essenza digitale.
La giurisprudenza di legittimità, pur avendo aperto alla piena utilizzabilità dei documenti informatici (si pensi alle Sezioni Unite n. 40517/2016 in tema di metadati), sembra ancora non aver pienamente metabolizzato il rischio che il dato informatico possa essere manipolato a un livello così profondo da rendere invisibile la sutura tra realtà e finzione. La sfida per l’operatore del diritto diventa quindi quella di ricostruire una teoria del falso che non si basi più sulla divergenza tra copia e originale, ma sulla mancanza di un referente fenomenico reale.
Valutare i deepfake nel processo penale senza delegare la decisione
Il principio del libero convincimento del giudice, sancito dall’art. 192 c.p.p., vive oggi una stagione di profonda incertezza. Il magistrato è, per sua natura, un “non esperto” chiamato a valutare prove che richiedono competenze tecniche sempre più sofisticate. Di fronte a un video in cui l’imputato confessa un crimine, la forza d’urto del dato visivo è tale da oscurare qualsiasi altra risultanza probatoria, creando un pregiudizio cognitivo difficilmente scalfibile. È quella che la psicologia forense definisce “fallacia dell’evidenza“: tendiamo a credere a ciò che vediamo, ignorando che l’occhio può essere ingannato da un calcolo computazionale.
Il rischio concreto è che il processo penale subisca una silenziosa trasformazione in cui la decisione non è più l’esito di una valutazione logico-giuridica del magistrato, ma il recepimento acritico del responso di un consulente tecnico o di un software di deepfake detection. Si assiste così a una pericolosa delega della giurisdizione: il giudice, incapace di governare la complessità tecnologica, finisce per abdicare al proprio ruolo, trasformandosi in un mero notaio di verità prodotte in laboratorio.
Questa “scientifizzazione” forzata della prova documentale rischia di svuotare il dibattimento della sua funzione di luogo in cui la prova si forma nel contraddittorio, poiché la verifica della genuinità del dato tecnico avviene spesso in fasi antecedenti e con modalità che sfuggono al controllo delle parti e del giudice stesso.
Deepfake nel processo penale e limiti della digital forensics
La digital forensics, un tempo baluardo della certezza probatoria, si trova oggi in una condizione di strutturale affanno. Il meccanismo di apprendimento delle intelligenze artificiali generative (le cosiddette GAN, Generative Adversarial Networks) è strutturato proprio per superare i filtri di rilevazione: esiste un sistema “creatore” che genera il falso e un sistema “discriminatore” che tenta di individuarlo.
Quest’ultimo, nel fallire, istruisce il primo a fare meglio, in un ciclo infinito che tende alla perfezione dell’inganno. In sede processuale, questo significa che la prova dell’autenticità diventa essa stessa probabilistica. Una perizia non potrà quasi mai affermare con certezza assoluta che un video sia “reale”, ma potrà solo indicare l’assenza di tracce macroscopiche di manipolazione. Emerge qui un tema delicatissimo di diritto di difesa: l’imputato che si trovi a dover smentire un deepfake sofisticato deve possedere risorse tecniche e finanziarie immense.
La parità delle armi, cuore del giusto processo ex art. 111 Cost., rischia di diventare un principio puramente formale se la difesa non ha accesso agli stessi strumenti computazionali utilizzati per l’accusa o se non può permettersi consulenze di altissimo profilo. La “catena di custodia” del dato informatico, pur fondamentale, non è più sufficiente: essa garantisce che il file non sia stato alterato dopo il sequestro, ma non può garantire nulla su ciò che è accaduto prima, nel momento in cui il file è stato generato. Se il crimine digitale nasce “perfetto“, la procedura penale si trova disarmata, costretta a inseguire un’ombra che non proietta più alcuna luce di verità.
Ragionevole dubbio e deepfake nel processo penale
Il paradosso forse più insidioso introdotto dall’era dei deepfake è il cosiddetto Liar’s Dividend (il dividendo del bugiardo). In un ecosistema informativo contaminato dal sospetto della manipolazione universale, la semplice esistenza della tecnologia dei deepfake fornisce una via d’uscita a chiunque voglia contestare una prova autentica.
L’imputato colpevole, inchiodato da un video genuino, può oggi sollevare il dubbio che quella prova sia un artefatto algoritmico, sfruttando la naturale diffidenza dei giudici e la fragilità delle tecniche di rilevazione. Questo fenomeno produce una torsione patologica del canone del “ragionevole dubbio” (art. 533 c.p.p.): il dubbio non nasce più dalle risultanze processuali o da lacune dell’accusa, ma da una possibilità teorica onnipresente e indimostrabile.
Il dividendo del bugiardo agisce come un veleno lento sulla credibilità dell’intero sistema: se tutto può essere falso, nulla merita più di essere creduto con quella certezza necessaria per una condanna penale. Si rischia così di scivolare verso un’impunità diffusa, dove la verità dei fatti viene sacrificata sull’altare di uno scetticismo iperbolico. Il processo, da strumento di accertamento di responsabilità, rischia di degradarsi in un esercizio di retorica tecnica dove vince chi riesce a iniettare nel giudice il dubbio più plausibile sulla natura sintetica del reale.
Come preservare la verità dibattimentale nel processo penale
In questo scenario di “eclissi della verità“, il sistema penale non può limitarsi a sperare in un miracolo tecnologico che risolva il problema della rilevazione dei falsi. È necessario un ritorno alla centralità del dibattimento come luogo di verifica logica e incrociata. Se la prova documentale digitale perde la sua aura di infallibilità, essa deve tornare a essere considerata solo un tassello di un mosaico probatorio più ampio. Il giudice deve recuperare la capacità di valutare la prova audiovisiva non in isolamento, ma in stretta correlazione con la prova dichiarativa, i riscontri logici e le evidenze materiali.
Il “testimone” torna a essere, paradossalmente, più affidabile del “video”, poiché l’esame incrociato permette di saggiare la credibilità e la coerenza del racconto in un modo che l’analisi di un file digitale non potrà mai eguagliare. Inoltre, è urgente una riflessione sulla provenance technology e sull’uso della blockchain per certificare l’origine dei file multimediali, creando una sorta di “fascicolo digitale del reperto” che ne tracci la vita sin dalla genesi.
Solo attraverso un approccio che combini rigore tecnologico, garanzie difensive rafforzate e una rinnovata cultura del dubbio metodico (e non sistemico), il processo penale potrà sopravvivere alla sfida dell’intelligenza artificiale, evitando che l’eclissi della verità dibattimentale si trasformi nella notte definitiva della giustizia.












