approfondimento

AI e digital forensics, cosa cambia: il caso del reato di deepfake illecito



Indirizzo copiato

stampa a caratteri mobili1. Questo sconvolgimento non poteva lasciare indenne l’ambito giuridico-forense, ne sono riprova i numerosissimi consessi (giornate di studio, convegni, corsi etc.) di giuristi, avvocati e tecnici, impegnati con urgenza, a creare (“quantomeno”) consapevolezza sulla magnitudine dei cambiamenti in atto. La digital forensics

Pubblicato il 23 feb 2026

Pier Luca Toselli

Digital forensics presso Ministero



true crime; digital forensics
Crime Scene at Night: Crime Scene Investigation Team Working on a Murder. Female Police Officer Briefing Detective on the Victim's Body. Forensics and Paramedics Working. Cinematic Shot

La digital forensics tradizionale, quella a cui per decenni ci siamo abituati, basata sulla copia forense del dato – l’immagine bit-to-bit – l’assicurazione dell’integrità tramite funzioni di hashing e una ben definita catena di custodia che si protendeva dalla scena fisica all’aula del dibattimento in tribunale, si trova oggi di fronte a nodi teleologici e operativi profondamente mutati, che richiedono sempre più un cambio di passo, di paradigma. Il caso delle indagini in relazione al reato di diffusione di deepfake illecito offrono l’occasione di approfondire il tema.

Deepfake illecito, l’articolo 612-quater del Codice penale

Questo nuovo reato, il cosiddetto reato di deepfake, non è solo un’evoluzione del nomen iuris, ma rappresenta il banco di prova definitivo per il cambio di paradigma che abbiamo esplorato, evidenziando in modo plastico come la regola del gioco sia mutata, mentre gli strumenti processuali stentano a tenere il passo.

L’art. 612-quater richiede, per la sua configurazione, la concorrenza di tre elementi che sono intrinsecamente legati alla sfida dell’I.A.: la falsificazione o alterazione mediante I.A. del contenuto (video, immagini o voci), l’idoneità a indurre in inganno sulla genuinità del contenuto e la causazione di un danno ingiusto alla persona offesa.

È evidente come il ruolo della digital forensics è quindi decisivo, dovendo fornire la prova non solo dell’azione di diffusione, ma anche della natura artefatta e ingannevole del contenuto stesso ed è qui che emergono problematicità.

In primis, il reato si configura con l’I.A. come “strumento”, dove l’autore umano sfrutta la capacità generativa del modello per creare il “fake”. Qui la digital-forensics deve affrontare il problema della volatilità e dispersione delle tracce, in quanto il criminale che crea un deepfake su una piattaforma cloud lascia log di sistema e metadati che, se non acquisiti con immediatezza, sono soggetti a rotazione e sovrascrittura automatica, scomparendo irrimediabilmente in breve tempo.

La necessità di tempi brevi di indagine

“La corsa contro il tempo” forense è un imperativo categorico per evitare che la prova della richiesta utente, dell’indirizzo IP o dell’ID di sessione si dissolva prima che si possa esercitare il diritto alla prova e stabilire la catena di custodia digitale sul dato sorgente.

Senza una tempestiva acquisizione di questi log di interazione – i “diari di bordo” dell’I.A. – la prova dell’identità dell’autore umano (il chi ha creato il deepfake e il quando) risulta irrimediabilmente compromessa, paralizzando di fatto l’azione penale.

In secondo luogo, la necessità di dimostrare la natura artefatta del contenuto ci porta direttamente all’opacità della “black box” e alla crisi epistemologica della prova, non è sufficiente che l’investigatore affermi che il video è falso; in dibattimento, la difesa avrà il diritto di chiedere spiegazioni verificabili sulla genesi del contenuto e sulla sua alterazione.

Orbene, se per autenticare il deepfake ci si basa su un altro algoritmo predittivo (I.A. detector) che, a sua volta, non può spiegare la sua conclusione, si incorre in un pericoloso circolo vizioso: si prova un’opacità con un’altra opacità.

L’assenza di Explainable AI (XAI) come requisito di ammissibilità mina il processo. Il difensore non può esercitare il contraddittorio sulla formazione della prova – principio cardine del diritto processuale penale – se la prova è stata generata da un’entità di cui non si può interrogare la logica. se si accetta la prova opaca, si rischia di minare il diritto di difesa, trasformando il verdetto in una mera accettazione dell’autorità tecnologica, anziché in un accertamento razionale della verità.

Infine, anche laddove si riuscisse ad acquisire il dato, il problema della responsabilità plurale e del bias algoritmico rimane latente, infatti, immaginiamo che il deepfake sia stato generato in modo distorto non per dolo dell’utente, ma per un difetto di addestramento del modello che ha interpretato erroneamente i prompt a causa di un bias nei dati di addestramento (I.A. come autore o con-autore).

Il ruolo della digital forensics

Qui la digital forensics deve essere in grado di risalire a questi dataset originari e complessi, dimostrando che la colpa risiedeva non nell’intenzione del diffusore, ma nella negligenza del fornitore dei dati o del produttore del software. questo spinge il diritto processuale penale a guardare oltre l’autore materiale dell’azione (colui che ha premuto “invio”) per indagare la catena di responsabilità industriale, un compito che richiede nuove figure di consulenti tecnici capaci di interfacciarsi con l’ingegneria del software e il diritto da un punto di vista interdisciplinare.

L’art. 612-quater, pertanto, ci impone non solo di adeguare i nostri tool di acquisizione, ma di accettare il cambio di paradigma e di sviluppare un nuovo statuto della prova digitale algoritmica che bilanci l’urgenza repressiva con le ineludibili garanzie processuali fondamentali.

Perché serve un approccio interdisciplinare

Infatti, l’art. 612-quater c.p., che punisce il deepfake illecito, cristallizza le difficoltà che la digital forensics incontra oggi: per perseguire il reato è necessaria una digital forensics capace di superare la volatilità dei log per risalire all’autore umano, e al contempo affrontare l’opacità del modello per dimostrarne la natura artefatta; la semplice acquisizione di un hash non basta più! Il diritto esige che la giustizia sia “spiegabile“, e ciò impone l’adozione dell’Explainable AI (XAI) non come lusso tecnico, ma come requisito di ammissibilità processuale del dato.

Siamo giunti a un bivio, o la giustizia si dota di un nuovo statuto della prova digitale algoritmica, che imponga requisiti di trasparenza, versioning dei dati di addestramento e procedure di acquisizione d’urgenza sui cloud, oppure il processo penale rischia di perdere la sua funzione, costretto ad accettare decisioni algoritmiche non verificabili.

La soluzione non risiede nell’ostacolare il progresso, ma nel promuovere un’alleanza interdisciplinare autentica tra giuristi, tecnologi e digital forensic scientist, affinché la rivoluzione dell’I.A. si compia nel rispetto dei principi etici e giuridici che garantiscono lo stato di diritto.

Come cambia il modo di fare indagini

In questo scenario, l’oggetto dell’indagine non è solo l’azione umana riflessa nel file system di un disco rigido, ma il complesso intreccio di input e output di entità che possono agire come “attori autonomi” nel compimento del reato, trasformando l’I.A. da mero strumento in potenziale autore o co-autore di un’azione.

Questo scenario sposta radicalmente l’onere probatorio e il paradigma di responsabilità. La sfida forense non è più limitata a dimostrare chi ha manipolato un timestamp o cancellato un file, ma deve affrontare la volatilità, la distribuzione e l’opacità intrinseche ai sistemi di I.A.

La prova non è più confinata al log locale, ma è dispersa su data center globali in forma di tracce interattive e metadati facilmente alterabili.

In aggiunta, la problematica della cosiddetta “Black Box” ovvero, l’incapacità di spiegare il perché di una decisione algoritmica dannosa, come vedremo meglio nel prosieguo, mina alla radice la possibilità di sottoporre la prova a una verifica critica (cross examination) in sede giudiziaria, incidendo pesantemente su uno dei principali diritti di difesa nel processo, rappresentato per l’appunto dal “contro-esame”.

La digital forensics, pertanto, è chiamata urgentemente, non solo a sviluppare nuove metodologie per i “crimini del futuro”, ma soprattutto a evolvere le proprie competenze per operare in un ambiente dove la responsabilità si fa plurale e l’attribuzione della colpa richiede un ponte di comprensione tra la matematica degli algoritmi e i principi fondamentali del diritto penale.

La metamorfosi dell’IA da oggetto a soggetto giuridico-forense

La discontinuità con il passato, come appena evidenziato, non è un’ipotesi, ma una realtà operativa e giuridica: l’I.A. non può più essere considerata un mero oggetto o uno strumento passivo del crimine, bensì può configurarsi come un vero e proprio “attore” all’interno dell’ecosistema digitale.

Questa triplice configurazione: autore, strumento o vittima impone alla digital forensics e al diritto una profonda revisione dei paradigmi di prova, causalità e responsabilità.

IA come autore tra intenzionalità algoritmica e controllo umano residuo

Nel ruolo di I.A. come autore, l’intelligenza artificiale agisce in modo autonomo, prendendo decisioni che, pur essendo il risultato di una programmazione, non sono direttamente dettate da un comando umano specifico e contestuale all’azione illecita. L’esempio classico è l’algoritmo di trading finanziario che, in autonomia, esegue una frode:

criticità forense – Il focus forense non è più l’intenzione dell’utente, ma l’intenzionalità algoritmica. L’indagine deve tracciare il percorso decisionale dell’algoritmo, richiedendo l’analisi dei dati di addestramento per rilevare eventuali bias iniziali o informazioni illecite che abbiano “istruito” l’I.A. all’azione malevola. Diventa indispensabile valutare il controllo umano residuo o previsto (Human-in-the-Loop o Human-on-the-Loop): la responsabilità si sposta sulla mancata o negligente supervisione.

approfondimento critico – questo scenario chiama in causa la teoria della responsabilità oggettiva o da rischio. In assenza di un dolo o di una colpa diretta, il diritto dovrà decidere se attribuire la responsabilità al produttore (per difetto di progettazione dell’algoritmo) o al fornitore dei dati (per bias o violazioni dei dati nell’addestramento). La digital forensics, in questo contesto, si trasforma in una sorta di “model forensics”, cercando la “colpa” non nell’atto, ma nell’origine del modello.

IA come strumento tra tracciabilità dell’input e cloud forensics

Quando l’I.A. è impiegata come strumento, il criminale la utilizza come un’arma per massimizzare l’efficacia e l’efficienza del proprio illecito. Gli esempi spaziano dalla generazione di deepfake per la diffamazione o l’estorsione (ci torneremo), alla conduzione di attacchi informatici avanzati che sfruttano capacità predittive o di automazione impossibili per l’uomo.

criticità forense – qui, la digital forensics si concentra tradizionalmente sulla rintracciabilità dell’autore umano che ha fornito l’input (prompt) o utilizzato il sistema.
Tuttavia, in questo contesto la sfida è duplice:

  1. è necessario da un lato dimostrare che il contenuto (ad esempio, un deepfake) sia un falso e risalire al modello generativo impiegato.
  2. dall’altro occorre considerare che l’I.A. può essere utilizzata per nascondere la vera identità del mandante attraverso catene di proxy o tecniche avanzate di anonimizzazione. L’indagine deve quindi recuperare i log di sistema per ricostruire la richiesta esatta, l’ID sessione e l’indirizzo IP, collegando l’azione controversa all’utente.

approfondimento critico – l’evoluzione di modelli I.A. sempre più accessibili (ad esempio, tramite API cloud o reti private) rende la tracciabilità dell’autore umano più ardua. La digital forensics non può limitarsi al dispositivo finale, ma deve estendere il campo d’azione alle infrastrutture cloud e ai metadati di interazione, che collegano l’utente al modello in fase di utilizzo. La lotta si sposta sulla capacità di preservare la catena di custodia digitale in ambienti distribuiti e volatili.

IA come vittima tra adversarial input e nesso causale

In questo scenario, il sistema I.A. non è l’agente del danno, ma la sua vittima, venendo manipolato, alterato o “ingannato” per causare un danno. Un esempio tipico è l’attacco di adversarial input a un sistema di guida autonoma o ad un sistema d’arma, che può indurre l’I.A. a prendere decisioni errate.

criticità forense – l’obiettivo dell’indagine è isolare il sistema per impedirne ulteriori alterazioni e identificare le vulnerabilità sfruttate per la manipolazione. Ciò richiede un’analisi approfondita dei log di addestramento e dei log di sistema/errore per documentare l’apprendimento e il malfunzionamento del modello nel tempo, provando l’integrità e gli attacchi subiti. La digital forensics deve determinare se la vulnerabilità fosse un difetto noto del produttore (responsabilità del produttore) o un errore di configurazione dell’utente (responsabilità dell’utente finale).

approfondimento critico – questo ruolo evidenzia la crescente importanza della Cybersecurity e della Model Forensics. L’indagine non si limita all’identificazione dell’attaccante, ma deve stabilire il nesso causale tra la manipolazione e il danno. La mancanza di trasparenza del modello (il problema della Black Box che vedremo tra poco) rende questa analisi complessa, poiché è difficile dimostrare che l’alterazione di un input abbia avuto una conseguenza diretta e prevedibile sull’output decisionale del sistema.

Questa triplice configurazione complica il paradigma tradizionale della responsabilità. Il diritto è chiamato a districarsi in un complesso puzzle che coinvolge: la colpa dell’utente (per uso improprio o negligente), la colpa/responsabilità oggettiva del programmatore o del fornitore (per difetto di prodotto o bias nei dati), e il rischio intrinseco connesso all’uso della tecnologia avanzata.

La digital forensics, in questo scenario, deve sviluppare un nuovo modello di analisi interdisciplinare che sappia trasformare le tracce volatili di un algoritmo (metadati, log di sistema) in prove legali ammissibili, garantendo che la giustizia sia “spiegabile” anche di fronte all’opacità dei sistemi I.A.

Volatilità e opacità delle tracce digitali

L’analisi delle tracce digitali lasciate dall’Intelligenza Artificiale (I.A.) è, per la digital forensics moderna, il cuore pulsante dell’indagine, poiché è l’unico ponte che lega l’azione algoritmica all’accertamento della verità processuale, al contempo, essa rivela il suo tallone d’Achille, ossia la costante minaccia data dalla natura stessa dei sistemi di deep learning e cloud computing.

Questo non è un semplice problema di adeguamento strumentale, ma una vera e propria crisi epistemologica della prova. I tre pilastri probatori: dati di addestramento; metadati; e log di sistema; sono costantemente insidiati dalla volatilità e dall’opacità, imponendo più di una riflessione non solo in capo all’esperto di digital-forensics ma in capo a tutti gli attori che orbitano attorno all’indagine.

Uno dei principi cardine del processo penale, in ogni ordinamento democratico, è il diritto alla prova e il suo corollario, esplicitato nel principio di conservazione del dato nella sua integrità.

Di fronte alla volatilità dei dati I.A., tale principio viene messo a dura prova, non mi riferisco al tradizionale problema della cancellazione dolosa di un file su un hard disk isolato, ma di una perdita di dati endemica e strutturale, che tuttavia risulta “fondamentale” per l’attribuzione precisa delle responsabilità in capo agli effettivi “autori”. I log di sistema e i buffer di memoria, essenziali per ricostruire la sequenza degli eventi che ha portato a una decisione o a un errore algoritmico, sono spesso soggetti a meccanismi di rotazione e sovrascrittura automatica in ambienti cloud distribuiti.

Il nodo della data erosion

Questa “data erosion” in tempo reale rende la conservazione della prova una vera e propria corsa contro il tempo (una race against the clock forense), dove l’immediatezza del sequestro probatorio non è un lusso, ma una necessità processuale per evitare la perdita irreversibile dell’informatio criminis.

Anzi, talvolta “la corsa contro il tempo” è totalmente esclusa da molte altre cause non solo tecniche ma anche giuridiche, quali la “territorialità” e la “giurisdizione” che da sempre in modo più o meno marcato e netto costituiscono una delle molteplici “criticità” nel contrasto ad un “crimine” (il termine è volutamente generico, non citando solo quello informatico) che è sempre più “transnazionale”.

Da un punto di vista più squisitamente nazionale e processuale, ciò richiede un ripensamento del concetto di atto non ripetibile di cui all’art. 360 c.p.p., per citare un esempio normativo, come è noto, l’acquisizione in ambiente cloud di dati volatili e big data non può attendere i tempi lunghi della giustizia tradizionale; la “moderna” digital-forensics deve poter intervenire con misure di preservazione d’urgenza (preservation order), anche su giurisdizioni remote, prima che l’evidenza si dissolva irrimediabilmente.

La sfida processuale è bilanciare l’urgenza dell’acquisizione con le garanzie difensive, affinché la catena di custodia digitale il film che prova l’integrità del dato attraverso hashing e firme crittografiche non sia interrotta dal caos e dalla dispersione dei server remoti e conflitti di giurisdizione.

Il rischio degli algoritmi

Non dimentichiamo poi, il problema dell’opacità della “black box” dei modelli di deep learning che solleva probabilmente la questione più critica e radicale, l’I.A. può fornire una decisione – un output – ma spesso è incapace di fornire una giustificazione causale intelligibile per l’essere umano. Il processo penale, fondato sul principio di contraddittorio nella formazione della prova (art. 111 cost.), presuppone che ogni elemento probatorio sia verificabile, confutabile e, soprattutto, spiegabile.

Di fronte a una decisione algoritmica che ha causato un danno (ad esempio, una discriminazione automatizzata o un falso positivo in un’indagine di surveillance), l’imputato o il danneggiato ha il diritto di sapere perché la macchina ha agito in quel modo. Se l’unica risposta è “il modello ha elaborato milioni di feature e ha preso questa decisione”, il diritto di difesa viene sostanzialmente svuotato. L’avvocato difensore non può interrogare l’algoritmo, né può sottoporre a cross-examination la logica opaca di una rete neurale complessa.

In questo senso, l’IA non è solo un ostacolo tecnico, ma un vero e proprio cambio delle regole del gioco, invero, se accettiamo prove derivate da sistemi di cui non possiamo spiegare la logica interna, rischiamo di compromettere la funzione essenziale e vitale del processo – cioè, la sua capacità di accertare razionalmente la verità.

Questo ci obbliga a esigere l’Explainable AI (XAI) come requisito di ammissibilità processuale del dato: solo un dato accompagnato dalla sua “spiegabilità” algoritmica e dal confidence score in quel momento decisionale, potrà essere considerato pienamente valido e non solo una mera presunzione.

Come deve evolvere la digital forensics

Quanto finora esplicato, appare già di per sé sufficiente ad un necessario cambio di paradigma, è necessario un cambio di paradigma che sposti il focus dall’integrità del file all’integrità del modello e della sua funzione. La digital-forensics deve evolvere in una scienza interdisciplinare che richieda non solo hashing e timestamp, ma anche la conoscenza approfondita delle architetture algoritmiche.

Questa trasformazione comporta:

  1. nuovi requisiti di conservazione, in quanto i produttori e i gestori di servizi I.A. dovrebbero essere obbligati a conservare non solo i log operativi, ma anche i checkpoint del modello e le versioni dei dati di addestramento (la versioning del training set) per garantire la retrocompatibilità forense;
  2. nuove competenze tecniche in campo al digital-forensics expert capaci di coniugare a fianco alle tradizionali tecniche di assicurazione delle fonti prova, nuove tecniche e modalità di assicurazione ed analisi di questi nuovi “elementi” che sempre più spesso e pesantemente entreranno nel processo, nonostante gli argini posti dal legislatore;
  3. specializzazione processuale: è necessario che il diritto processuale penale riconosca una speciale figura di consulente tecnico di digital-forensics sull’I.A. come attore centrale, capace di dialogare con la complessità del codice e di tradurre l’opacità algoritmica in termini di colpa, rischio e nesso causale comprensibili per il giudice, insomma un vero e proprio “ponte” tra tecnica e giustizia ormai imprescindibile per assicurare i principi di diritto recepiti dal nostro ordinamento.

Solo abbracciando questo nuovo paradigma, che unisce la rigorosità del diritto processuale penale all’analisi profonda dell’ingegneria dei dati, potremo garantire che la giustizia mantenga la sua funzione di accertamento razionale della verità nell’era dell’intelligenza artificiale.

Dati di addestramento, metadati e log come pilastri probatori

Ma approfondiamo alcuni aspetti.

Partiamo dai dati di addestramento (i training set) che rappresentano il “nutrimento”, il “cibo” essenziale dell’I.A. e, di conseguenza, ne definiscono la sua “personalità” e il suo ventaglio di “conoscenze” e operatività. In un’indagine forense, l’analisi di questi dataset è cruciale perché la responsabilità, e dunque la prova della colpa, può risiedere proprio in un bias algoritmico originario o in un set di dati “avvelenati”.

Se un modello di I.A. prende una decisione illecita (ad esempio, discrimina o commette una frode), l’atto può essere una conseguenza prevedibile e progettuale di dati di training che erano di per sé difettosi, incompleti, distorti o, peggio ancora acquisiti illecitamente.

Ecco che allora la sfida operativa della digital forensics è immensa: questi dataset non risiedono quasi mai su un singolo dispositivo isolato, ma al contrario, sono conservati in archivi strutturati come data warehouse e database relazionali (spesso Big Data), o in archivi non strutturati su cloud computing (come piattaforme di storage a oggetti).

Come cambia il lavoro dell’investigatore

L’investigatore forense deve quindi affrontare non solo la mole massiva dei dati, ma anche la loro distribuzione geografica e la loro natura multi-giurisdizionale. L’acquisizione forense in questo contesto non è la tradizionale copia bit-per-bit di un hard disk, ma un complesso processo di e-discovery e data mining legale che deve estrarre le porzioni di dati rilevanti (i subset che hanno influenzato la decisione) senza violare la catena di custodia e rispettando le normative internazionali, dal GDPR ai requisiti di cloud forensics.

La prova della “colpa remota” risiede, quindi, nell’analisi approfondita di questa sorgente dati, che spesso si rivela un terreno legale e tecnico estremamente scivoloso.

Ma non è tutto! L’identificazione del soggetto responsabile dipende dalla capacità di acquisire e analizzare i metadati e i log di sistema, che potremo a ragione definire le “impronte digitali” e il “diario di bordo” dell’I.A.

I metadati fungono da carta d’identità digitale del modello o del file generato (un deepfake, ad esempio), fornendo informazioni vitali sull’autore, il software utilizzato, il timestamp di creazione e le eventuali modifiche. Essi sono essenziali per stabilire una catena di custodia digitale credibile, poiché collegano l’azione (la creazione o l’interazione) a un agente specifico (l’utente o un altro algoritmo) in un momento preciso.

Tuttavia, la loro efficacia è direttamente proporzionale alla loro integrità ne deriva, come ben sanno i più “tecnici” che nel cloud e nei sistemi real-time, i metadati sono estremamente volatili e facilmente alterabili (tampering). Un utente esperto può falsificare timestamp e autore con relativa facilità, lasciando all’investigatore l’onere di dimostrare l’alterazione attraverso tecniche di artifact analysis e confronto con log di sistema esterni, spesso più difficili da manipolare, ma non sempre “facili” da ottenere.

I log di sistema che registrano ogni interazione, richiesta e parametro utilizzato dall’I.A. rappresentano l’unica vera sequenza degli eventi che ha portato a una decisione o a un errore; infatti, i log di richiesta e di output sono la prova regina per ricostruire l’atto.

Tuttavia, l’efficacia di questa prova è minacciata dalla mole e dalla volatilità dei dati generati in tempo reale, in quanto i sistemi moderni producono flussi di logging continui e massivi. La conservazione delle prove diventa, come dicevamo poco sopra, una vera e propria corsa contro il tempo. Se un servizio cloud o un server locale non è configurato per la rotazione e la conservazione forense dei log a lungo termine, le prove critiche – che potrebbero dimostrare l’atto illecito – possono essere sovrascritte o eliminate in pochi giorni o addirittura ore.

I nodi da sciogliere

L’indagine si trasforma in una sfida di tempo di acquisizione, dove l’immediatezza (ma non solo, ricordo il problema “giurisdizione”) è la chiave per prevenire la perdita irreversibile dell’evidenza.

“Last but not least”, la più grande minaccia all’efficacia delle prove digitali, tuttavia, non è solo la volatilità, ma l’opacità intrinseca di molti modelli di deep learning, il noto problema della “Black Box“.

In un sistema giuridico che richiede che ogni prova sia verificabile, confutabile e spiegabile in dibattimento, l’incapacità di risalire al perché di una decisione algoritmica – ovvero il nesso causale tra l’input e l’output in un modello non lineare – rappresenta un punto di attrito significativo tra tecnologia e diritto.

Se un’I.A. causa un danno e la sua unica giustificazione è: “l’algoritmo ha deciso così basandosi su milioni di parametri non tracciabili in tempo reale,” la prova derivata da quel sistema si rivela giuridicamente fragile e questo problema impone alla digital-forensics, alla scienza forense ed al Giudice, l’obbligo di adottare l’Explainable AI (XAI) come requisito fondamentale per la prova.

Non è sufficiente registrare l’azione; bisogna documentare la ragione e il punteggio di confidenza dell’I.A. in quel momento decisionale. Fino a quando i modelli di I.A. non saranno intrinsecamente trasparenti o accompagnati da metodologie XAI robuste e standardizzate, l’amministrazione della giustizia si troverà a dover accettare prove che, pur tecnicamente ineccepibili nella loro acquisizione (hash garantito), rimangono opache nella loro essenza decisionale.

L’impossibilità poi di cross-examination, come già prima anticipato, minaccia pesantemente il diritto di difesa chiamato ad accettare le “conclusioni” di una I.A. che non spiega come è pervenuta a quella considerazione conclusione. Un teste che, se non “influenzabile” si presenterà come un teste “inattaccabile” atteso che a quanto è pervenuto è “inconfutabile”.

Lo scenario

Il percorso, fin qui sviluppato rivela in modo inequivocabile che l’avvento dell’intelligenza artificiale non è un problema di mera adeguatezza strumentale, ma una rivoluzione profonda che impone un cambio di paradigma sia nella digital forensics operativa che nel diritto processuale penale. L’I.A. ha trasceso la sua funzione di semplice strumento per assumere “anche” il ruolo di attore sia come autore, che come strumento, che come vittima trasformando la scena del crimine in un ecosistema dinamico e distribuito, che coinvolge algoritmi, cloud e dati di addestramento.

Il “cuore pulsante” della prova digitale, basato sui tre pilastri i dati di addestramento, metadati e log di sistema si è rivelato contemporaneamente il nostro “tallone d’Achille“, laddove le sfide della volatilità dei dati in ambienti real-time e dell’opacità intrinseca della black box minacciano di compromettere i principi fondanti del nostro sistema giuridico: il diritto alla prova e il principio di contraddittorio.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x