le regole

AI in tribunale: il controllo umano è sempre necessario



Indirizzo copiato

Gli errori dell’intelligenza artificiale in ambito giudiziario riportano sempre allo stesso nodo: la mancanza di controllo umano. Casi stranieri, AI Act, legge 132/2025 e giurisprudenza italiana convergono nel ribadire che l’IA può solo assistere, mentre verifica e responsabilità restano integralmente umane

Pubblicato il 20 apr 2026

Antongiulio Lombardi

Esperto di diritto e tecnologia



software microsoft giustizia CSA2 e sovranità digitale Human-Centric Security

Ogni caso giudiziario relativo ad errori dell’IA che siano bias o allucinazioni si riconduce ad una unica condotta omissiva: l’assenza di controllo umano. Una tale assenza può manifestarsi non solo in relazione all’input, con il rischio che l’IA operi sulla base di elementi non tanto sbagliati quanto verosimili ma non veritieri e non rappresentativi, ma anche, e soprattutto, in relazione all’output, con il rischio di decisioni fondate su precedenti inesistenti, creati dall’IA dal nulla o i cui contenuti sono totalmente diversi da quelli reali, risultando adattati, o meglio, stravolti per incontrare le esigenze dell’ideatore del prompt.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x