Ogni caso giudiziario relativo ad errori dell’IA che siano bias o allucinazioni si riconduce ad una unica condotta omissiva: l’assenza di controllo umano. Una tale assenza può manifestarsi non solo in relazione all’input, con il rischio che l’IA operi sulla base di elementi non tanto sbagliati quanto verosimili ma non veritieri e non rappresentativi, ma anche, e soprattutto, in relazione all’output, con il rischio di decisioni fondate su precedenti inesistenti, creati dall’IA dal nulla o i cui contenuti sono totalmente diversi da quelli reali, risultando adattati, o meglio, stravolti per incontrare le esigenze dell’ideatore del prompt.
le regole
AI in tribunale: il controllo umano è sempre necessario
Gli errori dell’intelligenza artificiale in ambito giudiziario riportano sempre allo stesso nodo: la mancanza di controllo umano. Casi stranieri, AI Act, legge 132/2025 e giurisprudenza italiana convergono nel ribadire che l’IA può solo assistere, mentre verifica e responsabilità restano integralmente umane
Esperto di diritto e tecnologia

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026











