I sistemi di intelligenza artificiale sono ormai parte integrante dei processi decisionali pubblici e privati: determinano l’accesso al credito, influenzano selezioni occupazionali, supportano diagnosi mediche e orientano decisioni amministrative. Tale rapida diffusione ha messo sotto pressione i tradizionali strumenti di controllo giuridico e organizzativo, facendo emergere una tensione strutturale: molti di questi sistemi operano come black box, producendo decisioni difficili da comprendere e da contestare.
approfondimento
Algorithmic auditing: compliance per la responsabilità dei modelli black box
L’algorithmic auditing aiuta a controllare i sistemi di IA quando operano come black box e le decisioni risultano difficili da spiegare. Servono verifiche su conformità, bias, documentazione e governance per rendere i modelli più trasparenti, contestabili e responsabili nel tempo
Business Continuity & Risk Management Consultant, CLUSIT Direttivo, BCI SIG Cyber Resilience Committee, FERMA Digital Committee Member

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026












