Giudizi e decisioni che hanno effetti rilevanti sulle vite di esseri umani sono oggi affidati, in un numero crescente di ambiti, a sistemi di intelligenza artificiale che non funzionano. In settori quali quello giudiziario, dei servizi finanziari, dell’educazione, dei servizi sociali o del reclutamento del personale, l’uso di sistemi di apprendimento automatico (machine learning) nei processi di valutazione e decisione ha dato luogo a esiti ingiusti, nocivi e assurdi – come documenta una letteratura ormai sterminata – con conseguenze che si riverberano a lungo, talora per anni, sulle vite delle vittime.
l'approfondimento
L’etica dell’intelligenza artificiale? Perché è solo uno specchietto per le allodole
L’etica dell’intelligenza artificiale altro non è che una narrazione finanziata dalle Big Tech per scongiurare, o almeno rinviare, la regolazione giuridica. Si fa strada tra molti studiosi la convinzione che in caso di decisioni dagli effetti significativi sulle vite delle persone, l’uso di sistemi IA sia da considerarsi illegittimo
Dipartimento di Scienze Politiche dell'Università di Pisa

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026









