L’ipotesi di rinnovo del Contratto Collettivo Nazionale di Lavoro (CCNL) per il triennio 2025-2027 segna una tappa fondamentale nell’evoluzione del pubblico impiego, istituzionalizzando l’adozione di sistemi di Intelligenza Artificiale (IA) quali strumenti di supporto ai processi organizzativi e valutativi.
Sebbene le nuove disposizioni riconoscano l’IA come fattore strategico per l’efficientamento dell’azione amministrativa, il testo contrattuale ancora il ricorso a tali tecnologie a precisi vincoli di garanzia. In linea con la normativa comunitaria e nazionale vigente, viene ribadito il principio di non esclusività della decisione algoritmica (human-in-the-loop). È sancito, in particolare, il divieto di demandare a processi interamente automatizzati l’adozione di provvedimenti idonei a produrre effetti giuridici nella sfera del personale.
Sotto il profilo della responsabilità amministrativa e dirigenziale, la bozza chiarisce che l’algoritmo deve intendersi come strumento servente e non sostitutivo della volontà umana. Ne consegue che la decisione finale, unitamente alla relativa responsabilità giuridica, rimane in capo alla persona fisica titolare della funzione. Tale previsione esclude tassativamente la possibilità per il dirigente di invocare l’automatismo tecnologico quale esimente per le determinazioni assunte, garantendo così la piena tracciabilità e imputabilità dell’atto amministrativo.
Indice degli argomenti
Garanzie procedimentali e prerogative sindacali nell’adozione dei sistemi algoritmici
Il quadro regolatorio delineato nell’ipotesi di rinnovo contrattuale introduce un sistema articolato di tutele, volto a bilanciare l’innovazione tecnologica con la salvaguardia delle prerogative dei lavoratori e delle parti sociali. Ad oggi, l’architettura delle garanzie appare fondarsi su tre pilastri essenziali.
Obblighi di informativa e relazioni sindacali
L’introduzione di sistemi di IA cessa di essere una prerogativa unilaterale ed esclusiva del management per entrare a pieno titolo nella dialettica sindacale. Viene sancito un preciso obbligo di informativa preventiva alle organizzazioni sindacali, equiparando l’impatto dell’algoritmo a quello delle riorganizzazioni strutturali o delle modifiche all’orario di lavoro. Tale previsione sottrae l’IA alla mera sfera tecnica, riconoscendone la natura di elemento sostanziale capace di incidere sugli assetti organizzativi e sulle condizioni di lavoro.
Il principio di intellegibilità e il divieto di automatismo
In materia di valutazione e decisioni con effetti sulla sfera giuridica del dipendente, il contratto recepisce il divieto di processi decisionali integralmente automatizzati. Viene garantito il diritto del lavoratore all’accesso a informazioni trasparenti e intellegibili riguardo ai criteri di funzionamento dell’algoritmo. In linea con la giurisprudenza amministrativa, tale trasparenza non implicherebbe la divulgazione del codice sorgente, bensì l’esplicitazione della logica decisionale, dei parametri utilizzati e della ponderazione dei pesi, al fine di scongiurare l’insorgere di una opacità tecnologica che precluderebbe ogni diritto di difesa e contestazione.
Formazione dirigenziale e prevenzione dell’Automation Bias
Un rilievo preminente è assegnato alla formazione della dirigenza, identificata come conditio sine qua non per la legittimità dell’uso dell’IA. Il testo contrattuale mira a prevenire il fenomeno della delega mascherata, ovvero il rischio che il decisore umano si limiti a una validazione acritica dell’output algoritmico. La competenza tecnica del dirigente diviene dunque requisito essenziale per esercitare un controllo effettivo e consapevole, garantendo che l’intervento umano mantenga la sua funzione sostanziale di vaglio discrezionale e non degradi a mero adempimento formale.
Queste tutele riflettono la volontà del futuro contratto di bilanciare innovazione e rispetto dei diritti dei dipendenti, includendo l’IA nel perimetro contrattuale anziché delegarne unilateralmente l’uso alla sola discrezionalità manageriale. Inoltre, l’assetto delineato rappresenta la necessaria attuazione, sul piano del rapporto di lavoro, di un’architettura normativa sovranazionale e interna ormai consolidata.
La cornice regolatoria: convergenze tra AI Act, disciplina nazionale e tutela dei dati
Sotto il profilo strettamente giuridico, l’integrazione dell’IA nelle dinamiche lavorative si innesta su un terreno normativo già densamente regolato. Il punto di caduta fondamentale è rappresentato dal Regolamento (UE) 2024/1689 (AI Act), il quale introduce una tassonomia del rischio che classifica esplicitamente i sistemi destinati alla gestione del personale — ivi inclusi i processi di reclutamento, valutazione delle performance e assegnazione delle mansioni — nella categoria dei sistemi ad “alto rischio”.
Tale classificazione comporta, ex ante, l’assoggettamento a oneri di compliance particolarmente rigorosi, che spaziano dalla documentazione tecnica alla data governance, fino alla valutazione d’impatto sui diritti fondamentali. In questo contesto, il legislatore italiano è intervenuto con la Legge 23 settembre 2025, n. 132, che ha recepito e integrato la disciplina comunitaria delineando la prima cornice nazionale in materia. Il provvedimento rafforza gli obblighi di trasparenza in capo al datore di lavoro pubblico e istituisce un Osservatorio nazionale sull’IA nel mondo lavoro, con la finalità di monitorare e analizzare l’impatto delle tecnologie di IA su aziende e lavoratori, fornendo strumenti concreti per un’integrazione che sia efficace e sostenibile.
Il combinato disposto di queste norme interagisce con l’art. 22 del GDPR (Regolamento UE 2016/679), che sancisce il diritto dell’interessato a non essere sottoposto a decisioni basate unicamente sul trattamento automatizzato. L’ipotesi di contratto collettivo, pertanto, non fa che operare una messa a terra di tali principi generali, ribadendo la necessità della supervisione umana (human oversight) come argine invalicabile. Ne discende un ecosistema giuridico multilivello dove trasparenza, imputabilità dirigenziale e controllo umano costituiscono non più mere opzioni etiche, ma vincoli normativi inderogabili per la legittimità dell’azione amministrativa.
Tuttavia, il mero rispetto della compliance normativa costituisce condizione necessaria ma non sufficiente. La sfida si sposta anche sul piano dell’attuazione pratica, dove le norme incontrano la complessità dei processi organizzativi.
La dimensione ingegneristico-gestionale: data governance, standardizzazione e creazione di valore pubblico
L’ingresso dell’IA nei meccanismi di valutazione del personale inaugura un dibattito che trascende il dato giuridico per investire la sfera dell’ingegneria gestionale e delle policy pubbliche. La letteratura scientifica più recente concorda nel ritenere che l’efficacia dell’IA nella Pubblica Amministrazione (PA) sia strettamente correlata alla maturità dell’ecosistema informativo sottostante. Non si tratta, dunque, dell’adozione di una soluzione tecnologica plug-and-play, bensì di una ristrutturazione profonda che coinvolge fattori critici quali la data quality, l’allineamento strategico con gli obiettivi dell’ente e la gestione del cambiamento (change management).
I driver di successo e la qualità del dato
Analisi comparate su esperienze internazionali evidenziano come l’efficacia dei sistemi di performance management basati su IA dipenda da sei vettori fondamentali: accessibilità e qualità dei dati; coerenza con gli obiettivi strategici; trasparenza dei criteri algoritmici; leadership diffusa; coinvolgimento degli stakeholder e change management. In quest’ottica, l’IA non opera nel vuoto, ma deve innestarsi su cicli di miglioramento continuo assimilabili al modello PDCA (Plan-Do-Check-Act) proprio dei Sistemi di Gestione per la Qualità (ISO 9001).
Standardizzazione e ISO/IEC 42001:2023
Sotto il profilo metodologico, l’implementazione segue logiche di project management avanzato. In tale contesto, la ricerca accademica suggerisce un approccio integrato: attraverso un’analisi comparata, studi recenti propongono di fondere la solidità procedurale del collaudato standard ISO 9001 con il framework innovativo della ISO/IEC 42001:2023 (Artificial Intelligence Management Systems). L’obiettivo è mutuare le best practices consolidate in decenni di gestione della qualità — quali l’approccio per processi e il risk-based thinking — applicandole ai rischi specifici dell’IA. Tale sinergia operativa consente di non trattare l’IA come un corpo estraneo, ma di bilanciare la spinta all’innovazione con un uso etico e responsabile, costruendo un ecosistema di regole dove la fiducia è garantita da procedure standardizzate e auditabili.
Etica, accountability e valore pubblico
Nel contesto specifico della PA, la sfida ingegneristica deve armonizzarsi con la missione istituzionale di creazione del valore pubblico. Ciò impone la definizione di procedure di data governance auditabili e modelli di accountability che preservino i principi di imparzialità, equità e legalità. Del resto, le peculiarità intrinseche della PA — quali il perseguimento dell’interesse collettivo, la rigidità dell’inquadramento contrattuale e la presenza di una pluralità di stakeholder — non consentono adozioni tecnologiche informali o deregolamentate.
Tali specificità impongono, al contrario, che l’introduzione di strumenti innovativi sia formalizzata all’interno di politiche pubbliche definite e accordi contrattuali vincolanti. È in questa prospettiva che va letta l’ipotesi di rinnovo contrattuale in esame, ovvero come necessario atto di governance che istituzionalizza l’innovazione tecnologica.
Efficienza e valorizzazione del capitale umano: le potenzialità dell’IA
La letteratura più recente in ambito giuslavoristico e organizzativo concorda nell’individuare nell’IA una leva strategica per la modernizzazione dei processi di gestione delle risorse umane anche nel settore pubblico. Al netto delle necessarie cautele, l’adozione di tali sistemi promette di generare valore su molteplici direttrici.
Standardizzazione e valutazioni oggettive
L’impiego di algoritmi avanzati consente di elaborare grandi moli di dati storici e attuali, favorendo una maggiore uniformità nei giudizi. Ciò contribuisce a mitigare la discrezionalità soggettiva e i bias cognitivi del valutatore umano, offrendo un supporto empirico utile a superare la logica della distribuzione indifferenziata della premialità e promuovendo una meritocrazia basata su evidenze difendibili. L’analisi delle performance basata su dati può supportare decisioni più oggettive, riducendo l’arbitrarietà delle valutazioni.
Efficienza allocativa e operativa
L’automazione delle attività routinarie (raccolta dati, pre-screening, reportistica) libera risorse dirigenziali preziose, permettendo al management di concentrarsi su attività ad alto valore aggiunto.
Sistemi intelligenti possono elaborare grandi dataset per individuare pattern utili alla gestione delle risorse umane, finanziarie e strumentali.
Supporto alla pianificazione e formazione
In ottica predittiva, l’IA si rivela strumento essenziale per la rilevazione dei fabbisogni formativi.
Sistemi basati su IA sono in grado di suggerire percorsi di carriera personalizzati e ottimizzare il matching tra competenze possedute e incarichi da ricoprire, in linea con gli obiettivi strategici del singolo ente.
Qualità e innovazione culturale
L’integrazione dell’IA nei cicli di gestione della qualità abilita un monitoraggio in tempo reale delle performance, trasformando la cultura organizzativa in senso data-driven. In tal modo, le Amministrazioni possono avvantaggiarsi di feedback continui e indicatori più precisi sul raggiungimento degli obiettivi.
Standard internazionali raccomandano di usare l’IA per efficientare i processi aziendali, pur attenendosi a criteri etici. Se governato con trasparenza, questo passaggio favorisce un modello partecipativo in cui il lavoratore non subisce passivamente le decisioni, ma comprende le logiche sottostanti agli output algoritmici.
Tuttavia, è doveroso ribadire che tali benefici non sono intrinseci alla tecnologia, bensì contingenti alla qualità della governance. Come evidenziato da recenti analisi comparate tra gli standard ISO 9001 e ISO/IEC 42001, il guadagno di efficienza è direttamente proporzionale alla capacità delle organizzazioni di bilanciare spinta innovativa, formazione continua e supervisione etica.
Profili di rischio e criticità sistemiche nell’adozione dell’IA
L’introduzione di sistemi di IA nei processi valutativi, sebbene foriera di efficientamento, introduce un ventaglio di rischi significativi ampiamente indagati dalla letteratura scientifica recente. L’analisi delle criticità non attiene al mero funzionamento tecnico, ma investe anche la tenuta dei principi costituzionali e amministrativi.
Bias algoritmico e perpetuazione delle disuguaglianze
La prima e più grave criticità riguarda la non neutralità del dato. Qualora i dataset storici utilizzati per l’addestramento contengano pregiudizi pregressi — afferenti, a titolo esemplificativo, a genere, età o provenienza geografica — l’algoritmo tenderà inevitabilmente a codificarli e perpetuarli.
La casistica internazionale in ambito pubblico (si vedano i casi di monitoraggio automatizzato delle frodi o del welfare, come lo scandalo SyRI nei Paesi Bassi o Robodebt in Australia) ha dimostrato come errori di classificazione possano generare conseguenze devastanti sulla sfera patrimoniale e personale dei cittadini, con l’irrogazione di sanzioni o la sospensione di benefici basate su inferenze errate. Come osservato da autorevole dottrina, gli algoritmi complessi non operano in un vuoto valoriale ma finiscono per “incorporare” le scelte umane pregresse, riproducendo e amplificando le diseguaglianze sociali. In assenza di rigorosi controlli di equità e protocolli di de-biasing, l’IA rischia di colpire in modo strutturale e sistemico le fasce più vulnerabili della popolazione lavorativa.
Opacità sistemica e deficit di trasparenza
Una seconda criticità strutturale riguarda la trasparenza, segnatamente in relazione ai sistemi basati su Machine Learning e Deep Learning, spesso caratterizzati dalla natura di black box. La difficoltà interpretativa dei nessi causali che conducono all’output algoritmico pone un problema di legittimità: qualora ai lavoratori o alle rappresentanze sindacali non venga resa intellegibile la logica sottostante al funzionamento dell’algoritmo — principio peraltro recepito nell’ipotesi contrattuale — le decisioni amministrative rischiano di risultare incomprensibili e, di riflesso, difficilmente contestabili.
La letteratura evidenzia come tale opacità mini alla base il rapporto di fiducia istituzionale: in assenza di chiarezza esplicativa, le decisioni percepite come frutto di un calcolo tecnico insondabile tendono a essere vissute come ineluttabili, scoraggiando il ricorso e indebolendo il diritto di difesa.
Sovra-affidamento e il rischio della delega mascherata
Sotto il profilo psicologico-organizzativo, sussiste il pericolo concreto che la riserva di competenza umana rimanga una petizione di principio. Sebbene il quadro normativo assegni al dirigente l’ultima parola, la prassi operativa espone al rischio di Automation Bias, ovvero la tendenza cognitiva a validare acriticamente le indicazioni fornite dalla macchina, attribuendo loro una presunzione di verità superiore.
Studi di settore suggeriscono una sfumatura ulteriore: gli operatori tendono ad aderire alle previsioni dell’algoritmo specialmente quando queste confermano stereotipi o pregiudizi preesistenti. Senza un’adeguata formazione — opportunamente richiamata come condizione necessaria nella bozza contrattuale — si palesa il rischio di una delega mascherata, dove il manager abdica di fatto alla propria funzione valutativa, trasformando lo strumento di supporto in un decisore di fatto, con conseguente svuotamento della responsabilità dirigenziale.
Tensione con i valori pubblici
L’implementazione dell’IA nella PA può entrare in rotta di collisione con l’assiologia propria del servizio pubblico. Esperti di Public Human Resource Management notano come l’adozione di modelli proprietari, spesso sviluppati con logiche di mercato, possa confliggere con i principi di trasparenza, imparzialità e merito. L’utilizzo di software commerciali, non progettati specificamente per le peculiarità del settore pubblico, rischia di introdurre metriche di efficienza che non riflettono i criteri meritocratici normati dalla legge.
La contrattazione collettiva e la legislazione (L. 132/2025) tentano di ancorare l’uso tecnologico a questi valori, imponendo che l’efficienza algoritmica non sovverta le garanzie statutarie del pubblico impiego.
Privacy e sorveglianza
L’uso massivo di dati per la valutazione comporta rischi elevati sul fronte della protezione dei dati personali e della dignità del lavoratore. La raccolta e l’elaborazione di metriche sulle performance e sui comportamenti, se non rigorosamente perimetrate, possono violare i limiti imposti dallo Statuto dei Lavoratori (art. 4 L. 300/1970) e dalla normativa GDPR.
Oltre al profilo legale, emerge un’ulteriore criticità organizzativa: la consapevolezza di essere costantemente monitorati da un sistema analitico può generare ansia da prestazione, conformismo e un deterioramento del clima organizzativo, incidendo negativamente sulla motivazione e sul benessere psicofisico dei dipendenti.
Dipendenza tecnologica e vulnerabilità sistemica
Infine, delegare processi critici come la selezione o la valutazione a software esterni espone l’amministrazione a rischi di Vendor Lock-in (dipendenza tecnologica) e a vulnerabilità di sicurezza. L’affidamento a terze parti per la gestione di algoritmi decisionali richiede strategie robuste di continuità operativa e resilienza cibernetica. In tal senso, il combinato disposto dell’AI Act e della normativa nazionale impone requisiti stringenti di robustezza informatica, affinché malfunzionamenti tecnici o attacchi informatici non paralizzino l’azione amministrativa o, peggio, alterino le carriere dei dipendenti.
l quadro dei rischi delineato dalla letteratura — spaziando dalla discriminazione automatizzata alla perdita di accountability — impone l’adozione di un approccio improntato al principio di precauzione. Sebbene le disposizioni contrattuali tentino di mitigare tali criticità attraverso trasparenza, formazione e supervisione, l’esperienza comparata suggerisce che solo una vigilanza attiva e costante potrà scongiurare l’emergere di effetti distorsivi nel lungo periodo.
Dibattito dottrinale e prospettive di ricerca
Le questioni sollevate dall’introduzione dell’IA nei meccanismi di valutazione del personale sono state oggetto di un’approfondita disamina nella letteratura accademica più recente, la quale evidenzia come la tecnologia rappresenti un fattore di trasformazione profonda degli assetti amministrativi.
Rimodulazione della Governance e metriche di performance
Una revisione sistematica su scala globale del settore locale ha messo in luce come l’adozione efficace dell’IA nella gestione delle performance dipenda da un framework multidimensionale composto da sei fattori interdipendenti. La dottrina ribadisce che l’IA non può essere implementata con logiche emergenziali o estemporanee (“in corsa”): essa richiede una ristrutturazione radicale della governance delle performance. È necessario, pertanto, inserire la tecnologia in cicli di miglioramento continuo, ancorandola a obiettivi strategici chiari e a metriche condivise.
L’IA, in quest’ottica, funge da catalizzatore per lo sviluppo di nuove competenze e pratiche istituzionali, imponendo il superamento delle logiche burocratiche tradizionali a favore di una gestione per obiettivi realmente misurabili.
Riconfigurazione degli assetti di potere
Studi empirici recenti pongono l’accento sulle dinamiche di potere endogene all’organizzazione. L’introduzione di sistemi decisionali algoritmici altera gli equilibri preesistenti, innescando una competizione decisionale tra figure tradizionali (“manager operativi”) e nuove figure professionali (“analisti centrali” e “analisti ibridi”). Questi ultimi, forti di un know-how tecnologico che si somma alla conoscenza dei processi istituzionali, tendono ad acquisire una “influenza epistemica” crescente, rischiando di cooptare la cultura manageriale attraverso il controllo delle leve tecniche. Tale fenomeno suggerisce l’urgenza di strategie di Change Management mirate al bilanciamento dei poteri, per evitare che l’asimmetria informativa tecnica esautori la linea di comando manageriale e politica.
Il paradosso dell’Accountability e la percezione pubblica
Sul fronte della responsabilità percepita, ricerche recenti offrono spunti controintuitivi rispetto alla narrazione comune. I cittadini, lungi dall’esonerare l’amministrazione in caso di errori algoritmici, tendono ad attribuire una responsabilità ancora maggiore all’ente pubblico, specialmente qualora l’algoritmo sia stato sviluppato internamente. Ne consegue che, nel contesto pubblicistico, la delega tecnologica non funge da meccanismo di blame avoidance (evitamento della colpa). Al contrario, l’amministrazione è chiamata a una vigilanza rafforzata: il mancato rispetto di standard etici e di non discriminazione nei processi automatizzati si traduce in una perdita diretta di fiducia istituzionale, non imputabile al “bug” informatico ma alla governance dell’ente.
La convergenza sugli standard di gestione integrata
Infine, la letteratura sul Management dell’Innovazione converge sulla necessità di procedimentalizzare l’IA attraverso standard formali. L’integrazione del nuovo standard ISO/IEC 42001 con il consolidato ISO 9001 suggerisce un approccio sistemico: l’IA deve essere governata attraverso policy documentate e gestita con la medesima rigorosità riservata ai processi critici tradizionali. La proposta operativa che emerge dal dibattito è quella di un Sistema di Gestione Integrato, dove le politiche della qualità (auditing, obiettivi, PDCA) convivono organicamente con i requisiti specifici di governance etica e robustezza tecnica richiesti dall’IA.
Settore industriale e sfera pubblica: trasferibilità dei modelli e vincoli di contesto
L’osservazione delle dinamiche di industrializzazione dell’IA nel settore privato offre un prezioso bacino di best practices da cui l’amministrazione pubblica può attingere, pur con le dovute cautele adattive.
Le grandi corporation hanno da tempo implementato forme di Algorithmic Management — segnatamente nella logistica e nella gestione HR — adottando protocolli standardizzati (spesso di matrice ISO) per garantire qualità e compliance. Tali modelli offrono alla PA un paradigma operativo basato su indicatori di performance (KPI) rigorosi, audit algoritmici di terza parte e un approccio multi-stakeholder.
Tuttavia, la trasposizione di tali logiche nel settore pubblico non può avvenire in modo acritico. La PA è soggetta a vincoli teleologici e normativi distinti: il perseguimento del bene collettivo, l’obbligo di trasparenza radicale verso la cittadinanza e un quadro giuslavoristico più stringente. Ne consegue che l’efficienza algoritmica deve necessariamente sottostare a un vaglio di compatibilità costituzionale e sociale più severo rispetto al contesto privato.
Sotto il profilo metodologico, l’innovazione risiede nell’estensione dei principi dell’ingegneria gestionale — quali il controllo di processo, l’analisi dei flussi di lavoro e il Change Management — anche al settore pubblico. L’applicazione del ciclo di Deming (PDCA: Plan-Do-Check-Act) alla governance dell’IA si traduce in una prassi operativa rigorosa: definizione ex ante di obiettivi chiari e metriche di equità, implementazione monitorata del sistema e dei suoi output, verifica costante dell’aderenza ai criteri di non discriminazione e audit, ed infine azioni correttive immediate per correggere eventuali scostamenti.
In tale ottica, i controlli interni di gestione evolvono per includere l’algoritmo nel perimetro della “Qualità Totale”, garantendo che documentazione, tracciabilità e miglioramento continuo non siano solo adempimenti burocratici, ma presidi di legalità sostanziale.
Conclusioni
L’ingresso dell’IA nella contrattazione collettiva segna un cambio di paradigma epocale nel public management. L’ipotesi di contratto 2025-2027 definisce un preliminare quadro di garanzie sostanziali — trasparenza, formazione, coinvolgimento sindacale e divieto di automatismi decisionali — che recepisce fedelmente i principi del nuovo ordinamento europeo e nazionale (AI Act e Legge 132/2025).
Tuttavia, il successo di questa transizione non dipenderà unicamente dalla tenuta delle norme, quanto dalla capacità organizzativa di integrare l’innovazione. La letteratura recente suggerisce che la sfida prioritaria per la PA sia di natura strutturale: abbandonare la tradizionale organizzazione per funzioni burocratiche a favore di una strutturazione per processi.
È auspicabile, dunque, che la PA intraprenda un percorso di convergenza verso standard certificabili di gestione della qualità (come già hanno fatto alcuni enti virtuosi), condizione propedeutica per governare sistemi complessi. Solo un ente che ha mappato e ottimizzato i propri flussi di lavoro può, infatti, innestarvi efficacemente l’IA senza digitalizzare il disordine o amplificare le inefficienze.
Occorre riconoscere sia i benefici potenziali (coerenza valutativa, efficienza operativa e innovazione gestionale) sia i rischi documentati (bias, opacità e tensioni organizzative). Il settore pubblico, con le sue peculiarità, può trarre vantaggio dai modelli industriali ma deve anche salvaguardare i valori pubblici di equità e responsabilità.
Il modello contrattuale proposto offre una “terza via” interessante: lo Stato non subisce passivamente l’algoritmo, ma ne circoscrive formalmente l’ambito applicativo. In tal modo l’innovazione è incanalata entro perimetri di garanzia già stabiliti. Attraverso un approccio rigoroso e multidisciplinare — che intrecci diritto, ingegneria e organizzazione — l’IA può evolvere da fattore di criticità a strumento servente, garantendo un nuovo equilibrio tra efficienza tecnologica e tutela dei valori costituzionali.
Fonti
Alon-Barkat, Saar, Madalina Busuioc, Kayla Schwoerer, e Kristina S Weißmüller. 2025. «Algorithmic discrimination in public service provision: Understanding citizens’ attribution of responsibility for human versus algorithmic discriminatory outcomes». Journal of Public Administration Research and Theory 35(4): 469–88. doi:10.1093/jopart/muaf024.
Chiarella, Claudio, Claudia Corbinelli, e Margherita Banfi. 2025. «Law No. 132: Italy’s Leadership in National AI Regulation». A&O Shearman. https://www.aoshearman.com/en/insights/law-no-132-of-23-september-2025-italys-leadership-in-national-ai-regulation.
«EU AI Act: Risk-Classifications of the AI Regulation». 2024. https://www.trail-ml.com/blog/eu-ai-act-how-risk-is-classified.
Gueorguiev, Tzvetelin. 2025. «An approach to integrate Artificial Intelligence in ISO 9001-based quality management systems». Measurement: Sensors 38: 101787. doi:10.1016/j.measen.2024.101787.
Jattoni Dall’Asén, Massimiliano. 2026. «Statali, valutazioni affidate all’intelligenza artificiale (ma l’ultima parola spetta ai dirigenti)». Corriere della Sera. https://www.corriere.it/economia/lavoro/26_gennaio_17/statali-valutazioni-affidate-all-intelligenza-artificiale-ma-l-ultima-parola-spetta-ai-dirigenti-782c4ec8-cdc0-4bfa-bbfe-323c20327xlk.shtml.
Maake, Godfrey, e Cecile M. Schultz. 2025. «Using AI in Performance Management: A Global Analysis of Local Government Practices». Administrative Sciences 15(10). doi:10.3390/admsci15100392.
Vadala, Fortunato. 2026. «L’Intelligenza Artificiale entra nel contratto degli statali, ma l’Italia non ha un piano per gestirne gli effetti». https://decripto.org/lintelligenza-artificiale-entra-nel-contratto-degli-statali-ma-litalia-non-ha-un-piano-per-gestirne-gli-effetti/.












