diritti fondamentali

Etica e compliance nell’AI: la Carta dei diritti UE come bussola



Indirizzo copiato

L’AI Act porta l’etica dell’intelligenza artificiale dentro la compliance, ancorandola ai diritti fondamentali. Dal modello di accountability del Gdpr alla Raccomandazione Unesco, la Carta UE diventa base operativa per la FRIA e la progettazione responsabile

Pubblicato il 14 gen 2026

Fabio Bartolomeo

Senior Manager in Data Protection & Responsible AI – University Lecturer



etica AI; intelligenza artificiale AI etica e sostenibile
etica AI

L’AI Act segna il primo tentativo organico di disciplinare l’intelligenza artificiale non solo sul piano tecnico e di sicurezza, ma anche su quello etico e valoriale, assumendo una prospettiva dichiaratamente antropocentrica. Il regolamento si inserisce nel solco di un passaggio culturale già inaugurato dal GDPR: dall’obbligo di conformarsi a prescrizioni rigide alla richiesta di responsabilità consapevole e capacità di valutazione del rischio.

In questo quadro, l’etica non può restare un riferimento astratto, ma si positivizza nel diritto, trovando concretezza nei sistemi di tutela già vigenti, dalla Costituzione italiana, al GDPR fino alla Carta dei diritti fondamentali dell’Unione Europea.

Iniziare dalla formazione e dal cambiamento culturale: la Raccomandazione UNESCO del 2021

L’intelligenza artificiale rappresenta una delle più grandi rivoluzioni del nostro tempo: trasforma il modo in cui lavoriamo, comunichiamo, apprendiamo e condiziona perfino il modo in cui pensiamo. La sua capacità di elaborare informazioni, generare contenuti e supportare decisioni apre scenari straordinari di progresso, ma anche questioni complesse di responsabilità e giustizia.

L’etica dell’intelligenza artificiale nasce proprio da questa consapevolezza: la tecnologia non è neutra e il suo valore dipende dal modo in cui viene progettata, utilizzata e compresa. Essere etici, in questo campo, significa garantire che l’IA serva l’uomo, promuova la dignità e non comprometta i diritti fondamentali. In altri termini, l’IA è etica solo se chi la usa sa cosa è — se la conosce, la comprende e ne riconosce potenzialità e limiti.

In questo contesto, la Raccomandazione UNESCO sull’Etica dell’Intelligenza Artificiale, adottata nel 2021 dai 193 Stati membri, costituisce il primo strumento normativo di portata universale volto a orientare lo sviluppo e l’applicazione dell’IA secondo principi condivisi. Si tratta di un documento con valore legale internazionale, che mira ad assicurare che ogni organizzazione, azienda o persona fisica che sviluppi o implementi sistemi di intelligenza artificiale operi in modo etico, in conformità con i diritti umani, la dignità della persona e il bene comune.

La Raccomandazione non si limita a definire principi astratti, ma fornisce indicazioni concrete per promuovere un’alfabetizzazione diffusa sull’IA, incoraggiare l’uso responsabile delle tecnologie e sostenere un autentico cambiamento culturale fondato sulla conoscenza e sulla consapevolezza. Essa ribadisce che l’IA è davvero etica solo se chi la utilizza sa cosa è, comprendendone principi, limiti e implicazioni. L’etica non risiede nella macchina, ma nella coscienza informata dell’uomo che la governa.

Per questo la Raccomandazione pone grande rilievo sull’alfabetizzazione in materia di intelligenza artificiale, promuovendo la conoscenza come condizione essenziale della responsabilità. Educare bambini e adulti a comprendere il funzionamento, le potenzialità e i rischi dell’IA significa formare cittadini capaci di discernere e di orientare la tecnologia al bene comune.

L’intelligenza artificiale non è etica o immorale in sé. È uno strumento, e come ogni tecnologia dipende interamente dall’uso consapevole e culturalmente maturo che ne fanno gli esseri umani. A determinarne l’eticità non è l’algoritmo, ma l’insieme dei valori, delle regole e delle responsabilità che guidano chi lo progetta, lo sviluppa e lo utilizza.

Per questo motivo i principi etici non sono un vincolo esterno all’IA: ne sono la condizione di ammissibilità intrinseca. Senza di essi, una tecnologia potenzialmente straordinaria rischia di trasformarsi in un fattore di rischio, opaco, incontrollabile, incapace di essere inserito in un quadro democratico e giuridico ordinato.

Etica e orientamento valoriale nell’AI Act

Sono numerosi i richiami che l’AI Act dedica all’etica e all’uso responsabile dell’intelligenza artificiale. Il regolamento afferma, in apertura, che l’IA deve essere sviluppata e impiegata in modo antropocentrico, in coerenza con i valori dell’Unione e con il fine ultimo di migliorare il benessere umano (Considerando 6). A tale impostazione si affianca il richiamo espresso agli “Orientamenti etici per un’IA affidabile” elaborati dall’AI High-Level Expert Group on Artificial Intelligence nel 2019, che individuano sette principi non vincolanti – tra cui intervento umano, robustezza, trasparenza, non discriminazione e responsabilità – da assumere come riferimento nella progettazione e nell’adozione dei sistemi di AI (Considerando 27). Inoltre, il regolamento sottolinea l’ambizione dell’Unione europea di diventare un leader mondiale nello sviluppo di un’IA sicura, affidabile ed etica, garantendo che la trasformazione digitale avvenga nel rispetto della dignità umana e dei diritti fondamentali (Considerando 8).

In conseguenza di questi numerosi richiami, l’AI Act europeo assume una rilevanza di particolare portata nel dibattito sul rapporto tra etica e diritto: si tratta infatti della prima normativa al mondo che tenta di disciplinare in modo organico lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale, ponendo l’attenzione non solo sugli aspetti tecnici e di sicurezza, ma anche su quelli etici e valoriali.

Etica come responsabilità e maturità: il parallelo con il GDPR

Ma che cosa si intende esattamente per etica? Il termine greco “éthos” rimanda tanto al comportamento (diffuso e condiviso da una comunità) quanto al carattere, e dunque alla disposizione interiore dell’uomo a discernere tra ciò che è giusto e ciò che non lo è. L’etica è quindi un principio filosofico, non un corpus normativo: una bussola più che una regola. Essa non prescrive, ma orienta.

Questa sua natura la rende affascinante ma, al contempo, difficile da tradurre in strumenti giuridici. Laddove il diritto esige chiarezza, prevedibilità e sanzione, l’etica vive di intenzioni, di coscienza, di contesto. È per questo che il tentativo del legislatore europeo di trasformare un principio interiore in obbligo di compliance rappresenta una sfida senza precedenti.

Già con altra normativa di matrice europea si era dovuto affrontare un tema analogo, e in un certo senso connesso: il passaggio da norme prescrittive a norme basate su principi, fondate sul concetto di accountability. È il caso emblematico della normativa sulla protezione dei dati personali.

Giusto per fare un esempio, si pensi a come il vecchio Codice Privacy, in un suo allegato tecnico, prescriveva puntualmente che una password dovesse contenere almeno otto caratteri alfanumerici, offrendo così un modello operativo chiaro, quasi una ricetta. Con l’avvento del GDPR, questa logica è mutata radicalmente. Il legislatore non detta più le misure specifiche, ma introduce il principio delle “misure tecniche di sicurezza adeguate”: un concetto volutamente aperto, che impone a chi tratta i dati di esercitare giudizio, competenza e capacità di valutazione del rischio. In altre parole, non si tratta più di applicare un elenco di prescrizioni, ma di comprendere il contesto, analizzare le minacce, stimare gli impatti e assumersi la responsabilità delle scelte adottate.

Questo cambiamento ha prodotto, per molti operatori, un apparente paradosso: la norma sembra più vaga, eppure richiede maggiore consapevolezza. Non fornisce più certezze formali, ma pretende maturità sostanziale. È un salto culturale prima ancora che giuridico, perché sposta l’asse dalla conformità meccanica alla responsabilità consapevole.

Il richiamo ai principi etici costituzionali della legge 132 del 2025

La Legge 132 del 2025, nel richiamare esplicitamente il rispetto dei principi etici della Costituzione italiana, (Art. 3 […] l’applicazione e l’utilizzo di sistemi e di modelli di intelligenza artificiale per finalità generali avvengono nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione […]) non compie un gesto meramente formale: affonda le sue radici in un patrimonio valoriale che rappresenta la spina dorsale della nostra democrazia. Parlare di “principi etici costituzionali” significa evocare una visione dell’essere umano e della società che precede ogni regolazione tecnica e orienta l’azione pubblica verso un equilibrio tra innovazione, diritti e responsabilità.

Al centro vi è innanzitutto la dignità della persona, cardine dell’articolo 2 della nostra Carta, che riconosce i “diritti inviolabili dell’uomo” e richiama i doveri inderogabili di solidarietà. È un’impostazione profondamente antropocentrica: ogni tecnologia, ogni decisione amministrativa, ogni politica deve mantenere l’essere umano come misura e fine.

Accanto alla dignità si colloca il principio di uguaglianza, formale e sostanziale, sancito dall’articolo 3. La Costituzione chiede alla Repubblica di rimuovere gli ostacoli che limitano libertà e partecipazione. Questo significa che le scelte organizzative, regolatorie o tecnologiche devono essere orientate a ridurre divari e non ad ampliarli, garantendo pari tutela e pari opportunità a tutti i cittadini.

Un altro pilastro è la solidarietà, che non è un valore astratto ma un vero criterio operativo: la Repubblica si fonda sull’idea che ogni individuo è parte di un corpo sociale più ampio e che le decisioni devono guardare al bene comune. È un principio che trova una sua declinazione concreta anche nel mondo del lavoro e dell’impresa.

Da qui deriva la centralità del lavoro, richiamata dagli articoli 1 e 4, come elemento di realizzazione personale e strumento di coesione sociale. La Costituzione riconosce al lavoro un valore etico: è mezzo per contribuire al progresso materiale e spirituale della società, non soltanto un fattore produttivo.

Questi valori si intrecciano con le grandi libertà costituzionali: la libertà personale (art. 13), la libertà di pensiero e di espressione (art. 21), la libertà religiosa (art. 19). Sono garanzie che tutelano la persona nei suoi spazi più intimi e nelle sue scelte più essenziali. La loro protezione è un parametro di legittimità per qualunque intervento normativo.

Anche il principio di responsabilità verso la Repubblica, richiamato dall’articolo 54, rientra nel quadro etico: chi esercita funzioni pubbliche deve farlo con “disciplina e onore”, cioè con un atteggiamento coerente con i fini costituzionali e con il senso del servizio.

Dall’etica al diritto: la Carta dei Diritti come fondamento della FRIA

È estremamente difficile immaginare un codice normativo “prescrittivo” che disciplini l’etica senza tradirne l’essenza. L’etica, come l’accountability nel GDPR, non si impone dall’esterno attraverso un elenco di comportamenti obbligatori, ma si coltiva attraverso la riflessione, la coerenza e la capacità di leggere il contesto. Un comportamento può essere formalmente corretto e al tempo stesso eticamente discutibile; viceversa, un’azione non prevista da alcuna norma può essere pienamente etica.

Per questo, così come il GDPR ha chiesto alle organizzazioni di sviluppare competenze e costruire processi di valutazione del rischio applicando il principio della auto-responsabilizzazione anziché limitarsi a rispettare regole fisse, allo stesso modo l’etica richiede cultura, discernimento e responsabilità personale. Non può essere codificata una volta per tutte: va continuamente interpretata e vissuta, proprio come accade con i principi di accountability che fondano la moderna governance normativa.

Il punto di svolta sta proprio qui: nel cercare una connessione concreta tra un principio di valore e un obbligo operativo. L’AI Act riesce a farlo non “moralizzando” la tecnologia, ma ancorandola ai diritti fondamentali già tutelati dal diritto europeo: la dignità umana, la libertà, la non discriminazione, la protezione dei dati personali, la sicurezza.

In questa prospettiva, rispettare l’etica non significa aderire a un ideale astratto o meramente dichiarativo, ma conformarsi a norme giuridiche che garantiscono concretamente la tutela della persona. L’etica, dunque, non rimane un riferimento teorico esterno al diritto: essa si positivizza e trova attuazione attraverso dispositivi normativi che rendono quei principi giuridicamente esigibili.

L’AI Act si colloca esattamente in questo quadro: non come una semplice traduzione regolatoria di valori etici, ma come un intervento che si innesta su un sistema già esistente di tutele, nel quale la protezione della dignità, della non discriminazione, della trasparenza e della responsabilità è già sancita da fonti come la Carta dei diritti fondamentali dell’Unione Europea, il GDPR e la Legge 132/2025.

In altri termini, l’AI Act non crea l’etica della tecnologia, ma ne garantisce l’effettività, agganciandola a norme già dotate di forza applicativa. Come osserva Vincenzo Ambriola nell’articolo “Etica e intelligenza artificiale: la sfida del secolo”: «L’etica si trasforma faticosamente in diritto e, in questa veste, assume un carattere ordinamentale forte di un potere interdittivo e prescrittivo».

Questa lettura ci ricorda che il tema dell’Intelligenza Artificiale non è soltanto tecnologico, organizzativo o di efficienza dei processi: è un tema di garanzia dei diritti e di responsabilità delle organizzazioni. Ed è proprio su questo terreno che si colloca il nostro lavoro: comprendere come l’adozione dell’AI possa avvenire in modo consapevole, cioè efficiente, innovativo, ma allo stesso tempo rispettoso della persona, dei diritti e dei principi che fondano il nostro ordinamento.

Ecco dunque un possibile sillogismo:

  • se il principio guida del regolamento è l’antropocentrismo,
  • e se l’antropocentrismo tutela i diritti fondamentali dell’uomo,
  • allora rispettare l’etica nel campo dell’AI significa agire nel pieno rispetto di tali diritti.

In questo senso, l’etica non è un accessorio del diritto, ma la sua origine e finalità ultima. E se allora è la difesa dei diritti fondamentali dell’uomo l’oggetto della tutela dell’AI Act, sembra del tutto logico riferirsi proprio alla Carta dei Diritti Fondamentali dell’Unione Europea. Sono sei i titoli in cui essa si articola — Dignità, Libertà, Uguaglianza, Solidarietà, Cittadinanza e Giustizia — per un totale di 54 diritti riconosciuti e tutelati.

Tra questi, molti assumono oggi una rilevanza diretta nel momento in cui si sviluppano, implementano o utilizzano sistemi di intelligenza artificiale. Potremmo dire che la verifica di conformità etica, nell’era dell’AI, coincide con una verifica by design di tali diritti.

In questo senso, la Carta dei diritti fondamentali dell’Unione Europea potrebbe rappresentare il fondamento ideale e operativo per l’applicazione della FRIA (Fundamental Rights Impact Assessment), come previsto dall’Articolo 27 dell’AI Act. Lo strumento consente di valutare, sin dalle fasi iniziali di progettazione, l’impatto dei sistemi di intelligenza artificiale sui diritti e le libertà delle persone. La FRIA non è un adempimento formale, ma un processo di analisi strutturato che impone di considerare, per ogni sistema, quali diritti possano essere coinvolti e di individuare misure tecniche e organizzative atte a prevenirne la violazione.

Attraverso la FRIA, l’etica e il diritto si incontrano in un terreno comune: la progettazione responsabile. L’obiettivo non è solo garantire la conformità normativa, ma assicurare che i valori fondamentali europei diventino parametri di progettazione e criteri di qualità del sistema. In questo modo, la tutela dei diritti non è più un controllo a posteriori, ma una condizione intrinseca del ciclo di vita dell’intelligenza artificiale.

I principi della Carta CEDU alla luce della compliance all’AI Act

Non potendo esaminare nel dettaglio tutti i diritti fondamentali dell’uomo ci si limiterà a commentare i principali titoli con lo sguardo dell’AI Act.

Dignità umana (Titolo I)

Il primo pilastro della Carta dei diritti fondamentali dell’Unione Europea è la Dignità. Non è un concetto astratto, ma la base di ogni relazione sociale: riconosce che ogni persona è un fine e mai un mezzo. Nell’era dell’Intelligenza Artificiale, la dignità è esposta a forme nuove di violazione, spesso silenziose e difficili da intercettare.

È di pochi giorni fa la notizia di piattaforme che generano immagini deepfake, ricombinando volti reali con corpi nudi inesistenti. Non si tratta soltanto di falso o calunnia: è una ferita alla dignità, perché separa la persona dal controllo sulla propria immagine e sul proprio corpo. La riduzione dell’individuo a una rappresentazione manipolabile segna il punto di rischio più radicale.

La dignità messa a rischio dall’intelligenza artificiale non si manifesta soltanto in applicazioni così manifestamente illecite e riconoscibili. Esistono forme più sottili, più subdole, e proprio per questo potenzialmente più pervasive. Si pensi, ad esempio, ai sistemi di sviluppo manageriale e valutazione delle performance, che monitorano attività, tempi, interazioni, e li trasformano in punteggi o classifiche automatizzate. In questi contesti, decisioni riguardanti promozioni, avanzamenti o perfino la permanenza in azienda possono essere influenzate da indicatori algoritmici che riducono la complessità della persona a una serie di metriche standardizzate. Quando la relazione umana – il confronto, l’ascolto, il riconoscimento reciproco – viene sostituita da una logica valutativa puramente impersonale, la dignità professionale viene colpita. Il lavoratore non è più considerato nella pienezza della sua esperienza, della sua storia, delle sue qualità non misurabili, ma come un insieme di dati da processare. È una spersonalizzazione silenziosa, che richiede una vigilanza etica ancora più rigorosa proprio perché si presenta con l’apparenza della neutralità, dell’efficienza, dell’inevitabilità.

Il Titolo I richiama anche il rispetto dell’integrità della persona, fisica e psicologica. Qui si inseriscono i sistemi di riconoscimento facciale in spazi pubblici, le tecniche di sorveglianza emotiva, le analisi biometriche capaci di dedurre stati d’animo o vulnerabilità. Il confine tra tutela e controllo può diventare sottilissimo.

Ed è per questo che l’AI Act interviene vietando esplicitamente:

  • manipolazione subliminale,
  • sfruttamento delle vulnerabilità,
  • sorveglianza biometrica indiscriminata.

Preservare la dignità significa ribadire che la persona rimane al centro, anche quando l’informazione, la sua immagine, la sua voce e perfino le sue emozioni diventano traducibili in dati.

Libertà (Titolo II)

Le libertà fondamentali tutelate dal Titolo II — libertà di pensiero, di espressione, di informazione, di impresa — sono oggi presidiate da due normative che si intrecciano in modo decisivo: GDPR e AI Act. Il GDPR tutela la persona come soggetto titolare dei propri dati e della propria identità digitale; l’AI Act disciplina invece i sistemi che utilizzano quei dati per influenzare decisioni, comportamenti, scelte.

È in questo Titolo che il dialogo tra le due normative è più stretto: la protezione della libertà non si limita alla privacy, ma si estende alla autonomia cognitiva. Se un algoritmo orienta i nostri gusti, le nostre opinioni politiche o i nostri acquisti senza che ce ne rendiamo conto, la libertà resta formale ma rischia di essere sostanzialmente alterata.

Da qui derivano i divieti dell’AI Act su:

  • manipolazione comportamentale,
  • sfruttamento della vulnerabilità,
  • sistemi persuasivi progettati per influire inconsciamente sulle scelte.

La libertà, in questa prospettiva, non è solo poter scegliere, ma essere messi nelle condizioni di scegliere consapevolmente.

Uguaglianza (Titolo III)

Il Titolo III tutela le persone contro tutte le forme di discriminazione, ma l’era dei sistemi intelligenti introduce rischi strutturali. Gli algoritmi apprendono da dati storici che spesso riflettono diseguaglianze pregresse: di genere, di origine, di classe sociale.

Un algoritmo di selezione del personale che valorizza profili simili a quelli già presenti in azienda può riprodurre inconsapevolmente discriminazioni sistemiche. In questi casi il problema può derivare sia da dataset non rappresentativi della realtà attuale, sia da informazioni che rispecchiano modelli storici oggi eticamente inaccettabili: se l’algoritmo non viene corretto, consolida ciò che dovrebbe invece essere superato. Per questo l’AI Act richiede dataset rappresentativi, verificabili, tracciabili e meccanismi di audit continuo, includendo anche la capacità di intervenire sui bias quando la realtà descritta dai dati non coincide più con ciò che riteniamo giusto, equo e conforme ai diritti fondamentali. L’uguaglianza deve essere progettata by design, non verificata solo a posteriori.

Lavoro, dignità professionale e autonomia (Titolo IV)

Il Titolo IV afferma il diritto al lavoro in condizioni giuste e dignitose. L’introduzione dell’AI in azienda può liberare tempo e valorizzare le competenze, ma può anche ridurre l’individuo a un parametro di efficienza o a una variabile di ottimizzazione. È in questo snodo che le normative europee e italiane convergono.

La legge italiana sull’Intelligenza Artificiale insiste su un principio chiave: ogni decisione che incide sulla vita lavorativa deve essere trasparente, spiegabile e contestabile. Ciò significa che il lavoratore non può essere oggetto di processi opachi, algoritmici o automatici senza avere la possibilità di comprenderli e, se necessario, opporvisi.

Questa prospettiva affonda le sue radici nella Costituzione, che non considera il lavoro una mera attività economica, ma un fondamento della dignità e della partecipazione alla vita democratica (art. 1 e art. 4 Cost.). Il lavoro è ciò attraverso cui la persona contribuisce alla società, sviluppa la propria identità e costruisce relazioni significative. Ridurre il lavoro a una serie di KPI automatizzati significherebbe, in ultima analisi, ridurre la persona alla sua funzione produttiva.

Inoltre, il lavoratore è strutturalmente la parte debole nel rapporto con l’impresa: non dispone del controllo sui mezzi di produzione, né dell’accesso ai sistemi informativi interni, e spesso non conosce né può verificare gli algoritmi che condizionano valutazioni, premi, carriere e processi decisionali. Per questo il diritto interviene non solo come limite, ma come garanzia di equilibrio, introducendo obblighi di trasparenza, supervisione umana significativa, non discriminazione algoritmica e tutela contro l’automazione arbitraria delle decisioni.

In altre parole, la regolazione dell’AI nel mondo del lavoro non nasce da diffidenza verso la tecnologia, ma dalla consapevolezza che senza regole, l’innovazione può produrre vulnerabilità, mentre con regole chiare può diventare leva di emancipazione, qualità organizzativa e benessere professionale.

In continuità con l’AI Act, vengono affermati:

  • il principio della supervisione umana,
  • il divieto di sorveglianza algoritmica sproporzionata,
  • la necessità di preservare la dignità nelle relazioni professionali.

Un algoritmo può suggerire, ottimizzare, velocizzare, mai sostituirsi definitivamente alla valutazione umana.

Cittadinanza (Titolo V)

Nel Titolo V della Carta dei diritti fondamentali dell’Unione Europea, i principi di trasparenza ed efficienza non costituiscono semplici linee guida astratte, ma veri e propri diritti della persona. La trasparenza implica che decisioni, processi e criteri adottati dalle istituzioni siano comprensibili, motivati e accessibili: ogni cittadino ha diritto di conoscere come e perché viene presa una decisione che lo riguarda e di poterne verificare le ragioni. Questo non rappresenta soltanto un adempimento formale, ma un atto di riconoscimento della dignità individuale, perché attribuisce alla persona la facoltà di comprendere, valutare e prendere posizione consapevole.

Applicando tale principio al contesto contemporaneo, la trasparenza deve riguardare anche l’utilizzo dell’intelligenza artificiale nei procedimenti amministrativi: il cittadino ha diritto di essere informato quando una decisione è supportata da sistemi algoritmici, di conoscere le logiche generali che ne guidano il funzionamento e di poter confidare in garanzie effettive di non discriminazione e di supervisione umana. La trasparenza, in questo senso, diventa anche spiegabilità, cioè capacità dell’istituzione di rendere intellegibile ciò che l’algoritmo contribuisce a determinare.

Parallelamente, il principio di efficienza, inteso come buona amministrazione, non si riduce alla velocità dell’azione amministrativa. Esso richiede che l’operato delle istituzioni sia giusto, proporzionato e orientato all’utilità concreta della persona. Un’amministrazione inefficiente – lenta, farraginosa, ridondante o poco chiara – finisce per produrre diseguaglianze, ritardi e frustrazioni, di fatto negando l’eguaglianza sostanziale dei diritti. Rendere i procedimenti efficienti significa servire realmente la persona, eliminando oneri inutili, riducendo i tempi, semplificando i passaggi, senza però rinunciare ai necessari controlli e alla correttezza delle decisioni.

In questa prospettiva, trasparenza ed efficienza sono due aspetti complementari di un medesimo principio: l’azione amministrativa – e oggi anche l’adozione dell’AI nei processi – è giusta solo se comprensibile e orientata al benessere della persona. Il centro non è la tecnologia in sé, né la procedura come meccanismo astratto, ma la qualità della relazione tra istituzioni e individui e la capacità dell’ordinamento di garantire che ogni innovazione rimanga pienamente coerente con i diritti fondamentali.

Giusto processo e spiegabilità (Titolo VI)

La Carta dei diritti fondamentali dell’Unione Europea pone al centro la dignità umana, l’uguaglianza e la giustizia sociale come presupposti della convivenza democratica (artt. 1, 20–26). La giustizia, in questo quadro, non è solo un valore astratto, ma un criterio di equilibrio dei rapporti sociali, che si traduce nel riconoscimento della persona come fine e mai come mezzo.

Ne discende che le istituzioni hanno il compito di assicurare che ogni processo, compresi quelli tecnologici, rispetti equità, non discriminazione e inclusione, richiamando rigorosamente i principi fondamentali del “giusto processo”.

Nel settore della giustizia, la Legge 132/2025 compie una scelta chiara e più restrittiva rispetto all’impianto delineato dall’AI Act. Mentre la normativa europea si concentra sull’introduzione di requisiti di supervisione umana nei sistemi ad alto rischio (human-in-the-loop), lasciando aperta la possibilità che l’AI partecipi — entro determinati limiti — ai processi decisionali, il legislatore italiano fissa una linea invalicabile: il giudizio resta esclusiva prerogativa del magistrato.

L’AI può essere impiegata, infatti, solo nei servizi strumentali alla giurisdizione, quali la gestione dei fascicoli, la predisposizione di ricerche giurisprudenziali, l’organizzazione dei flussi documentali e la semplificazione dei procedimenti amministrativi interni. L’apertura all’innovazione tecnologica è dunque reale, ma rigorosamente delimitata alla dimensione di supporto, con l’obiettivo di migliorare l’efficienza dell’attività giudiziaria senza alterarne la natura.

La tutela del giudizio umano diventa così una tutela della dignità del cittadino e del giusto processo: l’AI può aiutare il giudice, ma non può mai sostituirlo.

Riprendendo il quesito iniziale, come è possibile dare concretezza al principio dell’“AI etica”, se l’etica, per sua natura, appartiene alla sfera della filosofia, dei valori, delle intenzioni e non delle procedure?

La risposta, ora, diventa più chiara.

Non si tratta di aggiungere un livello morale esterno alla tecnologia, né di confidare in una generica “buona volontà” degli sviluppatori o delle imprese. L’etica dell’AI prende forma ogni volta che proteggiamo e rendiamo effettivi i diritti fondamentali della persona.

Tutta la normativa contemporanea – dalle linee guida etiche sull’IA, ai principi del GDPR sulla correttezza e non discriminazione, fino ai requisiti dell’AI Act – converge nel richiedere che questi rischi siano prevenuti, non subiti. Il riferimento non è vago ma preciso: la Carta dei diritti fondamentali dell’Unione Europea offre il quadro più completo, ricordando che dignità, uguaglianza e giustizia devono essere integrate nella progettazione stessa dei sistemi. L’uguaglianza deve essere progettata by design, non verificata solo a posteriori. È lì, nei suoi Titoli, che l’AI Act trova radice, orientamento e misura. La dignità, le libertà, l’uguaglianza, il lavoro giusto, il giusto processo, la tutela dell’ambiente: ogni capitolo della Carta diventa un criterio operativo, un principio di progettazione, un limite e al tempo stesso una direzione.

In questa prospettiva, l’etica non è un ornamento culturale, ma un criterio di progettazione by design. Non abbiamo quindi bisogno di inventare una nuova morale per il tempo dell’Intelligenza Artificiale. Abbiamo già ciò che conta: una tradizione giuridica che riconosce l’uomo come valore in sé, e lo mette al centro della convivenza civile.

Verrebbe da pensare che, avendo chiarito il riferimento alla Carta dei diritti fondamentali, tutto sia risolto.

Facile, allora? Non proprio.

La Carta dei diritti fondamentali resta certamente il punto di riferimento essenziale per definire un quadro di AI etica: essa stabilisce valori, diritti e limiti non negoziabili. Tuttavia, la straordinaria eterogeneità delle applicazioni dell’intelligenza artificiale — per scopi, contesti, modelli, dati di training e capacità evolutive — pone questioni che non possono essere esaurite sul piano della semplice conformità formale.

Già a livello operativo, infatti, non è chiaro che cosa significhi realizzare “giustizia” nell’AI: la giustizia è un criterio unico o deve essere modulato in relazione ai settori di impiego, ai soggetti coinvolti, alle finalità perseguite?

Questo interrogativo si manifesta in modo evidente nella questione dell’uguaglianza.

Come abbiamo già visto nel commento al Titolo III della CEDU in tema di uguaglianza, nel progettare, adottare o valutare sistemi di AI, dobbiamo mirare a garantire parità di accesso, oppure, parità di risultato?

Sono due modelli profondamente diversi.

Se ci limitiamo a garantire pari condizioni iniziali, accettiamo che le differenze presenti nei dati — e quindi nella società — continuino a produrre esiti differenti. Differenze di partenza che, beninteso, sono reali e corrette. Se invece interveniamo sui risultati, cioè se correggiamo attivamente gli esiti algoritmici o la base dati di allenamento degli algoritmi, per compensare le disuguaglianze sociali, allora attribuiamo all’AI (o a chi la governa) un potere diverso: il potere di definire che cosa sia etico e dunque giusto.

Ma chi decide dove si traccia questa linea? Dobbiamo rispettare le differenze che emergono dai dati, comprese le loro distorsioni, perché appartengono alla realtà? Oppure dobbiamo tentare di correggerle, assumendo che la tecnologia debba contribuire a un ideale di equità? E se la correzione è necessaria — chi ha il diritto di farla?

Queste domande non trovano risposta in un allegato normativo, né in un algoritmo più sofisticato. Sono domande che appartengono al terreno più profondo e di difficile risoluzione dell’etica civile: il luogo in cui una società decide chi vuole essere.

Ancora una volta, la storia ci mostra un paradosso significativo: non è l’uomo che interroga la macchina, ma è lo strumento creato dall’uomo a porre nuove domande all’uomo stesso. L’Intelligenza Artificiale, nata per semplificare e supportare, ci costringe a tornare ai fondamenti della giustizia e dell’etica.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x