intelligenza artificiale

AI e diritti umani: i paletti della Convenzione del Consiglio d’Europa



Indirizzo copiato

Il Consiglio d’Europa ha adottato il primo trattato internazionale giuridicamente vincolante sull’intelligenza artificiale, che disciplina l’intero ciclo di progettazione dei sistemi AI. La Convenzione mira a un approccio “umano-centrico”, minimizzando i rischi e promuovendo un’innovazione responsabile, coinvolgendo 46 Stati membri e 11 non membri, oltre a vari stakeholder

Pubblicato il 12 lug 2024

Angelo Alù

studioso di processi di innovazione tecnologica e digitale



openai dev day api

Il quadro normativo dedicato all’intelligenza artificiale si arricchisce di un ulteriore importante tassello riferibile al panorama internazionale. Il Consiglio d’Europa ha, infatti, recentemente adottato “il primo trattato internazionale giuridicamente vincolante” in materia, con l’intento di disciplinare l’intero ciclo di progettazione dei sistemi di intelligenza artificiale.

Il processo multistakeholder nella formazione della Convenzione

In particolare, all’esito di un lungo e articolato esame istruttorio svolto dal Comitato sull’intelligenza artificiale (CAI), la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto (Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law), aperta anche ai Paesi non europei, costituisce un corposo testo giuridico che mira a positivizzare un approccio “umano-centrico”, basato sulla minimizzazione dei rischi provocati dallo sviluppo dell’intelligenza artificiale, promuovendo un’innovazione tecnologica responsabile e sicura a tutela dei diritti umani.

In sede di predisposizione del contenuto normativo, il CAI ha avvallato un processo “multistakeholder” che ha previsto il coinvolgimento di 46 Stati membri del Consiglio d’Europa, Unione europea e 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti d’America e Uruguay), con l’ulteriore partecipazione di rappresentanti del settore privato, della società civile e del mondo accademico in qualità di osservatori.

Ambito di applicazione della Convenzione

Entrando nel merito delle disposizioni introdotte dal trattato, in primo luogo giova precisare che l’ambito di applicazione della Convenzione Quadro riguarda in via esclusiva il regime di protezione e promozione dei diritti umani, non regolando, invece, i profili economici e di mercato dei sistemi di intelligenza artificiale, come precisa la parte introduttiva della relazione esplicativa in tal senso formulata.

L’obiettivo del trattato è quello di fornire “un quadro giuridico comune a livello globale al fine di applicare gli obblighi giuridici nazionali e internazionali esistenti […] nella sfera dei diritti umani, della democrazia e dello Stato di diritto”, in relazione a qualsivoglia attività realizzata nell’ambito del ciclo di vita dei sistemi di intelligenza artificiale da parte di attori sia pubblici che privati (cfr. Rapporto esplicativo Convenzione).

Le fonti della Convenzione

Per tale ragione, il Preambolo della Convenzione Quadro, dopo aver enunciati i richiamati impegni così sanciti, menziona una serie di fonti rilevanti in materia: tra l’altro, la Dichiarazione del Comitato dei Ministri del Consiglio d’Europa sulle capacità manipolative dei processi algoritmici, la Raccomandazione sull’intelligenza artificiale adottata dal Consiglio dell’OCSE (recante i cosiddetti “Principi OCSE sull’intelligenza artificiale”), la Raccomandazione del Comitato dei Ministri del Consiglio d’Europa agli Stati membri sugli impatti dei sistemi algoritmici sui diritti umani, la Raccomandazione UNESCO sull’etica dell’intelligenza artificiale, e il Regolamento UE che stabilisce norme armonizzate sull’intelligenza artificiale.

Obiettivi principali del trattato internazionale

Tenuto conto della cornice regolatoria di riferimento, il Preambolo del testo stabilisce, come obiettivo fondamentale, l’opportunità di assicurare lo sfruttamento delle potenzialità applicative offerte dalle nuove tecnologie emergenti, nell’ottica di cogliere i vantaggi positivi che l’innovazione digitale è in grado di garantire a beneficio del benessere individuale e sociale, purché ciò avvenga sempre in modo responsabile e sostenibile, nel rispetto dei diritti umani, della democrazia e dello Stato di diritto, secondo i valori condivisi dalle parte aderenti.

In diretta attuazione delle statuizioni di principio ivi consacrate, la Convenzione Quadro si prefigge, dunque, lo scopo di assicurare la protezione dei diritti fondamentali entro la sfera di competenza che, in ossequio agli obblighi internazionali vigenti, delimita l’area di intervento del Consiglio d’Europa, senza creare nuove fattispecie applicative, ma con il solo intento di estendere gli standard di tutela, ancorché oltremodo ragionevolmente rafforzata, a protezione dei rischi presenti e futuri posti dallo sviluppo dell’intelligenza artificiale.

Al riguardo, con l’intento di identificare le attività potenzialmente lesive, suscettibili di pregiudicare i diritti umani, la tecnica regolatoria predisposta in sede di stesura del testo giuridico ricostruisce in senso ampio ed elastico il ciclo di vita che caratterizza le varie fase di progettazione dei sistemi di intelligenza artificiale, facendo riferimento a qualsivoglia processo di pianificazione, raccolta, elaborazione, sviluppo, test, verifica, convalida, implementazione, funzionamento e monitoraggio dei modelli tecnologici utilizzabili sia nel settore pubblico che in quello privato.

Pertanto, sia pure con un approccio flessibile e adattabile alle specifiche caratteristiche dei sistemi di intelligenza artificiale, le parti aderenti si impegnano ad adottare e applicare misure “gradualizzate e differenziate (ex articolo 16) secondo quanto necessario in considerazione della gravità e della probabilità che si verifichino impatti negativi sui diritti umani, sulla democrazia e sullo Stato di diritto”, ricorrendo, se del caso, al bilanciamento tra contrapposti interessi meritevoli di tutela, previa valutazione dei rischi rilevabili (cfr. Rapporto esplicativo Convenzione).

Possibilità di revisione del quadro normativo

L’obbligo di conformazione alle prescrizioni stabilite dal trattato prevede, tra l’altro, la possibilità di revisionare il quadro normativo vigente, migliorarne le condizioni di applicabilità e, altresì, rendere i rimedi di tutela più satisfattivi rispetto ai rischi determinati dai sistemi di intelligenza artificiale, come chiarisce, appunto, la relazione esplicativa del trattato, secondo cui “le misure da adottare o mantenere ai sensi della Convenzione Quadro possono consistere anche in misure amministrative e non giuridicamente vincolanti, orientamenti interpretativi, circolari, meccanismi e processi interni, o giurisprudenza giudiziaria, come ciascuna Parte ritiene opportuno in linea con la gradazione e approccio differenziato di cui all’articolo 1, paragrafo 2”.

La definizione dei sistemi di intelligenza artificiale

L’articolo 2 della Convenzione Quadro definisce i sistemi di intelligenza artificiale, recependo l’ultima aggiornata classificazione terminologica elaborata dall’OCSE, nell’ottica di “rafforzare la cooperazione internazionale sul tema dell’intelligenza artificiale e facilitare gli sforzi volti ad armonizzare la governance dell’intelligenza artificiale a livello globale” (cfr. Rapporto esplicativo Convenzione).

In particolare, per “sistema di intelligenza artificiale” si intende “un sistema basato su una macchina che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare le condizioni fisiche o ambienti virtuali”.

Tale riferimento definitorio, pur essendo giustificato dall’esigenza di assicurare certezza giuridica, lungi dal costituire un parametro vincolante dal contenuto fisso e immutabile, si ritiene, invero, suscettibile di ulteriore specificazione integrativa da parte dei paesi aderenti in sede di recepimento applicativo della relativa nozione all’interno dei propri ordinamenti nazionali.

Le misure di tutela dei diritti umani previste

L’articolo 4 della Convenzione Quadro impone alle parti contraenti l’obbligo di adottare meccanismi di tutela rafforzata a presidio dei diritti umani in grado di assicurare la minimizzazione dei rischi provocati dallo sviluppo dell’intelligenza artificiale.

La salvaguardia dello Stato di diritto (art.5)

In tale prospettiva, risulta particolarmente rilevante il richiamo operato alla salvaguardia dello Stato di diritto, da cui discende l’integrità dei processi democratici (cfr. articolo 5), sul presupposto che l’uso pregiudizievole dell’intelligenza artificiale potrebbe compromettere il funzionamento degli attuali assetti istituzionali, erodendo la fiducia dell’opinione pubblica, sino a destabilizzare del tutto la società. In realtà, ben oltre l’aspetto meramente preventivo di precludere, in senso negativo, la progettazione dannosa di sistemi di intelligenza artificiale, l’articolo 5 vincola le parti aderenti, in una dimensione proattiva di positivo intervento, ad adottare misure specifiche volte a promuovere “l’equo accesso e la partecipazione degli individui al dibattito pubblico, nonché la loro capacità di formarsi liberamente opinioni”.

Il rispetto inderogabile della dignità umana e dell’autonomia individuale (art.7)

L’approccio di supervisione tecnologica “umano-centrica” trova un’esplicita positivizzazione nell’articolo 7 della Convenzione Quadro, ove si statuisce espressamente il rispetto inderogabile della dignità umana e dell’autonomia individuale come requisiti indispensabili della governance edificata in materia di intelligenza artificiale.

Al riguardo, la relazione esplicativa precisa che “le attività all’interno del ciclo di vita dei sistemi di intelligenza artificiale non dovrebbero portare alla disumanizzazione degli individui, minare la loro capacità di agire o ridurli a semplici punti dati, o antropomorfizzare i sistemi di intelligenza artificiale in un modo che interferisca con la dignità umana. La dignità umana richiede il riconoscimento della complessità e della ricchezza dell’identità, dell’esperienza, dei valori e delle emozioni umane”.

Trasparenza e controllo nell’uso dell’intelligenza artificiale (art.8)

In combinato disposto con la citata formulazione testuale, costituiscono diretti corollari del menzionato approccio “umano-centrico” i principi della trasparenza e del controllo (cfr. articolo 8) proclamati per garantire il funzionamento comprensibile e accessibile dei sistemi di intelligenza artificiale, vietando la progettazione di algoritmi oscuri e opachi in grado, tra l’altro, di diffondere contenuti manipolatori, falsi e discriminatori.

La relazione esplicativa chiarisce due importanti accezioni concettuali del principio di trasparenza, declinabile in termini di spiegabilità e interpretabilità.

In particolare, la spiegabilità viene intesa come “capacità di fornire, subordinatamente alla fattibilità tecnica e tenendo conto dello stato dell’arte generalmente riconosciuto, spiegazioni sufficientemente comprensibili sul motivo per cui un sistema di intelligenza artificiale fornisce informazioni, produce previsioni, contenuti, raccomandazioni o decisioni”.

Il canone di interpretabilità, invece, “si riferisce alla capacità di comprendere come un sistema di intelligenza artificiale effettua le sue previsioni o decisioni o, in altre parole, la misura in cui i risultati dei sistemi di intelligenza artificiale possono essere resi accessibili e comprensibili esperti e non esperti. Si tratta di rendere il funzionamento interno, la logica e i processi decisionali dei sistemi di intelligenza artificiale comprensibili e accessibili agli utenti umani, inclusi sviluppatori, parti interessate, utenti finali e persone interessate”.

In ogni caso, poiché il principio di trasparenza non costituisce una prerogativa assoluta, assumendo connotati confliggenti, è suscettibile di entrare in rotta di collisione con altri valori di pari tutela giuridica (come il diritto alla riservatezza, la tutela della sicurezza nazionale e dell’ordine pubblico, nonché la protezione dei segreti commerciali, ecc.). Per tale ragione, risulta indispensabile “trovare un giusto equilibrio tra i vari interessi concorrenti e ad apportare le modifiche necessarie nei quadri pertinenti senza alterare o modificare il regime sottostante della legge applicabile sui diritti umani” (cfr. Rapporto esplicativo Convenzione).

Il principio di responsabilità (art. 9)

Strettamente connesso ai principi di trasparenza e supervisione è il correlato principio di responsabilità (cfr. articolo 9), da cui discende l’obbligo degli Stati di predisporre interventi finalizzati a “prevenire e mitigare sia i rischi che gli impatti negativi sui diritti umani, sulla democrazia o sullo Stato di diritto”, identificando con precisione i responsabili di attività illecite commesse mediante l’utilizzo di sistemi di intelligenza artificiale (cfr. Rapporto esplicativo Convenzione).

Il divieto di non discriminazione (art. 10)

L’articolo 10 formalizza il divieto di non discriminazione, con l’intento di evitare che la progettazione del ciclo di vita dei sistemi di intelligenza artificiale possa provocare pregiudizi di qualsiasi natura “incorporati intenzionalmente o inavvertitamente” nell’addestramento dei relativi algoritmi, generando distorsioni applicative errate.

Il diritto alla privacy e la protezione dei dati personali (art.11)

Il successivo articolo 11 tutela il diritto alla privacy e la protezione dei dati personali, richiedendo la predisposizione di garanzie adeguate in relazione a tutte le attività che rientrano nel ciclo di vita dei sistemi di intelligenza artificiale, in diretta attuazione di quanto previsto dall’articolo 8 della CEDU e dall’articolo 8 della Carta dell’UE.

Affidabilità e sicurezza (art. 12-13)

I sistemi di intelligenza artificiale devono, inoltre, essere affidabili (cfr. articolo 12), laddove risultino conformi agli standard tecnici prescritti dalle norme vigenti, stimolando un processo continuo di innovazione sicura (cfr. articolo 13) come approccio proattivo che consenta di facilitare lo sviluppo evolutivo delle nuove tecnologie emergenti, purché ciò avvenga sempre nel rispetto inderogabile dei diritti umani.

I rimedi in caso di danni provocati dai sistemi di IA (art. 14)

L’articolo 14 è dedicato al regime dei rimedi azionabili in caso di danni provocati dai sistemi di intelligenza artificiale, statuendo la necessità di ricorrere a strumenti efficaci e accessibili “in grado di rimediare direttamente alle situazioni contestate e […] con sufficienti garanzie procedurali […] per la persona interessata” in caso di violazioni riscontrate (cfr. Rapporto esplicativo Convenzione).

Peraltro, secondo quanto indicato dalla relazione esplicativa, “laddove un sistema di intelligenza artificiale informa in modo sostanziale o prende decisioni che incidono sui diritti umani”, le garanzie procedurali enucleate a tenore dell’articolo 15 “dovrebbero, ad esempio, includere il controllo umano, compreso il controllo ex ante o ex post della decisione da parte degli esseri umani”.

Identificare, valutare, prevenire e mitigare ex ante i rischi per i diritti umani (art. 16)

Nell’ottica di assicurare l’effettività degli interventi realizzati in materia, l’articolo 16 “prescrive la necessità di identificare, valutare, prevenire e mitigare ex ante e, se opportuno, iterativamente durante tutto il ciclo di vita del sistema di intelligenza artificiale i rischi rilevanti e i potenziali impatti sui diritti umani, sulla democrazia e sullo Stato di diritto”, mediante lo sviluppo di una metodologia con criteri concreti e oggettivi nello svolgimento delle relative valutazioni, tenuto conto delle specifiche circostanze del caso concreto (cfr. Rapporto esplicativo Convenzione).

La rilevanza del modello “multistakeholder” (art 19)

L’articolo 19 della Convenzione Quadro formalizza la rilevanza del modello “multistakeholder” come generale processo partecipativo fondante la complessiva governance dell’intelligenza artificiale, prevedendo il costante ricorso al metodo della consultazione pubblica per definire qualsivoglia decisione da assumere in materia, con l’intento di stimolare una maggiore consapevolezza in relazione alle principali implicazioni applicative, positive e negative, poste dalle nuove tecnologie emergenti, con il diretto coinvolgimento di una vasta gamma di portatori di interessi.

Alfabetizzazione e delle competenze digitali (art 20)

L’articolo 20 tratta il tema dell’alfabetizzazione e delle competenze digitali, riconoscendo la fondamentale importanza della cultura digitale generale, inclusiva e sostenibile per promuovere l’uso sicuro, efficace e responsabile dei sistemi di intelligenza artificiale.

Istituzione della Conferenza delle Parti

L’articolo 23 istituisce la cosiddetta “Conferenza delle Parti”: si tratta di un nuovo peculiare organismo consultivo istituito per assicurare un’equa partecipazione di tutte le parti al processo decisionale in diretta attuazione di quanto previsto dalla Convenzione Quadro.

In particolare, la “Conferenza delle Parti” ha il compito, tra l’altro, di formulare proposte per facilitare o migliorare l’attuazione applicativa del trattato, identificando eventuali problemi giuridici, politici o tecnologici, esprimere raccomandazioni non vincolanti specifiche su qualsiasi questione riguardante la corretta interpretazione o applicazione della Convenzione Quadro, facilitare lo scambio di informazioni su aspetti giuridici, sociali, politici o tecnologici significativi in ​​relazione all’applicazione delle disposizioni pattizie, provvedere alla risoluzione delle relative controversie in ordine all’ambito di operatività del trattato.


Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3