Regolamento AI, la “terza via” europea lascia troppi nodi irrisolti: ecco quali - Agenda Digitale

l'analisi

Regolamento AI, la “terza via” europea lascia troppi nodi irrisolti: ecco quali

La proposta di regolamento Ue sull’AI può rappresentare un’alternativa, non solo per l’Europa, agli attuali approcci troppo autoritaristici o liberistici. Tuttavia, la direzione scelta non fornisce le risposte adeguate a costruire uno strumento normativo che tuteli sia gli individui sia chi investe. Serve più flessibilità

21 Mag 2021
Oreste Pollicino

Professore ordinario di diritto costituzionale, Università Bocconi. Membro italiano del consiglio di amministrazione dell'European Fundamental Rights Agency (FRA)

Giovanni De Gregorio

Università Bocconi

Flavia Bavetta

Praticante avvocato Gianni Origoni

Federica Paolucci

LLM Candidate, Università Bocconi

L’introduzione della proposta di Regolamento sull’utilizzo dei sistemi di intelligenza artificiale (AI) è stata accolta come uno step fondamentale per il “futuro digitale dell’Europa”. Tuttavia, sono ancora molte le domande attorno alla proposta e alla sua capacità di fornire un quadro giuridico chiaro che non miri soltanto ad assicurare gli obbiettivi del mercato unico ma anche la tutela dei valori europei, quali il principio di rule of law e la tutela dei diritti fondamentali. La necessaria presenza di questa tecnologia nel futuro tecnologico dell’Europa ma anche dei rischi causati dalla neonata società algoritmica portano quindi a domandarsi se il regolamento si collochi in un percorso dell’Unione orientato all’umanesimo digitale nell’era del capitalismo della sorveglianza.

Intelligenza artificiale, la burocrazia di un Regolamento ue che ostacola il progresso

Il concetto di rischio e il vacuum normativo dell’approccio Ue

La scelta della Ue sembra puntare a un approccio “risk-based” di carattere top-down dove le soglie di rischio sono definite direttamente dalla Commissione. Si tratta di una scelta cauta che lascia meno spazio a valutazioni sul rischio da parte degli operatori che, di conseguenza, sono vincolati al rispetto delle soglie identificate dalla Commissione. Tale approccio, inoltre, comporta la totale esclusione d’intere categorie di sistemi di AI – quelle considerate a basso rischio – da qualsiasi tipologia di controllo, comportando un vacuum normativo non indifferente. Infatti, laddove si riconosca l’esistenza di possibili rischi per i diritti fondamentali e data l’imprevedibilità del funzionamento di tali tecnologie, una simile esclusione potrebbe risultare quantomeno discutibile sul piano della protezione dei diritti dell’individuo, soprattutto in quanto non vi è alcuna analisi ex ante del singolo caso concreto.

E-Guide
Fashion e luxury retail: nuove strategie grazie ad AI e customer experience
Fashion
Intelligenza Artificiale

In tale contesto, se da un lato tale approccio tende a creare un sistema che agevola lo sviluppo dell’innovazione tecnologica, dall’altro esso crea svariate problematiche da un punto di vista interpretativo. Infatti, non risulta immediata la comprensione del concetto di “rischio” che non viene definito dalla proposta ma soltanto collegato a una scala di criticità identificata dalla Commissione sulla base delle tecnologie di AI e a seconda degli ambiti nei quali esse vengono utilizzate. Nell’explanatory memorandum, la Commissione collega il rischio alla sfera individuale e collettiva, specificando che “the same elements and techniques that power the socio-economic benefits of AI can also bring about new risks or negative consequences for individuals or the society”. Il Considerando 4 precisa “[…] artificial intelligence may generate risks and cause harm to public interests and rights that are protected by Union law”.

Il confronto col Gdpr sull’accountability

L’approccio descritto è stato anche oggetto di dibattito da parte dell’Ad hoc Committee on Artificial Intelligence (CAHAI). In tale contesto, il CAHAI ha promosso sin dall’inizio l’utilizzo di un approccio di valutazione e regolamentazione dell’AI basato sul rischio. Secondo il CAHAI tale metodo ha, infatti, il beneficio di comportare una valutazione e revisione su base sistematica e regolare degli utilizzi dell’AI. In una prospettiva top down, ciò può essere realizzato formulando principi chiave che devono essere garantiti nel contesto dell’AI. Secondo il feasability study, la potenziale introduzione di nuovi diritti e obblighi in un futuro strumento giuridico dovrebbe manifestarsi in modo necessario e proporzionato all’obiettivo da raggiungere, vale a dire la protezione dai potenziali effetti negativi dello sviluppo e dell’uso di sistemi di AI su diritti umani, democrazia e Stato di diritto, e in un modo che tenga conto di un equilibrio tra i vari interessi in gioco, anche aprendo a un approccio bottom up di tipo settoriale che fornisce requisiti contestuali (più dettagliati) sotto forma di soft law.

Proprio al fine di comprendere le caratteristiche di tale approccio risk-based, sembra naturale spingersi a osservare il sistema del GDPR basato sull’accountability del titolare del trattamento. Sebbene in alcuni casi si stia parlando di “GDPR but for Artificial Intelligence” il paragone è tutt’altro da essere così marcato. A parte la scelta dalla Commissione di usare un regolamento come già fatto nel 2016 in materia di dati personali, la proposta adotta un sistema di risk-based statico che, a differenza del GDPR, non prevede una definizione flessibile di accountability rispetto al contesto in cui opera il titolare del trattamento. La proposta di regolamento mutua categorie della disciplina consumeristica, volte a proteggere la parte debole del rapporto contrattuale e renderlo edotto delle generali dinamiche di funzionamento del prodotto. Un atteggiamento che, come notano taluni commentatori, non sembra essere attuale e performante in una società dove il consenso costituisce sempre più una base poco affidabile. Inoltre, lato sviluppatori si assiste a un compromesso asimmetrico: la regolazione ex ante richiesta al provider rischia di eccessivamente imbrigliare quest’ultimo in rigidi meccanismi di compliance.

La stessa scelta dello strumento regolatorio e il suo approccio top down provocano una certa soddisfazione se si guarda alla garanzia della rule of law, ma rischiano d’innalzare le soglie di rischio e che queste si traducano in una rigidità che non lasci margini di valutazione al provider su come adoperarsi nella pratica. L’approccio top down rischia di subire un processo di ibridizzazione, anche tecnologica, nel momento in cui le regole devono essere adottate nel settore privato. In questo senso, in assenza di principi generali come nel GDPR, il rischio è quello che il regolamento si trasformi in un mero sistema di compliance i cui contorni sono definiti da sistemi di soft law. Ciò che (almeno per ora) manca nella proposta è quella capacità del GDPR a porre limiti ma aprire all’adattabilità: l’approccio “by-design” e “by-default” ben caro al GDPR.

La mancanza di meccanismi di redress

Inoltre, dal punto di vista dei rimedi, appare particolarmente vistosa la mancanza all’interno del testo proposto di meccanismi di redress: vale a dire, quei meccanismi che consentano ai consumatori che subiscono decisioni automatizzate discriminatorie, o comunque errate, di ottenere un rimedio diretto al pregiudizio subito. Tale aspetto manifesta la necessità di chiarire questi aspetti, non solo per tutelare i consumatori, ma anche per fornire, nel pieno adeguamento dei principi costituzionali, un ponte per adire l’autorità giudiziaria. Una mancanza che preoccupa per la geopardizzazione e l’opacità che riversa sul lato dell’esercizio dei diritti. Non appare, difatti, coerente il prevedere una qualche forma di tutela solamente per coloro che sono sottoposti ai cosiddetti “sistemi ad alto rischio”: una piccola e residuale fetta del panorama dell’AI. Non consola nemmeno lo sguardo comparatistico ai rimedi offerti dal GDPR e i diritti dell’interessato a richiedere un intervento reattivo in caso di contestazione delle decisioni automatizzate o trattamento avvenuto in violazione di legge.

È di tutta evidenza che l’AI non processa solamente dati personali e non sempre il danno derivato da un processo automatizzato si ricollega a una violazione che ricade nel regime dei dati personali. Infine, la proposta non include né diritti specifici dei consumatori – come il diritto di contestare una decisione algoritmica e ottenere una supervisione umana – in termini di prodotti e servizi AI o rimedi. Prevedere un’autorità competente ma non i rimedi è un aspetto che preoccupa per la tutela degli individui e si allontana nettamente dalle premesse logico-giuridiche che sono alla base della proposta.

Conclusioni

La proposta sembrerebbe rappresentare un altro passo del costituzionalismo digitale, avendo il legislatore europeo abbandonato il liberalismo che ha contraddistinto la prima decade tecnologica degli anni duemila. La proposta di regolamento può rappresentare un’alternativa, non solo per l’Europa, all’approccio da un lato autoritaristico, dall’altro liberistico. Una “terza via” che risulta evidente sin dai considerando iniziali e che fa ben sperare per la realizzazione di un costituzionalismo digitale rivolto alla valorizzazione dell’uomo e dei diritti fondamentali. Tuttavia, la direzione di hard law non appare sufficiente per rispondere alle numerose domande che permangono e alle quali è necessario rispondere per costruire uno strumento normativo che tuteli sia gli individui sia chi materialmente investe e contribuisce alla crescita del mercato comune digitale. Al fine di raggiungere tale obbiettivo, è fondamentale prevedere un approccio più flessibile che inoltre fornisca dei rimedi senza condurre gli individui verso una nuova forma di status subjectionis priva di garanzie.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4