Intelligenza artificiale: il faro Ue su tutela delle vulnerabilità e principi antidiscriminazione - Agenda Digitale

L'approfondimento

Intelligenza artificiale: il faro Ue su tutela delle vulnerabilità e principi antidiscriminazione

La proposta di regolamento UE sull’intelligenza artificiale apre alla disciplina antidiscriminatoria e tutela delle vulnerabilità. Ecco i punti salienti

24 Nov 2021
Serena Vantin

SC Centro Studi e CRID - Centro di Ricerca Interdipartimentale su Discriminazione e vulnerabilità Unimore

La Commissione europea ha sottoposto al Parlamento e al Consiglio la proposta di Regolamento 2021/106 che armonizza il quadro sull’intelligenza artificiale (IA). l’insieme di tecnologie, in rapida evoluzione, che punta a migliorare il «benessere degli esseri umani».

La proposta, presentata lo scorso 21 aprile, rappresenta l’approccio europeo all’IA e frutto di un iter ampiamente partecipato, esito della consultazione pubblica successiva alla presentazione del Libro bianco sull’IA del 2020.

Nell’intento comunitario di promuovere il progresso tecnologico, assicurando un alto livello di protezione della salute, della sicurezza e dei diritti fondamentali degli individui, la proposta di regolamento della Commissione europea sull’intelligenza artificiale apre alla disciplina antidiscriminatoria e tutela delle vulnerabilità, anche se presta ancora scarsa attenzione nei confronti delle forme di discriminazione algoritmica

Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento

Intelligenza artificiale, la disciplina antidiscriminatoria

L’intero impianto delineato dalla proposta di Regolamento della Commissione si basa sulla valutazione del rischio in merito alla capacità di compressione dei diritti fondamentali e della disciplina antidiscriminatoria dell’Unione europea.

WHITEPAPER
Scopri gli strumenti da adottare per una completa digitalizzazione e diventare azienda data-driven
Big Data
Data Management

Il rispetto del principio di non discriminazione è così centrale che il documento si spinge ad affermare che: “La presente proposta integra […] il diritto dell’Unione in vigore in materia di non discriminazione con requisiti specifici che mirano a ridurre al minimo il rischio di discriminazione algoritmica, in particolare in relazione alla progettazione e alla qualità dei set di dati utilizzati per lo sviluppo dei sistemi di IA, integrati con obblighi relativi alle prove, alla gestione dei rischi, alla documentazione e alla sorveglianza umana durante l’intero ciclo di vita dei sistemi di IA”.

Contro le discriminazioni algoritmiche

Le norme introdotte avrebbero, pertanto, la funzione di integrare e sviluppare la disciplina antidiscriminatoria precedente, con il fine di ridurre al minimo le discriminazioni algoritmiche, sia dirette sia indirette alla luce di quanto già stabilito in termini di soft-law dalla “Risoluzione sulle implicazioni dei Big Data per i diritti fondamentali: privacy, protezione dei dati, non discriminazione, sicurezza e attività di contrasto” del 2017.

Si aggiunge, inoltre, che il contrasto alle discriminazioni deve avvenire sia in fase di progettazione (ex ante) sia in fase di creazione e addestramento del data-set.

A quest’ultimo proposito si impiega la nozione di «robustezza» nel duplice significato di:

  • «[resilienza] rispetto […] ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste)»;
  • e di capacità di resistenza alle «azioni dolose che possono compromettere la sicurezza del sistema di IA e comportare comportamenti dannosi o altrimenti indesiderati».

Opacità algoritmica dell’intelligenza artificiale

Particolare attenzione è dedicata altresì al problema dell’opacità algoritmica, per ovviare alla quale “è opportuno imporre un certo grado di trasparenza per i sistemi di IA ad alto rischio. Gli utenti dovrebbero poter interpretare gli output del sistema e utilizzarlo in modo adeguato. I sistemi di IA ad alto rischio dovrebbero pertanto essere corredati di documentazione e istruzioni per l’uso pertinenti, nonché di informazioni concise e chiare, anche in relazione, se del caso, ai possibili rischi in termini di diritti fondamentali e discriminazione”.

Rispetto del divieto di discriminazioni

In particolare, il rispetto del divieto di discriminazioni è specificamente invocato:

  • con riguardo al trattamento di fornitori e utenti stabiliti nell’Unione piuttosto che in un paese terzo, là dove si afferma che la normativa prevista dal Regolamento si applica a tutta l’intelligenza artificiale in uso nel continente;
  • rispetto all’impiego di «robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell’assistenza alle persone», con particolare riferimento al settore sanitario;
  • a proposito dei sistemi di identificazione biometrica remota, i quali sono considerati come sistemi ad alto rischio se agiscono «in tempo reale e a posteriori»;
  • nell’ambito dell’istruzione e della formazione professionale ovvero rispetto all’accesso a prestazioni e servizi pubblici e privati essenziali, dove eventuali errori, distorsioni o pregiudizi possono «perpetuare modelli storici di discriminazione»; nell’ambito delle attività di contrasto, polizia e amministrazione della giustizia;
  • nelle operazioni di controllo e di accesso alle frontiere, per la gestione delle migrazioni e le richieste di asilo.

La tutela delle vulnerabilità nell’intelligenza artificiale

La nozione di “vulnerabilità”, che è stata di recente al centro di ampie riflessioni giusfilosofiche, è espressamente richiamata nell’ambito della proposta di Regolamento con due diverse accezioni.

Le vulnerabilità umane

Da un lato, essa si riferisce alle vulnerabilità “umane” di determinate persone o di gruppi di persone; dall’altro lato, è ricondotta alle caratteristiche degli stessi sistemi di intelligenza artificiale.

In primo luogo, infatti, si raccomanda particolare attenzione nei riguardi di quelle «persone che potrebbero subire il danno o l’impatto negativo [del sistema di intelligenza artificiale in quanto] si trovano in una posizione vulnerabile […], in particolare a causa di uno squilibrio di potere, conoscenza, situazione economica o sociale o età» (enfasi aggiunta). A tal proposito, come si è già accennato, è richiamata soprattutto la vulnerabilità connessa «all’età o alla disabilità fisica o mentale», la quale peraltro rileva specificamente al fine di individuare quei prodotti o servizi che, sfruttando le fragilità di alcuni gruppi di persone, manipolano gli esseri umani producendo danni fisici o psicologici e un rischio inaccettabile, risultando pertanto vietate.

La nozione di vulnerabilità è invocata anche in quanto condizione contestuale, situata, ovvero socialmente prodotta a causa di particolari situazioni contingenti: a cominciare dalla necessità di accedere a specifici servizi essenziali («le persone fisiche che chiedono o ricevono prestazioni e servizi di assistenza pubblica dalle autorità pubbliche sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità competenti», oppure nel caso di procedure di accesso alle frontiere, posto che «i sistemi di IA utilizzati nella gestione della migrazione, dell’asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall’esito delle azioni delle autorità».

Le vulnerabilità informatiche

In secondo luogo, vulnerabili sono i sistemi e le risorse digitali dinnanzi a crimini e attacchi informatici, i quali possono essere diretti contro il prodotto di intelligenza artificiale, alterandone l’uso e le finalità sino a comprometterne lo standard di sicurezza, oppure contro l’infrastruttura ICT o la rete sottostante.

Pertanto, soprattutto per i sistemi ad alto rischio, è opportuno offrire garanzia della comprovata capacità di resistenza «ai tentativi di terzi non autorizzati [volti a] modificarne l’uso o le prestazioni sfruttando le vulnerabilità del sistema».

Conclusioni

Nonostante la centralità attribuita alla disciplina antidiscriminatoria e alla nozione di vulnerabilità, la proposta di Regolamento della Commissione europea presta limitata attenzione nei confronti delle diverse modalità tecniche, attraverso le quali possono prodursi o riprodursi forme di discriminazione algoritmica.

È ormai noto che, accanto a una funzione veridittiva e predittiva, i sistemi intelligenti possono produrre comportamenti classificatori risultanti in trattamenti ingiustificatamente sfavorevoli nei confronti di classi di persone non immediatamente riconducibili ai fattori protetti dal diritto antidiscriminatorio dell’Unione (si pensi alle discriminazioni nel prezzo).

Inoltre, quanto alle caratteristiche che l’ordinamento ritiene meritevoli di tutela, occorre riflettere approfonditamente sul carattere strutturale e pervasivo di alcune forme di discriminazione, a partire da quelle basate sul genere o sull’origine etnica, le quali possono produrre, inter alia, discriminazioni esplicite e intenzionali ammantate da pretesti probabilistici, errori di archiviazione, pregiudizi statistici e di equa rappresentatività del modello, pregiudizi per connessione.

Per rendere autenticamente effettiva la tutela antidiscriminatoria applicata all’intelligenza artificiale, scegliendo al contempo di mettere effettivamente in cima alle priorità politiche quei valori europei che vengono reclamati come centrali nel paradigma giuridico del continente, sarebbe opportuno prevedere specifici strumenti risarcitori a danno di chi dimostri di aver subito una discriminazione algoritmica significativa a causa dell’appartenenza a cluster di persone generati dal sistema o a gruppi storicamente oppressi. Potrebbe essere questa l’occasione per ripensare l’accesso al giudizio antidiscriminatorio, per esempio prendendo spunto dall’istituto dell’azione di classe (o class action) disciplinato all’art. 140-bis del nostro Codice di Consumo (d.lgs. 206/2005).

WHITEPAPER
Come modernizzare l'infrastruttura nell’era dei dati grazie al cloud computing?
Big Data
Business Analytics
@RIPRODUZIONE RISERVATA

Articolo 1 di 4