le proposte

AI Act: normativa generica e ambigua, la società civile lancia l’allarme



Indirizzo copiato

L’AI Act rappresenta il primo tentativo globale di regolamentare l’Intelligenza Artificiale, ma appare troppo generico e aperto a interpretazioni. La società civile gioca un ruolo cruciale per assicurare una governance responsabile e sostenibile. In Italia, la governance è ancora incerta e mancano meccanismi di tutela dei diritti. Servono proposte concrete per evitare rischi e discriminazioni

Pubblicato il 7 giu 2024

Laura Ferrari

the Good Lobby

Martina Turola

the Good Lobby



openai dev day api

L’AI Act è il primo tentativo al mondo di normare un settore complesso, in crescita e ancora fluido come quello dell’Intelligenza Artificiale. È il frutto di un complesso lavoro di mediazione, trattative e bilanciamento tra diversi attori ma, nella sua veste finale, appare ancora troppo generico, lasciando ampio spazio a diverse interpretazioni, eccezioni e concessioni.

AI Act, l’allarme della società civile

La voce della società civile in questo contesto è fondamentale: può dare un importante contributo nello sviluppo di una governance dell’intelligenza artificiale responsabile e sostenibile, sottolineando l’importanza di avere i diritti umani come bussola nella normazione. Queste tecnologie possono contribuire a far avanzare i diritti umani, ma allo stesso tempo possono anche metterli in pericolo. Uno dei principali rischi che gli strumenti di AI comportano è quello di produrre e facilitare risultati discriminatori, che violano i diritti civili, politici, economici, sociali e culturali di gruppi vulnerabili e marginalizzati. Sebbene il regolamento europeo miri a garantire che i sistemi di intelligenza artificiale siano affidabili e rispettino i diritti fondamentali, permangono preoccupazioni sul fatto che possa raggiungere pienamente i suoi obiettivi.

Dopo l’emanazione dell’AI Act, il governo e il parlamento italiano si sono già mossi per adeguare il tessuto normativo e andare incontro a quanto richiesto a livello europeo. Ma alcuni aspetti sono ancora poco chiari.

Governance: su chi ricade l’autorità dell’AI?

Una parte consistente del regolamento europeo è centrato sul tema delle autorità dell’AI, ma ad oggi in Italia non ne è stata ancora individuata una governance. Il DDL n.78 del 23 aprile 2024 prova a identificarla, ma è un semplice elenco di pratiche astratte che non fornisce un’indicazione concreta di ciò che sarà messo in atto. Come sarà possibile garantire la necessaria trasparenza ai cittadini e alle cittadine rispetto ai sistemi di IA già in uso da diverse Pubbliche Amministrazioni, ministeri, enti pubblici e sui quali non c’è la minima consapevolezza? Come sarà possibile garantire che queste tecnologie non amplifichino le discriminazioni esistenti? E come saranno incluse cittadinanza e società civile nella partecipazione a queste decisioni? Nessun atto al momento risponde a tali domande, ma è proprio su questi temi che si gioca il nostro futuro umano e digitale.

Sempre secondo tale DDL, l’autorità dell’AI sarà affidata a due agenzie governative, Agid e Acn. Tuttavia, affidare il controllo dell’IA a un’autorità preesistente potrebbe creare conflitti di competenza e interpretazioni legali, mentre un’entità ad hoc avrebbe un quadro di riferimento chiaro e definito.

È dunque necessario portare all’attenzione del legislatore una serie di raccomandazioni per una trasposizione a livello nazionale del regolamento europeo che mantenga, nel rispetto dell’impianto dell’AI Act, la tutela dei diritti al centro, a partire dall’assegnazione delle funzioni e delle responsabilità dell’autorità per l’intelligenza artificiale ad un organismo indipendente dal Governo, capace quindi di esercitare i propri poteri in maniera imparziale e obiettiva così come indicato dall’art 59 dell’AI ACT. Ecco, dunque, alcune delle caratteristiche fondamentali che dovrebbe garantire: indipendenza e autonomia politica; multidisciplinarità; un occhio attento all’etica e alla standardizzazione; obblighi di trasparenza e accesso alle informazioni; dotata di meccanismi di apertura alla società civile; con capacità finanziaria adeguata; costituita da un collegio rappresentativo; che adotti un modello operativo agile e dotato di solidi meccanismi di controllo.

Vuoti normativi: redress mechanisms e garanzie

Mancano invece all’appello due temi cruciali per la salvaguardia dei diritti: i redress mechanisms e le garanzie che ruotano intorno alla identificazione biometrica come strumento di indagine. A partire da quest’ultima, si consideri che l’utilizzo dell’identificazione biometrica è subordinata all’autorizzazione che dovrà essere fornita da un’autorità non definita dal regolamento, e che l’autorizzazione dovrà essere notificata ad un secondo ente che deve monitorarne l’utilizzo. Questi casi evidenziano come l’autorità preposta all’autorizzazione debba essere un’autorità giudiziaria, l’unica con un’esperienza consolidata nel bilanciamento di diritti fondamentali ed esigenze di indagine; analogamente, l’autorità incaricata della relazione annuale deve essere indipendente, con un monitoraggio pubblico e conoscibile/trasparente. Per quanto riguarda i redress mechanisms, è importante che i diritti di esporre denuncia per le violazioni del regolamento e il diritto di chiedere spiegazioni chiare e significative sulle decisioni individuali siano assistiti da procedure che li rendano effettivi, fissando termini congrui e un sistema di segnalazioni e sanzioni nei confronti di coloro che si sottraggono dall’obbligo di fornire indicazioni.

Riconoscimento facciale: rischi e raccomandazioni

Il tema del riconoscimento biometrico si lega necessariamente con una riflessione sulla tutela dei diritti. Fino a quindici anni fa, i sistemi di riconoscimento facciale erano pensabili solo in contesti distanti dai valori riconosciuti dall’UE, basati sul controllo dei propri cittadini per reprimere ogni forma di dissenso, come Hong Kong e Russia. Ma farsi sfuggire il controllo di tali tecnologie è facile anche in Europa. Una volta che una tecnologia di sorveglianza trova uno spazio per essere commercializzata, la storia testimonia che questa tecnologia si diffonderà. Quattro le caratteristiche principali per cui la società civile è spaventata dall’utilizzo di tali tecnologie in Italia:

  • Fallibilità: sono molti casi in cui le persone sono arrestate per un errore della tecnologia del riconoscimento facciale.
  • Innata natura invasiva: una volta installata, verrà utilizzata tale tecnologia. Dobbiamo porci il problema del fatto che queste tecnologie saranno a disposizione di chiunque sia al potere.
  • Tendenza ad un graduale ampliamento delle funzioni rispetto a quelle per cui è stata pensata.
  • Logiche oppressive di controllo insite nella tecnologia stessa.

Il recente regolamento europeo non è in grado di risolvere queste problematiche, ma solo di mitigarle.

Le raccomandazioni della società civile

Per cui la società civile lancia un allarme e propone delle raccomandazioni per evitare una deriva della tecnologia medesima:

  • I sistemi di riconoscimento facciali siano totalmente vietati negli spazi pubblici in Italia. Nel caso in cui il divieto assoluto non passasse, almeno ci fossero più controlli sugli impianti, fornendo una reportistica pubblica.
  • Rafforzare le verifiche su come i progetti presentati dai Comuni alle prefetture e successivamente al Ministero dell’Interno vengono implementati, e effettuare dei controlli sugli impianti di videosorveglianza installati, fornendo una reportistica pubblica.
  • Il Ministero dell’Interno, possibilmente in accordo con il Garante per la Privacy e/o l’Autorità nazionale per l’intelligenza artificiale, pubblichi nella maniera più accessibile e disaggregata possibile, i dati relativi all’utilizzo dei sistemi di riconoscimento facciale, riportando la percentuale di errori riscontrati e le statistiche relative al tipo di reato per cui è stato richiesto e autorizzato l’utilizzo, corredate da una valutazione d’impatto.
  • La gestione dei database che raccolgono dati biometrici di persone appartenenti a categorie vulnerabili come i migranti, i rifugiati e i richiedenti asilo, così come il funzionamento degli algoritmi utilizzati dal sistema SARI della Polizia di Stato, siano trasparenti e accessibili a giornalisti, organizzazioni non governative e osservatori nazionali e internazionali per i diritti umani.

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4