intelligenza artificiale

AI Act, troppo potere agli Stati? I problemi della proposta Ue

Il ruolo centrale assegnato agli Stati dalla proposta di regolamento AI Act pone una serie di criticità riguardo alla definizione dei criteri di utilizzo di alcune applicazioni di IA come i sistemi di identificazione biometrica remota “in tempo reale”. Ecco le criticità

25 Feb 2022
Giovanni De Gregorio

Postdoctoral Researcher, Centre for Socio-Legal Studies, Università di Oxford

Federica Paolucci

LLM Candidate, Università Bocconi

Oreste Pollicino

Professore ordinario di Diritto Costituzionale, Università Bocconi. Co-founder DigitalMediaLaws

L’Europa sta correndo contro il tempo per risolvere la complessità tecnica, giuridica e politica emersa nel corso del lento processo istituzionale di scrittura e negoziazione dell’AI Act.

La proposta di Regolamento sull’intelligenza artificiale presentata dalla Commissione contribuisce a disegnare i contorni della strategia europea, sollevando però una serie di questioni con riguardo al funzionamento e allo sviluppo anche dei mercati nazionali. La proposta infatti assegna compiti e impone limiti agli Stati membri nel definire una serie di obiettivi che riguardano, in particolare, la protezione dell’interesse pubblico. Che ruolo, quindi, può ricoprire l’Italia in questa sfida e quali sono le priorità sul piano nazionale sulle quali porre attenzione nel lungo percorso di definizione di uno strumento regolatorio per l’IA?

L’intelligenza artificiale made in Ue è davvero “umano-centrica”? I conflitti della proposta

Il piano programmatico dell’Italia

L’Italia ha dato prova di voler dare un contributo significativo alla priorità di fare dell’IA un asset tramite l’adozione della “Strategia sull’Intelligenza Artificiale”. Il piano programmatico pubblicato dal Ministero dell’Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministro per l’innovazione tecnologica e con la collaborazione di un gruppo di lavoro ad hoc,  contiene 24 politiche che hanno lo scopo di aumentare la competitività tecnologica del Paese a livello internazionale e di mettere a servizio di alcuni settori chiave le eccellenze della ricerca in campo IA. Il filo conduttore della Strategia parte dall’istruzione e dal plasmare nuove competenze: un aspetto innovativo per l’Italia che, anche nell’ultimo Digital economy and society index (Desi), pubblicato dalla Commissione europea, spicca per le limitate competenze digitali.

digital event
Quali sono le opportunità dell’Intelligenza Artificiale nelle nostre vite e nelle nostre attività?
Blockchain
Intelligenza Artificiale

I principi ispiratori della proposta richiamano la cornice già tracciata dall’Unione Europea e ruotano attorno al concetto di ‘Italy’s AI is a European AI’, a sugellare quel sodalizio che vede nell’azione coordinata degli Stati Membri la chiave per favorire un utilizzo consapevole dell’intelligenza artificiale. Nonostante le difficoltà sul piano della digitalizzazione, l’Italia, anche attraverso la Strategia, sta cercando di essere parte attiva e non solamente passiva del futuro dell’Unione.

AI, le finalità della proposta europea

Una delle finalità dell’AI Act è proprio quella di assicurare unificare e armonizzare le regole sulla produzione e sull’utilizzo dell’intelligenza artificiale, per fare dell’industria europea un vantaggio competitivo a livello globale. Tuttavia, la proposta Europea assegna agli Stati membri un notevole potere nel plasmare le direzioni di mercato interne. Questo aspetto preoccupa in quanto andrebbe non solo ad intaccare uno degli obiettivi principali della proposta, ma soprattutto andrebbe a produrre frammentazione nella sua applicazione.

Nel Considerando 68 si dice che “per motivi eccezionali di pubblica sicurezza o di tutela della vita e della salute delle persone fisiche nonché della proprietà industriale e commerciale, gli Stati membri possono autorizzare l’immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità”.

Un ruolo centrale agli Stati

Tale ruolo centrale degli Stati emerge chiaramente con riguardo alla definizione dei criteri di utilizzo di alcune applicazioni di IA. La proposta assegna agli Stati il compito di prevedere la possibilità di autorizzare in tutto o in parte l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, lettera d), e ai paragrafi 2 e 3. L’AI Act, difatti, pur vietando in via generale l’utilizzo di biometric identification systems a meno che tale uso sia strettamente necessario per la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di un attacco terroristico; il rilevamento, la localizzazione, l’identificazione o l’azione penale nei confronti di un autore o un sospettato di un reato.

Dunque, è possibile parlare di una certa apertura nelle eccezioni delineate dalla Commissione, in cui gli Stati Membri possono definirne l’utilizzo per scopi di pubblica sicurezza, come delineati anche dalla Direttiva Law Enforcement. iI paragrafo 3 dell’art. 4, prevede che “ogni singolo uso di un sistema di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto è subordinato a un’autorizzazione preventiva rilasciata da un’autorità giudiziaria o da un’autorità amministrativa indipendente dello Stato membro in cui deve avvenire l’uso, rilasciata su richiesta motivata e in conformità alle regole dettagliate del diritto nazionale di cui al paragrafo 4. Tuttavia, in una situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione e richiedere l’autorizzazione solo durante o dopo l’uso”.

L’IA nella Ue rischia la frammentazione

Tale apertura, oltre a comportare una serie di problematiche dal punto di vista dei diritti degli individui, ha delle conseguenze anche sul piano del mercato interno, in quanto andrebbe a favorire la frammentazione dell’utilizzo di questi strumenti invasivi e, dunque, la commercializzazione di essi in alcune aree dell’Unione a scapito di altre. Difatti, se l’intenzione è davvero quella di abolire determinate pratiche considerate pericolose per i diritti fondamentali degli individui, allora tale proibizione dovrebbe essere applicabile a tutti gli usi dei sistemi di biometria – pubblici o privati. Di contro, invece, la formulazione della Commissione risulta opaca e individua delle eccezioni vaghe nel consentire l’utilizzo della biometria per la ricerca di vittime di crimini e la prevenzione di attacchi terroristici, nonché anche per l’individuazione di sospetti criminali interessati da una pena detentiva di tre anni.

Questo conflitto lascia nelle mani degli Stati membri un ruolo interpretativo e definitorio fin troppo lasco, di cui le preoccupazioni di frammentazione non solo sul piano dei diritti, ma anche del mercato nazionale e comunitario. A questo riguardo, è il caso di ricordare che l’Italia ha recentemente previsto la sospensione di utilizzazione e installazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l’uso di dati biometrici fino al 2023 (si veda art. 9 co. 9 Decreto Capienze, DL 139/2021). Una decisione che potrebbe entrare in contrasto con l’impianto delineato dall’AI Act ma che mostra chiaramente qual è la direzione dell’Italia riguardo all’uso di sistemi biometrici.

Anche con riguardo alla definizione delle sanzioni, il Regolamento assegna un ruolo definitorio centrale agli Stati membri. Questi sono chiamati a “adottare tutte le misure necessarie per assicurare l’attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione” (Cons. 84). Qui troviamo un ulteriore possibile terreno di frammentazione. Come menzionato nella sezione 5.3 e nella sezione 5.4, l’AI Act non stabilisce forti strutture sanzionatorie, perché prevede principalmente un’autovalutazione interna da parte dei fornitori di IA per i sistemi ad alto rischio, combinata con standard armonizzati che devono essere sviluppati da ESO privati.

Anche se si assegna agli Stati membri il potere di prevedere norme sulle sanzioni, e le autorità di sorveglianza del mercato possono richiedere che un sistema non conforme sia ritirato o richiamato dal mercato, questo potrebbe non essere sufficiente a garantire un’applicazione efficace del Regolamento. A questo riguardo, occorre far tesoro dell’esperienza vissuta con il GDPR, ove è stato dimostrato che un eccessivo affidamento sul coinvolgimento delle autorità nazionali può condurre a livelli molto diversi di protezione nell’UE, a causa delle diverse risorse delle autorità, ma anche a causa delle diverse opinioni su quando e come (spesso) intraprendere azioni.

L’istituzione di uno European AI Board

Un’altra delle previsioni dell’AI Act è l’istituzione di uno European AI Board: una nuova autorità che, assieme alla Commissione, e in stretta collaborazione con l’industria tecnologica, dovranno svolgere un ruolo chiave nel coordinare le autorità degli Stati Membri, i quali, d’altro canto, dovranno assicurare un’applicazione coerente del Regolamento.

Queste e altre problematiche che riguardano la creazione di uno strumento regolatorio efficiente dovranno essere definite prioritariamente, non solo sul piano comunitario, ma anche nazionale. Nel contesto in fieri delineato, l’Italia può a ben vedere agire come promotore e traghettatore di un’idea che non porti a frammentazione, ma favorisca l’Unione, per assicurare che l’IA contribuisca al mondo della produzione e della ricerca, a quello sociale e ambientale, e, non da ultimo, ai diritti degli individui.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2