Il 6 giugno 2025 la Commissione europea ha avviato una consultazione pubblica sull’attuazione delle norme dell’AI Act relative ai sistemi di IA ad alto rischio.
Il lancio di tale consultazione, rivolta a tutta la comunità degli utenti di sistemi di AI che ricadano nell’ambito dell’AI Act ha la finalità di offrire alla Commissione orientamenti per la classificazione dei sistemi di IA ad alto rischio più puntuali di quelli, peraltro sintetici e puramente classificatori, attualmente previsti dallo IA Act. La Commissione si aspetta inoltre di avere suggerimenti per meglio definire le responsabilità lungo la catena del valore dell’IA.
Indice degli argomenti
I limiti strutturali dell’attuale AI Act
La consultazione, che si chiuderà il 18 luglio 2025, potrà riguardare sia le norme relative alla sicurezza dei prodotti sia le norme relative all’incidenza sulla salute, la sicurezza e i diritti fondamentali delle persone nei casi specifici di uso elencati nello IA Act.
L’iniziativa della Commissione, prevista nel programma della Commissione stessa, è particolarmente interessante perché dimostra tutti i limiti dell’attuale AI Act, improntato essenzialmente a una regolazione giuridica avente di mira l’indicazione degli usi vietati dell’IA, senza peraltro indicare in concreto quali siano le finalità in positivo dei sistemi di IA e quindi senza regolarne effettivamente l’uso e i limiti intrinseci ai sistemi di IA.
Riflettere sull’AI oltre i confini europei
La normativa attuale infatti si limita a definire i confini negativi dell’applicazione dell’AI ma non le finalità positive e, di conseguenza, le modalità operative utilizzabili.
In ogni caso l’apertura di questa nuova fase di consultazione è un’occasione estremamente utile per tornare a riflettere sulla regolazione dell’AI, anche in un quadro globale che possa andare oltre la tutela dello spazio unico europeo; ambito questo davvero troppo esiguo per esaurire tutti i temi connessi all’AI.
Ovviamente in questa sede ci si limiterà solo ad alcune considerazioni con l’obbiettivo di indicare essenzialmente un ventaglio di problemi aperti che attendono ancora una soluzione convincente.
Il carattere relazionale dell’intelligenza artificiale
Il primo aspetto che merita sottolineare, e che invece sembra spesso essere troppo trascurato, è il carattere relazionale che questa tecnologia presenta.
Essa infatti si basa inevitabilmente non solo sulla quantità e qualità dei dati a disposizione ma anche sulla relazione che inevitabilmente sussiste fra chi fa uso di questa tecnologia e chi ne utilizza i risultati.
Non si tratta solo di un aspetto contrattuale tra il fornitore del servizio e l’acquirente/utilizzatore ma di qualcosa di ben più profondo. Proprio l’aspetto relazionale tra fornitore del servizio e utilizzatore dovrebbe richiedere un apparato regolatorio proprio, specificamente pensato per questa tecnologia, che assicuri non solo che i dati sono corretti, attuali e utilizzabili ma anche, e soprattutto, che si usano i dati necessari al destinatario del servizio, definiti sulla base della relazione che intercorre tra fornitore e utente.
Certamente vi saranno casi nei quali tale relazione è di scarso rilievo ma vi saranno anche casi nei quali invece essa domina l’uso della IA e incide dunque sulle modalità con le quali il servizio è assicurato, i dati sono selezionati e l’analisi dei risultati e sviluppata.
L’impatto sociale delle tecnologie di IA
Un secondo aspetto non meno importante, basato anch’esso sul carattere relazionale dell’uso della IA, riguarda non più il rapporto fra il fornitore del servizio e l’utente ma fra chi fa ricorso a tecniche di IA e la società nel suo complesso.
Dovrebbe infatti essere evidente a tutti che qualunque analisi di dati i cui risultati siano resi noti ed entrino, o possano entrare, nel dibattito pubblico ha un effetto diretto e inevitabile anche sulla autorappresentazione della società nel suo complesso.
Considerato da questo punto di vista è evidente e inevitabile che l’uso delle tecnologie di IA non può essere considerato né come un fatto privatistico i cui effetti sono limitati all’operatore di IA né come un fatto che interessa solo il fornitore e l’utilizzatore del servizio ma riguarda la società tutta.
La debolezza concettuale dell’attuale quadro normativo
Ma se così è, ed è così, emerge con chiarezza che il limite principale dell’IA Act sia quello di non prevedere alcun controllo preventivo su chi fa ricorso a queste tecnologie e alle tecniche che si usano sia nella selezione dei dati sia nella valutazione di risultati.
Insomma è come se ammettessimo che il traffico stradale dipende solo da quanti sono i veicoli che lo compongono, indipendentemente da ogni preventivo accertamento dell’affidabilità di tali veicoli e dei loro componenti sia di ogni esame relativamente alle abilità di chi fa uso di tali veicoli.
Ripensare la regolazione dell’IA: verso norme più consapevoli e inclusive
Di nuovo emerge con chiarezza che il vero limite dell’AI Act è quello di aver preteso di regolare le tecnologie riconducibili alla raccolta e al trattamento dei dati senza prestare attenzione adeguata agli effetti relazionali che l’uso di queste tecnologie ha a seconda delle circostanze in cui sono adottate e della realtà sociale che coinvolgono.
Per ora possiamo fermarci qui ma è evidente che l’AI Act costituisce un tentativo molto “primitivo” di regolazione dell’uso di tecnologie di analisi dei dati.
Si comprende ben dunque perché l’apertura di una nuova fase di consultazione da parte della Commissione, anche se limitata a sole sei settimane, sia così importante e perché lo sia soprattutto con riferimento ai trattamenti ad alto rischio.
L’importante però è che questa volta non si abbia fretta e nessuno pensi di avere la verità in tasca.
La società digitale è cosa troppo complessa per pensare che i suoi componenti possano seguire scorciatoie improprie quando si tratta di analizzare i dati e i loro effetti.