L’accordo raggiunto in sede di trilogo sull’AI Act è molto importante per il futuro dell’economia digitale europea. Per esprimere un giudizio complessivo dobbiamo aspettare un testo definitivo, ma è possibile fare già qualche considerazione.
Premettiamo che l’accordo dovrà essere confermato dal Consiglio e votato anche dal Parlamento per una verifica sul mandato dato ai negoziatori rispetto al testo. Soprattutto il lungo negoziato svoltosi tra il 6 e l’8 dicembre ha raggiunto un accordo politico “di massima” sugli ultimi temi ancora aperti dell’AI Act. Servirà ancora un intenso lavoro di affinamento tecnico per arrivare al testo che verrà adottato da Parlamento e Consiglio.
Teniamo anche presente che questo regolamento somiglia più a una direttiva per la quantità di atti delegati che prevede, in capo agli Stati, e che allungheranno i tempi di attuazione.
L’importanza dell’AI Act per l’Europa
Quello dell’8 dicembre è di sicuro un risultato importante per l’Unione: non ci sono nel mondo altri regolamenti così profondi e complessi sull’IA ma vale la pena di ricordare che negli ultimi due anni le altre superpotenze non sono restate a guardare e hanno anche loro cercato una propria “via alla regolazione dell’IA”.
Ne sono un esempio gli Stati Uniti con l’Executive Order del Presidente Biden ma anche la Cina che ha da tempo adottato norme sui sistemi di raccomandazione dei contenuti. Il rischio per l’Ue è che nel campo dell’IA il suo modello di regolazione non si affermi come l’unica strada da seguire ma che al contrario gli altri paesi scelgano approcci più permessi per le aziende (sul modello degli USA) o più circoscritti sulle materie oggetto di regolazione (come nel caso cinese).
Ad aprile 2021 la Commissione europea con la pubblicazione della Proposta di regolamento ha reso esplicito il suo obiettivo: dare all’Ue la prima legislazione sull’IA a livello globale. L’idea è di fare scaturire il cosiddetto “Brussels effect”: costringere i grandi player internazionali ad adeguarsi agli standard di sicurezza imposti dall’Ue per evitare i costi che si avrebbero a differenziare i prodotti nei vari mercati.
Luci e ombre
Dal punto di vista dell’industria ICT è positivo che il regolamento si regga su un impianto “risk based”: le regole sono più stringenti più sono critiche le aree di applicazione delle IA.
Allo stesso tempo dobbiamo evidenziare come per la regolazione dei Foundation Models – modelli di IA emergenti e allenati su grandi basi di dati, come GPT di OpenAi – questo approccio sia stato sostanzialmente derogato.
Il tema foundation model
Nel caso dei foundation model l’accordo ci sembra quindi confermare un giudizio sulla tecnologia in sé più che sugli usi e questo porrà problemi al loro sviluppo e utilizzo nell’UE
Saranno regolati in modo stringente in particolare ii Foundation Models “with systemic risk” ma questa categoria di IA è individuata sulla base di una soglia arbitraria della potenza di calcolo utilizzata per lo sviluppo dei modelli.
La preoccupazione che abbiamo condiviso con tutte le associazioni europee di categoria e Digital Europe è che questo regolamento preveda costi di compliance enormi a carico delle imprese rischiando di gravare proprio su quelle Pmi e start up che vorrebbe sostenere. Digital Europe sostiene che per ciascuna Pmi con più di 50 addetti i costi di compliance di questa normativa potrebbero aggirarsi intorno ai 300mila euro.
Deroghe per l’innovazione nell’AI ACT
Nell’accordo raggiunto – scrive il Consiglio europeo – “è stato chiarito che le sandbox di regolamentazione dell’IA, che dovrebbero creare un ambiente controllato per lo sviluppo, la sperimentazione e la convalida di sistemi innovativi di IA, dovrebbero anche consentire la sperimentazione di sistemi innovativi di IA in condizioni reali”. “Sono state aggiunte nuove disposizioni che consentono di testare i sistemi di IA in condizioni reali, nel rispetto di specifiche condizioni e salvaguardie”.
“Per alleggerire l‘onere amministrativo delle imprese più piccole, l’accordo provvisorio comprende un elenco di azioni da intraprendere per sostenere tali operatori e prevede alcune deroghe limitate e chiaramente specificate”.
Redazione
In ambito IA l’UE già ora si trova in una posizione di svantaggio rispetto alle altre grandi potenze globali e adesso più di ieri le nostre aziende avranno difficoltà nello sviluppare software innovativi.
Da un lato, è vero che l’adozione di un Regolamento che andrà a garantire lo sviluppo di prodotti sicuri e di qualità, aiuterà i consumatori ad avere maggiore fiducia nell’IA.
Dall’altro va sottolineato che non appena Regolamento sarà adottato inizierà un interregno di incertezza normativa sulla sua applicazione che avrà bisogno degli atti delegati della Commissione di standard internazionali e di molta giurisprudenza per concludersi.
Il tutto senza contare che adeguarsi agli obblighi dell’AI Act comporterà costi di compliance enormi a carico delle imprese rischiando di gravare proprio su quelle PMI e Start up che si vorrebbe sostenere
L’Europa investa in capacità innovativa
L’AI Act è necessariamente un punto di partenza, non di arrivo.
Per far sì che le regole adottate possano essere un’opportunità e non un freno, l’Unione europea dovrà affiancare al regolamento una strategia forte per rafforzare la capacità innovativa del nostro continente, possibilmente andando a coordinare e integrando le numerose esperienze nazionali – come quella italiana lanciata dal Sottosegretario Butti – che stanno nascendo.
Il lavoro da fare è tanto, bisogna assolutamente affiancare a questo regolamento programmi e risorse per acquisire competenze nell’AI e sostenere gli investimenti delle imprese.
Altrimenti saremo leader nella regolazione, ma senza un tessuto imprenditoriale leader nell’innovazione.
La nota Butti-Urso
In una nota congiunta il Sottosegretario alla presidenza del Consiglio con delega all’innovazione tecnologica, Alessio Butti, e il ministro delle Imprese e del Made in Italy, Adolfo Urso spiegano che succede ora dal punto di vista dell’Italia.
“Il regolamento in generale prevede che l’attuazione passi anche da atti delegati degli Stati. Prevista insomma flessibilità nell’attuazione nazionale del regolamento. Del resto l’IA interviene pesantemente su attività su cui gli Stati hanno forti prerogative, come la sicurezza e la Sanità, e non si poteva lasciare decidere tutto dall’alto da Bruxelles”.
“L’accordo politico preliminare dovrà ora essere sottoposto all’esame dei governi europei che ne valuteranno i dettagli in vista dell’approvazione finale da parte del Consiglio. L’Italia ribadirà la necessità di un quadro normativo semplice e chiaro, che rispecchi un equilibrio tra progresso tecnologico e salvaguardia dei principi etici costituzionalmente orientati e dei diritti dei cittadini, in grado di supportare adeguatamente lo sviluppo del mercato e della tecnologia, in perenne evoluzione. Il Governo auspica che la futura legislazione possa favorire un’innovazione responsabile e sostenibile, promuovendo sviluppo ed investimenti da parte delle imprese nazionali ed europee, nel rispetto dei diritti dei cittadini e delle prerogative degli Stati membri a salvaguardia dell’interesse nazionale”.
Redazione