Anitec-assinform

AI Act, attenta Europa: ora serve una strategia per l’innovazione



Indirizzo copiato

Si conferma il timore che questo regolamento preveda costi di compliance enormi a carico delle imprese rischiando di gravare proprio su quelle pmi e start up che vorrebbe sostenere. Ora è necessario lavorare a una strategia per l’innovazione europea. Altrimenti saremo leader solo nella regolazione

Pubblicato il 11 dic 2023

Eleonora Faina

direttore generale Anitec-Assinform

Ettore Russo

Anitec-Assinform



ai act governance; agenti AI autonomi ai act e pmi
agenti AI autonomi

L’accordo raggiunto in sede di trilogo sull’AI Act è molto importante per il futuro dell’economia digitale europea. Per esprimere un giudizio complessivo dobbiamo aspettare un testo definitivo, ma è possibile fare già qualche considerazione.

Premettiamo che l’accordo dovrà essere confermato dal Consiglio e votato anche dal Parlamento per una verifica sul mandato dato ai negoziatori rispetto al testo. Soprattutto il lungo negoziato svoltosi tra il 6 e l’8 dicembre ha raggiunto un accordo politico “di massima” sugli ultimi temi ancora aperti dell’AI Act. Servirà ancora un intenso lavoro di affinamento tecnico per arrivare al testo che verrà adottato da Parlamento e Consiglio.

Teniamo anche presente che questo regolamento somiglia più a una direttiva per la quantità di atti delegati che prevede, in capo agli Stati, e che allungheranno i tempi di attuazione.

L’importanza dell’AI Act per l’Europa

Quello dell’8 dicembre è di sicuro un risultato importante per l’Unione: non ci sono nel mondo altri regolamenti così profondi e complessi sull’IA ma vale la pena di ricordare che negli ultimi due anni le altre superpotenze non sono restate a guardare e hanno anche loro cercato una propria “via alla regolazione dell’IA”.

Ne sono un esempio gli Stati Uniti con l’Executive Order del Presidente Biden ma anche la Cina che ha da tempo adottato norme sui sistemi di raccomandazione dei contenuti. Il rischio per l’Ue è che nel campo dell’IA il suo modello di regolazione non si affermi come l’unica strada da seguire ma che al contrario gli altri paesi scelgano approcci più permessi per le aziende (sul modello degli USA) o più circoscritti sulle materie oggetto di regolazione (come nel caso cinese).

Ad aprile 2021 la Commissione europea con la pubblicazione della Proposta di regolamento ha reso esplicito il suo obiettivo: dare all’Ue la prima legislazione sull’IA a livello globale. L’idea è di fare scaturire il cosiddetto “Brussels effect”: costringere i grandi player internazionali ad adeguarsi agli standard di sicurezza imposti dall’Ue per evitare i costi che si avrebbero a differenziare i prodotti nei vari mercati.

Luci e ombre

Dal punto di vista dell’industria ICT è positivo che il regolamento si regga su un impianto “risk based”: le regole sono più stringenti più sono critiche le aree di applicazione delle IA.

Allo stesso tempo dobbiamo evidenziare come per la regolazione dei Foundation Models – modelli di IA emergenti e allenati su grandi basi di dati, come GPT di OpenAi – questo approccio sia stato sostanzialmente derogato.

Il tema foundation model

Nel caso dei foundation model l’accordo ci sembra quindi confermare un giudizio sulla tecnologia in sé più che sugli usi e questo porrà problemi al loro sviluppo e utilizzo nell’UE

Saranno regolati in modo stringente in particolare ii Foundation Models “with systemic risk” ma questa categoria di IA è individuata sulla base di una soglia arbitraria della potenza di calcolo utilizzata per lo sviluppo dei modelli.

La preoccupazione che abbiamo condiviso con tutte le associazioni europee di categoria e Digital Europe è che questo regolamento preveda costi di compliance enormi a carico delle imprese rischiando di gravare proprio su quelle Pmi e start up che vorrebbe sostenere. Digital Europe sostiene che per ciascuna Pmi con più di 50 addetti i costi di compliance di questa normativa potrebbero aggirarsi intorno ai 300mila euro.

In ambito IA l’UE già ora si trova in una posizione di svantaggio rispetto alle altre grandi potenze globali e adesso più di ieri le nostre aziende avranno difficoltà nello sviluppare software innovativi.

Da un lato, è vero che l’adozione di un Regolamento che andrà a garantire lo sviluppo di prodotti sicuri e di qualità, aiuterà i consumatori ad avere maggiore fiducia nell’IA.

Dall’altro va sottolineato che non appena Regolamento sarà adottato inizierà un interregno di incertezza normativa sulla sua applicazione che avrà bisogno degli atti delegati della Commissione di standard internazionali e di molta giurisprudenza per concludersi. 

Il tutto senza contare che adeguarsi agli obblighi dell’AI Act comporterà costi di compliance enormi a carico delle imprese rischiando di gravare proprio su quelle PMI e Start up che si vorrebbe sostenere

L’Europa investa in capacità innovativa

L’AI Act è necessariamente un punto di partenza, non di arrivo.

Per far sì che le regole adottate possano essere un’opportunità e non un freno, l’Unione europea dovrà affiancare al regolamento una strategia forte per rafforzare la capacità innovativa del nostro continente, possibilmente andando a coordinare e integrando le numerose esperienze nazionali – come quella italiana lanciata dal Sottosegretario Butti – che stanno nascendo.

Il lavoro da fare è tanto, bisogna assolutamente affiancare a questo regolamento programmi e risorse per acquisire competenze nell’AI e sostenere gli investimenti delle  imprese.

Altrimenti saremo leader nella regolazione, ma senza un tessuto imprenditoriale leader nell’innovazione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati