intelligenza artificiale

Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni



Indirizzo copiato

L’AI Act dell’UE introduce obblighi per i sistemi di IA, con un focus particolare su trasparenza e sicurezza, specialmente per i modelli ad alto rischio e quelli generativi. Richiede una documentazione dettagliata, notifica di incidenti, e misure di cybersicurezza. La conformità richiederà sforzi significativi da aziende e professionisti e l’adeguamento deve essere, perciò, tempestivo

Pubblicato il 7 mag 2024

Rocco Panetta

Partner Panetta Studio Legale e IAPP Country Leader per l’Italia



intelliegenza_artificiale1

Diversi sono i temi che hanno animato la discussione politica attorno all’Artificial Intelligence Act, dai requisiti e gli obblighi per i sistemi ad alto rischio alla visione “umano-centrica”.

Proseguendo nella disamina del nuovo regolamento Ue iniziata qui su Agendadigitale.eu (potete recuperare i numeri precedenti qui) approfondiremo qui le nuove previsioni dedicate ai foundation models, rispetto ai quali in molti di certo ricorderanno la lettera di alcuni Stati membri volta a chiedere una regolamentazione più soft.

Più propriamente, parliamo dei modelli di IA per finalità generali, perché è questa la categoria concettuale che, alla fine, ha trovato residenza all’interno dell’AI Act.

Gli obblighi di trasparenza per determinati sistemi di IA

Prima di discutere le norme sui modelli di IA per finalità generali, credo sia il caso di sui livelli di rischio identificati dall’AI Act. Ciò in quanto il legislatore europeo, oltre ai divieti per le pratiche di intelligenza artificiale a rischio inaccettabile e i numerosi adempimenti per i sistemi di IA ad alto rischio, è intervenuto dettando una serie di obblighi di trasparenza per le ipotesi di intelligenza artificiale “a rischio limitato”.

Questa famiglia di applicazioni comprende innanzitutto quei sistemi di IA destinati a interagire direttamente con le persone, i quali dovranno essere progettati in modo che gli interessati siano consapevoli di comunicare con un algoritmo di intelligenza artificiale.

Per i sistemi di IA che generano audio, immagini, video o testo – compresi i sistemi di IA per finalità generali – occorrerà invece garantire che i risultati dell’algoritmo siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente. Altri obblighi di trasparenza coinvolgono, ad esempio, i deep fake (definiti dall’AI Act come «un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi o altre entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona»), che dovranno essere etichettati come tali, nonché i sistemi di categorizzazione biometrica o di riconoscimento delle emozioni, rispetto ai quali gli utenti dovranno essere informati in relazione al funzionamento del sistema.

Occorrerà fornire tutte queste informazioni agli interessati in modo chiaro e distinguibile, al più tardi al momento della prima interazione o esposizione, nel rispetto dei requisiti di accessibilità di volta in volta applicabili. Si prevede, inoltre, la possibilità di elaborare codici di buone pratiche per facilitare l’attuazione di tali adempimenti.

Sebbene appaiano semplici e intuitivi, molti di questi obblighi richiedono una profonda trasformazione dei sistemi di AI e molti investimenti, anche in comunicazione e compliance, onde evitare disparità nella resa finale del servizio. Anche per queste ragioni è stata molto ascoltata la posizione di quanti chiedevano più mano libera ai foundation models soprattutto in questa fase iniziale.

Gli obblighi per i fornitori di modelli di IA per finalità generali

All’interno dell’Artificial Intelligence Act oggi troviamo la seguente definizione di modello di IA per finalità generali: «Un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l’autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, a eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato».

Si tratta, in altre parole, di algoritmi addestrati su grandi quantità di dati che sono capaci di svolgere un’ampia gamma di compiti. Per i fornitori di tali modelli, l’AI Act prevede una serie di obblighi specifici, a partire dalla necessità di redigere e tenere aggiornata la documentazione tecnica del modello, da trasmettere alle autorità su richiesta. Occorrerà inoltre predisporre e rendere disponibili informazioni ai fornitori di sistemi di IA che intendono integrare il modello per finalità generali nei propri sistemi di IA. Sarà poi necessario mettere in atto una politica per garantire il rispetto del diritto d’autore e pubblicare un riepilogo dettagliato sui contenuti utilizzati per l’addestramento del modello. Inoltre, i fornitori di tali modelli stabiliti in un paese terzo dovranno nominare un rappresentante autorizzato stabilito in UE prima dell’immissione sul mercato del modello.

I modelli con rischio sistemico

Il legislatore europeo ha poi deciso di applicare l’approccio basato sul rischio che permea l’intero regolamento anche all’interno della categoria dei modelli di IA per finalità generali. In tale ottica, vengono identificati i modelli con rischio sistemico, intendendosi con tale locuzione «un rischio specifico per le capacità di impatto elevato dei modelli di IA per finalità generali, avente un impatto significativo sul mercato dell’Unione a causa della sua portata o di effetti negativi effettivi o ragionevolmente prevedibili sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, che può propagarsi su larga scala lungo l’intera catena del valore».

L’AI Act individua innanzitutto i requisiti ai fini della classificazione dei modelli di IA per finalità generali con rischio sistemico: occorrerà che il modello presenti capacità di impatto elevato (definite come «capacità che corrispondono o superano le capacità registrate nei modelli di IA per finalità generali più avanzati») valutate sulla base di strumenti tecnici e metodologie adeguati (e in questo caso bisognerà effettuare una notifica alla Commissione), oppure dovrà esserci una decisione della Commissione stessa. Viene inoltre introdotta una presunzione: un modello di IA per finalità generali sarà considerato avente capacità di impatto elevato in caso di importo cumulativo del calcolo utilizzato per il suo training superiore a 10^25 FLOP.

Per i fornitori di tali modelli scatteranno quindi una serie di obblighi ulteriori rispetto a quelli sopra elencati, tra cui lo svolgimento di una valutazione finalizzata a individuare e attenuare il rischio sistemico, l’analisi e l’attenuazione di tali rischi e la documentazione e la notifica degli incidenti gravi. Tali fornitori dovranno altresì garantire un livello adeguato di protezione della cybersicurezza per quanto riguarda il modello e la relativa infrastruttura fisica.

Conclusioni

Se l’ambito dei sistemi di IA ad alto rischio rappresenta certamente il più complesso e oneroso settore in termini di sforzi di compliance, anche per i fornitori di modelli di IA per finalità generali – compresa l’IA generativa – la sfida di conformità richiederà particolare impegno e attenzione. Ancora una volta, il fattore tempo, inteso come adeguamento preventivo e spontaneo, farà la differenza.

Mi pare che ancora più in questo caso, rispetto al “go live” del GDPR di qualche anno fa, imprese e organizzazioni non possono farsi trovare impreparate. Il tempo questa volta sarà ridotto e l’urgenza data dalla diffusione crescente di strumenti a base AI non potrà giustificare ritardi.

Il consiglio è quindi quello di avviare processi di comprensione e formazione sugli impatti e la portata dell’AI Act, seguiti da una mappatura sistematica delle componenti tecnologiche a base AI, per finire alla conoscenza dei progetti di investimento e sviluppo in AI che molte aziende e p.a. stanno mettendo a terra in questi mesi, per poter aiutare i nostri interlocutori ad affrontare il cambiamento muniti dei giusti strumenti di conoscenza e di compliance alle norme.

Sono tanti i professionisti in prima fila in questa sfida, a partire da tutta la filiera tecnologica (IT, CIO, CISO, Internal audit, risk e compliance) e passando per funzioni legali, privacy interna e DPO, sia esso interno o esterno.

Il lavoro di squadra questa volta dovrà esserci e dovrà verticalizzarsi coinvolgendo soprattutto il Board e le strutture di controllo.

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4