Il sistema dell’AI Act prevede una sua entrata in vigore per fasi.
Dal 2 agosto 2025: in vigore gli obblighi in materia di sistemi di IA a scopo generale in vista della quale la Commissione ha ritenuto di pubblicare nelle scorse settimane le “Linee guida sull’ambito delle obbligazioni per i modelli di IA a scopo generale stabilite dal Regolamento (UE) 2024/1689 (Legge sull’IA)”.
D’altra parte ai sensi dell’Articolo 96 della Legge sull’IA, era previsto che la Commissione dovesse sviluppare delle linee guida sull’attuazione pratica dell’AI Act; le linee guida in questione si concentrano sulle obbligazioni per i fornitori di modelli di IA a scopo generale stabilite nell’AI Act, alla luce della loro imminente entrata in applicazione il 2 agosto 2025.
Indice degli argomenti
I modelli AI a scopo generale per AI Act
E’ indubbio che i fornitori di modelli di AI a scopo generale abbiano un ruolo e una responsabilità particolari lungo la catena del valore dell’AI, inclusi i fornitori a valle che necessitano di una buona comprensione dei modelli e delle loro capacità per poter integrare tali modelli nei loro prodotti e per adempiere ai loro obblighi ai sensi dell’AI Act.
In base all’ AI Act, la Commissione ha la competenza esclusiva di far rispettare la conformità dei fornitori di modelli di AI a scopo generale, con e senza rischio sistemico, competenza da cui discende anche quella di stabilire le regole per il confronto tra Commissione e produttori.
L‘AI Act definisce un modello di intelligenza artificiale di uso generale quel modello di intelligenza addestrato con una grande quantità di dati utilizzando l’auto-supervisione su larga scala, che mostra una significativa generalità ed è in grado di eseguire in modo competente un’ampia gamma di compiti distinti indipendentemente dal modo in cui il modello è immesso sul mercato e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di intelligenza artificiale utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato.
Questa definizione elenca in modo generale i fattori che determinano se un modello è un modello di intelligenza artificiale di uso generale. Tuttavia, non stabilisce criteri specifici che i potenziali fornitori possono utilizzare per valutare se il loro modello è un modello di intelligenza artificiale di uso generale.
È dunque importante fornire “regole” che siano semplici da verificare perché i soggetti possano valutare se sono fornitori di modelli di intelligenza artificiale di uso generale.
Data la vasta varietà di capacità e casi d’uso per i modelli di intelligenza artificiale di uso generale, non è fattibile fornire un elenco preciso di capacità che un modello deve mostrare e compiti che deve essere in grado di eseguire per determinare se è un modello di intelligenza artificiale di uso generale. Per questo l’approccio della Commissione è di utilizzare la quantità di risorse computazionali utilizzate per addestrare il modello per stabilire un criterio indicativo al fine della classificazione di un modello come modello di intelligenza artificiale di uso generale.
I modelli a scopo generale con rischio sistemico
Occorre poi individuare i criteri per stabilire i modelli di intelligenza artificiale generale con rischio sistemico ossia che i modelli che possono generare rischi di danni su vasta scala in quanto spingono i liti dello stato dell’arte molto in là.
Secondo l’Articolo 51 dell’AI Act, un modello di intelligenza artificiale a scopo generale è classificato come un modello di intelligenza artificiale a scopo generale con rischio sistemico se soddisfa una delle due seguenti condizioni:
- ha capacità ad alto impatto, vale a dire capacità che corrispondono o superano quelle registrate nei modelli più avanzati;
- sulla base di una decisione della Commissione è stato stabilito abbia capacità o un impatto equivalente;
Che deve fare il fornitore
Quando un modello di intelligenza artificiale a scopo generale ha soddisfatto, o diventa noto che soddisferà, un requisito che porta alla presunzione che il modello abbia capacità ad alto impatto, il fornitore deve effettuare, entro due settimane dopo che il requisito è stato soddisfatto o diventa noto che sarà soddisfatto, una notifica alla Commissione in linea con l’Articolo 52 dell’AI Act. La notifica deve includere tutti gli elementi utili per la Commissione per effettuare verifiche.
E’ anche possibile, in assenza di dichiarazione ex officio, che sia la Commissione, allertata dai propri advisors scientifici, attenzioni un modello al fine di verificarne la riconducibilità fra quelli a scopo generale a rischio sistemico.
In entrambi i casi, valutato scientificamente il materiale prodotto dal fornitore in sede di notifica o a seguito di richiesta, la Commissione delibera la classificazione del modello.
E’ tuttavia possibile che, nell’effettuare la notifica alla Commissione o in sede di deposito documenti su richiesta, il fornitore presenti argomenti volti a dimostrare che, in via eccezionale, sebbene soddisfi quel requisito, il modello di intelligenza artificiale di uso generale non presenta, a causa delle sue caratteristiche specifiche, rischi sistemici e quindi non dovrebbe essere classificato come un modello di intelligenza artificiale di uso generale con rischio sistemico
Come parte della giustificazione del perché il loro modello non ha o non avrà capacità di alto impatto e quindi non presenta o non presenterà rischi sistemici, i fornitori dovrebbero includere informazioni disponibili al momento della notifica riguardo alle capacità raggiunte o anticipate del modello, inclusi sotto forma di risultati di benchmark effettivi o previsti. Per completare queste informazioni e consentire alla Commissione di valutare adeguatamente se il modello non ha o non avrà capacità di alto impatto e quindi non presenta o non presenterà rischi sistemici, il fornitore può indirizzare ogni altra informazione che possa avere un impatto sulle capacità del modello, come architettura del modello, numero di parametri, numero di esempi di addestramento, tecniche di elaborazione dei dati, tecniche di addestramento, etc.
Una volta ricevuta una notifica con argomenti sul perché il modello non presenta rischi sistemici, la Commissione li dovrà valutare e decidere se accettarli o rifiutarli. In caso di rifiuto, i fornitori avranno il diritto di essere ascoltati prima che venga presa la decisione e il diritto di avere accesso al proprio fascicolo, rispettando gli interessi legittimi di riservatezza e di segretezza professionale e commerciale. La decisione della Commissione includerà nel proprio provvedimento le motivazioni sul perché gli argomenti presentati dal fornitore siano stati accettati o rifiutati.
Poiché, come detto più sopra, le capacità di alto impatto sono, per definizione, “capacità che corrispondono o superano quelle registrate nei modelli più avanzati”, il livello di capacità oltre il quale un modello è considerato avere “capacità di alto impatto” o equivalentemente di essere tra i “modelli più avanzati”, è previsto che cambi nel tempo, man mano che le capacità aumentano e i rischi evolveranno.
I fornitori di modelli AI di uso generale che sono stati designati dalla Commissione come modelli AI di uso generale con rischio sistemico ai sensi dell’Articolo possono trascorsi sei mesi dalla classificazione, presentare una richiesta motivata affinché la Commissione riesamini la designazione. In questo caso, coi motivi di revisione dovrebbero fornire ragioni oggettive, dettagliate e nuove, cioè emerse dalla decisione di designazione, secondo cui il loro modello non presenta più rischi sistemici. Qualora la designazione venga mantenuta dalla Commissione a seguito della sua riesamina, i fornitori possono richiedere una ulteriore riesamina una volta trascorsi ulteriori sei mesi.
In tutte queste valutazioni la Commissione si avvale di un panel scientifico ed in particolare dell’Agenzia per l’Intelligenza Artificiale creata in sede di Unione, al fine di garantire non solo la necessaria ed adeguata preparazione, ma anche l’aggiornamento costante a seguito delle progressive evoluzioni.











