La Commissione europea ha recentemente pubblicato (in una versione di iniziale bozza non definitiva) le linee guida dedicate alla ricostruzione definitoria dei sistemi di intelligenza artificiale, con l’intento di facilitare, sul piano applicativo, la concreta attuazione del Regolamento (UE) 2024/1689, EU AI Act.
In particolare, mediante la formulazione di orientamenti interpretativi flessibili (comunque non vincolanti e suscettibili di costante aggiornamento contenutistico tenuto conto dell’evoluzione tecnologica riscontrabile nella concreta prassi), con il menzionato documento (adottato subito dopo le ulteriori linee guida elaborate sulle pratiche vietate in materia di IA), si persegue l’obiettivo di integrare, in ottica esegetica di più agevole esplicazione chiarificatrice dei concetti giuridici enucleati, le nozioni positivizzate nell’ambito della normativa, di per sé oltremodo corposa, introdotta dal legislatore europeo, che consta appunto di 113 articoli e 13 Allegati.
Obiettivo delle linee guida Ue e contesto normativo
Prima di entrare nel merito dell’analisi, oggetto del presente articolo di approfondimento, concernente le sopraindicate linee guida predisposte dalla Commissione europea, si rende opportuno identificare quali sono le disposizioni normative che, all’interno del Regolamento (UE) 2024/1689, vengono in rilievo come cornice definitoria generale di riferimento, al fine di valutare le ragioni che hanno giustificato l’elaborazione di tale documento interpretativo, pubblicato con lo specifico fine di integrare le prescrizioni legislative del cd. “EU AI Act”.
Le precisazioni del Considerando n. 12 dell’AI Act
Al riguardo, il Considerando n. 12 della legge europea sull’intelligenza artificiale, richiamando la centralità dell’approccio “umano-centrico” nella complessiva architettura regolatoria della disciplina vigente in materia, precisa che “la nozione di sistema di IA dovrebbe essere definita in maniera chiara e dovrebbe essere strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di IA al fine di garantire la certezza del diritto, agevolare la convergenza internazionale e un’ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i rapidi sviluppi tecnologici in questo ambito. Inoltre, la definizione dovrebbe essere basata sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più semplici, e non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico” […] I sistemi di IA sono progettati per funzionare con livelli di autonomia variabili, il che significa che dispongono di un certo grado di autonomia di azione rispetto al coinvolgimento umano e di capacità di funzionare senza l’intervento umano. L’adattabilità che un sistema di IA potrebbe presentare dopo la diffusione si riferisce alle capacità di autoapprendimento, che consentono al sistema di cambiare durante l’uso. I sistemi di IA possono essere utilizzati come elementi indipendenti (stand-alone) o come componenti di un prodotto, a prescindere dal fatto che il sistema sia fisicamente incorporato nel prodotto (integrato) o assista la funzionalità del prodotto senza esservi incorporato (non integrato)”.
Definizione di sistema di IA secondo il Regolamento UE
Entro le coordinate applicative ivi enunciate, l’art. 3, par. 1 del Regolamento (UE) 2024/1689 definisce un “sistema di IA” alla stregua di “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Ricostruita la portata applicativa dei riferimenti legislativi che vengono in rilievo in tale ambito, pertanto, la Commissione europea interviene sull’attuazione pratica del cd. “EU AI Act” mediante l’elaborazione di orientamenti operativi, formulati a tenore di quanto previsto dall’art. 96, par. 1, lett. f), del Regolamento (UE) 2024/1689.
Chiarimenti definitori per i fornitori di IA
Anzitutto, in sede di considerazioni introduttive, nell’ambito degli scopi delle linee guida adottate, si afferma che, essendo il regolamento europeo sull’intelligenza artificiale applicabile soltanto ai sistemi di IA che integrano i requisiti qualificatori individuati dall’art. 3, par. 1 della legge, è “fondamentale” elaborare gli opportuni chiarimenti definitori rivolti alla generalità dei fornitori che operano nel settore (cfr. Purpose of the Guidelines, Commission Guidelines on the definition of an artificial intelligence system, p. 1).
Peraltro, è importante evidenziare che, secondo quanto chiarito dalla Commissione europea, le predette linee guida (pur essendo state adottate all’esito di una consultazione partecipativa aperta e inclusiva di tipo “multistakeholder”, con il diretto coinvolgimento del Comitato europeo per l’intelligenza artificiale e di tutte le parti interessate), non sono in grado di fornire un’elencazione definitoria completa ed esaustiva dei sistemi di IA concretamente esistenti nella prassi in ragione del rapido sviluppo tecnologico che si perfeziona nel corso del tempo, da cui discende una valenza necessariamente flessibile e mutevole degli orientamenti formulati in materia, destinati pertanto ad essere costantemente aggiornati nei suoi contenuti qualificatori.
Elementi costitutivi della definizione di IA
Alla luce della tecnica descrittiva utilizzata dal legislatore euro-unitario mediante il richiamato art. 3, par. 1 del Regolamento (UE) 2024/1689, le linee guida della Commissione europea analizzano nello specifico gli elementi costitutivi della fattispecie definitoria ivi positivizzata per comprenderne il relativo significato con maggiore chiarezza e precisione. Nella relativa nozione concettuale, infatti, viene incluso qualsivoglia sistema di IA, alternativamente caratterizzato dal funzionamento di macchine progettate con diversi livelli di autonomia, in grado di operare in condizioni di adattività per obiettivi espliciti o impliciti, mediante la capacità di generare, a partire dagli input ricevuti, svariati processi di output configurabili come “previsioni, contenuti, raccomandazioni, o decisioni che possono influenzare ambienti fisici o virtuali” (cfr. Objective and main elements of the AI system definition, Commission Guidelines on the definition of an artificial intelligence system, p. 2).
Inoltre, è interessante rilevare che, sempre sulla base degli orientamenti formulati dalla Commissione europea, la definizione di un sistema di IA, così come tecnicamente enucleata, si basa sull’implementazione di un “ciclo di vita” che presuppone lo sviluppo di 2 fasi principali: “pre-implementazione o di costruzione del sistema”, e “post-implementazione o di “utilizzo” del sistema” (cfr. Machine-based system, Commission Guidelines on the definition of an artificial intelligence system, p. 2).
Sistema di IA “basato su una macchina”
Entrando nel merito delle singole ipotesi definitorie esaminate dalle linee guida, con particolare riferimento alla realizzazione di un sistema di IA “basato su una macchina”, la Commissione europea chiarisce che tale fattispecie viene in rilievo tutte le volte in cui si ricorre indifferentemente all’utilizzo di un hardware o di componenti software che consentono il concreto funzionamento di un sistema di intelligenza artificiale. Più nel dettaglio, mentre i “componenti hardware si riferiscono agli elementi fisici della macchina, quali unità di elaborazione, memoria, storage dispositivi, unità di rete e interfacce di input/output, che forniscono l’infrastruttura per il calcolo. I componenti software comprendono codice informatico, istruzioni, programmi, sistemi operativi e applicazioni che gestiscono il modo in cui l’hardware elabora dati ed esegue compiti” (cfr. Machine-based system, Commission Guidelines on the definition of an artificial intelligence system, p. 2).
Quando si realizza un sistema di IA basato su una macchina, a prescindere dalle caratteristiche tecniche di progettazione predisposte, il tratto unificante della qualificazione definitoria che descrive la categoria omogenea di riferimento, va individuato nell’esistenza di un processo di calcolo sviluppato per consentire il concreto funzionamento delle attività computazionali in grado di operare l’addestramento dei modelli, l’elaborazione dei dati e l’automazione predittiva su larga scala.
Autonomia dell’IA
In relazione all’elemento della cd. “autonomia”, costituente un ulteriore connotato qualificante la definizione di sistema di IA, le linee guida della Commissione europea confermano che, sulla scorta di quanto precisato dal Considerando n. 12, in combinato disposto con l’art. 3, par. 1 del Regolamento (UE) 2024/1689, il funzionamento dei sistemi di intelligenza artificiale avviene con un “certo grado di autonomia” (rectius, mediante “livelli di autonomia variabili”), da cui discende un necessario intervento manuale, determinato esclusivamente dal coinvolgimento umano (sia in forma diretta di totale controllo, ovvero indiretta di costante supervisione tecnica), per azionare la capacità della macchina di generare concreti output di previsioni, contenuti, raccomandazioni o decisioni in grado di influenzare ambienti fisici o virtuali (cfr. Autonomy, Commission Guidelines on the definition of an artificial intelligence system, p. 3).
Secondo la Commissione europea, l’eventuale sviluppo di sistemi di intelligenza artificiale in grado di funzionare con un “intervento umano limitato o nullo in contesti d’uso specifici” (rientranti nelle fattispecie di cui all’Allegato III della cd. “EU AI Act”), può determinare l’insorgere di gravi rischi, potenziali o reali, sulle persone (cfr. Autonomy, Commission Guidelines on the definition of an artificial intelligence system, p. 4).
L’adattività dell’IA
Il terzo elemento della definizione di sistema di IA esprime l’adattività che, seppur distinto dal concetto di autonomia, è strettamente correlato ad esso, come peculiare funzionalità applicativa di cui possono essere dotati i sistemi di intelligenza artificiale.
Al riguardo, la Commissione europea chiarisce che l’elemento dell’adattività “si riferisce alle capacità di autoapprendimento” del sistema di IA che può emergere durante il suo concreto utilizzo mediante la produzione di risultati diversi rispetto a quelli ottenuti in precedenza per effetto dei medesimi input impartiti (cfr. Adaptiveness, Commission Guidelines on the definition of an artificial intelligence system, p. 4).
Obiettivi espliciti e impliciti dei sistemi di IA
Un ulteriore elemento definitorio dei sistemi di IA è costituito dalla capacità di operare secondo uno o più obiettivi, identificabili “esplicitamente o implicitamente”. In particolare, gli obiettivi espliciti sono direttamente codificati dallo sviluppatore, mentre quelli impliciti “possono essere dedotti” o “derivare da dati di addestramento o dall’interazione del sistema di intelligenza artificiale con il suo ambiente” (cfr. AI system objectives, Commission Guidelines on the definition of an artificial intelligence system, p. 4).
Capacità di inferenza dell’IA
Il quinto elemento che distingue, in termini definitori, un sistema di IA da altre tipologie di sistemi, consiste nella sua capacità di inferenza, al fine di dedurre e generare, sulla base degli input che riceve, concreti output grazie alla progettazione di svariate tecniche che prevedono, ad esempio, modalità di funzionamento in autoapprendimento predisposte nell’ambito di processi di “machine learning”, progettati durante la “fase di costruzione” di un sistema di IA.
Autoapprendimento supervisionato, non supervisionato, auto-supervisionato e per rinforzo
Al riguardo, le linee guida della Commissione europea precisano che l’autoapprendimento di un sistema di IA può classificarsi come supervisionato, non supervisionato, auto-supervisionato e per rinforzo. Più precisamente, quando si ricorre all’apprendimento supervisionato, viene processata una mappatura di dati etichettati e addestrati come input accoppiati con l’output corretto da realizzare (ad esempio, un sistema di rilevamento dello spam tramite posta elettronica abilitato dall’intelligenza artificiale).
Nel caso dell’apprendimento non supervisionato, il sistema di intelligenza artificiale apprende da dati che non sono stati acquisiti, quando mancano etichette o output predefiniti senza una guida esplicita su quale sarà il risultato da realizzare (emblematici i sistemi di intelligenza artificiale utilizzati per la scoperta di farmaci). L’apprendimento auto-supervisionato “è una sottocategoria dell’apprendimento non supervisionato”, caratterizzato dall’utilizzo di dati non etichettati per creare obiettivi (come gli auto-codificatori).
I sistemi di IA basati sull’apprendimento per rinforzo apprendono dai dati raccolti tramite l’esperienza per tentativi e errori attraverso una funzione di “ricompensa”, con l’intento di ottimizzare i contenuti personalizzati (cfr. AI techniques that enable inference, Commission Guidelines on the definition of an artificial intelligence system, pp. 6 e 7).
L’apprendimento profondo
Le linee guida della Commissione europea individuano anche il cosiddetto apprendimento profondo, che utilizza architetture a più livelli, mediante lo sviluppo di reti neurali, per imparare a riconoscere automaticamente i modelli e fare previsioni con elevata precisione, perfezionando le modalità di funzionamento grazie alla capacità di processare grandi quantità di dati disponibili (cfr. AI techniques that enable inference, Commission Guidelines on the definition of an artificial intelligence system, p. 7).
Un’ulteriore tecnica di apprendimento automatico dei sistemi di IA può, altresì, basarsi “sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere” (ex Considerando n. 12, “EU AI Act”), imparando a ragionare in modo deduttivo o induttivo sulla base di regole e relazioni codificate dagli sviluppatori umani (cfr. AI techniques that enable inference, Commission Guidelines on the definition of an artificial intelligence system, p. 7).
La capacità di generare output
Il sesto elemento che contraddistingue la definizione di un sistema di IA consiste nella capacità di generare output (ossia, “previsioni, contenuti, raccomandazioni o decisioni che possono influenzare gli ambienti fisici o virtuali”, ex art. 3, par. 1, “EU AI Act”), di cui le linee guida della Commissione europea forniscono specifiche precisioni integrative per ricostruire il significativo interpretativo delle relative nozioni. In particolare, l’attività di “previsione” è intesa come “stima di un valore sconosciuto (il output) da valori noti forniti al sistema (l’input)” realizzati anche nell’ambito di “ambienti altamente dinamici e complessi” (come ad esempio, i sistemi di intelligenza artificiale utilizzati nelle auto a guida autonoma). Quando si parla di “contenuti” si focalizza il processo generativo di nuovo materiale (testi, immagini, video, musica e altre forme di output) mediante l’utilizzo di modelli di machine learning (emblematici i noti sistemi Generative Pre-trained Tecnologie Transformer – GPT). Le “raccomandazioni” consistono in “suggerimenti per azioni, prodotti o servizi specifici rivolti agli utenti in base alle loro preferenze, comportamenti o altri input di dati”, mentre le “decisioni” rappresentano scelte automatizzate effettuate da un sistema di IA rispetto a “processi tradizionalmente gestiti dal giudizio umano” (cfr. Outputs that can influence physical or virtual environments, Commission Guidelines on the definition of an artificial intelligence system, pp. 10 e 11).
Interazione con l’ambiente e impatto dei sistemi di IA
L’interazione con l’ambiente fisico o virtuale identifica l’ultimo elemento costitutivo della definizione positivizzata in materia per qualificare i sistemi di IA, da cui si ricava l’impatto attivo da essi generato sugli “oggetti fisici tangibili” (ad esempio, il braccio robotico), o sugli “ambienti virtuali, inclusi spazi digitali, flussi di dati” (cfr. Interaction with the environment, Commission Guidelines on the definition of an artificial intelligence system, p. 11).
Alla luce di quanto evidenziato con le linee guida, pur prendendosi in rilevante considerazione i 7 elementi esaminati per ricostruire, sotto il profilo interpretativo-sistematico, la portata applicativa della disciplina introdotta dal Regolamento (UE) 2024/1689, la Commissione europea afferma la valenza aperta, flessibile e cangiante della definizione adottata sui sistemi di intelligenza artificiale.
Governance IA: prende forma l’ecosistema regolatorio euro-unitario
Prende, dunque, progressivamente forma l’ecosistema regolatorio euro-unitario per edificare il peculiare modello di governance IA, ove viene in rilievo l’inquadramento classificatorio dei sistemi di intelligenza artificiale mediante l’elaborazione di una nozione orientata verso una graduale convergenza terminologica di sostanziale armonizzazione contenutistica riscontrabile a livello globale, che sembra ravvisarsi, ad esempio, nella cornice ordinamentale statunitense: emblematico, al riguardo, è l’ordine esecutivo 14110 “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”, in combinato disposto con le disposizioni di cui al Titolo 15 – “Commercio e Scambi”, Capitolo 119 – “Iniziativa nazionale sull’intelligenza artificiale” (15 USC 9401), integrato dalla strategia nazionale “Guidance for Regulation of Artificial Intelligence Applications”, in attuazione dell’ordine esecutivo n. 13859/2019 (“Maintaining American Leadership in Artificial Intelligence”), da cui si evince, in modo pressoché analogo a quanto delineato dalle linee guida della Commissione europea, che l’espressione “intelligenza artificiale” identifica “un sistema basato su macchina che può, per un dato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali. I sistemi di intelligenza artificiale utilizzano input basati su macchine e esseri umani per percepire ambienti reali e virtuali; astrarre tali percezioni in modelli attraverso l’analisi in modo automatizzato; e utilizzare l’inferenza del modello per formulare opzioni per informazioni o azioni”.
Convergenza internazionale nella regolamentazione dell’IA
Esprime, peraltro, la medesima finalità di uniformità concettuale perseguita per stabilizzare in ambito internazionale il processo uniforme di classificazione organica dei sistemi di IA, la definizione (oggetto di periodico aggiornamento) elaborata in materia dall’OCSE, secondo cui, enucleando i medesimi elementi costitutivi presi in considerazione dalla Commissione europea nelle sue linee guida (ossia, definizione obiettivi, input, output, ambiente e adattabilità), qualifica come “sistema di intelligenza artificiale” un modello “basato su macchine che può, per obiettivi espliciti o impliciti definiti dall’uomo, dedurre, dall’input che riceve, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.