abusi di mercato

L’impatto dell’AI sui mercati finanziari: i nodi giuridici e regolamentari



Indirizzo copiato

L’irruzione dell’AI in ambito finanziario pone ai regolatori la questione di come assicurare il mantenimento del delicato equilibrio tra un ordinato e regolare funzionamento del mercato dei capitali e la necessità di non far morire sul nascere le opportunità ed i margini di innovazione legati all’utilizzo dei sistemi basati sull’intelligenza artificiale. Un compito non dei più semplici

Pubblicato il 23 gen 2024

Roberto Culicchi

Of Counsel DWF (Italy)



intelligenza artificiale ai act

I sistemi di intelligenza artificiale stanno dando vita auuna serie di problematiche relative al loro inquadramento da parte delle autorità di regolamentazione e studiosi del diritto dei mercati finanziari. L’applicazione delle usuali categorie del diritto ai sistemi di intelligenza artificiale non appare infatti sufficiente per risolvere i problemi legati all’inquadramento giuridico di queste nuove applicazioni.

Proviamo dunque a proporre una breve analisi sull’impatto delle trasformazioni tecnologiche e sociali nel contesto dell’attuale assetto normativo, con particolare riferimento alle relazioni esistenti tra sviluppo dell’intelligenza artificiale ed il quadro normativo in materia di abusi di mercato.

Gli effetti dell’uso sempre più diffuso dell’IA

Oggi l‘intelligenza artificiale rappresenta sicuramente uno dei principali ambiti di interesse della comunità scientifica ma è indubbio che i riflessi connessi a un suo utilizzo sempre più diffuso incidano potenzialmente anche sulla vita quotidiana delle persone.

Del resto, basta constatare come i settori in cui si applica l’intelligenza artificiale siano innumerevoli e molti di questi potenzialmente in grado di avere impatti importanti sulle attività di persone, imprese e pubbliche amministrazioni per comprendere la portata del fenomeno. Non va peraltro dimenticato come il dibattitto sull’intelligenza artificiale sia inoltre spesso condizionato da implicazioni di ordine etico e filosofico.

Molti problemi sono legati allo sviluppo di un processo di innovazione tecnologica caratterizzato dalla diffusione di algoritmi sempre più evoluti, capaci di sviluppare forme di autoapprendimento (self-learning) e di reciproca interazione in grado di generare applicazioni che presentano fortissime similitudini con l’agire degli esseri umani. Cresce in questo modo la consapevolezza della novità dei problemi sollevati dall’utilizzo dell’intelligenza artificiale.

La problematica definizione di intelligenza artificiale

Nell’analisi delle problematiche connesse all’utilizzo dell’intelligenza artificiale occorre muovere dal riconoscimento dell’esistenza di un problema definitorio. Si pensi innanzitutto alle diverse espressioni utilizzate per definire il fenomeno: AI, sistema di intelligenza artificiale, agente artificiale, intelligenza artificiale, sono solo alcuni dei termini utilizzati indifferentemente per inquadrare il fenomeno ed entrati ormai nel gergo comune. I sistemi di intelligenza artificiale si sottraggono, infatti, a formulazioni linguistiche univoche in ragione della varietà delle configurazioni assunte. Sotto questo profilo, pertanto, il valore connesso all’espressione «intelligenza artificiale» risiede principalmente nella sua valenza di “sintesi”, in grado di permetterci di classificare sul piano lessicale con un unico termine programmi che utilizzano metodologie diverse ma che appaiono tutti caratterizzati ed accomunati dal medesimo elemento funzionale: la capacità di elaborare quantità enormi di dati in tempi estremamente brevi, minimizzando i tempi di attesa e contribuendo così alla soluzione efficiente di problemi che normalmente richiederebbero il concorso di diversi attori umani muniti di competenze eterogenee.

Il tema tecnico nelle iniziative di regolamentazione

Naturalmente, oltre ad un problema definitorio, esiste anche un tema tecnico, posto che qualsiasi tentativo definitorio dei nuovi sviluppi della tecnologia, e a maggior ragione di quella algoritmica, non può prescindere da un’attenta considerazione delle caratteristiche specifiche e a volte uniche di quest’ultima, con l’intento di contenere l’inevitabile distacco esistente tra la portata teorica di ogni iniziativa di regolamentazione e la sua concreta efficacia applicativa.

È ormai noto che, di fronte a fenomeni innovativi, il legislatore si trovi nella scomoda posizione di dover scegliere tra un approccio interventista ed un approccio di regolamentazione “ex-post”, dal momento che, nell’inseguire gli sviluppi della tecnologia e i suoi impatti sul mercato, rischia da un lato di intervenire troppo presto, paralizzando l’innovazione senza averne compreso le potenzialità, o troppo tardi, quando gli effetti “deviati” di un utilizzo improprio delle nuove tecnologie risultano spesso irreparabili.

I problemi giuridici connessi all’utilizzo dell’intelligenza artificiale

Resta comunque indubbio che l’attenzione degli operatori negli ultimi anni si sia perlopiù accentrata sull’analisi dei problemi giuridici connessi all’utilizzo dell’intelligenza artificiale. In particolare, il dibattito si è concentrato sulla tutt’altro che semplice questione se sia possibile attribuire ai sistemi di AI una propria personalità giuridica e, nel caso di risposta affermativa, se tale propria soggettività giuridica coincida con una delle categorie giuridiche già esistenti o se invece si renda opportuna l’introduzione di una nuova categoria di soggettività giuridica (qualche autore ha parlato di soggettività “elettronica”). L’eventuale introduzione di una nuova categoria di personalità giuridica propria dei sistemi di intelligenza artificiale implica come corollario la necessità di determinare se tale personalità debba essere completamente equiparata a quella delle persone fisiche o giuridiche o se debba intervenire solo in presenza di determinati fatti e circostanze, non assurgendo al ruolo di personalità giuridica “piena” tipico delle nostre categorie del diritto.

In generale, il crescente interesse sia da parte delle autorità nazionali che di quelle UE per una disciplina ad hoc dell’intelligenza artificiale, derivante dalla rapidità e portata della diffusione dei sistemi di intelligenza artificiale, si è tradotto in una divisione tra coloro i quali reputano aprioristicamente positiva ogni forma di contaminazione tra macchina e uomo e coloro i quali al contrario invocano l’adozione di regole e limiti stringenti, con l’intento di prevenire i possibili effetti distorsivi legati all’utilizzo dell’AI.

Regole per l’AI, la posizione della Commissione europea

In posizione intermedia tra questi due schieramenti si è da sempre posta la Commissione europea, che già dai tempi della proposta di Regolamento (UE) sull’intelligenza artificiale (legge sull’intelligenza artificiale) del 21 aprile 2021, COM(2021) 206 final, si poneva come obiettivo quello di non inibire lo sviluppo delle applicazioni di intelligenza artificiale, premurandosi tuttavia di distinguere i sistemi di AI a seconda del rischio di compromissione per i diritti fondamentali dell’uomo (c.d. risk based approach), mediante l’utilizzo  e combinando diverse tecniche di protezione del rischio: il principio di precauzione per i sistemi di AI a rischio inaccettabile e il principio di prevenzione per i sistemi di AI a rischio alto.

In generale, le regole dettate dalle istituzioni europee sono sempre partite dall’assunto iniziale per cui occorre prendere le mosse da un principio generale in forza del quale la responsabilità per i danni cagionati dai sistemi di AI dovrebbe ricadere sull’uomo, non soltanto nelle ipotesi in cui non siano state date sufficienti informazioni agli utenti sul funzionamento del sistema di AI o in presenza di malfunzionamenti dello stesso sistema di AI, ma anche nell’ipotesi in cui la complessità del sistema sia tale da non consentire al programmatore di comprendere i motivi delle sue decisioni.

I sistemi applicativi innovativi connessi all’utilizzo di tecniche di intelligenza artificiale hanno provocato profondi sconvolgimenti soprattutto con riguardo al mercato finanziario, con l’introduzione di nuove modalità di prestazione dei servizi di investimento quali la negoziazione algoritmica ad alta frequenza (c.d. high frequency trading), la consulenza finanziaria automatizzata (c.d. robo-advice) e la valutazione del merito creditizio (c.d. credit scoring).

L’introduzione dell’AI nel settore finanziario: opportunità e rischi

Se da un lato l’introduzione dell’intelligenza artificiale nel settore finanziario offre indubbi vantaggi per gli investitori in termini, ad esempio, di possibilità di usufruire di raccomandazioni di investimento o valutazioni creditizie intrinsecamente più affidabili, non vanno tuttavia sottovalutati alcuni rischi che, sempre nel contesto della formulazione di raccomandazione di investimento effettuate dai soggetti a ciò abilitati, si traducono nella produzioni di raccomandazioni di investimento quasi “standardizzate”, in palese violazione della regola per cui ogni raccomandazione di investimento dovrebbe essere formulata a seguito di una valutazione di appropriatezza e adeguatezza del profilo di ogni singolo investitore.

Proprio in relazione all’introduzione di sistemi di innovazione tecnologica caratterizzati dalla diffusione di algoritmi sempre più evoluti si manifesta l’esigenza di testare la tenuta del sistema normativo esistente in materia di market abuse. In questo senso è bene mettere subito in evidenza come in materia di abusi di mercato sia il sistema comunitario che quello nazionale abbiano ipotizzato un doppio profilo sanzionatorio, che prevede la repressione delle condotte integranti la fattispecie di abuso di mercato sia sotto un profilo penale che amministrativo.

In tema di abusi di mercato, il Testo Unico della Finanza contempla due reati: il divieto di insider trading, finalizzato a salvaguardare la parità di accesso alle informazioni sensibili e contrastare lo sfruttamento illegittimo di informazioni privilegiate; e il divieto di manipolazione del mercato, volto a a salvaguardare il regolare andamento degli scambi impedendo la diffusione di informazioni false, comportamenti simulati o altri artifici da parte di coloro che sono in grado di influire sul processo di formazione dei prezzi degli strumenti finanziari. In questo senso, gli artt. 184 e 185 TUF intendono prevenire e reprimere le condotte abusive più gravi, unicamente a carattere doloso, mentre le fattispecie d’illecito amministrativo (artt. 187-bis e 187- ter TUF) contemplano anche le condotte abusive meno gravi, anche a titolo di colpa, che si traducono nell’applicazione di misure pecuniarie ed interdittive.

In ambito comunitario, con la Direttiva CE/6/2003 (Market Abuse Directive, c.d. MAD I) è stata inclusa, nell’ambito delle fattispecie di market abuse, quella di manipolazione del mercato, imponendo agli Stati membri l’obbligo di adottare le sanzioni amministrative e lasciando libertà ai legislatori nazionali quanto all’introduzione delle sanzioni penali per entrambe le fattispecie.

La sentenza Grande Stevens

La corte Europea dei diritti dell’Uomo ha poi riqualificato gli illeciti amministrativi tramite la nota sentenza Grande Stevens, mediante la quale i giudici hanno ritenuto che le fattispecie amministrative di abuso di informazioni privilegiate (art. 187-bis TUF) e di manipolazione del mercato (art. 187-ter TUF) dovessero essere considerate sostanzialmente penali a causa del livello di severità delle sanzioni previste (pecuniarie, interdittive e ablatorie).

L’equiparazione delle fattispecie amministrative di abuso di informazioni privilegiate e di manipolazione del mercato a veri illeciti penali ha condotto al sorgere di una serie di questioni sulla presunta violazione del cosiddetto diritto ad un processo equo nonché alla violazione del principio del ne bis in idem. Sul punto, la già citata sentenza Grande Stevens ha rilevato però che le garanzie previste in tema di diritto ad un giusto processo sono comunque salvaguardate dalla previsione del giudizio di opposizione davanti alla Corte d’Appello, per motivi anche di merito, e dal giudizio di legittimità dinnanzi alla Corte di Cassazione, per soli motivi di legittimità, contro i medesimi provvedimenti sanzionatori dell’autorità di vigilanza.

Un doppio binario sanzionatorio di illeciti penali e illeciti amministrativi

Quanto alla presunta violazione del ne bis in idem la giurisprudenza comunitaria si è espressa nel senso della legittimità del doppio binario sanzionatorio, penale e amministrativo, sulla base dell’assunto per cui competerebbe agli Stati membri UE «libertà di scelta delle sanzioni applicabili che possono assumere la forma di sanzioni amministrative, di sanzioni penali o di una combinazione di entrambe», a condizione che la doppia sanzione complessivamente irrogata rispetti il principio di proporzionalità.

In ambito comunitario si è dunque affermato un principio di un doppio binario sanzionatorio di illeciti penali e illeciti amministrativi, con la facoltà per gli Stati membri di punire le violazioni di market abuse, oltre che con sanzioni penali per le condotte ritenute più gravi, anche con sanzioni amministrative. Questo orientamento presenta tuttavia il grosso limite di dar vita a discipline nazionali non armonizzate con conseguenti possibili difficoltà di coordinamento tra i procedimenti delle diverse autorità di vigilanza.

Sistemi di AI “deboli” e sistemi di AI “forti”

Nel contesto del quadro sopra identificato si sono da ultimo inseriti i sistemi di intelligenza artificiale, dando vita ad una serie di problematiche relative al loro inquadramento da parte di autorità di regolamentazione e studiosi del diritto dei mercati finanziari.

Fondamentale per approcciare questa tematiche di inquadramento dei nuovi sistemi, è la distinzione tra sistemi di AI “deboli” e sistemi di AI “forti”.

I sistemi di AI “deboli” sono quelli i cui risultati sono il frutto delle istruzioni prestabilite impartite da produttori, programmatori o utenti mentre i sistemi di AI più evoluti (cosiddetti sistemi di AI “forti”) sono dotati di capacità di autoapprendimento e producono, quindi, outputs autonomi e imprevedibili rispetto agli inputs iniziali di produttore, programmatore o utente.

Evidente come per i sistemi di AI “forti” divenga fondamentale la questione del controllo umano sul loro funzionamento e sul risultato dell’elaborazione dei dati immessi nel sistema. Purtroppo, l’imprevedibilità dei sistemi di AI forti rende oltremodo difficile attribuire la responsabilità di un eventuale danno a produttori, programmatori o utenti.

L’AI e il tema della responsabilità

Questa difficoltà per i sistemi di AI forte nell’attribuire la responsabilità di un eventuale danno a produttori, programmatori o utenti, rischia di tradursi nella creazione di un’area in cui vige un principio di irresponsabilità, con una serie di illeciti di fatto non punibili.

Del resto oggigiorno è difficile parlare di una “personalità elettronica” dell’algoritmo o dimostrare l’esistenza di un nesso di causalità tra il comportamento tenuto dall’algoritmo e il danno che ne deriva.

Una soluzione potrebbe essere rappresentata dal tentativo di ascrivere una eventuale responsabilità a carico del produttore, del programmatore o dell’utilizzatore. Tale soluzione, tuttavia, non è però priva di pericoli: si pensi, ad esempio, all’ipotesi in cui il sistema di AI sia talmente sofisticato da rendere non preventivamente controllabili i propri comportamenti, in questo caso si finirebbe con l’attribuire all’essere umano, chiunque esso sia, una sorta di responsabilità oggettiva.

Anche l’applicazione delle usuali categorie del diritto ai sistemi di intelligenza artificiale non appare sufficiente per risolvere i problemi legati all’inquadramento giuridico di queste nuove applicazioni.

Il concetto dell’investitore “ragionevole”

Un esempio in tal senso è rappresentato da quello che è uno dei principi cardine della regolamentazione europea degli abusi di mercato, ovverosia il concetto dell’investitore “ragionevole” stabilito dall’art. 7 MAR, ovverosia quel principio per cui un investitore dovrebbe assumere le proprie decisioni di investimento sulla base di notizie oggettive, attendibili e soprattutto idonee a segnalare un valore intrinseco (e quindi reale) del titolo, a volte anche diverso dal prezzo di mercato. In questo senso, è facile comprendere come scelte di investimento effettuate sulla base di sistemi di intelligenza artificiale di trading algoritmico mal si prestino a potere essere ritenute quali scelte segnaletiche di un valore reale del titolo, dal momento che i risultati a cui portano le scelte di investimento effettuate utilizzando degli algoritmi spesso si basano su dati che non hanno alcuna correlazione con l’andamento dei mercati.

La necessaria modifica delle attuali tecniche di classificazione

Probabilmente ai fini di un corretto inquadramento giuridico dei nuovi sistemi di intelligenza artificiale occorrerà procedere ad una modifica delle tecniche di classificazione attualmente utilizzate sia dal legislatore nazionale che da quello comunitario: si allude all’esigenza di passare da un sistema basato su un’impostazione “casistica” (la classificazione delle ipotesi da disciplinare è intrinsecamente caratterizzata da lacune e mancanze, specie quando si tratta di normare fenomeni altamente innovativi come quelli di AI) ad un sistema basato su principi generali applicabili a fattispecie in continua evoluzione.

Le tecniche di repressione di eventuali condotte illecite connesse all’uso dell’AI

Quanto al problema delle tecniche di repressione di eventuali condotte illecite connesse all’utilizzo dell’intelligenza artificiale, le alternative oscillano tra un’impostazione che guardi solo ai risultati prodotti dall’utilizzo di tali tecniche, affiancandole una serie di esenzioni che possono costituire un’esimente, ed una impostazione che, partendo dall’individuazione di misure preventive e di protezione che, come detto, ben si prestano ad essere applicate ai sistemi di AI forti che prescindono dalle istruzioni impartire dall’essere umano, possa far configurare una responsabilità a carico di quest’ultimo solo nelle ipotesi di mancata introduzione da parte del programmatore o dell’utilizzatore del sistema algoritmico di adeguate regole di protezione.

Quest’ultima soluzione consentirebbe anche di mantenere inalterato l’attuale assetto sanzionatorio “binario”, adottato sia dal legislatore italiano che da quello comunitario in tema di abusi di mercato, che prevede l’applicazione di sanzioni amministrative per le condotte illecite più lievi e penali per quelle più gravi,  così da prevedere l’applicazione di sanzioni penali per i sistemi di intelligenza artificiale creati con il precipuo intento di commettere un abuso di mercato, e di semplici sanzioni amministrative  per le condotte che violino l’obbligo di adottare misure di prevenzione del rischio in sede di progettazione del sistema algoritmico.

L’AI Act europeo: come si declina l’approccio risk based ai mercati finanziari?

Resta da comprendere come possa influire sul tema relativo all’inquadramento giuridico dei sistemi di intelligenza artificiale la quanto mai sofferta recente approvazione del Regolamento (UE) sull’intelligenza artificiale.

Il testo del Regolamento europeo appena licenziato appare improntato al tentativo di trovare un punto di raccordo tra i benefici connessi all’utilizzo delle nuove tecniche di intelligenza artificiale e l’esigenza di tutela dei diritti fondamentali.

In questo senso, il Regolamento appena approvato conferma il principio da sempre utilizzato dai regolatori comunitari di approccio basato sul rischio.  Si conferma dunque l’impostazione originaria di dar vita ad una regolamentazione dell’intelligenza artificiale modulata a seconda dell’intrinseca potenziale pericolosità delle nuove tecniche legate all’utilizzo della AI: tanto maggiore è il rischio, quanto più rigorose sono le regole.

In questo senso, le nuove regole hanno il merito di rappresentare la prima proposta legislativa di questo tipo al mondo, potenzialmente in grado di fissare uno standard globale per la regolamentazione dell’IA in altre giurisdizioni, come è già avvenuto per il regolamento generale sulla protezione dei dati, promuovendo in tal modo l’approccio europeo alla regolamentazione della tecnologia sulla scena mondiale.

Ma non è ancora del tutto chiaro come declinare concretamente tale approccio risk-based in ambito finanziario. Da alcuni studiosi del diritto è stato sostenuto che per imputare la responsabilità in capo a produttore, programmatore o utente di sistemi di intelligenza artificiale non è necessario che questi soggetti si rappresentino l’evento o la possibile verificazione del medesimo ma dovrebbe essere sufficiente unicamente la creazione di un rischio in grado di produrre l’evento.

Se questo fosse l’approccio da seguirsi, in ambito finanziario il risultato sarebbe probabilmente quello di un ampliamento del novero dei sistemi di intelligenza artificiale definibili come “forti” e dunque ad “alto rischio”, e tra di questi potrebbe essere ricompresa anche l’attività di trading. Questo allargamento della nozione di sistemi di intelligenza artificiale ad alto rischio nel caso del trading si tradurrebbe nella necessità da parte degli ideatori e sviluppatori di rispettare preventivamente una serie di standard di conformità, pena l’insorgere a loro carico di una responsabilità quanto meno di natura amministrativa.

In ambito finanziario, questo sforzo di regolamentazione dovrà comunque necessariamente essere in grado di assicurare il mantenimento di un delicato equilibrio tra l’esigenza di garantire un ordinato e regolare funzionamento del mercato dei capitali e la necessità di non far morire sul nascere le opportunità ed i margini di innovazione legati all’utilizzo dei sistemi basati sull’intelligenza artificiale.

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2