intelligenza artificiale

Nuovi reati con IA, ecco i problemi del ddl italiano



Indirizzo copiato

Alcune parti del testo del nuovo DDL sull’intelligenza artificiale, poco chiare, potrebbero causare problemi ai già sovraccarichi tribunali. Sarebbero quindi auspicabili delle modifiche al testo per rendere meno pesanti le conseguenze sul sistema giudiziario. Vediamo come

Pubblicato il 26 apr 2024

Marco Cartisano

Studio Polimeni.legal



deepfake

Come spesso accade, il diritto corre più lento della tecnologia costringendo il legislatore a mettere mano ai codici al fine di riequilibrare l’enorme potere di influenza delle e-company sulle scelte dei singoli.

Nel nostro Paese, tuttavia, anche con il DDL sull’intelligenza artificiale appena approvato, si è manifestata la tendenza a trattare ogni illecito come un reato: un approccio che rischia di causare problemi ai tribunali, già sovraccarichi, perché alcune parti del testo che non sono chiare e potrebbero essere interpretate in modi diversi.

I pericoli dell’uso “incontrollato” dei software di IA

Sui pericoli dell’uso “incontrollato” dei software di IA – soprattutto quella “generativa” – si è spesso parlato “de jure condendo”, ipotizzando scenari giurisprudenziali e/o normativi al fine di contrastare potenziali fenomeni criminali, che vanno dalle frodi mediante sostituzione di persona, alla diffamazione aggravata, allo stalking e al revenge porn, o, più in generale tutte quelle condotte che si innestano in quella zona grigia formata da creatività e utilizzo non autorizzato di materiale protetto dal diritto d’autore.

Gli assi fondamentali della proposta di legge italiana sull’IA

Il legislatore, all’art. 1 del DDL (che contiene anche disposizioni di delega) così è stato formulato:

«1. La presente legge reca principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale.

Gli assi fondamentali della proposta di legge riguardano quindi:

  • Libero mercato in materia di IA;
  • Libertà di ricerca tecnologica e sviluppo di sistemi e modelli di IA;
  • Utilizzo corretto, trasparente e responsabile;
  • Centralità dell’uomo;
  • Controllo dello Stato sui rischi economici e sociali e sull’impatto dell’IA sui diritti fondamentali della persona.

Le nuove disposizioni penali in materia di IA

Le disposizioni penali sono contenute nell’art. 25 del DDL che arricchisce il catalogo delle circostanze aggravanti, integra norme già in essere e codifica una nuova fattispecie incriminatrice rubricata «Illecita diffusione di contenuti generati o manipolati artificialmente», ma andiamo con ordine.

Al primo comma dell’art. 61 c.p. (Circostanze aggravanti comuni), è aggiunto il seguente:

«11-decies) l’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato.».

La tecnica redazionale utilizzata consente di contestare l’aggravante derivante dall’utilizzo di sistemi di I.A. che, per loro natura, superano la soglia d’attenzione al pericolo di una persona media, ovvero abbiano aggravato le conseguenze del reato.

Da un punto di vista pratico, l’aggravante dovrebbe scoraggiare l’utilizzo dell’IA per fini illeciti.

Invece, al fine di prevenire soprattutto le frodi on line, si è ritenuto di aggiungere all’art. 494 c.p. (sostituzione di persona) la seguente aggravante specifica: «La pena è della reclusione da uno a tre anni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale.»; la medesima aggravante, è stata inserita all’art. 501 (rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio) per tutelare l’economia pubblica fortemente influenzabile dalle eventuali notizie false, esagerate o tendenziose create e/o propalate a mezzo di sistemi di I.A.

La nuova fattispecie incriminatrice: illecita diffusione di contenuti generati o manipolati artificialmente

La vera novità, invece, riguarda la codificazione di una nuova fattispecie incriminatrice così formulata:

«Art. 612-quater (Illecita diffusione di contenuti generati o manipolati artificialmente)

Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza, è punito con la reclusione da uno a cinque anni.

Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.»

Da un primo esame, ai fini della punibilità, è necessario che si verifichi un danno ad altri (es. economico, reputazionale, morale) mediante l’invio, consegna, cessione pubblicazione o diffusione di materiale audio o audiovisivo generato dall’IA.

Probabilmente, anche al fine di tutelare altri diritti costituzionalmente garantiti (espressione del pensiero, diritto di satira, fra gli altri), un elemento costitutivo del reato riguarda l’idoneità del materiale di trarre in inganno circa la sua genuinità o provenienza.

I dubbi interpretativi e i rischi di una norma “aperta”

E qui potrebbero sorgere alcuni dubbi interpretativi: la genuinità deve essere valutata in ragione dell’intrinseca verosimiglianza all’originale (limite interno), ovvero andrebbe parametrata alla capacità critica di chi riceve il messaggio, persona offesa o moltitudine dei consociati che siano (limite esterno)?

Il pericolo è quello di aver creato una norma potenzialmente “aperta”, ove viene lasciata alla totale discrezionalità del Giudice la valutazione, o meno, della rilevanza penale di una condotta non in ragione del fatto reato, ma della percezione dei consociati in un determinato momento storico o in relazione all’evoluzione tecnologica.

Da questo punto di vista, la fattispecie così come è determinata, potrebbe contrastare i limiti imposti dalla Corte Costituzionale in tema di sufficiente determinatezza della legge penale.

In ogni caso, a parere dello scrivente, il passaggio parlamentare dovrebbe considerare gli aspetti di criticità emersi; nel dubbio, il consiglio a chi si vorrà cimentare nella creazione di contenuti con l’IA generativa utilizzando immagini di terzi, è sempre quello di applicare un disclaimer in cui si avverte l’utente che si tratta di un “deepfake”.

Gli aggiornamenti alle fattispecie penali esistenti

Continuando, si prevede una modifica agli artt. 640, 640 ter, 648 bis, 648 ter, 648 ter 1. (reati di truffa, frode informatica, riciclaggio, impiego di denaro, beni o utilita’ di provenienza illecita ed autoriciclaggio) con l’inserimento dell’aggravante dell’impiego di sistemi di intelligenza artificiale; stessa cosa dicasi per il delitto di aggiotaggio societario o bancario (art. 2637 c.c.).

La tutela delle banche dati e l’IA

Per quanto riguarda la tutela delle banche dati, dopo l’art. 171 co. 1 L. Diritto d’Autore si è inserito il seguente articolo che punisce chi «a-ter) riproduce o estrae opere o altri materiali in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale;»: su questa norma vi è stata una mediazione tendente a tutelare tutte la attività di ricerca o relative a quelle banche dati per cui il titolare non abbia espressamente riservato a sé i diritti (cd. opt-out).

Si è ritenuto, infine, di prevedere l’aggravante dell’utilizzo di sistemi di IA alla fattispecie di manipolazione del mercato prevista dall’art. 185 D.Lgs. 58/1998.

Conclusioni

In conclusione, riaffiora nuovamente la tendenza pan-penalistica del legislatore di considerare ogni illecito reato, in violazione del principio di frammentarietà della norma incriminatrice, con il concreto rischio di provocare un intasamento dei Tribunali, attesi alcuni dubbi interpretativi segnalati in prima battuta.

Si auspica, quindi, un intervento correttivo in sede di conversione del DDL al fine di mitigare gli effetti del nuovo impianto normativo nei confronti del sistema penale, magari limitando l’utilizzo delle aggravanti speciali in favore della già prevista aggravante comune dell’utilizzo di sistemi di IA per la commissione del fatto.

Fonti

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4