proprietà intellettuale

Il watermarking come metodo per segnalare l’uso di chatbot e tutelare il diritto d’autore

La democratizzazione dei chatbot, il pensiero corre a ChatGPT, impone un metodo per riconoscere i testi generati da un’Intelligenza artificiale. Tra questi prende quota l’ipotesi del watermarking che tutela anche il diritto d’autore su cui si soffermano diverse leggi del nostro ordinamento

Pubblicato il 09 Feb 2023

Simona Lavagnini

avvocato, partner LGV Avvocati

Chatbot, cos’è e a cosa serve in azienda

Uno dei temi rilanciati da ChatGPT è il rischio di plagio. Una discussione che ha già invaso il mondo scolastico, laddove gli studenti hanno già iniziato a utilizzare chatbot per preparare le risposte di esami o per realizzare saggi.

Certamente il rischio che gli studenti imbroglino utilizzando un’Intelligenza artificiale (AI) è alto e sembra molto difficile riuscire a identificare quando ciò si verifichi. Si è allora proposto di utilizzare la tecnologia del watermarking, ossia una sorta di filigrana elettronica, costituita da un insieme di informazioni poste all’interno di un file, visibili o nascoste, in modo che questo sia liberamente accessibile, ma contrassegnato in modo permanente.

ChatGPT irrompe nelle università: il parere di docenti e studenti, le contromisure

Le norme sul diritto d’autore

In altre parole, il watermark consentirebbe di distinguere quello che è stato effettivamente creato da un essere umano e quello che invece è il prodotto dell’intelligenza artificiale. La disciplina del watermark si rintraccia nelle norme sul diritto d’autore e sui marchi, dove nel diritto d’autore (articoli 102 quater e 102 quinquies della Legge 633/41) si prevede che i titolari dei diritti d’autore e connessi possono apporre sulle opere o sui materiali protetti misure tecnologiche di protezione, ovvero informazioni elettroniche sul regime dei diritti che identificano l’opera o il materiale protetto, nonché l’autore o qualsiasi altro titolare dei diritti.

Le informazioni possono anche contenere indicazioni circa i termini o le condizioni d’uso dell’opera o dei materiali, nonché qualunque numero o codice che rappresenti le informazioni stesse o altri elementi di identificazione.

La rimozione abusiva o l’alterazione delle informazioni elettroniche, oppure la distribuzione o diffusione di beni dai quali siano state rimosse o alterate le informazioni elettroniche stesse costituisce reato punito con la reclusione da sei mesi a tre anni e con la multa (articolo 171ter Legge 633/41).

Il codice della proprietà industriale (decreto legislativo 10/2005) tutela poi il marchio, da un lato impedendo che quello del produttore sia soppresso o alterato e dall’altro lato sanzionando civilmente e penalmente chi altera o contraffà un marchio (articoli 20 e 473 Codice penale).

Le norme che disciplinano i marchi digitali e la loro violazione esistono da tempo nel nostro ordinamento e costituiscono un presidio contro la violazione dei diritti di proprietà intellettuale. Vista la loro natura e la loro funzione (quella di impedire l’utilizzazione non autorizzata di diritti di proprietà intellettuale) è tuttavia lecito chiedersi se la proposta di apporre un watermark o marchio digitale ai risultati dell’AI sia sistematicamente accettabile, e se essa sia effettivamente idonea a risolvere i problemi posti nella pratica dall’AI, inclusi i tentativi degli studenti di imbrogliare negli esami.

Il watermark

Il primo problema che si pone è che l’apposizione di un watermark nell’AI potrebbe presentare problemi di attuazione, dal momento che funzionerebbe al contrario rispetto a quello che avviene nella proprietà intellettuale. In quest’ultimo settore il watermark è apposto a ciò che è autentico, e per differenza è possibile affermare che i beni privi di watermark siano contraffatti. Nell’AI questa situazione non si potrebbe verificare: in altre parole, si potrebbe dire con certezza che un documento è stato realizzato dall’AI quando su esso sia apposto un watermark, ma nel caso speculare del documento privo di watermark non si potrebbe essere certi che si tratti di creazione dell’intelletto umano, ben essendo possibile che vi siano AI non dotate di watermark, i cui risultati potrebbero circolare senza che sia possibile distinguerli rispetto a quelli realizzati da un essere umano.

Del resto, allo stato attuale non esiste alcuna norma che imponga di apporre il watermark ai risultati dell’AI, e anche ove tale norma fosse introdotta è ipotizzabile che possa essere aggirata da soggetti interessati a far passare i risultati dell’AI come prodotto dell’ingegno umano.

Il secondo problema che si pone è che al momento l’interesse all’apposizione in generale di un watermark sui risultati dell’AI appare inesistente, se non controproducente, visto che effettuare una tale dichiarazione produce la perdita di diritti esclusivi. Secondo infatti l’attuale opinione maggioritaria, per lo meno nei paesi occidentali, i risultati dell’AI non possono essere protetti tramite sistemi di proprietà intellettuale (come il diritto d’autore o i brevetti), in quanto non sono realizzati tramite il contributo intellettuale di esseri umani.

La proprietà intellettuale

La proprietà intellettuale richiede che l’attività creativa, o inventiva, sia svolta da una persona fisica, e che i diritti esclusivi siano acquisiti all’origine all’atto della creazione dall’essere umano che è l’autore o l’inventore del bene immateriale. In questo senso, fra gli altri  il Copyright Office statunitense e l’Ufficio brevetti europeo hanno rifiutato di riconoscere la protezione del diritto d’autore o del diritto delle invenzioni ai risultati realizzati automaticamente dall’AI senza interventi creativi o inventivi da parte di esseri umani.

Per questa ragione si ritiene che ad oggi molte opere dell’ingegno o invenzioni in realtà  realizzate dall’AI non vengano dichiarate come tali, ma siano invece attribuite a esseri umani, al fine di ottenere la tutela prevista dalla legge per le opere dell’ingegno e per le invenzioni.

È presumibile quindi che l’apposizione di un watermark che addebiti con chiarezza a un’AI la provenienza di un bene immateriale sia scarsamente desiderata da chi intenda trarre beneficio dallo sfruttamento del bene stesso tramite l’applicazione dei diritti esclusivi previsti dalla proprietà intellettuale.

Differenze sostanziali

In ogni caso, appare chiaro che il watermark utilizzabile nell’ambito dell’AI non possa essere assimilato al watermark normalmente utilizzato come marchio digitale di autenticità apposto alle opere dell’ingegno. In quest’ultimo caso, infatti, il titolare dei diritti ha un chiaro vantaggio nell’apporne a tutte le proprie opere, in modo da poter identificare sul mercato i beni contraffatti (quelli privi di watermark) e poter poi agire per ottenere la loro eliminazione dal mercato ed il risarcimento del danno. Nell’AI avverrebbe esattamente il contrario in molti casi: il titolare dell’AI avrebbe interesse a rendere le proprie opere non distinguibili da quelle realizzate da esseri umani.

Tuttavia, la proposta di apporre un watermark ai risultati dell’AI potrebbe presentare altri aspetti di interesse, legati alla opportunità che il pubblico sia adeguatamente informato della provenienza e della natura dei prodotti sul mercato, così da essere anche posto in grado di effettuare scelte più consapevoli.

In quest’ottica il diritto individuale del titolare dell’AI dovrebbe essere bilanciato con il pubblico interesse, ed il risultato del bilanciamento potrebbe essere quello di obbligare il titolare dell’AI a rendere sempre conoscibile alla comunità quando un prodotto sia il risultato dell’AI, proprio come avviene in certi settori che disciplinano l’etichettatura dei beni sul mercato.

Secondo il Codice del consumo (articolo 5 e seguenti) i consumatori hanno diritto a ricevere informazioni essenziali, in particolare in materia di sicurezza, composizione e qualità dei prodotti e dei servizi. Ora, la provenienza di un risultato dall’AI potrebbe essere un’informazione di questo tipo, riguardando la qualità del prodotto o del servizio, oppure anche la sua sicurezza (in determinate circostanze).

Il sistema potrebbe d’altro canto essere anche premiante per il titolare dell’AI, poiché la fornitura al consumatore di informazioni connesse all’AI potrebbe anche costituire un fattore pro-competitivo, quando legato alla garanzia di determinate caratteristiche di qualità e di liceità dell’AI.

Sotto un primo profilo, infatti, il watermark potrebbe svolgere le funzioni di un “marchio di certificazione”, ossia attestare la presenza nel prodotto di determinate caratteristiche, che potrebbero essere legate al procedimento di realizzazione dei risultati dell’AI, alla sua qualità, o altre caratteristiche rilevanti.

Una possibile certificazione

Il “marchio di certificazione” viene registrato e gestito tendenzialmente da istituzioni, autorità ed organismi accreditati e neutri, che predispongono un regolamento d’uso e disciplinano le condizioni d’uso del marchio, oltre che le modalità di verifica e sorveglianza.

In questo senso, si potrebbe pensare – per esempio – a watermark in grado di certificare il processo di acquisizione dei dati da parte dell’AI, in modo da garantire che si tratti di dati autentici e verificati, e non invece di fake news.

Si potrebbe inoltre certificare il processo di produzione degli output, in modo tale da rendere noto quali sono i meccanismi attraverso i quali l’AI opera, e assicurare che i medesimi rispondano a determinati requisiti di base come, per esempio, la completezza e la prevedibilità, ovvero il rispetto di parametri di inclusione e non discriminazione.

Il watermark in discussione presenterebbe non solo vantaggi di tipo etico e sociale, ma anche di tipo economico, dal momento che vi potrebbe essere un mercato specifico proprio per quei prodotti dell’AI che rispondano a particolari caratteristiche di qualità, e quindi siano in grado di attrarre un pubblico qualificato, per esempio di consumatori attenti al fatto che le news siano verificate e attendibili e non siano invece fake news.

Dichiarazione di trasparenza

In questo contesto il watermark potrebbe anche fungere da stimolo perché gli sviluppatori dell’AI si muovano verso la realizzazione di sistemi trasparenti di AI, in cui i meccanismi, i processi e gli algoritmi alla base del sistema stesso siano in chiaro e quindi conoscibili da parte del pubblico.

Il tema si ricollega a quello centrale dell’AI, ossia alla sua trasparenza e controllabilità. Uno dei punti di domanda più rilevanti riguardo allo sviluppo dell’AI consiste infatti nel rischio che questa possa essere tendenzialmente protetta attraverso l’applicazione dell’istituto del segreto commerciale e industriale, grazie al quale una soluzione tecnica può ottenere una tutela di diritto esclusivo, potenzialmente illimitata nel tempo, a condizione che abbia in sé un valore economico e non sia nota al pubblico nella sua precisa configurazione.

Tuttavia, la previsione di una protezione attraverso il segreto – pur astrattamente idonea sotto il profilo individualistico dell’interesse del creatore dell’AI – potrebbe portare a risultati non desiderabili per la comunità, perché potrebbe rendere non conoscibili i principi su cui l’AI si fonda e nascondere anche possibili pregiudizi o errori che eventualmente possano affliggere l’AI.

L’interesse collettivo

Proprio per questa ragione recentemente sia la Cassazione (sentenza 14381/2021), sia il Consiglio di stato (sentenza 881/2020) si sono pronunciati nel senso di ritenere che, perlomeno in determinati casi, l’interesse collettivo debba prevalere sulla protezione dell’AI, escludendo l’applicazione della tutela propria dei segreti industriali. Per esempio, nel caso di concorsi pubblici, per l’attribuzione di incarichi di vario tipo (dall’insegnamento ai ruoli giudiziari), sembrerebbe opportuno che il processo di selezione sia trasparente e comprensibile a tutti, e quindi quando venga utilizzata un’AI questa deve essere basata su meccanismi pubblicamente conoscibili e comprensibili, e non può per ciò stesso essere mantenuta segreta.

Un altro possibile spunto interessante di utilizzo del watermarking potrebbe riguardare le opere utilizzate per alimentare e trainare l’AI. Alcuni recenti casi giudiziari hanno portato alla ribalta situazioni in cui si sosteneva che l’AI avesse raggiunto un determinato ed elevato livello di competenze in modo abusivo, grazie all’utilizzazione di imponenti basi di dati di opere precedenti, tutte sottoposte ad atti di riproduzione ed elaborazione non autorizzate. Tra questi spicca l’azione iniziata a gennaio 2023 da Getty Images davanti alla Corte di Londra contro Stability Images.

Se fosse possibile dal punto di vista tecnologico realizzare un watermark che l’AI non possa eliminare, allora si riuscirebbe anche a realizzare l’obiettivo di impedire per lo meno alcuni tipi di utilizzi abusivi e a costringere gli sviluppatori dell’AI a remunerare lo sfruttamento del patrimonio intellettuale grazie al quale essi sono in grado di realizzare le Intelligenze artificiali.

Diritto d’autore e opere create dall’AI, prove tecniche di tutela: le questioni aperte

Conclusioni

In conclusione, quello che sembra necessario è individuare i principi attraverso i quali governare lo sviluppo dell’AI. La storia ci insegna infatti che la tecnologia non può essere fermata, e d’altro canto questo forse non sarebbe comunque nel lungo periodo un risultato desiderabile, benché certamente in un primo tempo gli effetti della tecnologia sulla società possano incidere in modo chiaramente negativo, si pensi infatti alla presunta massiva perdita di posti di lavoro dovuta all’implementazione dell’AI in molti settori, anche di tipo intellettuale.

Ciò che tuttavia è opportuno e necessario fare è chiedersi come la tecnologia debba evolversi, e fare in modo che ciò avvenga secondo modalità rispettose dei principi basilari dei nostri ordinamenti e della nostra società.

Va in altre parole garantito che questi sistemi di AI restino conoscibili e trasparenti, in modo che possa essere esercitato un controllo diffuso sulle loro modalità di funzionamento, e che si possa quindi tempestivamente identificare in loro la presenza di eventuali bias e, altrettanto tempestivamente, procedere alla loro correzione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3