L’avvento dell’intelligenza artificiale generativa (GenAI) ha rivoluzionato il panorama della proprietà intellettuale, sollevando interrogativi inediti su autorialità, addestramento dei modelli e tutela del copyright.
Indice degli argomenti
Tre modelli normativi per governare l’intelligenza artificiale
Concentrando l’analisi su tre macroaree geografiche di primaria importanza, si nota come Europa, Stati Uniti e Cina abbiano adottato approcci profondamente diversi, che riflettono le visioni politiche, economiche e culturali proprie di ciascuna macroregione.
Tali differenti proposte incidono su alcuni dei temi citati ed in particolare sull’addestramento e sulla possibilità di considerare protetto dalle norme nazionali quanto creato da un essere umano che si è avvalso di uno strumento di GenAI.
Possiamo ricondurre gli approcci sulla GenAI a tre filoni, il modello “rights-driven” appannaggio – almeno fino ad ora – dell’Unione Europea (UE), il modello “market-driven”, tipico del liberismo economico statunitense e il modello “state-driven” della Repubblica Popolare Cinese.
Europa antropocentrica, USA competitivi, Cina centralizzata
Se in UE si è dichiarato – fin dai considerando iniziali del Regolamento sull’IA (AI Act, Reg. UE 2024/1689) – il principio dell’antropocentrismo e del rispetto dei diritti fondamentali dell’uomo per un uso etico della GenAI promosso anche dalla Organizzazione delle Nazioni Unite (ONU) con iniziative quali AI for Good, negli Stati Uniti d’America dopo un primo ordine esecutivo del Presidente Biden nel 2023, si è visto un nuovo approccio portato avanti dal Presidente Trump che, poco dopo il suo insediamento, ha mirato a rafforzare la competitività americana nella GenAi sostenendo la necessità di investire su standard internazionali dettati da società primate, energia ed infrastrutture.
In questo senso, l’approccio cinese è quasi antitetico. Se da un lato, in USA si spinge alla libera concorrenza tra imprese private, in Cina lo stato interviene in prima battuta per garantire sicurezza, controllo e tutela dei valori statali, imponendo degli standard di licenza, la moderazione dei contenuti e – prima al mondo – la responsabilità diretta dei fornitori di AI per gli output generati.
L’addestramento delle AI tra eccezioni e limitazioni
È interessante vedere come divergono gli approcci relativi all’addestramento delle GenAI.
In Europa, per esempio, è nota la presenza nella direttiva copyright (Dir. UE 2019/790) della cosiddetta eccezione “text and data mining” (TDM), che consente l’estrazione di dati presenti su internet da parte di enti di ricerca e altri soggetti nonché per i privati, anche qualora perseguano scopi commerciali, sempre che il titolare dei dati non abbia espressamente effettuato l’opt-out, ossia abbia adeguatamente stabilito che i propri dati non possano essere usati per l’addestramento in un formato che sia leggibile dalla macchina.
La recentissima legge italiana L. 132/2025 in materia di intelligenza artificiale, recepisce queste eccezioni, integrando le norme della legge sul diritto d’autore e, per prima, afferma la tutelabilità ai sensi della legge copyright nazionale delle opere dell’ingegno anche se realizzate con strumenti AI, purché vi sia un contributo umano creativo. In assenza di eventuali ulteriori interventi normativi, delineare la portata dell’apporto creativo umano quando vengono utilizzati gli strumenti di GenAI verrà rimesso ai giudici che si esprimeranno sul punto, come, d’altronde, sta già avvenendo nelle altre giurisdizioni.
Fair use e summary judgment: la posizione americana
Negli USA, invece, molti titolari di opere protette dal diritto d’autore stanno cercando di opporsi all’uso da parte delle società proprietarie dei sistemi di GenAI attraverso cause intentate in più distretti.
Ad oggi, per le sentenze conseguenti a summary judgment (strumento processuale statunitense) di cui si è a conoscenza (Bartz v. Antrhopic PBC e Kadrey v. Meta Platforms, Inc), sembrerebbe che la difesa basata sulla dottrina del “Fair Use” portata avanti dalle società che realizzano i sistemi di GenAI possa essere efficace quanto meno per l’addestramento. In generale, le corti americane stabiliscono che si possa invocare il “Fair Use” nel caso in cui vi sia un uso trasformativo rispetto a quello originario delle opere altrui, sia diversa la natura dell’opera realizzata, la quantità e sostanzialità non sia eccessiva e non ci sia erosione del mercato potenziale dell’opera originaria.
Tali principi sono stati applicati nei due citati “summary judgment” per riconoscere che l’addestramento è lecito poiché, nei due casi di specie, vi è stato un uso trasformativo molto marcato e non è stata dimostrata una marcata erosione del mercato.
Ciò, ovviamente, non significa che tutti i casi di addestramento siano leciti ai sensi del “Fair Use”. Al contrario, le corti rimarcano la necessità di una verifica caso per caso e che in diverse circostanze sarà probabilmente vietato copiare materiale altrui protetto dal copyright.
La tutela delle opere generate: requisiti e limiti
Ciò che è certo, almeno per il momento, è che l’Ufficio Americano del Copyright (USCO) ritiene che fintanto che l’autore non sia in grado di prevedere e predeterminare l’output dei sistemi della GenAI, le opere realizzate autonomamente dalla intelligenza artificiale non potranno godere di protezione. E tale affermazione rimane valida anche nel caso di rilevanti e marcate modifiche apportate dall’utente ai primi output generati dalla GenAI attraverso prompt successivi.
Il modello cinese: divieti e giurisprudenza evolutiva
In Cina, invece, la normativa attualmente in vigore, emanata nel 2023, impone di non effettuare addestramento non autorizzato su opere protette. Inoltre, le corti cinesi, con diverse pronunce che si sono susseguite a partire dal 2019 (Beijing Internet Court – 25/4/2019 caso Feilin v Baidu; Shenzhen Nanshan District People’s Court – 25/11/2019 caso Tencent v Shanghai Yingxin; e la Beijing Internet Court – 27/11/2023 Caso Mr Li v Ms Liu) hanno stabilito dapprima una tutelabilità in astratto di testi generati dalla GenAI, per poi ammettere la tutelabilità in concreto dei testi realizzati da un essere umano che ha utilizzato un sistema di GenAi e stabilire l’ammissibilità della tutela anche alle immagini realizzate sempre che ci sia un significativo intervento umano che è stato riconosciuto nel caso di 150 manipolazioni successive al primo prompt inserito nel sistema.
Digital Omnibus: la nuova proposta europea per semplificare
In questo variegato panorama, sicuramente interessante è la nuova proposta della Commissione Europea che, con la cosiddetta Digital Omnibus, mira a semplificare e consolidare il quadro normativo digitale, con modifiche mirate all’AI Act e alle discipline su dati e privacy. L’obiettivo è ridurre i costi di conformità, in particolar modo per le piccole e medie industrie, favorire l’innovazione e mantenere elevati standard di tutela dei diritti fondamentali.
La proposta mira, tra il resto, a razionalizzare le norme su dati, AI, privacy e cybersecurity, ammettendo – per esempio – l’uso dei dati degli utenti purché anonimizzati in virtù di un interesse legittimo all’addestramento di sistemi di GenAI, a semplificare gli obblighi per sistemi AI ad alto rischio, ad introdurre ulteriori periodi transitori per l’applicazione di nuovi requisiti (es. watermarking degli output AI) permettendo così un adeguamento più in linea con l’attuale assetto delle società che offrono sistemi di Gen Ai e insistendo sulla promozione dell’AI literacy e della trasparenza sui dati di addestramento, attraverso dei modelli pre approvati dagli organi europei.
Ulteriore ambito di intervento è legato alle tempistiche di applicazione dell’AI Act. La proposta, infatti, pur mantenendo invariate le altre date, mira a congelare l’applicazione delle regole per i sistemi di intelligenza artificiale ad alto rischio fintantoché non saranno disponibili standard armonizzati, specifiche comuni e linee guida. L’entrata in vigore avverrà 6 mesi dopo la decisione UE per i sistemi ad alto rischio e 12 mesi dopo per quelli dove l’intelligenza artificiale è un prodotto o componente di sicurezza integrato, che, comunque, non potranno essere successivi rispettivamente al 2 dicembre 2027 e al 2 agosto 2028.
Conclusioni: equilibrio tra innovazione e responsabilità
In conclusione, dunque, la proposta Digital Omnibus segna un passo verso una governance più coerente e “innovation-friendly”, ma la sfida sarà trovare un equilibrio tra progresso tecnologico e responsabilità sociale, in un contesto globale sempre più competitivo e interconnesso con modelli alternativi che si sfidano e una certezza del diritto che tende a essere alquanto labile.














