Alla ricerca delle prime forti tutele per gli editori sottoposti all’avanzata dell’intelligenza artificiale.
Il primo dicembre 2025 l’AIE (Associazione Italiana Editori), insieme a FIEG (Federazione Italiana Editori Giornali) sotto l’ombrello di Confindustria Radio Televisioni, ha diramato un comunicato stampa sulle “Politiche di sostegno e normative per il mercato dell’editoria, salvaguardano il valore costituzionale della libera informazione”.
Nel documento viene espressa la contrarietà rispetto all’operato delle Big Tech statunitensi che hanno sviluppato modelli di intelligenza artificiale capaci di alterare le dinamiche del mercato, sfruttando contenuti editoriali senza riconoscere adeguatamente i diritti d’autore.
Indice degli argomenti
Editori e modelli di intelligenza artificiale, quali tutele? La protesta contro le Big Tech
Secondo le tesi degli editori, le Big Tech operano su un mercato globale offrendo servizi apparentemente “gratuiti” che entrano in competizione diretta con le opere degli autori.
Allo stesso tempo, tali servizi acquisiscono un numero rilevante di dati personali e li sfruttano per impadronirsi di gran parte dei ricavi pubblicitari, con un impatto diretto sui modelli economici tradizionali dell’editoria.
Le conseguenze di queste strategie incidono sulla sostenibilità finanziaria degli editori, ma hanno anche implicazioni sociali e politiche: una ridotta capacità di investire e innovare da parte di autori ed editori può portare a una “desertificazione culturale”, deteriorando il controllo democratico di un Paese.
Dal comunicato AIE-FIEG alle richieste a Governo e Parlamento
Nell’appello rivolto al Governo e al Parlamento italiani, gli editori chiedono scelte politiche e disposizioni normative urgenti per riequilibrare il mercato.
Le istanze non riguardano solo la dialettica tra diritto d’autore e sistemi di intelligenza artificiale, ma si estendono all’intero modello di business delle piattaforme digitali globali, considerato strutturalmente in grado di spostare valore dalle filiere editoriali tradizionali.
Editori e AI: come cambia il lavoro in casa editrice
A corredo dei punti indicati, il 6 dicembre 2025, durante “Più libri più liberi” 2025, è stata presentata un’analisi dell’Ufficio Studi AIE dal titolo “L’Intelligenza Artificiale in casa editrice: per fare cosa?”, con i primi elementi sul giudizio degli editori librari sul tema.
Delle circa 280 imprese editoriali associate AIE a cui è stato inviato il questionario, hanno risposto 97 imprese (per un totale di 184 marchi editoriali), fornendo indicazioni sul rapporto con i sistemi di intelligenza artificiale.
Dove l’IA è già adottata dagli editori
Le risposte confermano l’uso dell’IA nel 75,3% dei settori editoriali, con percentuali decrescenti: Varia (73,4%), Universitario (70,7%), Professionale (68,2%), Scolastico (60%).
Secondo questa prima fase dello studio AIE, l’utilizzo dei modelli di intelligenza artificiale è rivolto, nella fase editoriale, alla redazione di paratesti, copertine, illustrazioni e all’editing delle opere.
Usi organizzativi e commerciali dell’IA in azienda
Sul piano organizzativo aziendale, gli editori impiegano lo strumento soprattutto per ufficio stampa, marketing e attività commerciali, incluse quelle di sviluppo di nuovi prodotti e servizi.
Questo quadro mette in evidenza la valenza dell’IA come supporto operativo, ma introduce anche un cambio di scala: l’innovazione si intreccia con nodi contrattuali, di mercato e di governance dei dati.
Diritti, licenze e compensi: le aree più esposte con l’intelligenza artificiale
Pur riconoscendone il valore, i problemi che gli editori vedono all’orizzonte toccano aree del mercato dei diritti d’autore oggi oggetto di contenziosi soprattutto negli Stati Uniti.
Le prime decisioni in procedimenti sommari hanno prodotto provvedimenti interinali che stigmatizzano atti di pirateria, ma assolvono l’uso trasformativo delle opere quando la fonte sia lecita o non appaia provatamente illegittima.
I timori degli editori sull’impatto dei modelli di IA toccano anche gli aspetti contrattuali in fase di acquisizione e licenza dei diritti, oltre alla tutela degli autori e al riconoscimento di un compenso equo e proporzionato in un settore in rapida evoluzione, dove è difficile individuare un assetto normativo applicabile universalmente.
Sono inoltre evidenziati dubbi, in base all’indagine AIE, sulle “allucinazioni” e sui danni che possono essere causati da dataset di addestramento contenenti dati imprecisi, falsi o distorti.
Editori e modelli di intelligenza artificiale: cosa dicono i contenziosi negli USA
In linea con quanto molti editori sostengono, lo sviluppo dei sistemi di IA è considerato al contempo una grande opportunità e un potenziale pericolo, soprattutto per l’incertezza sui confini e sugli effetti della tecnologia.
Un segnale di questa incertezza è richiamato nel riferimento all’agosto 2024, quando lo Stato della California avrebbe preferito non varare una legge già approvata dall’Assemblea, per evitare che la normativa restringesse l’ambito delle criticità che possono discendere da una perdita di controllo degli apparati di intelligenza artificiale.
In prospettiva, uno scenario evocato è la crescita esponenziale delle capacità degli apparati di intelligenza artificiale fino a superare quelle del cervello umano, incidendo in modo irreversibile sugli ambienti sociali, economici e tecnologici, con conseguenze difficilmente immaginabili.
L’AI Act e le regole UE per i modelli di intelligenza artificiale
Le richieste degli editori, rivolte al Governo per iniziative di sostegno a settori che affrontano sfide globali, incontrano ostacoli di natura giuridica ed economica-industriale.
Sotto il profilo normativo, emerge il divario tra i principi che si consolidano negli Stati Uniti e quelli dell’Unione Europea, con differenze concettuali di difficile compatibilità.
Le disposizioni dell’AI Act hanno posto regole per i modelli di IA messi a disposizione degli utenti nell’acquis communautaire: obbligo di trasparenza, diritto di opt-out esplicito da parte degli autori, divieto di aggiramento delle misure tecnologiche di protezione (incluse le informazioni sul regime dei diritti), implementazione di policy aziendali allineate al rispetto del diritto d’autore, istituzione di meccanismi di ricorso per titolari dei diritti e utenti.
Editori e modelli di intelligenza artificiale, le tutele: trasparenza, opt-out e misure tecniche
Avuto riguardo alla trasparenza, in Unione Europea l’obbligo è previsto per i modelli di IA generalisti, mentre negli Stati Uniti, come emerge dai giudizi pendenti, non sussiste un vincolo analogo a carico dei gestori degli apparati di IA nel fornire informazioni sull’origine dei dataset.
Di conseguenza, per ottenere tali informazioni diventa necessario ricorrere alla Discovery giudiziale, con la necessità, se la piattaforma è basata negli USA, di rivolgersi alle Corti statunitensi per conoscere le fonti dei dati (personali e/o protetti dal diritto d’autore) utilizzati per l’addestramento.
Quanto all’opt-out previsto dall’AI Act, si richiama che l’articolo 53 della normativa UE stabilisce che gli Stati membri sono tenuti a individuare e rispettare, anche con tecnologie all’avanguardia, una riserva di diritti espressa a norma dell’articolo 4, paragrafo 3, della direttiva (UE) 2019/790.
Tale vincolo è indicato come complementare a quello di rendere pubblici, tramite rapporti sintetici sufficientemente dettagliati, i contenuti utilizzati, in conformità ai moduli predisposti dall’Ufficio per l’IA dell’Unione Europea.
Su questo punto, non sussistendo negli Stati Uniti l’obbligo di rendere pubblici i dati di addestramento, diventa difficile per gli autori conoscere quali contenuti siano stati appropriati, salvo che sia provato che la piattaforma addestri i propri modelli di IA nell’Unione Europea, ipotesi che viene richiamata come recentemente esclusa nella causa pendente davanti all’High Court di Londra tra Getty Images e Stability AI.
Di contro, la “riserva dei diritti” nelle disposizioni europee non stabilisce un formato unico e obbligatorio; ciò pone a carico dei gestori degli apparati un onere tecnico ed economico rilevante, consentendo al contempo di implementare molteplici sistemi per intercettare riserve espresse in modi diversi (robot txt, metadati, clausole contrattuali).
Inoltre, viene osservato che l’uso trasformativo delle opere negli Stati Uniti, se effettuato su contenuti lecitamente acquisiti, consente un uso commerciale quando ricorrono le condizioni del fair use.
Questo uso a scopo di lucro non è invece previsto dalle norme UE per contenuti estratti tramite Text and Data Mining, il cui utilizzo è indicato come limitato ad attività di ricerca e di pubblico interesse, ove sia stata espressa la riserva dei diritti e non si sia proceduto a stipulare un accordo di licenza con i titolari.
Anche riguardo al divieto di rimozione delle misure tecnologiche di protezione, viene richiamato che nei processi d’oltreoceano, in particolare nel caso Clarkson v. Open AI – Microsoft, l’orientamento dei giudici sarebbe contrario a tale regola, potendo la rimozione rientrare nell’uso trasformativo quando non risulti attiva e intenzionale.
Non emergono invece particolari differenze di vedute, pur nei differenti regimi legali, sull’adozione di policy aziendali allineate al rispetto del diritto d’autore e sull’istituzione di meccanismi di ricorso giudiziale per titolari dei diritti e utenti; viene però indicato il rischio di forum shopping, salvo l’eventuale istituzione di arbitrati presso organismi sovranazionali come la WIPO.
Costi, infrastrutture e perché l’Europa punta a sistemi di IA competitivi
Sul piano economico, la dialettica tra sistemi giuridici si intreccia con una questione industriale: la necessità che l’Unione Europea disponga di apparati di intelligenza artificiale propri e competitivi sul mercato mondiale.
Secondo l’impostazione esposta, questo è un elemento centrale anche per difendere e rafforzare i principi del diritto d’autore in Europa, ma richiede enormi sforzi di ricerca e finanziari affrontabili solo da aziende di grandi dimensioni o consorzi di imprese o Stati.
Si afferma che per creare un sistema di IA come Chat-GPT4 sono stati necessari oltre cento milioni di dollari, ma il tema non riguarda solo lo sviluppo: addestrare un sistema richiede tempo (da due a cinque anni), competenze avanzate, infrastrutture di grandi dimensioni e dataset immensi, oltre a non incontrare limitazioni di legge eccessive.
Oltre ai server dedicati, servono migliaia di GPU di ultima generazione dal costo di decine di migliaia di dollari ciascuna, e reti ultraveloci per addestrare i modelli.
Per realizzare un apparato competitivo a livello globale è necessario il supporto di un team di circa cinquanta/cento ricercatori di machine learning di alto livello, difficili da reperire sul mercato internazionale.
A questi si aggiungono Data Engineers e Dataset Specialists per raccogliere, filtrare e preparare i dati, oltre agli ingegneri di Development Operations e a quelli dedicati alle infrastrutture Cloud che gestiscono i supercomputer per l’addestramento; un singolo ciclo di addestramento può costare decine di milioni di dollari solo per il cloud computing.
Il percorso richiede tempo: quasi due anni per la ricerca (anche in parallelo alla raccolta e preparazione dei dataset), con ulteriori tre/sei mesi per l’addestramento senza interruzioni; poi la fase di fine tuning e allineamento comporta un ulteriore periodo.
In conclusione, viene indicato che per arrivare sul mercato con un apparato competitivo servono realisticamente tre-cinque anni, oltre alla possibilità di assoldare ricercatori di altissimo livello.
Senza una presenza forte in questo settore, si profila una dipendenza dell’Unione Europea da Stati Uniti e Cina, con il rischio di dover accedere alle regole imposte da chi detiene le conoscenze tecnologiche, come accade sempre più spesso con social network e grandi piattaforme digitali di comunicazione e ricerca.










