Si moltiplicano i casi di riproduzioni di opere d’arte censurate o comunque oscurate da algoritmi e intelligenza artificiale perché, nel rappresentare nudi d’autore, risultano incompatibili con la politica aziendale dei social a cui vengono indirizzate e che dovrebbero pubblicarle[1].
E così mentre nel mondo off-line retrospettive e personali vengono ospitate nei principali musei del mondo, in quello online si assiste ad un paradosso apparentemente incomprensibile. L’impossibilità per il grande pubblico di accedere a quelle stesse opere[2] per via di un numero di pixel, che, nell’intercettare parti scoperte e nudità, risultano superiore a quello “accettabile”. Dalle statue di Canova ai dipinti di Courbet, Schiele e Klimt sino alle stampe di Cranach e persino alle sculture di Jago, solo per citare alcuni esempi in cui opere appartenenti ad epoche, stili e correnti completamente diverse vengono classificati senza mezzi termini o analisi di contesto come contenuti non appropriati per il pubblico degli utenti digitali.
Dato che ad orientare fornitori di servizi del calibro di X, Instagram o Facebook non è la casualità né il capriccio, come spiegare questo doppio binario e soprattutto come venire a capo dell’incongruenza che ne discende?
Indice degli argomenti
Le ragioni della censura dell’arte online
Per rispondere può essere utile ricordare che l’intelligenza artificiale non opera a caso e non risponde alle regole del caos[3]. Le raccomandazioni che l’IA propone e le scelte che alimenta sono sempre il frutto dei dati con cui viene addestrata, nonché dei processi e delle scelte che ne guidano lo sviluppo e ne accompagnano l’utilizzo. In altri termini, la qualità, la rappresentatività e l’affidabilità dei dati, insieme alla correttezza, alla sicurezza e alla trasparenza degli algoritmi e delle procedure e dei percorsi adottati, influenzano in modo decisivo l’IA, consentendole di offrire risultati coerenti, accurati, spiegabili e soprattutto responsabili.
Per questo, alla base della decisione se censurare o no un’opera c’è un algoritmo che risponde ad impostazioni progettuali, tecniche e statistiche, ma anche ad indirizzi culturali e valoriali, i quali a loro volta dipendono dai dati con cui il sistema di IA è addestrato e dai filtri che lo indirizzano.
Si tratta allora di offrire soluzioni capaci di orientare l’evoluzione dell’IA in modo da minimizzare errori, incongruenze e distorsioni, rafforzando l’affidabilità delle soluzioni offerte e la resilienza complessiva dei sistemi digitali su cui sempre più la società fa affidamento. Viceversa l’arte rischia di essere valutata attraverso criteri automatizzati che tendono a collocare i contenuti artistici all’interno di un regime standardizzato e a taglia unica che limita la comprensione del contesto culturale di riferimento.
Come l’AI Act affronta la censura dell’arte online
In Europa a questa esigenza risponde innanzitutto l’AI Act, che richiede l’attuazione di pratiche di data governance e di gestione dei dati coerenti con le finalità previste[4]. In particolare:
Responsabilità dei fornitori e qualità dei dati
- I fornitori dei modelli di IA sono gravati di una speciale responsabilità che tempera la loro autonomia rispetto alle scelte progettuali, ai processi di raccolta e preparazione dei dati, nonché alla valutazione dell’adeguatezza dei dataset disponibili. E così per garantire che i dataset siano pertinenti, sufficientemente rappresentativi e, per quanto possibile, esenti da errori e completi rispetto alla finalità prevista, tanto la progettazione che lo sviluppo dei sistemi e dei modelli di IA devono salvaguardare un adeguato livello di accuratezza e robustezza a prova di errori, guasti, incongruenze.
Sorveglianza umana e controllo dei sistemi
- Di più. La progettazione e lo sviluppo dei sistemi devono assicurare che sia sempre possibile prevenire o ridurre al minimo i rischi durante l’uso/funzionamento dell’IA attraverso vincoli operativi intrinseci che possono essere attivati o disattivati solo dall’operatore umano. Chi è preposto alla sorveglianza deve avere le competenze per comprendere correttamente le capacità e i limiti del sistema ed essere in grado di monitorarne il funzionamento sia per individuare e affrontare eventuali disfunzioni, sia per evitare di affidarsi ciecamente all’output del sistema, sia per decidere autonomamente rispetto alle raccomandazioni ricevute dall’IA, sia infine per interromperne il funzionamento[5].
La legge italiana sull’IA e la censura dell’arte online
La legge italiana n. 132/2025, appena entrata in vigore, prosegue lungo la stessa scia[6]. Anzi, introduce regole programmatiche e principi di indirizzo per ogni livello della catena del valore, a prescindere dalla rischiosità del sistema ed indipendentemente dalla circostanza che si tratti di modelli. Ecco allora che dalla ricerca alla sperimentazione, dallo sviluppo alla commercializzazione e all’utilizzo, i sistemi e i modelli di IA devono conformarsi attivamente, tra l’altro, ai principi di trasparenza, proporzionalità, sicurezza, accuratezza e non discriminazione.
Ancora, i dati e i processi di addestramento devono essere affidabili e dunque adeguarsi ad un canone di correttezza, attendibilità, qualità e appropriatezza, così da salvaguardarne la progettazione nel rispetto di un principio di proporzionalità. In ogni caso, rimane centrale il paradigma della sorveglianza e dell’intervento umano, perché l’uomo deve sempre poter decidere e avere l’ultima parola.
Il DSA tra moderazione dei contenuti e censura dell’arte online
Anche il Digital Service Act contribuisce ad evitare che la scure della censura si abbatta indistintamente. Tra le altre misure introdotte vi sono quelle per le quali i fornitori di servizi di intermediazione, comprese le piattaforme online, devono comunicare ai propri utenti i motivi per cui hanno rimosso i loro contenuti o perché l’accesso a un account è stato limitato, con spiegazioni chiare e specifiche delle ragioni alla base di qualsiasi decisione di moderazione dei contenuti che prendono[7].
Senonché, la banca dati sulla trasparenza del DSA, nel consentire l’accesso a tutte le motivazioni anonimizzate e aggregate dei fornitori di piattaforme online sulle loro decisioni di moderazione dei contenuti, svela “il lato oscuro” del mondo online, confermando che “solo nella prima metà del 2025 le piattaforme hanno segnalato oltre 9 miliardi di decisioni di moderazione dei contenuti, di cui il 99 % è stato preso sulla base dei propri termini e condizioni. Solo una percentuale marginale è correlata a segnalazioni di contenuti illegali” (enfasi aggiunta)[8].
Ai sensi del DSA, inoltre, gli utenti hanno il diritto di contestare le decisioni di moderazione dei contenuti. Chi non è soddisfatto può scegliere se presentare un reclamo alla piattaforma o ricorrere a un meccanismo di risoluzione extragiudiziale delle controversie. Stando ai dati forniti dalla Commissione, “dal 2024, gli utenti dell’UE hanno presentato ricorso attraverso i meccanismi interni delle piattaforme per oltre 165 milioni di decisioni di moderazione dei contenuti prese da VLOP e VLOE, che hanno portato a una revoca della decisione in quasi il 30% dei casi. Solo nella prima metà del 2025, gli organismi di risoluzione extragiudiziale delle controversie hanno esaminato oltre 1800 controversie relative a contenuti diffusi nell’UE su Facebook, Instagram e TikTok, ribaltando la decisione delle piattaforme nel 52% dei casi chiusi e ripristinando contenuti e account in modo più rapido ed economico rispetto al ricorso al tribunale”.
Prospettive future per la censura dell’arte online
Tanto basta a ritenere che l’Europa e l’Italia possano oggi contare su una cornice adeguata di regole che consenta di riconoscere e valorizzare le opere d’arte e le espressioni artistiche di pittori, scultori e artisti alla luce del contesto artistico e storico che esprimono.
Potrebbe allora concludersi che, grazie alla “spinta (più che) gentile” delle nuove regole europee e nazionali, l’IA possa affinare le proprie capacità non solo di associazione e dissociazione ma soprattutto di contestualizzazione. Un addestramento responsabile permetterà di migliorare la performance e ridurre nel tempo i margini di errore delle raccomandazioni e delle inferenze offerte dall’IA.
Sullo sfondo rimane da capire se la cornice regolatoria e gli affinamenti dell’IA siano effettivamente adeguati rispetto all’esigenza di salvaguardare la diffusione online di opere d’arte e contenuti artistici, calandoli nel tessuto storico e culturale di riferimento. O se piuttosto per garantire la libera circolazione delle espressioni artistiche nel loro valore simbolico, storico e culturale occorra “ingaggiare” i fornitori dei sistemi di IA e dei servizi di intermediazione affinché i modelli di moderazione siano “addestrati” (non in via occasionale e sulla base delle contestazioni degli utenti, ma) in via strutturata e sistematica, attraverso gli strumenti offerti dall’AI Act, così da preservare la funzione critica, simbolica e culturale dell’arte nello spazio digitale.
Note
[1] Al tema è stato dedicato il Convegno del Ministero della Cultura-Cinecittà promosso dal Sottosegretario alla Cultura Lucia Borgonzoni dal titolo “IA: l’algoritmo, censura del XXI secolo”, che si è svolto a Roma 17 dicembre 2025. Per ulteriori informazioni, si rinvia al link https://cultura.gov.it/comunicato/ 28476. Il tema è stato ripreso in occasione della Tavola Rotonda dal titolo “L’algoritmo come legge del mercato tra opportunità e responsabilità”, organizzato a Roma dal Centro ICPC-Innovation, Regulation and Competition Policy Centre dell’Università Europea di Roma (https://www.universitaeuropeadiroma.it/ricerca/economia-e-management/centri-e-laboratori-di-ricerca/innovation-regulation-and-competition-policy-centre-icpc/), l’11 marzo 2026.
[2] Nel 2021 i musei di Vienna tra cui il Leopold e l’Albertina, dopo numerose censure delle proprie collezioni da parte di Facebook e Instagram, hanno trasferito i propri profili sul social OnlyFans piattaforma di intrattenimento a pagamento.
[3] Così V. Falce, L’algoritmo come piuma o come ferro, Il Sole 24 Ore, 23 gennaio 2026, accessibile all’indirizzo Internet https://www.uer.it/ricerca/centri-e-laboratori-di-ricerca/innovation-regulation-and-competition-policy-centre-icpc/, ripreso in https://www.tgcom24.mediaset.it/politica/il-paradosso-dell-intelligenza-artificiale-si-alle-foto-hard-ma-censura-le-opere-d-arte_108210031-202602k.shtml
[4] Ampiamente, Circolare Assonime n. 14/2024.
[5] Dal canto loro, anche gli utilizzatori commerciali, i deployer, devono adottare idonee misure tecniche e organizzative per garantire che i sistemi di IA vengano usati conformemente alle istruzioni per l’uso, affidando la sorveglianza umana a persone fisiche che dispongano della competenza, della formazione e dell’autorità necessarie. Ancora il deployer deve garantire che i dati di input (se sotto il suo controllo) siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema. E deve altresì monitorarne il funzionamento affinchè sia conforme alle istruzioni per l’uso (trasmettendo le relative informazioni al fornitore). Se ritiene che l’uso del sistema possa presentare un rischio, è tenuto ad informare senza ritardo il fornitore/distributore e l’autorità di vigilanza e a sospenderne l’uso. Ove, infine, individui un incidente grave, deve informare il fornitore/importatore/distributore e l’autorità di vigilanza. Sul ruolo e le funzioni del deployer, anche S. Firpo, V. Falce, La sfida per un AI Act europeo che funzioni: interpretarne bene le regole, in Il Foglio, 24 agosto 2024, disponbile all’indirizzo Internet https://www.ilfoglio.it/tecnologia/2024/08/24/news/la-sfida-per-un-ai-act-europeo-che-funzioni-interpretarne-bene-le-regole-6868602/.
[6] In proposito, anche Circolare Assonime n. 27/2025.
[7] Cfr. https://digital-strategy.ec.europa.eu/en/policies/dsa-impact-platforms .
[8] Nel comunicato, disponibile all’indirizzo Internet https://digital-strategy.ec.europa.eu/en/policies/dsa-impact-platforms, si precisa che il DSA impone inoltre alle piattaforme una maggiore trasparenza sui loro processi e sulle loro pratiche di moderazione dei contenuti. Le piattaforme online, come Snapchat, TikTok, Pinterest, AliExpress, Facebook e Instagram, stanno offrendo una gamma più ampia di informazioni sulla moderazione dei contenuti. Queste includono il numero di contenuti rimossi, l’accuratezza dei sistemi automatizzati, il numero di reclami ricevuti dagli utenti e informazioni sui team di moderazione dei contenuti.












