intelligenza artificiale

Arte digitale sotto attacco: LightShed abbatte le difese anti-IA



Indirizzo copiato

LightShed neutralizza con efficacia del 99,98% le protezioni Glaze e NightShade, minacciando la sicurezza delle opere d’arte digitali contro l’utilizzo non autorizzato da parte dei modelli di intelligenza artificiale generativa

Pubblicato il 16 set 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



arte e ai (3) intelligenza artificiale e arte

Negli ultimi anni, la diffusione dell’Intelligenza Artificiale generativa, capace di generare contenuti testuali, audio e video (come ChatGPT), ha sollevato una questione cruciale per il mondo dell’arte digitale, ossia: come proteggere le opere originali degli autori dall’essere catturate, manipolate o imitate da sistemi automatizzati senza autorizzazione e, spesso, illegalmente?

L’irruzione dell’intelligenza artificiale nell’arte digitale e gli strumenti di protezione

In risposta a questa sfida, sono nati strumenti di tutela come Glaze e NightShade, progettati per tutelare i diritti creativi degli artisti contro l’addestramento indiscriminato degli algoritmi[1]. Ma ora, una nuova tecnologia sperimentale chiamata LightShed potrebbe minare profondamente questi tentativi di difesa, aprendo una nuova fase in quella che somiglia sempre più a una “corsa agli armamenti” digitali tra creatori umani e sistemi intelligenti.

LightShed è una tecnologia sviluppata da un team internazionale di ricercatori della University of Cambridge (Regno Unito), della Technische Universität Darmstadt (Germania) e della University of Texas (San Antonio, USA). Lo scopo ufficiale è meramente accademico, poiché punta a dimostrare che le attuali tecniche di protezione delle immagini digitali, seppur efficaci, non sono a “prova di futuro”. LightShed è stato presentato dai ricercatori come una sorta di “proof of concept”, ovvero una prova tecnica per dimostrare che un’idea è di per sé realizzabile. E l’idea, in questo caso, è allarmante, poiché con questo sistema è possibile rimuovere in modo automatico le “difese invisibili” che gli artisti digitali applicano alle loro opere al fine di impedire ai modelli di Intelligenza Artificiale di comprenderle correttamente.

Come funzionano Glaze e Nightshade: le prime difese digitali

Per comprendere a fondo la portata del problema, è necessario comprendere il funzionamento di Glaze e NightShade.

Glaze è stato sviluppato dal SAND Lab della University of Chicago e ha avuto un’adozione massiccia tra gli artisti digitali professionisti. Questo strumento agisce applicando impercettibili modifiche ai pixel di un’immagine, senza alterarne l’aspetto visivo all’occhio umano. Tuttavia, tali modifiche riescono a confondere gli algoritmi di Intelligenza Artificiale, inducendoli a “fraintendere” lo stile visivo. Per esempio, un’immagine iperrealista protetta da Glaze potrebbe essere interpretata da un modello generativo come un’illustrazione stilizzata, impedendo così un’efficace replicazione stilistica.

NightShade, invece, agisce in maniera più radicale. Anziché camuffare semplicemente lo stile, inserisce nelle immagini da proteggere informazioni volutamente ingannevoli. Così, una figura di un gatto potrebbe essere etichettata da un modello di Intelligenza Artificiale come un tavolo o un forno a microonde, creando confusione nei dati di addestramento (i cosiddetti “training data” sui quali l’Intelligenza Artificiale, per l’appunto, si addestra). Lo scopo di NightShade è di manomettere il dataset del modello di Intelligenza Artificiale, compromettendone la qualità e, quindi, l’affidabilità. Questo approccio aggressivo mira a scoraggiare l’uso non autorizzato di contenuti artistici nei processi di apprendimento automatico, proteggendo le opere intellettuali dalla potenziale “pesca a strascico” digitale che potrebbe esservi in sua assenza.

La risposta della comunità artistica alle controversie

Entrambi gli strumenti si sono diffusi rapidamente, specialmente dopo le polemiche che hanno coinvolto società come Midjourney e ChatGPT (si pensi alle immagini realizzate con lo stile dello Studio Ghibli), accusate di utilizzare milioni di immagini online (molte delle quali realizzate da artisti indipendenti) senza alcuna esplicita autorizzazione. La comunità artistica internazionale ha risposto con fermezza, invocando maggiore trasparenza, rispetto per il copyright e strumenti efficaci di autodifesa. Risultato? Glaze è stato scaricato milioni di volte, mentre NightShade, che più recente e complesso da integrare rispetto al suo concorrente, ha già superato il milione di utilizzi.

LightShed: la tecnologia che neutralizza le protezioni

Ed è proprio in questo scenario che irrompe come una “mannaia” LightShed. Il software in esame non si limita a riconoscere se un’immagine sia o meno protetta, ma riesce anche a determinare quale tipo di difesa è stata applicata analizzando la natura dei cambiamenti e delle anomalie presenti nelle immagini digitali. Una volta identificato il tipo di “avvelenamento” digitale subito dall’immagine, LightShed riesce a rimuoverlo, ripristinando un’immagine che l’Intelligenza Artificiale può leggere e apprendere normalmente, come se nessuna protezione vi fosse mai stata applicata. I test riportati dai ricercatori di Cambridge, Darmstadt e San Antonio mostrano un’efficacia quasi perfetta, con una capacità di rilevamento delle modifiche invisibili pari a ben 99,98%, nonché una percentuale di ripristino che permette all’immagine di tornare ad essere utile ai fini dell’addestramento senza alcun problema.

Le implicazioni per gli artisti e il futuro delle protezioni

Va da sé, come abbiamo potuto constatare, che questa scoperta rappresenta una seria minaccia per gli artisti. Se strumenti come LightShed dovessero essere adottati da aziende che sviluppano modelli di Intelligenza Artificiale, le attuali soluzioni di protezione potrebbero diventare rapidamente obsolete. Anche i sistemi difensivi di nuova generazione, se basati su principi simili, potrebbero essere neutralizzati con approcci simili. Si aprirebbe, in tal modo, un ciclo potenzialmente infinito in cui ogni protezione tecnologica verrebbe prima o poi aggirata da una nuova contromisura.

La posizione dei ricercatori: avvertimento o minaccia?

Dal punto di vista dei ricercatori delle tre università, LightShed non è un’arma, ma un “avvertimento”. Tale strumento, a detta loro, dimostrerebbe che il paradigma delle “perturbazioni invisibili” ha limiti strutturali. Poiché le immagini protette da Glaze e NightShade sono visivamente quasi identiche a quelle originali, le differenze introdotte possono essere riconosciute e annullate con un sistema sufficientemente sofisticato. Secondo gli autori dello studio, il rischio non è solo teorico: è del tutto plausibile che in futuro modelli di Intelligenza Artificiale siano addestrati per ignorare o annullare automaticamente queste difese, rendendo inutile il lavoro degli artisti che cercano di proteggere i propri contenuti.

La battaglia tra creatività umana e IA e l’urgenza di un intervento normativo

Il dibattito che si apre è profondo e va oltre le mere questioni tecniche. È chiaro che la tutela dell’arte digitale non può basarsi esclusivamente su strumenti software. Anche se Glaze e NightShade continueranno a evolversi, con aggiornamenti più sofisticati, non si potrà fare affidamento solo su soluzioni temporanee e tecniche. Serve un intervento normativo, che stabilisca con chiarezza il diritto degli artisti a decidere se e come le proprie opere possono essere utilizzate da sistemi di Intelligenza Artificiale. Vi sono già alcune regolamentazioni in merito a livello internazionale (come il nostro Regolamento UE 2024/1689, conosciuto come “AI Act”), mentre alcune sono ancora in itinere (come le frammentate regolamentazioni statunitensi); tuttavia, al momento la giurisprudenza è ancora lacunosa e frammentaria.

Cause legali e scontri nei tribunali

In parallelo, si stanno moltiplicando anche le cause nei tribunali, soprattutto negli Stati Uniti. Alcuni collettivi di artisti hanno avviato azioni contro aziende che, secondo loro, hanno sfruttato miliardi di immagini online senza alcuna forma di consenso e pagamento. La posta in gioco è, d’altronde, enorme: da un lato vi è il diritto alla libera innovazione tecnologica, dall’altro il rispetto (e la protezione) della creatività individuale. LightShed non è ancora stato commercializzato e, secondo i suoi creatori, non lo sarà mai. Ma la sua esistenza pone una domanda inevitabile: se una tecnologia può essere creata, quanto tempo passerà prima che venga utilizzata (e “copiata”)?

Il futuro del conflitto tra IA e creatività umana

Il conflitto tra Intelligenza Artificiale e creatività umana non si risolverà presto, questo è pacifico. Le due forze di automatizzazione e immaginazione sono oggi più interconnesse che mai. La possibilità di generare immagini artistiche con pochi comandi di testo ha rivoluzionato settori come la pubblicità, il design e l’editoria. Ma, allo stesso tempo, ha messo in crisi il ruolo stesso dell’artista come autore riconosciuto e retribuito. Finché non esisteranno regole chiare e strumenti equi, la bilancia continuerà a pendere dalla parte di chi ha più potere tecnologico (e, quindi, economico).

LightShed è il simbolo di questo squilibrio, ossia un software sofisticato, capace di abbattere in pochi istanti le difese costruite (con pazienza) da milioni di artisti. È anche, però, un campanello d’allarme che ci ricorda che la lotta per il riconoscimento e la protezione del lavoro creativo non può essere demandata solo alla tecnologia. Serve una riflessione collettiva, che coinvolga legislatori, sviluppatori, artisti e utenti. Perché l’Intelligenza Artificiale può creare, ma non potrà mai sostituire il valore profondo dell’intenzione umana dietro un’opera. E, ancora una volta, il “lento diritto” si trova a dover correre per raggiungere la “veloce tecnologia”.

Note


[1] Nightshade e Glaze: il veleno che permette di proteggere le opere dai furti dell’Ai. Il Sole 24 Ore. https://www.ilsole24ore.com/art/nightshade-e-glaze-veleno-che-permette-proteggere-opere-furti-dell-ai-AF6IzSrB

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati