scenari

Musica e AI: perché gli accordi con le major cambiano le regole del gioco



Indirizzo copiato

L’ascesa della Gen AI nella musica sta ridisegnando i confini tra diritto d’autore, tecnologia e mercato. Tra AI Act, contenziosi, accordi di licensing e nuovi modelli di business, l’industria discografica cerca un equilibrio sostenibile tra innovazione e remunerazione di artisti, editori e label

Pubblicato il 4 dic 2025

Daniela De Pasquale

avvocato, partner studio legale Ughi e Nunziante

Chiara Santoro

– Strategy Advisor, Music & Tech; Head of Communication, AIRIA



Musica generata dall'AI intelligenza artificiale e musica

Con l’ascesa dei sistemi di AI generativa ci si interroga sul destino economico degli artisti e dell’industria discografica. In questo articolo proveremo ad esaminare le possibili soluzioni per la remunerazione dei contenuti musicali che oggi si stanno facendo largo sul mercato e ad osservare la trasformazione in corso nelle modalità di fruizione della musica.

Fin troppo si è scritto sull’impatto delle piattaforme di Generative AI come quelle di Open AI, Anthropic, Stability AI, Google Gemini, Grok etc. Per quanto riguarda la musica, sono state pubblicate statistiche molto allarmanti sulla quota di ricavi (circa un quarto) che verrà sottratta alle case discografiche e agli artisti, ed è stato prospettato un rischio concreto di diluizione del repertorio musicale con brani generati da AI.

Gen AI musica: quadro normativo tra diritto e mercato

Il quadro normativo offerto dall’AI Act e dalle fonti in esso richiamate in relazione al diritto d’autore (tra tutte, la Direttiva UE sul diritto d’autore e sui diritti connessi nel mercato unico digitale 2019/790 – DCDSM) ha tracciato un percorso di tutela che si sostanzia, per l’utilizzo di opere protette a fini commerciali, nella necessità per gli aventi diritto di riservare (opt-out) i diritti sui contenuti reperibili online, o comunque liberamente accessibili, onde evitarne l’utilizzo ai fini dell’addestramento di modelli.

Parallelamente l’art. 53 dell’AI Act ha imposto un obbligo di trasparenza in capo ai produttori di sistemi e modelli AI per ciò che attiene ai materiali con cui essi sono stati addestrati. Un’obbligazione questa via via dettagliata per effetto del “Codice di Buone Pratiche” e del modello per la sintesi pubblica dei contenuti formativi per modelli di AI per finalità generali, successivamente pubblicati dalla Commissione Europea.

Inoltre, una condizione (spesso dimenticata) per tale addestramento – che l’AI Act mediante il richiamo alla DCDSM ha ritenuto di potere equiparare ad una attività di estrazione per finalità di text e data mining (TDM) – è quella dell’accesso “legittimo” ai contenuti utilizzati per il training. Effettuare scraping non autorizzato sul web, setacciandolo alla ricerca di dati e contenuti, o attingere a giganteschi data lake reperibili gratuitamente sulla rete non rappresenta un caso di accesso legittimo, quando tali contenuti sono proprietari e coperti da copyright e non sono stati messi a disposizione online con l’autorizzazione del titolare.

Portando ad estrema sintesi questi concetti, e con tutte le diverse sfumature che possono caratterizzare la disciplina della materia in paesi di common law o nell’UE, i produttori di sistemi di Gen AI dovrebbero dare conto delle modalità con cui sono stati addestrati i relativi modelli e dovrebbero avere avuto un accesso legittimo ai contenuti così impiegati, per effetto di una licenza o di un acquisto di un determinato database, o comunque per effetto di un accesso legale.

Tutto questo ha portato ovviamente a un proliferare di controversie negli Stati Uniti[1] e non solo (si veda ad esempio il recente caso tedesco GEMA vs. Open AI).

I risultati di queste cause non sono stati univocamente in favore dell’industria culturale, giacché uno degli aspetti più problematici di queste controversie è rappresentato dalla difficoltà di fornire prova dell’utilizzo di contenuti proprietari come input dell’addestramento, laddove non sia l’output a darne univoca conferma. Se si trova traccia in un contenuto generato con l’AI delle parole di un brano o una componente di una melodia si è infatti in presenza della cosiddetta “smoking gun”. Ma non sempre è così.

Un recente caso deciso dalla High Court of England and Wales (Getty Images (US) Ins. et al v. Stability AI Limited) ha proprio messo in luce le difficoltà probatorie che caratterizzano questi casi. I contenuti, al momento dell’immissione nei modelli AI, subiscono profonde trasformazioni che ne rendono difficile il tracciamento in sede di istruttoria giudiziale.

Il processo effettuato da un LLM è quello di una traduzione in una rappresentazione numerica, che consente all’AI di identificare una determinata relazione tra i dati. Insomma, il processo di addestramento non comporta necessariamente la riproduzione di copie letterali di tutto ciò che un LLM legge. Al contrario, esso crea una complessa mappa matematica di schemi, pattern, pesi statistici e probabilità che lo aiutano a prevedere la parola, la nota o il pixel da inserire dopo la precedente.

Tuttavia, se un contenuto appare frequentemente o è molto distintivo, il modello può “memorizzarlo“. I ricercatori hanno dimostrato che gli LLM a volte riproducono frammenti di codice, poesie o paragrafi quasi parola per parola. Questo fenomeno, talvolta chiamato “rigurgitazione“, è relativamente raro ma può accadere. Ma quando questo non succede è difficile dare prova dell’addestramento.

Ecco la ragione dell’onere di trasparenza posto in capo ai produttori di Gen AI dall’AI Act: evitare la probatio diabolica.

Malgrado queste difficoltà, tuona IFPI (International Federation of the Phonographic Industry): i titolari di diritti devono essere remunerati in modo appropriato per l’uso delle opere nel training dei modelli di AI generativa.

In un recente report commissionato da IFPI (“Generative AI Models at the Gate”)[2] si ricorda che l’utilizzo di contenuti protetti dal diritto d’autore aggiunge valore ai modelli di IA generativa addestrati su tali contenuti ed una parte di tale valore dovrebbe essere condivisa in modo appropriato con i titolari dei diritti.

Non farlo sarebbe inefficiente, poiché ridurrebbe gli incentivi per i creatori di contenuti a investire nella creazione di nuove opere. Ciò vale, in particolare, quando – come nel caso dei contenuti musicali – gli investimenti sostenuti dai creatori di contenuti sono in larga misura anticipati, rischiosi e irrecuperabili, poiché una grande parte dei contenuti musicali non genera profitti e quindi gli investimenti non possono essere pienamente recuperati.

Infine, con l’ausilio della tecnologia non pare impossibile creare un sistema idoneo a misurare in modo granulare e analitico l’impiego effettivamente effettuato di un contenuto e remunerarlo mediante micro-pagamenti.

Anzi, questo schiude l’orizzonte a tecnologie e business dedicati, sfruttando sistemi di identificazione dei contenuti già standardizzati nel mercato, come si approfondirà in seguito in questo articolo.

Output dell’intelligenza artificiale, mimicking e tutele delle opere

A questo punto siamo quasi pronti a illustrare la prassi contrattuale che si sta affermando, ma prima occorre ancora richiamare un paio di principi essenziali.

Il primo, evocato dall’art. 50 dell’AI Act, prevede che i fornitori di sistemi di IA che generano contenuti di immagine, audio o video assicurino che tali contenuti siano contrassegnati in modo interpretabile dalla macchina e che gli utenti siano informati che l’output è stato generato o manipolato artificialmente, salvo che ciò risulti ovvio.

Il secondo, che deriva dalla disciplina internazionale e nazionale del diritto d’autore, e che in Italia è stato codificato anche mediante l’art. 25 della Legge 23 settembre 2025 n. 132 in materia di intelligenza artificiale, prevede che un’opera interamente realizzata utilizzando una piattaforma di Gen AI non possa essere protetta mediante il diritto d’autore.

In particolare, la Legge 22 aprile 1941 n. 633 sul diritto d’autore, come da ultimo modificata da tale fonte, precisa che le opere possono essere protette anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituiscano il risultato del lavoro intellettuale dell’autore.

Nel solco di questo principio dobbiamo collocare la recente strategia adottata da Spotify di rimuovere i brani generati artificialmente dalla piattaforma, facendo eco a quanto già stabilito da numerose collecting society musicali, o quella di Deezer, titolare di un sistema proprietario di “filtro” che rimuove automaticamente i brani completamente generati da AI.

Insomma, attenzione a utilizzare strumenti di Gen AI perché il rischio è quello di non beneficiare della tutela autorale e dunque di non disporre di diritti di sfruttamento economico.

Vi è poi un’altra fattispecie, tipicamente da associarsi all’uso di Gen AI: il “mimicking”, ovvero la creazione di opere musicali “nello stile di”. In questi casi, a seconda di quanto sia vicina l’imitazione, si potrebbe essere in presenza di una elaborazione e dunque di un’opera derivata, con tutte le conseguenze del caso in mancanza del consenso dell’autore.

Ma quando si parla di musica non bisogna trascurare una diversa prospettiva: da sempre la tecnologia digitale è di supporto agli artisti e oggi si sta chiaramente aprendo una nuova stagione caratterizzata da strumenti collaborativi che abilitano gli artisti ad accelerare il processo creativo, fornendo uno straordinario ausilio alla generazione di nuova musica.

Piattaforme Gen AI musica: Udio, Suno e nuovi player

In questo senso, è di particolare interesse approfondire i diversi modelli di piattaforme di musica Gen AI, soffermandoci brevemente su quelle che ad oggi sono state protagoniste dei principali casi discussi: Udio e Suno. Per farlo, è essenziale però anche guardare allo scenario tecnologico da una prospettiva più ampia: quella delle diverse categorie di startup focalizzate sulla Gen AI.

Cherie Hu, founder di Water and Music, inserisce Udio e Suno in un insieme più ampio di startup di “full stack music generation”, ossia piattaforme attraverso cui è possibile creare un intero brano (testo + voce + musica) partendo da prompt: in pratica, il “ChatGPT della musica“.

Suno: crescita esplosiva e modello B2C

Suno si è ormai imposto come il leader indiscusso del settore, guadagnandosi lo status di vero e proprio “unicorno” finanziario. La sua strategia non si limita a creare uno strumento per musicisti, ma punta dichiaratamente a trasformare la piattaforma in un gigante del consumo di massa (B2C).

Questa traiettoria esplosiva è certificata dai numeri registrati a novembre 2025, quando l’azienda ha raggiunto una valutazione di 2,45 miliardi di dollari. Si tratta di una crescita vertiginosa se si considera che solo sei mesi prima, a maggio 2024, il valore era fermo a 500 milioni: una quadruplicazione in tempi record che testimonia la fiducia del mercato.

A sostenere questa espansione c’è una potenza di fuoco finanziaria notevole: Suno ha raccolto complessivamente circa 375 milioni di dollari, di cui ben 250 milioni arrivati con il solo round di Serie C di fine 2025[3]. I ricavi sono significativi grazie a un modello di business basato su abbonamenti “Pro” e “Premier” (rispettivamente da 10 e 30 dollari al mese), alimentato da una base utenti che ha ormai toccato i 12 milioni di attivi.

Udio: qualità tecnica e risorse limitate

La traiettoria di Udio racconta una storia diversa. Nonostante la piattaforma sia spesso considerata tecnologicamente superiore per la qualità dell’audio e la complessità musicale, la sua crescita è stata frenata da una realtà economica più rigida.

Il divario di risorse rispetto al rivale è, infatti, abissale: Udio ha raccolto finanziamenti totali per circa 10 milioni di dollari (Seed Round) contro i 375 milioni di Suno. Nonostante il supporto di investitori di prestigio come Andreessen Horowitz (a16z) e la presenza strategica di artisti come will.i.am e Common – che suggeriva fin dall’inizio un approccio più “ibrido” e attento ai creatori – anche i numeri del business sono rimasti di nicchia.

Si parla infatti di una base utenti di circa 4,8 milioni (focalizzata più su “prosumer” e audiofili che sulla massa) e un fatturato stimato tra i 3 e i 5 milioni di dollari. Ad ogni modo, il panorama delle startup o aziende attive nel settore è decisamente più complesso e ampio.

Altre startup: mixing, mastering, ethical AI e voce

Tra le startup di Gen AI attive in ambito “mixing e mastering”, AudioShake è un esempio perfetto di come l’AI possa essere un alleato prezioso per l’industria musicale tradizionale, posizionandosi in un quadrante completamente diverso rispetto a Suno o Udio.

La startup, fondata da Jessica Powell, ha un approccio B2B e utilizza l’AI per prendere un brano mixato (un file stereo unico) e separarlo nelle sue componenti originali (i cosiddetti “stem” – voce, batteria, basso, chitarra, ecc.), permettendo così a registrazioni storiche di rivivere attraverso nuove versioni per le sync, remix o versioni Dolby Atmos.

Tra le piattaforme più conosciute sul fronte dei “Pro-tools and Plugins”, la storica Splice rappresenta l’approccio collaborativo e sicuro all’intelligenza artificiale. Lontano dal voler sostituire i musicisti, la piattaforma utilizza l’AI come un assistente di produzione avanzato (tramite la funzione “Create”) per abbinare loop e suggerire idee creative. Splice addestra i suoi algoritmi esclusivamente sul proprio immenso catalogo di campioni già licenziati e proprietari.

Posizionandosi nel settore della musica funzionale (“background music” per video, podcast e spot), la startup indiana Beatoven.ai si rivolge in particolare a brand e creator professionisti e si definisce “Ethical AI” perché costruisce i propri dataset collaborando direttamente con musicisti reali e compensandoli per il loro lavoro.

L’azienda, che ha dichiarato di aver superato i 2 milioni di utenti, ha inoltre ricevuto il riconoscimento di “Fairly Trained certified AI music generator” da parte di Fairly Trained, una non-profit di particolare risalto nel settore, attiva nel certificare le aziende AI rispettose dei diritti di creators e artisti.

Dietro le quinte, Musical AI, di cui Beatoven.ai (tra gli altri) è partner, fornisce l’infrastruttura tecnica (in attesa di brevetto) per la gestione dei diritti e la tecnologia necessaria per tracciare quali brani specifici sono stati utilizzati per addestrare i modelli di intelligenza artificiale. Ad oggi, Musical AI rappresenta un catalogo di oltre 20 milioni di asset provenienti da più di 20 rightsholder.

Leader nella sintesi vocale e nel text-to-speech, ElevenLabs affronta il delicato tema dell’identità biometrica, trasformando il rischio del “furto di voce” in un nuovo modello di business. Attraverso l’introduzione di un marketplace dedicato, permette ad attori e doppiatori di licenziare ufficialmente la propria voce, generando un reddito passivo ogni volta che questa viene utilizzata da terzi.

Sebbene la piattaforma debba ancora gestire le controversie legate alle clonazioni non autorizzate caricate dagli utenti, essa ha il dichiarato scopo di regolarizzare e monetizzare l’uso dell’identità vocale nell’era digitale.

Ma la Gen AI è già entrata da tempo in processi chiave legati alla musica, come la curation (creazione di playlist, categorizzazione per genere), i sistemi di recommendations, la gestione dei metadata (aggiunta di metadati che rendano più facile il reperimento dei contenuti) o i processi di marketing e promozione (ad esempio, creazione di asset per i social).

A questo punto si impongono alcune riflessioni strategiche: in uno scenario di innovazione tecnologica basata sull’utilizzo di AI, è anzitutto importante comprendere la diversità dei casi di utilizzo e inquadrarli in modo distinto.

Per evitare una generica e miope demonizzazione occorrerà di volta in volta chiedersi: a quale domanda rispondono queste nuove startup di musica in ambito Gen AI? A cosa servono e per quale utente finale? Non si tratta di un puro esercizio di analisi del mercato, ma di un passo fondamentale per orientare le strategie di business e licensing: a ognuno dei diversi casi di utilizzo della Gen AI corrisponde infatti un diverso bisogno rispetto all’addestramento dei dati, anche da un punto di vista quantitativo e qualitativo, e pertanto un diverso modello di licensing.

In altre parole, se per la “full stack generation” di Suno e Udio può apparire chiara la necessità di ricorrere a un training di dati di milioni di brani per apprendere i “pattern” delle opere musicali, per casi di utilizzo più limitati (come, ad esempio, la “stem separation”) il processo di licensing può risultare molto più snello e meno soggetto a controversie.

Alcuni osservatori, tra cui Cherie Hu di Water and Music, notano inoltre che si potrebbe presto arrivare a uno scenario di utilizzo di dati sintetici per l’addestramento dei sistemi.

Accordi di licensing tra Gen AI musica e industria discografica

Il citato studio dell’IFPI conclude che il sistema di licenze volontarie e bilaterali, fondato sui diritti esclusivi, rappresenta il modo migliore per remunerare i creatori di contenuti protetti da copyright e, allo stesso tempo, sviluppare soluzioni di intelligenza artificiale generativa socialmente utili.

E che eventuali interventi volti a ridurre la protezione del copyright per i contenuti musicali equivarrebbero a una sovvenzione a favore degli sviluppatori di AI, il che risulterebbe sia inutile sia inefficiente.

Insomma, aggiungiamo noi, non vi è la necessità di creare un nuovo diritto a compenso per l’addestramento della Gen AI, ma è sufficiente trovare accordi commerciali che tengano conto delle specifiche caratteristiche del funzionamento dell’AI.

Le cause contro Udio e Suno e la svolta verso le transazioni

Nel 2024, le principali etichette discografiche Sony Music, Universal Music Group e Warner Records avevano citato in giudizio Udio e Suno, accusandoli di aver commesso una violazione di massa del copyright usando le registrazioni delle etichette per addestrare sistemi di IA che generano musica.[4]

Dopo essere stata convenuta in giudizio insieme a Suno, Udio ha raggiunto con Universal Music Group (UMG) un accordo di transazione e licensing, annunciato lo scorso 29 ottobre.

In particolare, UMG e Udio hanno siglato un accordo transattivo risarcitorio (gli importi restano riservati). Sappiamo però che Udio ha ottenuto licenze su fonogrammi e diritti editoriali di UMG per una nuova piattaforma di creazione musicale basata su AI, con revenue aggiuntive per artisti e autori UMG finalizzata a creare, remixare e condividere musica generata su base licenziata, controllata da meccanismi di fingerprinting per prevenire abusi.

A pochissima distanza ha fatto seguito l’annuncio di accordo tra la stessa Udio e Warner Music Group, che ha chiuso il contenzioso in corso.

Importante segnalare che, dalle notizie, emerge il progetto di una nuova piattaforma Udio, in lancio nel 2026 e molto diversa dalla versione attuale: basata sul principio dell’opt-in per gli artisti, e chiusa (con forti limitazioni in termini di download del contenuto).

Solo un giorno dopo, Universal Music Group e Stability AI hanno annunciato di aver stretto una alleanza strategica per co-sviluppare strumenti di creazione musicale AI di livello professionale.

Inoltre, il 20 novembre 2025 è stato annunciato che la società di tecnologia musicale KLAY Vision Inc. ha concluso distinti accordi di licenza con Universal Music Group e Universal Music Publishing Group, con Sony Music Entertainment e Sony Music Publishing, nonché con Warner Music Group e Warner Chappell Music.

Secondo il comunicato, tali accordi stabiliscono i termini in base ai quali KLAY svilupperà una nuova piattaforma musicale basata su intelligenza artificiale, alimentata da un LLM addestrato interamente su musica concessa in licenza, nel pieno rispetto dei diritti di artisti, autori e altri titolari, e creando un quadro di licenze estendibile anche a etichette, editori e autori indipendenti.

Ancora più recenti sono le notizie che riguardano Suno: nella giornata del 25 novembre è stata diffusa la notizia di un accordo con Warner Music Group, salutato come “rivoluzionario” dallo stesso CEO della major Robert Kyncl.

Anche in questo caso, oltre alla chiusura del contenzioso legale, le due parti parlano dello sviluppo di una nuova piattaforma, basata su un funzionamento completamente diverso rispetto al passato. L’accordo prevede che gli artisti Warner possano scegliere di partecipare (“opt-in”) per permettere a Suno di usare la loro voce, immagine e stile.

I fan non si limiteranno ad ascoltare, ma potranno creare nuove versioni o brani interagendo direttamente con il “DNA sonoro” dei loro idoli. Secondo il CEO di Suno, Mikey Shulman, questo sposta l’esperienza musicale dal semplice “premere play” al “giocare con la musica“, approfondendo la connessione fan-artista.

La vera sorpresa dell’accordo, inoltre, sta nell’acquisizione da parte di Suno di Songkick (piattaforma di scoperta concerti) da Warner. In prospettiva, osserva Music Business Worldwide, Suno potrebbe con questa mossa trasformarsi in una nuova piattaforma dedicata ai superfan.

Nonostante la “pace” fatta con Warner, Suno deve ancora destreggiarsi tra le cause legali per violazione del copyright tuttora in corso da parte di Universal Music Group e Sony Music (tramite la RIAA), a cui si aggiungono quelle delle società di gestione diritti Koda (Danimarca) e GEMA (Germania), oltre alle azioni legali di artisti indipendenti.

Naturalmente non abbiamo avuto accesso ai termini di nessuno di questi accordi, ma ci interessa osservare la direzione del mercato: passare dalla logica del free ride a un sistema di licenze espressamente strutturato per remunerare il training.

Interessante un’altra vicenda che riguarda Anthropic e la piattaforma Claude. Nel 2023 un gruppo di editori musicali (UMG, ABKCO, Concord ecc.) ha citato in giudizio Anthropic per l’uso di testi di canzoni nell’addestramento del modello Claude.

A inizio 2025 è arrivata una prima intesa parziale. I termini dell’accordo impegnano Anthropic a mantenere i guard rail già introdotti per evitare che i suoi modelli restituiscano testi coperti da copyright, nonché ad applicarli anche all’addestramento dei futuri modelli di IA e a istituire una procedura di intervento per gli editori quando sospettano violazioni, con possibilità di rimettere le controversie residue al giudice.

Dal punto di vista delle etichette, questi impegni costituiscono un precedente strategico: se un grande fornitore di modelli AI accetta restrizioni sull’utilizzo dei testi e melodie musicali nell’addestramento e sul loro riutilizzo nel modello, sarà più difficile per altri sostenere che tutto è automaticamente coperto da fair use.

Siamo, insomma, all’inizio di una nuova stagione di accordi tra industria musicale e le cosiddette “big tech”. Ma l’auspicio è che dei nuovi modelli contrattuali – pensati proprio per l’addestramento dell’AI – possano beneficiare anche startup e aziende di minori dimensioni, ovunque nel mondo.

Mercato globale della musica tra streaming e innovazione digitale

Per analizzare l’impatto della Gen AI all’interno del settore musicale può essere utile guardare allo status attuale del mercato della musica registrata.

Come riportato dal Global Music Report 2025 di IFPI, il mercato mondiale della musica registrata supera i 29,6 miliardi di dollari, in crescita del 4,8% rispetto all’anno precedente. Sebbene la crescita continui a essere solida, si assiste a un rallentamento significativo rispetto al +10,2% del 2023.

Lo streaming rappresenta ormai il 69% dei ricavi totali dell’industria e si stima che i premium subscribers nel mondo abbiano oggi raggiunto la cifra di 750 milioni di utenti.

Interessante anche osservare l’evoluzione “geopolitica” del mercato musicale: sebbene la regione Nordamericana (USA e Canada) e l’Europa si confermino come le prime due per valori complessivi di revenues, le regioni a crescita più veloce sono quelle del Middle East North Africa (MENA, +22,8%), dell’Africa Subsahariana (SSA, +22,6%) e dell’America Latina (LATAM, +22,5%).

La Cina risulta inoltre il quinto mercato mondiale per la musica e il Messico entra nella top 10 dei primi dieci, superando l’Australia. Il cosiddetto “Global South” dimostra quindi forte dinamismo anche in questo settore e può presentare differenze rilevanti rispetto a Europa e Stati Uniti, sia in termini di struttura dell’industria musicale stessa (ad esempio, con un ruolo preponderante di label e artisti indipendenti), che in termini di fruizione della musica, ecosistema complessivo e scenario legislativo.

Altri dati significativi sono disponibili attraverso il report annualmente diffuso da Luminate: in particolare, l’americana data company (specializzata nell’entertainment) ci presenta un quadro che vede oltre 202 milioni di tracce sulle piattaforme digitali (DSP, come ad esempio Spotify), con circa 100 mila nuovi brani caricati ogni giorno[5] (un dato piuttosto simile a quello degli ultimi tre anni).

La “piramide” degli ascolti, tuttavia, continua a presentare una concentrazione altissima: solo il 29% delle tracce totali supera i 100 stream in un anno. Viene da chiedersi a chi giovi questa produzione smisurata di nuovi brani inascoltati.

Per un quadro completo, è utile anche ricordare alcuni report recenti che offrono una prospettiva sulla componente partecipativa nella fruizione della musica, particolarmente in ambito social media.

Sebbene il fenomeno non sia nuovo (fin dal lancio di YouTube nel 2005 i fan utilizzano brani dei loro artisti preferiti all’interno dei propri video), con l’avvento dei social media e di TikTok questa componente ha assunto una rilevanza sempre maggiore.

Da un report di inizio 2025 commissionato a Luminate dalla stessa TikTok emerge come l’84% di tutte le canzoni che sono entrate nella classifica Billboard Global 200 nel 2024 sia diventato virale su TikTok prima di entrare in classifica.

Tuttavia, un report di MIDiA Research (dal titolo eloquente “All eyes, no ears: Why virality is not building fandom”, ottobre 2025) rileva per la prima volta una minore propensione da parte degli utenti più giovani (rispetto alle generazioni precedenti) ad ascoltare brani interi in streaming dopo averli scoperti attraverso i social.

Dati di questo genere possono aiutare a capire quali sfide stia affrontando il settore per diventare più resiliente e continuare a crescere: la diversificazione delle revenues attraverso diversi modelli di fruizione e di business, per diversi tipi di fan; la sfida della “scalabilità” in un contesto di sovrabbondanza di contenuti; la possibilità per i nuovi artisti di essere scoperti; la valorizzazione dei cataloghi; l’opportunità dei mercati emergenti.

Attribution nei modelli di Gen AI per la musica

Da tempo l’industria si sta confrontando con l’importante esigenza della “attribution”, ossia della corretta attribuzione di brani e album ad artisti, case discografiche e autori, attraverso l’inserimento di crediti e altre informazioni rilevanti all’interno delle piattaforme di streaming.

Tra gli esempi recenti più significativi è da notare l’introduzione degli “extended credits” e l’integrazione di “WhoSampled” su Spotify: attraverso queste funzionalità, gli utenti riescono ad avere molte più informazioni su autori e performer dei brani o sui sample utilizzati, e possono approfondire il loro percorso direttamente sulla piattaforma.

In ambito di User Generated Content, Content ID[6] ha permesso a YouTube di creare una soluzione win-win per utenti, artisti e industria musicale, ricollegando i contenuti generati dagli utenti a quelli originali sia da un punto di vista di gestione del copyright e di monetizzazione, che da un punto di vista di esperienza utente e promozione (come nel caso degli Shorts che rimandano al brano originale).

Nel nuovo scenario della Gen AI, tuttavia, il principio della “attribution” appare molto più complesso da implementare.

Per “attribution” in questo caso si può intendere il tentativo di collegare l’output di un’AI ai dati di input specifici che lo hanno influenzato. A differenza dei sistemi anti-pirateria o di Content ID (che cercano copie esatte) o del rilevamento deepfake (che cerca falsificazioni), l’attribuzione in ambito Gen AI cerca di stabilire una relazione causale: “Quali canzoni nel dataset hanno insegnato al modello a generare questa specifica melodia o questo suono?”.

Il tema si ricollega a quello della difficoltà di fornire prova dell’utilizzo di contenuti proprietari come input dell’addestramento, sopra illustrato.

Si tratta di una questione tecnicamente di grande complessità e certamente considerata nella negoziazione dei nuovi accordi: è di fatto la base necessaria per creare un sistema di royalties granulare, che vada oltre i semplici pagamenti forfettari o, ipoteticamente, per mettere in luce da un punto di vista promozionale la relazione tra output AI e input.

Verso un nuovo ecosistema della musica nell’era dell’AI

Come è di tutta evidenza, siamo di fronte a un altro capitolo della continua trasformazione digitale iniziata 25 anni fa nel settore musicale.

Nonostante le gravi preoccupazioni per l’industria discografica, che teme la perdita di controllo sui propri cataloghi e avverte una minaccia alla sua sopravvivenza economica, si stanno delineando nel settore nuovi orizzonti nell’equilibrio tra diritto e mercato.

Il licensing e le partnership come modello per l’industria. In linea con il recente passato, stiamo assistendo al passaggio dallo scontro legale alla cooperazione strategica: giganti “disruptive” come Suno e Udio stanno siglando accordi con le major, mentre altre startup nascono già progettate per servire i detentori dei diritti.

L’innovazione continua, il sovrapporsi di formati ed esperienze musicali. Più che a una sostituzione tecnologica, assistiamo a una costante stratificazione storica in cui ogni nuovo formato si somma ai precedenti senza cancellarli.

Oggi l’ecosistema è un mosaico ibrido dove convivono in sinergia la ritualità fisica del vinile, l’ubiquità dello streaming, la velocità dello short-form video e l’insostituibile esperienza live, offrendo ai fan una varietà di modalità di fruizione che continua ad ampliarsi anno dopo anno.

La personalizzazione del consumo di musica. L’AI sta trasformando la traccia audio da “statua di marmo” a “LEGO” (come teorizzato da Jessica Powell, founder di Audioshake, in un suo articolo del 2022), rendendo la musica adattiva e interattiva e aprendo opportunità in tre settori chiave:

  • quello del gaming e delle app di fitness, in cui la colonna sonora si adatta all’azione dell’utente in tempo reale;
  • sui social media, offrendo agli utenti l’opportunità di partecipare “entrando” nella canzone e “giocando” con i suoi elementi;
  • in ambito VR (Virtual Reality), per creare un ambiente sonoro che cambia mentre l’utente si muove nella stanza virtuale.

Come ha sintetizzato Enzo Mazza, CEO FIMI, in chiusura del suo intervento nell’evento di AIRIA “IA & Mercato” dello scorso 25 novembre: “Saranno i fan e gli utenti in generale a determinare l’evoluzione dello scenario AI per la musica, c’è una dinamica di bottom-up nel settore musicale”.

Per gli artisti, le case discografiche, i publishers, la grande sfida rimane quella di cogliere ogni opportunità di questa accelerazione della storia, creando nuovi modelli di interazione con il pubblico e un nuovo ambiente di creazione, in una strategia di crescita sostenibile del business.

Note

[1] Questo il link ad una pagina web che ha l’ambizione di raccogliere tutte le controversie US https://aiwatch.dog/lawsuits

[2] Prasad, Kadambari and Padilla, Jorge, “Generative AI Models at the Gate – Licensing frameworks for the effective and efficient protection of copyright protected content in an AI world”, May 21, 2025

[3] Tra gli investitori, oltre al capofila Menlo Ventures, gioca un ruolo cruciale Nvidia (tramite NVentures); la loro presenza è strategica perché garantisce a Suno non solo capitali, ma un canale preferenziale per l’accesso alle GPU, l’infrastruttura hardware essenziale per addestrare modelli sempre più potenti.

[4] Consigliamo un’altra fonte sempre aggiornata sui casi che riguardano la musica: https://www.mckoolsmith.com/newsroom-ailitigation-42.

[5] L’impatto del cd “AI slop” sui numeri delle piattaforme di streaming è ancora oggetto di stime. A novembre 2025 il servizio streaming Deezer ha dichiarato che circa 50mila tracce completamente generate da AI vengono caricate sulla sua piattaforma ogni giorno. Fonte: Music Business Worldwide

[6] Il sistema del Content ID di YouTube si basa sull’identificazione automatica basata sul confronto di file. I detentori dei diritti (etichette, editori, studi cinematografici) caricano i file originali (audio e video, cd “reference files”) nel database di YouTube. Questi file non necessariamente sono visibili al pubblico; servono come matrice. Il sistema analizza il file e crea una “impronta digitale” univoca: è capace di riconoscere la melodia anche se la qualità è bassa, se è distorta, o se è solo un frammento di pochi secondi. Ogni nuovo video caricato viene scansionato contro questo database in tempo reale, e il sistema scansiona periodicamente anche i video vecchi man mano che nuovi reference files vengono aggiunti. Quando il Content ID trova una corrispondenza, segue una regola (Match Policy) impostata preventivamente dal detentore dei diritti abilitato all’utilizzo di questo sistema. Le opzioni sono tre: monetizzazione, blocco o tracciamento. In oltre il 90% dei casi, i detentori dei diritti musicali utilizzano una policy di monetizzazione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati