Musica

Ecco come l’intelligenza artificiale cambia l’industria discografica

Gli effetti della pervasiva presenza di Intelligenza artificiale nell’industria musicale, sono già ampiamente visibili oggi: dallo streaming agli smart speaker, dalla vera e propria “creazione” di brani a quella dei videoclip. Così cambia tutto. Ma resta aperto il nodo copyright

20 Lug 2020
Enzo Mazza

CEO F.I.M.I. (Federazione industria musicale italiana)


L’intelligenza artificiale è parte integrante del futuro industria musicale. 

Per il modo in cui l’AI:

  • Concorre alla creazione pratica della musica;
  • Alle scelte data-driven dell’industria musicale su cosa puntare, modificare e promuovere un prodotto (così come l’industria cinematografica, se è per questo);
  • Concorre all’ascolto – sulle proposte che le piattaforme fanno agli utenti e alle scelte di questi ultimi.

AI nell’industria musicale, com’è cambiato il nostro modo di ascoltare

In realtà, gli effetti della pervasiva presenza di AI nell’industria musicale, sono già ampiamente visibili oggi. Diciamo che di fatto l’intelligenza artificiale costituisce nel presente un sempre più consistente ausilio in diversi segmenti del settore.

Il primo e più evidente impatto dell’intelligenza artificiale lo possiamo verificare ogni giorno tramite due strumenti di consumo quotidiano di musica presenti nelle nostre case o sui nostri device: lo streaming e gli smart speaker.
Da tempo ormai le piattaforme come Spotify, Apple Music, Amazon, ecc. operano integrando forti elementi di AI nelle proprie applicazioni.
Se pensiamo che ogni giorno, su una piattaforma come Spotify vengono caricate oltre 40 mila canzoni, ovvero oltre 14 milioni e mezzo in un anno, possiamo immaginare come questo enorme bagaglio di informazioni, generi musicali ecc. necessiti di essere trasferito agli ascoltatori tramite sistemi che possano riconoscere le passioni e gli interessi dei fan a livello globale. Gracenote, una società di Nielsen fa largo utilizzo di intelligenza artificiale per fornire dati di ausilio alle piattaforme e creare playlist come “recommendations of the day”.

Sempre guardando a Spotify, un altro esempio è “Discover Weekly“, che ha raggiunto 40 milioni di persone nel primo anno in cui è stato introdotto. Ogni lunedì ai singoli utenti viene presentato un elenco personalizzato di trenta brani. La playlist consigliata comprende brani che l’utente potrebbe non aver mai sentito prima, ma i consigli vengono generati in base al modello di cronologia delle ricerche dell’utente e alle potenziali preferenze musicali. L’apprendimento automatico consente ai consigli di migliorare nel tempo. Non solo consente agli utenti di tornare, ma permette anche una maggiore esposizione per gli artisti che i fan potrebbero non cercare organicamente.

L’analisi dei comportamenti dei fan e la relazione di questi ultimi con specifici mood e l’interazione con playlist sono attività che vengono svolte con largo impiego di machine learning. Interazioni tra musica, geolocalizzazione, attività praticata, clima, sono fattori ormai acquisiti in molte applicazioni, prevedendo e accompagnando il fan con la musica ideale senza che questi debba fare nulla per impostare specifiche playlist.

Strumenti come Siri o Alexa sono altrettanto evoluti fino a riconoscere dal tono della voce del proprietario dello smart speaker il sentiment e proporre adeguate composizioni in linea con l’umore del fan in un preciso istante. Il software degli smart speaker è sempre più evoluto proprio per rendere l’intervento umano da parte del consumatore il meno necessario possibile, una volta costruito il profilo sulla base di una vera e propria esperienza, come un bambino di fronte ai gusti dei genitori.

Creazione con l’AI

Nelle case discografiche l’impiego dell’intelligenza artificiale a supporto della ricerca e sviluppo (A&R) è stato relativamente precoce. Sony Music, nel 2016, ha creato un software, the Flow Machine, in grado di creare musica sulla base dell’apprendimento di repertori quali quello dei Beatles o di Bach. Negli studi di Abbey Road a Londra, Universal Music ha investito in piattaforme come AI Music o Humtap, strumenti in grado di affiancare gli esseri umani nelle sale di registrazione fornendo un set di dati sui quali costruire nuove sonorità, il tutto basato su principi di machine learning.

Warner Music, nel 2019, ha siglato una partnership con Endel, una società di intelligenza artificiale che ha generato 600 brani musicali su venti album nello specifico segmento di quello che si chiama “context playlist” ovvero, non un genere musicale, ma un particolare mood, tipo “peaceful piano”.
Sempre Warner Music ha acquisito una start up che analizza i social media e i feedback dei tour per identificare i nuovi promettenti talenti da seguire, semplificando il lavoro di scouting.

Altri rilevanti interventi con il supporto dell’AI riguardano la creazione di videoclip musicali interamente sviluppati da computer che possono essere impiegati per creare video originariamente mai realizzati per tracce di catalogo di album storici.

DIGITAL EVENT 13 OTTOBRE
Customer experience: tutti i vantaggi offerti dai processi di Digital Identity
CRM
Intelligenza Artificiale

Nei giorni scorsi, il 12 maggio, si è tenuto in Olanda il primo award per brani scritti tramite intelligenza artificiale. Realizzato online, questa specie di Eurovision dell’AI ha visto vincere una brano australiano scelto da un’academy di esperti tra i quali il britannico Ed Newton-Rex, la cui società di AI Jukedeck è stata, guarda caso, acquisita da Byte Dance, la società che possiede TikTok.

Concerti e AI

Nel segmento dell’interazione tra videogiochi e musica abbiamo visto ulteriori esperienze di strumenti di AI. Nella recente esperienza del concerto di Travis Scott su Fortnite, Epic games ha fatto largo uso di intelligenza artificiale nel “costruire” la performance dell’artista e rendere l’esperienza assolutamente immersiva per i fan che hanno seguito l’evento come un concerto live. Sony Music, in questo contesto, ha creato un team dedicato all’integrazione di musica nei videogiochi.

L’uso di algoritmi abilita la possibilità degli utenti di adattare la visuale del concerto in modo dinamico, simulando la presenza fisica: funziona così la tecnologia dalla startup ConcertTv, abbinata alla realtà virtuale. Anche senza bisogno di VR, l’AI può migliorare l’esperienza in un concerto virtuale su app o sito web: come quello dei coreani BTS, che a giugno ha fatto il record come concerto virtuale più pagato della storia: 20 milioni di dollari. Il covid-19 ha certo accelerato il fenomeno.

Il nodo copyright

In conclusione, resta aperto un altro rilevante aspetto della produzione di musica con l’intelligenza artificiale che è ovviamente il tema del copyright e della proprietà della registrazione creata con un maggiore o minore intervento umano e quale grado di tutela, l’oggetto della creazione, potrà godere. Su questo tema si sta lavorando proprio in questo periodo di sede di WIPO, l’organizzazione mondiale della proprietà intellettuale. Il sette luglio è iniziata una sessione dell’organizzazione a Ginevra che ha in agenda la relazione tra proprietà intellettuale e AI.

La grande questione posta è che se le opere generate dall’IA fossero escluse dall’ammissibilità per protezione del copyright, il sistema del copyright sarebbe visto come uno strumento per incoraggiare e favorire la dignità della creatività umana rispetto alla creatività della macchina. Se la protezione del copyright fosse accordata alle opere generate dall’intelligenza artificiale, il sistema del copyright tenderebbe ad essere visto come uno strumento per favorire la disponibilità per il consumatore del maggior numero di opere creative e di collocamento un valore uguale per la creatività umana e meccanica.

Questo è ora il dilemma che ci si trova a dover derimere cercando una mediazione come sempre tra innovazione e tutela della creatività.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3