contenuti online

Youtube & C, tutti i problemi degli algoritmi di filtraggio

Il problema degli algoritmi utilizzati dalle grandi piattaforme del web per filtrare contenuti controversi o illeciti è destinato ad accendere numerose polemiche nei prossimi anni e necessita di nuove regole che tengano conto degli interessi e delle istanze dei creatori di contenuti. Ecco i problemi sul tavolo

18 Feb 2020
Giacomo Facchin

Information security & data protection specialist


Il tema dell’utilizzo di intelligenze artificiali per individuare la pubblicazione di contenuti controversi è sempre più forte su Youtube e di recente molto dibattuto anche alla luce di scandali che hanno coinvolto TikTok, il social più gettonato tra i giovanissimi.

In assenza di un consolidato orientamento giurisprudenziale, è presto per stabilire se questa pratica possa essere ricompresa tra le attività di cui all’art. 22 del GDPR, che prevede che i soggetti interessati abbiano il diritto a non essere sottoposti a decisioni basate unicamente sul trattamento automatizzato di dati personali; è però inevitabile che il problema posto dalle attività decisionali svolte dagli algoritmi utilizzati dalle grandi piattaforme del web sia destinato ad accendere numerose polemiche nei prossimi anni, e necessiti di una forma di regolazione che tenga conto degli interessi e delle istanze dei creatori di contenuti.

 YouTube e la (scarsa) trasparenza dell’algoritmo di filtraggio

Finora, le polemiche legate alla politiche di filtraggio dei contenuti hanno riguardato prevalentemente YouTube, la piattaforma per la condivisione di contenuti multimediali controllata da Google. Negli ultimi anni la costante crescita del numero di video pubblicati, e la maggiore attenzione dei legislatori verso le informazioni diffuse dalle piattaforme del web, ha portato a delegare sempre di più l’attività di selezione dei contenuti ad algoritmi che si appoggiano a meccanismi di machine learning.

Da gennaio, sono in vigore le nuove regole di Youtube che anche grazie da algoritmi filtrano i contenuti rivolti ai bambini e limitano la pubblicità che vi può apparire (solo quella contestuale e non più quella personalizzata).  Tantissimi hanno perso fino al 60-90 per cento dei ricavi di conseguenza.

L’affidarsi a decisioni automatizzate, tuttavia, crea un maggiore rischio di falsi positivi, causando l’incidentale cancellazione o penalizzazione di video che non violano le regole di condotta della piattaforma. Nel 2017, alla luce di nuove regole, Google-Youtube ha penalizzato la pubblicità su video dove l’algoritmo trova “contenuti offensivi”. Ciò nel tempo ha portato youtuber anche molto famosi a perdere la maggior parte degli introiti derivanti dalla loro attività (fino all’80 per cento). Anche con falsi positivi.

In numerosi casi, l’adozione di queste pratiche di controllo sui contenuti è arrivata a portare alla chiusura di molti canali, proprio per la mancanza di fondi.

Uno dei maggiori problemi che caratterizzano i meccanismi di filtraggio automatizzato dei contenuti è quello della scarsa trasparenza relativamente alle scelte operate dagli algoritmi utilizzati, le cui logiche decisionali sono spesso inaccessibili e poco trasparenti. Questo pone dubbi sulla compatibilità di queste modalità di controllo adottate da YouTube con la normativa europea in materia di protezione dei dati personali, che vincola l’adozione di decisioni automatizzate al rispetto di stringenti criteri.

Monetizzazione dei contenuti

Youtube incentiva i creatori di contenuti a pubblicare le loro opere, e lo fa attraverso varie forme di remunerazione. La principale fa leva sulla cosiddetta monetizzazione dei video, ossia la possibilità di accettare inserzioni pubblicitarie all’interno dei contenuti pubblicati, generando ricavi che in parte vengono assegnati ai creatori dei video. Le altre modalità di pagamento dipendono invece da sottoscrizioni di abbonamenti, donazioni degli iscritti ai vari canali YouTube, e così via.

Le logiche di attribuzione dei guadagni provenienti dalle pubblicità sono piuttosto complesse, e dipendono da vari fattori, come il numero di visualizzazioni del video o il livello precisione con cui le pubblicità riescono a raggiungere gli utenti target.

Negli anni, moltissimi creatori di contenuti hanno raggiunto un livello di popolarità – e conseguentemente di guadagni – tale poter fare della loro passione il proprio lavoro, e dedicarsi dunque a tempo pieno alla realizzazione di contenuti multimediali dei generi più svariati, potendo contare sui ricavi generati dalla condivisione online dei video prodotti.

Rimozione dei video inappropriati

YouTube, negli anni, ha dovuto fronteggiare e risolvere una serie di problematiche relative alla natura dei contenuti pubblicati. Quando la compagnia fu acquistata da Google, nel 2006, la piattaforma ospitava un numero enorme di video che mettevano a disposizione contenuti piratati. Era possibile per gli utenti guardare liberamente interi film, serie televisive, ed altri video protetti da copyright. La compagnia decise di combattere il fenomeno rimuovendo tali video, e promuovendo con forza la creazione e la pubblicazione di contenuti originali, principalmente per evitare pericolosi contenziosi e sanzioni per violazione del diritto d’autore. Negli anni sono emersi ulteriori problemi in relazione ai contenuti dei video pubblicati, che YouTube ha dovuto affrontare anche cercando soluzioni innovative.

Oltre alla limitazione e cancellazione dei contenuti piratati, YouTube si è trovata infatti a gestire temi come la pubblicazione di materiale di stampo pedopornografico o terroristico, o la diffusione di video cospirazionisti. Se in alcuni casi la compagnia ha provveduto alla rimozione dei video, in altri ne ha disincentivato la pubblicazione attraverso la demonetizzazione, pratica che consiste nel rimuovere gli spazi pubblicitari all’interno del video stesso, riducendo drasticamente il ritorno economico per i creatori del contenuto pubblicato. Tale ultima misura è stata in particolar modo utilizzata a seguito delle proteste di alcune aziende, infastidite dal fatto che le proprie pubblicità potessero essere inserite in video contenenti materiale controverso.

Perché si usano gli algoritmi

L’enorme volume di contenuti presenti su YouTube non consente un controllo umano caso per caso, che richiederebbe una quantità di tempo e forza lavoro impossibili da gestire. Si stima che ogni minuto siano caricate centinaia di ore di video su YouTube, e questo rende impossibile mettere in atto un’efficace verifica manuale, che valuti prima della pubblicazione la possibile violazione del copyright o di altre norme di comportamento imposte dalla piattaforma. Per tale motivo la cancellazione o la demonetizzazione dei video sono stabilite attraverso l’uso di algoritmi che, appositamente “istruiti”, scansionano milioni di ore di video, andando a segnalare i casi in cui determinati elementi, come l’uso di alcune parole o la presenza di un certo tipo di commenti ai video, fanno presumere che i contenuti pubblicati violino le norme di comportamento della piattaforma, e vadano perciò, a seconda dei casi, rimossi o demonetizzati.

La logica che guida le scelte fatte da questi sistemi di filtraggio è raramente spiegata da YouTube, per due ordini di ragioni.

In primo luogo gli algoritmi, pur ricevendo un set di istruzioni iniziali, si migliorano autonomamente nel tempo con meccanismi di machine learning, non sempre spiegabili nel dettaglio nemmeno da chi ha creato gli algoritmi stessi. Questo tipo di strumenti viene utilizzato da varie compagnie che operano nel web, per segnalare o promuove contenuti: se in alcuni casi le piattaforme che usano questi strumenti hanno provato ad essere trasparenti nei confronti degli utenti, non sempre ciò è tecnicamente possibile. In secondo luogo, le logiche di cancellazione o demonetizzazione talvolta non sono rese pubbliche per evitare che la definizione di regole troppo chiare renda più semplice la loro elusione, individuando modi per pubblicare contenuti vietati evitando che gli algoritmi riescano a rilevarli.

Le criticità degli algoritmi di filtraggio

Questo metodo di filtraggio automatico dei video contenenti materiale inappropriato provoca però una serie di criticità. In particolare l’utilizzo di algoritmi capaci di imparare in modo autonomo può causare dei falsi positivi, particolarmente numerosi nei casi in cui lo strumento non abbia ancora avuto modo di analizzare un volume sufficientemente elevato di dati, e perciò non sia ancora sufficientemente “educato”. Un video in cui uno youtuber illustri le proprie opinioni sulle cause di un attentato rivendicato dall’Isis, ad esempio, potrebbe essere demonetizzato a causa dei termini utilizzati nel video, in quanto analoghi a quelli contenuti in materiale di matrice terroristica, anche se i contenuti sono di condanna, e non di appoggio, dei fenomeni terroristici stessi.

L’utilizzo sempre più diffuso di strumenti di analisi e rimozione/demonetizzazione automatica dei contenuti ha messo in difficoltà economiche numerosi youtuber i cui video affrontavano tematiche che gli algoritmi associavano erroneamente a violazioni delle regole della piattaforma. Ciò ha spinto numerosi creatori di contenuti ad abbandonare YouTube, o a dover trovare nuove fonti di reddito per far fronte alle politiche della piattaforma.

I paletti del Gdpr

Proprio queste politiche si pongono in potenziale contrasto con la normativa europea in materia di protezione dei dati personali. In particolare l’art. 22 del GDPR prevede che i soggetti interessati abbiano il diritto a non essere sottoposti a decisioni basate unicamente sul trattamento automatizzato di dati personali, qualora questi producano effetti giuridici che li riguardano, o che incidono in modo analogo significativamente su di essi. A questa norma sono però applicabili alcune eccezioni; qualora si applichi una deroga a questa previsione, chi tratta i dati possa adottare questo tipo di decisioni, è tenuto a garantire che gli interessati possano ottenere l’intervento umano da parte del titolare del trattamento, e di esprimere la propria opinione e di contestare la decisione.

Si può ritenere che almeno in determinate circostanza la cancellazione o la demonetizzazione automatizzata dei video operata da YouTube possa considerarsi un trattamento di dati personali. Nel caso, ad esempio, in cui tali pratiche siano fatte in ragione delle opinioni espresse dai creatori di contenuti, è evidente che possa emergere un contrasto tra tali attività e le previsioni del GDPR.

Infatti, non solo la possibilità di sindacare le decisioni di YouTube e di ottenere una spiegazione sulle logiche seguite dagli algoritmi di filtraggio è virtualmente inesistente, ma anche l’eventuale intervento umano da parte dei “tecnici” della piattaforma risulterebbe inevitabilmente tardivo e inefficace. La maggior parte degli introiti degli youtuber, infatti, viene realizzata nelle prime ore dalla pubblicazione di un contenuto; per tale ragione l’eventuale revoca della demonetizzazione, o della cancellazione, non andrebbero a mitigare se non in modo marginale il danno subito. Le conseguenze di questa scelta di filtraggio dei contenuti porta a conseguenze estremamente significative per chi trae della creazione di video la propria fonte di reddito principale o esclusiva.

In considerazione del fatto che spesso l’obbligo di adottare filtri estremamente rapidi ed efficaci deriva dai legislatori nazionali o sovranazionali (tra gli ultimi casi vi è l’obbligo, per YouTube, di evitare che soggetti minorenni siano esposti a pubblicità mirate), YouTube si trova nella scomoda posizione di violare potenzialmente la legge sia nel caso in cui utilizzi algoritmi di filtraggio, sia che non lo faccia.

Se l’oggetto della disamina, finora, è stato unicamente YouTube, le logiche per il controllo sui materiali caricati, soprattutto a seguito degli attentati terroristici e della lotta all’hate speech (tematiche centrali nel dibattito pubblico degli ultimi anni) sono utilizzate da tutte le piattaforme che permettono o incentivano la creazione di contenuti da parte degli utenti, da Twitter, a Instagram, a Facebook. Non sfuggono a questa dinamica nemmeno i social network più nuovi, come TikTok, recentemente coinvolto in uno scandalo proprio in relazione alle proprie scelte di cancellare contenuti “controversi”. Tutti questi soggetti sono da un lato tenuti al rispetto di norme nazionali e sovranazionali sempre più severe per quanto riguarda il controllo sui contenuti ospitati dalla piattaforme, dall’altro hanno l’interesse economico a scongiurare l’ipotesi che le compagnie che si pubblicizzano sulla piattaforme stesse interrompano gli accordi commerciali per non vedersi associate a materiale controverso.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3