Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

intelligenza artificiale

Algoritmi di raccomandazione, il lato oscuro: così incentivano la disinformazione

Quali sono i problemi creati dagli algoritmi di raccomandazione usati dai social network e come si potrebbe provare a risolverli, andando oltre le inefficaci contromisure proposte dalle web company. Altre minacce vengono dagli algoritmi di “reinforcement-learning” usati per stabilire i prezzi online su ecommerce

15 Mar 2019

Davide Giribaldi

data protection specialist


Gli algoritmi di raccomandazione, pilastro principale del modello di business di tutte le piattaforme social ed e-commerce, stanno mostrando sempre più i propri lati oscuri. Quelli social favoriscono la disinformazione e il proliferare di contenuti polarizzanti del pubblico, come emerso in molti recenti casi su Facebook, Youtube e altri.

Gli algoritmi di “reinforcement-learning” (intelligenza artificiale) utilizzati sui negozi e-commerce per stabilire i prezzi online potrebbero invece essere programmati per facilitare la realizzazione di veri e propri cartelli a danno dei consumatori.

In entrambi i casi, le piattaforme che li utilizzano non possono essere ritenute responsabili dei danni e delle distorsioni generate da questi sistemi. Proviamo allora a spiegare quali sono i pericoli che tutti noi corriamo e le possibili contromisure, al di là delle blande e (finora) inefficaci soluzioni proposte dalle web company.

Gli algoritmi di raccomandazione

Sappiamo tutti che i sistemi di revenue dei social network si basano sulla massimizzazione della permanenza degli utenti, cosi come è noto che il modo più semplice per garantirla è mettere gli stessi utenti a proprio agio. Quello che sfugge, per ignoranza o forse per superficialità, è che l’algoritmo di raccomandazione utilizzato per creare le condizioni migliori per il nostro acquisto, sia allo stesso tempo il nostro peggior nemico.

YouTube, Facebook, Netflix e Amazon hanno saputo creare nel tempo un sistema quasi perfetto in grado di proporci quello che più desideriamo esattamente nel modo in cui lo immaginiamo.

Il sistema ci rassicura, ci premia, lavora al posto nostro, ci evita fatica e trasforma il processo di acquisto o la ricerca di contenuti in un’esperienza unica, che però non sempre è positiva.

Così Youtube ha rilanciato il terrapiattismo

Ad esempio, come è possibile che YouTube negli ultimi mesi abbia fatto tornare di moda la teoria cospirazionista sul terrapiattismo praticamente scomparsa alla fine degli anni 80?

Il motivo è semplice: l’algoritmo di raccomandazione ha creato un ecosistema in grado di autoalimentarsi ed ha favorito la viralità dei contenuti complottisti.

Quale è stato il risultato?

Secondo una ricerca di YouGov oggi circa 30 milioni di cittadini americani credono che la terra sia piatta, non perché ne abbiano le prove, ma semplicemente perché credono al contenuto che gli è stato proposto in maniera incessante, o perché questo contenuto è stato condiviso da persone di cui si fidano e per le quali non ritengono necessaria alcuna verifica.

In poche parole, gli algoritmi di deep learning utilizzati nei sistemi di raccomandazione sono in grado di polarizzare le preferenze degli utenti che restituiscono feedback positivi i quali a loro volta tornano ad alimentare il sistema di autoapprendimento in un ciclo infinito che ha tre conseguenze:

  • stimola i produttori, gratificati dai like a generare nuovi contenuti con lo stesso tema;
  • genera contenuti graditi agli utenti che aumentano la loro permanenza sulle piattaforme;
  • alimenta i proventi pubblicitari del social media.

Più accuratamente l’algoritmo di raccomandazione intercetta le nostre preferenze, più velocemente ci intrappola in una gabbia d’informazioni dalle quali è difficile uscire.

Echo chamber e bubble filter

Tecnicamente questi effetti sono definiti con i termini di “echo chamber” e “bubble filter“: si tratta di due fenomeni distinti in grado di velocizzare o rallentare la polarizzazione dei nostri interessi.

Da un lato gli algoritmi creano delle casse di risonanza (echo chambers) che rafforzano il nostro credo tramite esposizioni ripetute di contenuti simili con il risultato di creare un ambiente rassicurante che ci propone, senza farci fare grossi sforzi, esattamente ciò che stiamo cercando o per meglio dire ciò che crediamo di cercare. Dall’altro, gli stessi algoritmi creano delle vere e proprie gabbie (bubble filters) che invece restringono il campo visivo proponendoci contenuti sempre più circoscritti e verticalizzati sul nostro interesse.

Nonostante le ricerche scientifiche abbiano dimostrato che per attrarre la nostra attenzione non sia necessaria un’eccessiva accuratezza negli algoritmi, gli sviluppatori preferiscono adottare modelli che portino risultati certi raccomandando scelte sicure, semplicemente perché è più comodo.

Gli effetti perversi degli algoritmi di raccomandazione

Questa strategia porta però a considerare gli algoritmi di raccomandazione come strumenti pensati per massimizzare gli introiti sui singoli utenti e non per la collettività, questo porta a sua volta a perdere di vista la complessità dei diversi aspetti dell’uomo con conseguenze che possono essere drammatiche.

Uno degli effetti perversi dei sistemi di raccomandazione è la proliferazione di contenuti che incitano all’autolesionismo.

Recenti statistiche hanno dimostrato che in Gran Bretagna negli ultimi 8 anni è raddoppiata la media dei suicidi in età adolescenziale.

Pur non essendoci un collegamento diretto tra social network e suicidi non è difficile dimostrare che su piattaforme come Instagram e Pinterest, dove è molto forte la presenza di ragazzi in giovane età, sia possibile intercettare contenuti che istigano perlomeno all’autolesionismo.

A questo proposito è diventato famoso il caso di Molly Russell, una ragazza che per molto tempo ha cercato immagini sull’autolesionismo prima di togliersi la vita nel 2017.

Aldilà del dramma umano, la cosa più preoccupante e impressionante è stata che anche dopo la morte, i suoi profili social siano stati alimentati per un certo periodo tempo con immagini che istigavano al suicidio senza per questo poter essere condannati, per il semplice motivo che dal punto di vista legale c’è una sottile ma sostanziale differenza tra ospitare contenuti (come sostenuto dai social) rispetto a pubblicarli (come credo sia nella realtà).

Le (blande) contromisure dei social network e le possibili soluzioni

Ad onore del vero almeno nell’ultimo anno quasi tutti i social network sono stati attaccati per la poca attenzione rivolta ai contenuti delle loro piattaforme e sono stati costretti ad adottare contromisure che perlomeno per il momento mi sembrano poco incisive.

Ad esempio YouTube e Facebook hanno da poco dichiarato che penalizzeranno i contenuti novax mentre Pinterest li ha già bloccati, ma l’azione potrebbe essere tardiva e poco efficace sia perché i sostenitori no vax hanno un vantaggio di diversi anni sulle piattaforme social, sia perché una buona parte dell’osservazione dei contenuti e della loro rimozione è affidata a team di persone che manualmente analizzano ( a volte solo per pochi secondi) video foto e post che potrebbero avere un contenuto disinformativo.

Non credo che questo sia il metodo più veloce per contrastare teorie propagandistiche, cosi come ritengo che non sia efficace lasciare le attività di contro informazione alle sole comunità scientifiche, penso piuttosto che sia necessario un intervento multidisciplinare (tecnico, legale e scientifico), coordinato da norme sovranazionali che tutelino i diritti dell’uomo in quanto tale e non perché utente di un social network.

Si potrebbe ad esempio sfruttare la tecnologia per rendere gli algoritmi più sensibili al contesto, migliorando i processi inferenziali dei software e contemporaneamente promuovere il ranking sui motori di ricerca delle informazioni scientifiche, piuttosto che stabilire nuovi criteri per “certificare” le fonti ed anche se personalmente sono scettico sull’argomento, questa potrebbe essere un’occasione per vedere se realmente sia possibile applicare la blockchain finalmente in maniera concreta a determinati argomenti.

Intelligenza artificiale e cartelli ai danni dei consumatori

Non so se queste possano essere soluzioni adeguate anche perché il vero ostacolo da rimuovere è l’enorme giro d’affari che ruota intorno ai big di Internet, il loro potere si è esteso a tal punto che ci sono elementi per poter dire che anche i prezzi dei beni e dei servizi che viaggiano sul web siano regolamentati da algoritmi che favoriscono più o meno involontariamente la collusione.

La logica dietro la quale si stabiliscono i prezzi online è gestita dai cosiddetti algoritmi di “reinforcement-learning” che utilizzano criteri di premialità o penalizzazione per fare raggiungere ai sistemi un determinato obiettivo. Le decisioni sono prese direttamente da forme d’intelligenza artificiale che in linea teorica potrebbero essere programmate per facilitare la realizzazione di veri e propri cartelli, ma non sono un complottista e preferisco ipotizzare che gli algoritmi non siano programmati per colludere ma semplicemente per agire in modo razionale e quindi massimizzare i profitti per le imprese.

L’enorme quantità di dati disponibili, unita alle capacità tecnologiche di rielaborarli sotto molteplici aspetti, da un lato genera trasparenza di mercato e tendenzialmente agevola i consumatori, ma allo stesso tempo fornisce informazioni realtime ai fornitori che possono elaborarle a loro vantaggio.

In un sistema perfetto in cui tutti gli operatori di mercato usano gli algoritmi per raggiungere il proprio obiettivo di massimizzazione è chiaro che i prezzi tenderanno a colludere verso l’alto e quindi in ultima istanza a danno del consumatore.

Uno studio dell’Università di Bologna ha dimostrato questa teoria sviluppando due semplici algoritmi e facendoli interagire tra loro in un ambiente simulato.

Il risultato è stato che i due software hanno rapidamente elaborato strategie collusive senza essere stati istruiti per farlo, ma imparando dai propri errori senza comunicare l’uno con l’altro. Il che ci pone nuovamente davanti ad un duplice problema, quello tecnologico che allo stato attuale delle cose è completamente al di fuori del nostro controllo e quello normativo, perché nessuna autorità antitrust avrebbe al momento la possibilità di condannare questi atteggiamenti collusivi per il semplice motivo che non è possibile individuare prove sulla reale intenzione di collusione tra concorrenti di mercato.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3