società digitale

Consigli dagli algoritmi? No, grazie: la campagna di “resistenza” della FNAC

FNAC  lancia “la prima campagna anti-personalizzazione che scoppia la bolla di raccomandazioni”. Obiettivo affermarsi come un brand che ci tiene a diffondere la pluralità culturale e fare una denuncia aperta al confinamento che, secondo l’azienda, gli algoritmi provocano nei loro clienti

Pubblicato il 29 Dic 2022

Dayana Vinueza

Analista dell’Area Digitale & ICT dell Think Tank AWARE

Un periódico con la imagen de una persona Descripción generada automáticamente con confianza media

Negli ultimi decenni il dibattito riguardante l’intelligenza artificiale è incrementato, e quello che preoccupa di più dal punto di vista etico si può riassumere in tre punti fondamentali:

  • Privacy, raccolta e utilizzo dati;
  • Sostituzione lavorativa per via dell’automazione;
  • Rischio di bubble room.

In questo consenso di preoccupazione circa il potere degli algoritmi sulle nostre vite si è inserita l’iniziativa della FNAC, colosso della cultura e l’intrattenimento dal 1954, che in collaborazione con l’agenzia pubblicitaria Publicis Conseil, ha lanciato una campagna di nome “Un-recomended by an algorithm”, finora considerata la prima campagna di “resistenza” all’algoritmo.

Ad ogni tipo di società, evidentemente, si può far corrispondere un tipo di macchina: le macchine semplici o dinamiche per le società di sovranità, le macchine energetiche per quelle disciplinari, le cibernetiche e i computer per le società di controllo. Ma le macchine non spiegano nulla, si devono invece analizzare i concatenamenti collettivi di cui le macchine non sono che un aspetto.

Gilles Deleuze, Controllo e divenire

Macchine, algoritmi e incertezze

Il tipo di macchina che sembra corrispondere maggiormente alla nostra società odierna è quella in grado di imparare da noi.

I nodi privacy

Per quanto riguarda le preoccupazioni kegate alla privacy, cedere i dati per il perfezionamento di algoritmi che a sua volta suggeriscono e filtrano dei contenuti è stato un argomento protagonista nelle discussioni riguardanti l’etica e l’informatica giuridica. Infatti, attualmente nel nuovo GDPR pubblicato nel 2018 si regolamenta l’utilizzo dei dati proprio partendo dalla raccolta. Questo perché soprattutto i più sofisticati algoritmi di personalizzazione nonché di profilazione e targettizzazione si basano proprio sui dati che non sempre sono chiaramente visibili. Ovvero, non sempre è possibile ricavare l’informazione sul come e da dove sono stati colti.

AI e disoccupazione

Dall’altra parte, una paura costante e ripetutamente discussa è proprio guidata dal rapporto intelligenza artificiale e disoccupazione tecnologica. Quest’ultimo termine fa riferimento alla percentuale di disoccupazione dovuta ad una sostituzione della forza lavoro per le macchine, sia in modo diretto come, ad esempio, la sostituzione o mancata assunzione di cassieri per via delle macchinette di cassa automatiche, sia indiretto, come la progressiva scomparsa massiva di determinate mansioni. In effetti, considerando uno studio realizzato da Semrush, il 38% di lavoratori vedrà il proprio lavoro automatizzato entro il 2023, mentre il 13% riguarderebbe intere mansioni eliminate per via dell’intelligenza artificiale. Tuttavia, l’IA potrebbe creare almeno il 9% di nuovi lavori entro il 2025.

Guardando la situazione da un punto di vista ottimistico, si prevede che la forza lavoro che si trova a dover cambiare occupazione possa reinventarsi e trovare la vera vocazione non dovendo più fare lavori operativi e ripetitivi. Dall’altra parte, questa riqualificazione non è affatto semplice né fattibile in tempi brevi. Il che significa che per almeno un periodo di tempo ci si troverà con una capacità produttiva più alta rispetto all’effettivo potere d’acquisto della popolazione.

Fino a qui questi punti sembrano riguardare soltanto i numeri, i dati, il tasso di disoccupazione, produzione, offerta, domanda, ecc.

Il rischio di restare impantanati dentro una bubble room

Il terzo aspetto riguarda invece il rischio per gli utenti di cadere dentro una bubble room, una stanza che gira all’infinito in un loop creato dalle proprie scelte, dove l’utente si troverà a guardare sempre e solo contenuti che sono “suggeriti per lui” perché compatibili con i suoi interessi, senza avere la minima tentazione di uscirne.

Inoltre, un dubbio emerge proprio dalla base. Possono i dati rispecchiare correttamente la realtà? La risposta è no, i dati non sono altro che una descrizione semplificata e a tratti riduttiva della realtà. Parlando ad esempio delle scelte degli utenti, il fatto che siano compatibili con quello che l’algoritmo ritiene che può essere gradito dal consumatore non significa che effettivamente esso non sia propenso a gradire altro tipo di contenuti o magari provare altre categorie che non sono state prese in considerazione in base ai dati.

Fnac e la campagna contro gli algoritmi

FNAC e Publicis Conseil hanno descritto la loro campagna come “la prima campagna anti-personalizzazione che scoppia la bolla di raccomandazioni”. L’obiettivo principale di questa campagna è affermare la posizione di FNAC come un brand che ci tiene a diffondere la pluralità culturale e fare una denuncia aperta al confinamento che, secondo l’azienda, gli algoritmi provocano nei loro clienti.

La strategia utilizzata è stata disegnata in base a tre canali:

  • Tecnico: sulla base dei dati dei loro consumatori, FNAC ha applicato una strategia opposta alle logiche di profilazione, creando un algoritmo che suggerisce al consumatore contenuti che hanno soltanto un 2% di compatibilità con l’utente, generando una tendenza all’acquisto opposta basata sempre sui dati;
  • Online: La compagnia ha adottato anche un meccanismo di pubblicazione dei contenuti su Twitter che va “contro-tendenza”. Ovvero, un bot condivide tweets che hanno un contenuto culturale opposto a quelli che sono gli hashtag del momento e anche contrari a ciò che potrebbe creare più public engagement;
  • Pubblicità tradizionale: La campagna è stata anche diffusa tramite canali off-line, con manifesti distribuiti per tutto il paese che denunciano apertamente i bias degli algoritmi e esaltano l’importanza dei propri lavoratori al di sopra delle raccomandazioni dell’algoritmo, ricordando agli utenti che un algoritmo può misurare le compatibilità ma non necessariamente l’utente.

I risultati della campagna sono stati notevoli: circa 1 milione di impressioni, +35% di tasso di engagement in confronto con le classiche campagne targettizzate, e un click through rate 3 volte più alto delle precedenti campagne. La campagna è ancora in corso e sembra che la denuncia aperta del brand francese abbia avuto un certo riscontro, ma soprattutto si spera abbia provocato l’aumento della consapevolezza da parte degli utenti riguardo alle proprie scelte di consumo, almeno per quanto riguarda i prodotti culturali.

La riflessione

Quando ogni suggerimento di un algoritmo sostituisce il consiglio di un commesso dotato di qualifiche e conoscenze, non solo si crea un effetto economico dovuto alla potenziale perdita del posto di lavoro del commesso stesso, ma si rischia soprattutto di indurre il consumatore a non uscire mai dalla sua bubble room.

Tornando alle parole di Delouze citate all’inizio di questo articolo, bisogna analizzare gli effetti concatenati che le macchine provocano all’interno della nostra società: ciò significa non analizzarle soltanto come strumenti nettamente tecnici, bensì come parte della dinamica sociale. Tuttavia, nonostante i rischi siano diversi, anche le potenzialità dell’intelligenza artificiale possono essere in tante. L’IA è uno strumento, l’utilizzo e le finalità con cui viene utilizzata ne determinano il risultato.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati