Algoritmi che odiano le donne: ultimo caso, annunci di lavoro su Facebook - Agenda Digitale

intelligenza artificiale

Algoritmi che odiano le donne: ultimo caso, annunci di lavoro su Facebook

Uno studio rivela rilevanti effetti discriminatori, a danno delle donne, nell’offerta degli annunci di lavoro disponibili su Facebook. Ma è un problema che ha radici profonde

20 Apr 2021
Angelo Alù

Consigliere Internet Society - Osservatorio Giovani e Internet

Secondo uno studio dal titolo “Auditing for Discrimination in Algorithms Delivering Job Ads” realizzato dall’University of Southern California (USC), la pubblicità per annunci di lavoro, “personalizzata” utilizzata nei social network per ottenere target “mirati” di utenti potrebbe essere “distorta dal sesso o dalla razza a causa dell’ottimizzazione algoritmica nascosta da parte delle piattaforme.

E tutto questo anche quando ciò non sia direttamente richiesto dagli inserzionisti.

Risultato: rilevanti effetti discriminatori nell’offerta degli annunci di lavoro disponibili online, con differenze significative nella fruizione dei relativi risultati soprattutto a discapito delle categorie protette.

Lo studio sulla discriminazione sessuale targata Facebook

In particolare, come riporta un recente approfondimento del MIT, i ricercatori coinvolti nello studio, dopo essersi registrati come inserzionisti su Facebook, pur avendo acquistato pacchetti di annunci da sponsorizzare per l’offerta di lavori con qualifiche professionali identiche, hanno ottenuto dati demografici reali diversi, sulla falsariga di quanto già verificatosi già nell’ottobre 2016, quando per la prima volta furono rilevati casi generali di discriminazione nella sistematica pubblicazione di annunci di lavoro e di alloggi in grado di escludere determinati segmenti di pubblico selezionati in base al sesso o alla razza, al punto da indurre già allora Facebook a rimuovere tali criticità.

WHITEPAPER
Digital experience fluida e omnicanale: una guida completa

Secondo lo studio citato, ad esempio, sembra che Facebook abbia indirizzato un annuncio di lavoro con consegna su Instacart a un pubblico molto numeroso di donne rispetto ad un annuncio di lavoro con consegna di Domino’s Pizza rivolto ad un pubblico maggiore di uomini, in considerazione del fatto che Instacart ha per lo più autisti di sesso femminile a fronte di una maggiore presenza di uomini da parte di Domino.

Gli utenti social potrebbero non visualizzare, quindi, i lavori disponibili per i quali sono in possesso di competenze qualificate, perché gli strumenti dell’azienda sono in grado di indirizzare, con modalità inique e sproporzionate, i relativi annunci soltanto verso un particolare genere.

Le radici della discriminazione algoritmica

È dunque probabile che i sistemi di personalizzazione, sviluppati con livelli sempre più sofisticati in modalità di auto-apprendimento, generino implicazioni sessiste e razziste come possibile conseguenza di ciò che imparano gli algoritmi?

Piuttosto che mostrare gli annunci agli utenti in possesso delle qualifiche professionali meglio corrispondenti alle offerte lavorative pubblicate, infatti, la platea dei potenziali destinatari sembra risultare distorta sulla base di differenti caratteristiche demografiche da cui derivano disallineamenti discriminatori di dubbia compatibilità con le normative nazionali e internazionali vigenti che sanciscono la parità di genere per l’accesso alla generalità delle occupazioni lavorative.

Non solo le opzioni di targeting consentono agli inserzionisti la possibilità di discriminare gli annunci per età, sesso, razza, ma risulta altresì statisticamente probabile, proprio in virtù delle modalità di funzionamento degli algoritmi utilizzati, come il sesso influenzi concretamente il numero di annunci legati a lavori ben pagati, meno visualizzabili da parte di account femminili associati a donne.

In altre parole, il sistema di indicizzazione degli annunci tenderebbe ad escludere le donne dalle opportunità professionali indipendentemente dalle loro qualifiche, con profili di illiceità sanzionabili in base alla regolamentazione prescritta in materia di diritto del lavoro negli Stati Uniti.

Peraltro, sempre senza alcuna specifica indicazione di target di utenti selezionati sulla base di precise informazioni demografiche, sembra che una funzione Facebook – poi disabilitata – per la visualizzazione di alloggi, concessione di credito e annunci di lavoro sia in grado altresì di differenziarne i contenuti visualizzabili a differenti gruppi demografici.

Tale tendenza si collega alle generali implicazioni dei sistemi di intelligenza artificiale utilizzati da Facebook, oggetto di una specifica indagine di approfondimento, da cui si evince che il team specialistico, costituito dal social network già nel 2018, aveva trascurato di lavorare su questioni rilevanti come l’amplificazione algoritmica di disinformazione e polarizzazione, al punto da provocare una risposta ufficiale dei vertici di Palo Alto pubblicata con un post sul blog, ove, riconoscendosi l’impatto di potenziali errori prodotti dagli algoritmi sulla visualizzazione degli annunci, veniva ribadita la necessità di intensificare l’attività di ricerca del gruppo di lavoro per meglio studiare l’equità algoritmica dei sistemi di indicizzazione.

In conclusione: non è solo Facebook

A fronte di tali rilevanti effetti collaterali, la crescente proliferazione di strumenti algoritmici utilizzati online sembra rafforzare, piuttosto che ridurre, i tradizionali pregiudizi legati a irragionevoli e discutibili stereotipi lavorativi.

Nascono così nuove preoccupanti forme sistemiche di discriminazione etnica, razziale e di genere destinate ad avere un impatto predittivo sempre più significativo sul mercato del lavoro.

A maggior ragione considerato il  ruolo dell’intelligenza artificiale nelle procedure di assunzioni in rapida espansione che consente la ricerca e la selezione di candidati interessati alle offerte professionali, tuttavia distorte da tali modalità di visualizzazione.

Lo si evince anche dal documento “Discrimination in the Age of Algorithms”, ove si auspica una maggiora trasparenza nelle modalità di funzionamento degli algoritmi in risposta alle criticità rilevate per garantire la parità di accesso alle opportunità lavorative.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2