AUDIT Dell'AI

Lotta ai pregiudizi dell’intelligenza artificiale: i social provano a invertire la rotta

I social e le web company stanno investendo in sofisticati sistemi di Intelligenza Artificiale per ottenere una migliore qualità dei dati utilizzati, ma la lotta ai pregiudizi è tutt’altro che vinta

08 Ott 2020
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza


I social stanno affinando i propri strumenti di contrasto ai pregiudizi insiti nelle proprie intelligenze artificiali. Arrivano a sottoporle ad audit, come nel caso eccellente di un nuovo strumento Linkedin. Segno di una loro prima responsabilizzazione in un ambito dove, però, c’è ancora molto da lavorare.

La risposta di Linkedin

Qualche settimana fa LinkedIn ha infatti lanciato il suo progetto open-source “LinkedIn Fairness Toolkit” (LiFT) per rispondere alla pressante necessità di equità dell’Intelligenza Artificiale, in special modo nei dataset e negli “algoritmi di formazione”. Lo strumento di casa Microsoft ha l’ambizioso obiettivo di porre fine alla crescente polarizzazione dell’Intelligenza Artificiale in tutto il mondo.

Igor Perisic, Chief Data Officer di LinkedIn, afferma che il lavoro sull’Intelligenza Artificiale è soggetto ai punti ciechi e ai pregiudizi insiti nei ricercatori stessi, e i “difetti” dei dati spesso riflettono le disparità del mondo reale e le realtà sociali decisamente ingiuste nelle quali vengono calati. Per Perisic è necessario basarsi sul lavoro dell’Intelligenza Artificiale e sulla ricerca finalizzata all’implementazione di sistemi di Intelligenza Artificiale equi ed etici. Nonostante diversi strumenti come IBM Fairness 360 Toolkit, Google Explainable AI e FAT-Forensics già disponibili sul mercato, c’è un notevole divario nell’affrontare le sfide su larga scala. Inoltre, gli strumenti esistenti sono limitati a specifici fornitori di cloud, il che ha spinto LinkedIn ad aprire il suo toolkit LiFT all’open source per i professionisti dell’Intelligenza Artificiale, interessando sviluppatori e aziende di tutto il mondo.

LiFT “by LinkedIn” è una banca dati progettata per l’analisi della correttezza dell’Intelligenza Artificiale. Tale banca dati dispone di componenti di misura dei pregiudizi che possono valutare i pregiudizi nell’intero ciclo di vita dei flussi di lavoro di Machine Learning. LiFT è progettato per lavorare su algoritmi di Machine Learning su larga scala, potendo essere integrato in qualsiasi fase dell’algoritmo di Machine Learning. Attualmente, LinkedIn ha utilizzato LiFT per calcolare le metriche di equità di training data sulle sue piattaforme, come il modello Job Search e il modello di classificazione anti-molestie. La banca dati LiFT è ora disponibile su GitHub, un passo per incoraggiare le aziende a misurare e mitigare i pregiudizi che coinvolgono l’Intelligenza Artificiale.[1]

L’Intelligenza Artificiale è penetrata in ogni angolo della vita umana, ed ora è il momento di garantire che i potenti strumenti di Intelligenza Artificiale risolvano problemi complessi in modo efficiente piuttosto che creare decisioni ingiuste. I professionisti dell’Intelligenza Artificiale, i ricercatori e i data scientist dovranno garantire che i training data siano equi e uguali per i diversi gruppi culturali, il genere, l’etnia e altro ancora. [2]

Il ruolo di Twitter

A fine settembre 2020 l’algoritmo presente nella funzione di ritaglio delle foto su Twitter ha mostrato un pregiudizio dell’Intelligenza Artificiale, suscitando forti critiche da parte dei suoi utenti. Il gigante dei social network ha rivelato di aver testato l’algoritmo in questione e ha ammesso la necessità di un miglioramento continuo per prevenire situazioni simili in futuro.

WHITEPAPER
Come semplificare il sistema di gestione delle identità digitali?
Sicurezza
IAM

Il 19 settembre 2020, il PhD student della canadese University of Victoria Colin Madland ha pubblicato su Twitter gli screenshot di un meeting tenutosi su Zoom, dove ha espresso preoccupazione per lo sfondo virtuale dello stesso Zoom che ritagliava impropriamente il volto di un membro della sua facoltà con carnagione scura. Sorprendentemente, Madland ha notato che anche Twitter ha ritagliato il volto del medesimo membro della facoltà, mostrando solamente la sua immagine (di Madland, NdA), indicando chiaramente il pregiudizio razziale attraverso l’algoritmo di Intelligenza Artificiale di entrambe le piattaforme. Lo strumento di anteprima delle foto di Twitter crea una versione ritagliata dell’immagine, che mostra solo le persone con la pelle più chiara, a meno che l’utente non clicchi sull’immagine e la espanda. Solo in questo caso la situazione torna “alla normalità”. Il programmatore Tony Arcieri ha provato a sperimentare l’algoritmo di ritaglio fotografico di Twitter con le foto di Mitch McConnell e Barack Obama, ottenendo risultati simili a quelli di Madland. Altri utenti di Twitter hanno testato l’algoritmo con giornalisti, personaggi dei cartoni animati e persino animali, riportando sempre lo stesso problema. I tweet hanno attirato l’attenzione di sviluppatori e data scientist che hanno lavorato intensamente sull’algoritmo.

Il Chief Design Officer di Twitter, Dantley Davis, ha condotto vari esperimenti con l’immagine “vituperata” e ha risposto che l’azienda sta ancora indagando sulla rete neurale. Nel frattempo, la portavoce di Twitter, Liz Kelly, ha “twittato che Twitter” aveva testato il pregiudizio dell’Intelligenza Artificiale prima di far varare il modello sulla piattaforma. L’azienda statunitense aprirà la questione agli sviluppatori e agli ingegneri della compagnia per poterlo rivedere e migliorarlo.

Le altre aziende

Troppo spesso il razzismo si manifesta nei modelli di Intelligenza Artificiale provenienti da training data. E Twitter non è la prima azienda ad esserne accusata. Diverse aziende tecnologiche, come Facebook, Google ed IBM, hanno dovuto affrontare aspre critiche per la presenza di diversi pregiudizi negli algoritmi. Per combattere questo problema, come abbiamo visto, l’industria tecnologica statunitense ha lanciato vari toolkit di equità come IBM Fairness 360 Toolkit, Google Explainable AI, FAT-Forensics e LinkedIn Fairness Toolkit. Tuttavia, nonostante i molteplici toolkit, non vi è ancora una soluzione concreta a questo problema “endemico” dell’Intelligenza Artificiale. In primo luogo, le aziende devono ampliare il loro orizzonte e accogliere esperti di diverse discipline come il diritto, le scienze umane, le scienze politiche, le scienze del comportamento, le neuroscienze e la psicologia umana per formare gli algoritmi di Intelligenza Artificiale. Un team diversificato potrebbe aiutare a decodificare le complessità del comportamento umano ed evitare pregiudizi inconsci nei training data. Ciò che è certo è che le aziende stanno investendo in sofisticati sistemi di Intelligenza Artificiale per ottenere una migliore qualità dei dati utilizzati.

Chris DeBrusk, amministratore delegato e responsabile della trasformazione presso BNY Mellon e partner di Oliver Wayman, ha affermato che per affrontare i potenziali pregiudizi del Machine Learning, il primo passo è quello di mettere in discussione onestamente e apertamente quali preconcetti potrebbero esistere attualmente nei processi di un’organizzazione e cercare attivamente come tali pregiudizi potrebbero manifestarsi nei dati. Poiché questa può essere una questione delicata, molte organizzazioni coinvolgono esperti che possono mettere in discussione le loro pratiche passate e attuali. Una volta identificati i potenziali pregiudizi, le aziende possono bloccarli eliminando i dati “problematici” o rimuovendo specifici componenti dei dataset. I sistemi di Intelligenza Artificiale si sono infiltrati in vari settori, tra i quali le procedure di assunzione del personale, l’assistenza sanitaria, le assicurazioni e le forze dell’ordine. È giunto il momento che l’industria tecnologica prenda misure concrete per fissare la percezione di pregiudizi che potrebbero influenzare milioni di persone.[3]

_____________________________________________________________________________________

  1. Per approfondimenti: Addressing bias in large-scale AI applications: The LinkedIn Fairness Toolkit. LinkedIn. https://engineering.linkedin.com/blog/2020/lift-addressing-bias-in-large-scale-ai-applications
  2. Will LinkedIn’s Fairness Toolkit Mark the End of AI Bias? Toolbox. https://www.toolbox.com/tech/artificial-intelligence/news/will-linkedins-fairness-toolkit-mark-the-end-of-ai-bias/
  3. Twitter’s Algorithm Failure Shows Big Tech’s Ongoing Struggle With AI Bias. Toolbox. https://www.toolbox.com/tech/artificial-intelligence/news/twitters-algorithm-failure-shows-big-techs-ongoing-struggle-with-ai-bias/
@RIPRODUZIONE RISERVATA

Articolo 1 di 4