discriminazione algoritmica

Perché l’AI penalizza ancora le donne nel lavoro, nel credito e nella salute



Indirizzo copiato

Gli algoritmi non sempre sono neutrali: apprendono dalla nostra storia e rischiano di consolidare disuguaglianze di genere e socio-economiche. Dallo screening dei CV allo scoring del credito, fino ai trial clinici, ecco come si producono le distorsioni e quali strumenti abbiamo per garantire “fairness by design”

Pubblicato il 28 apr 2026

Selina Zipponi

Global Data Protection Officer Dedalus – Fellow IIP



Responsabili per la Transizione Digitale parità salariale; registrazione fattura intra UE; credito di imposta beni strumentali 4.0 parità retributiva venture capital italiano i-business
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La promessa dell’intelligenza artificiale è attraente: decisioni più rapide, coerenti e “oggettive”. Ma quando i dati sono prodotti in contesti già diseguali – carriere femminili più discontinue, accessi al credito storicamente più difficili, sottorappresentazione nei trial clinici – l’algoritmo finisce per normalizzare la disuguaglianza e farla diventare una regola di sistema: l’“amplificazione algoritmica” rende il bias meno visibile, più pervasivo, e quindi più difficile da contestare.

Discriminazione algoritmica tra dati storici e regole di sistema

Di questi temi si parla nel volume di prossima uscita “Donne, dati e algoritmi”, edito da Maggioli e curato dalla sottoscritta con la collaborazione di Privacy She Leaders, associazione attiva nella promozione della leadership femminile nel settore delle nuove tecnologie.

In particolare, sono analizzati tre ambiti dove l’eventuale discriminazione algoritmica risulterebbe particolarmente lesiva dei diritti e degli interessi dei soggetti coinvolti, e dove è alto il rischio che “gli algoritmi trasformino il passato in futuro” per citare le parole di una delle autrici: la selezione e gestione delle risorse umane, l’accesso al credito, i trial clinici e le cure.

Risorse umane: quando l’AI valuta “potenziale” e “idoneità”

Sistemi di pre-screening, video-interviste automatizzate e scoring predittivi promettono efficienza. Il rischio? Scambiare la conformità al passato per merito.

Uno dei capitoli del volume è dedicato a questo tema e analizza come l’intelligenza artificiale stia trasformando in profondità i processi HR, mettendo in luce un rischio centrale: l’illusione della neutralità tecnologica. Le risorse umane sono da sempre influenzate da modelli culturali, bias impliciti e criteri spesso non trasparenti; l’AI non elimina questi elementi, ma tende a replicarli e amplificarli quando è addestrata su dati che riflettono strutture sociali e lavorative tutt’altro che paritarie.

Come il recruiting automatizzato replica i modelli dominanti

Il primo nodo critico è il recruiting algoritmico. Strumenti come analisi automatizzata dei CV, sistemi di job-matching, video-interviste analizzate tramite machine learning o piattaforme che valutano espressività, intonazione e postura, si basano su migliaia di variabili che finiscono per premiare stili comunicativi e comportamenti associati a gruppi dominanti. Non è necessario conoscere il genere: esso viene dedotto attraverso proxy quali scelta delle parole, continuità della carriera, attività extracurriculari, accento, tratti facciali o linguistici. Il caso emblematico del sistema di selezione di Amazon dimostra come un algoritmo nato per aumentare efficienza possa trasformarsi in un amplificatore di discriminazioni sistemiche, penalizzando in modo strutturale candidature femminili.

Anche le video-interviste automatizzate mostrano criticità: gli algoritmi sono spesso addestrati su modelli occidentali, privilegiando espressività visiva, ritmo veloce, sorriso frequente—schemi culturalmente connotati che penalizzano persone introverse o provenienti da altri contesti culturali.

Opacità, performance e sviluppo dei talenti

Il rischio maggiore non è l’errore episodico, ma l’opacità: una discriminazione umana può essere corretta dal confronto; una discriminazione algoritmica diventa “regola del sistema”. Senza supervisione, l’intero processo assume come standard un modello storico maschile, occidentale, lineare e sempre disponibile, producendo esclusioni silenziose e difficili da contestare.

L’AI non incide solo sulla selezione, ma anche sulla valutazione delle performance, sulla misurazione dell’ingaggio e sui processi di talent development. I nuovi sistemi integrati potrebbero analizzare dati provenienti da piattaforme di project management, email, tempi di risposta, partecipazione a riunioni. Queste metriche rischiano di interpretare erroneamente comportamenti perfettamente legittimi: un minor numero di interazioni o la disponibilità non continuativa possono diventare indicatori negativi.

Le donne—più spesso titolari di carichi di cura, più soggette a interruzioni lavorative e talvolta socializzate a stili comunicativi meno espansivi—risultano particolarmente esposte a questa “iper-oggettività apparente”. Anche nei sistemi predittivi di potenziale, l’AI tende a premiare traiettorie lineari e stili assertivi perché statisticamente ricorrenti, non perché realmente più efficaci.

Team, governance e strumenti di mitigazione

Il capitolo sottolinea poi un ulteriore elemento: la scarsa rappresentanza femminile nei team che progettano e addestrano i modelli. Poiché ogni tecnologia è il prodotto delle scelte di chi la crea—quali dati raccogliere, quali variabili considerare, quali metriche ottimizzare—la mancanza di diversità nelle professioni STEM e nella data science produce modelli che incorporano, fin dall’origine, punti di vista parziali.

Per affrontare questi rischi, l’autrice propone alcune direttrici: adottare sistemi con supervisione umana nelle fasi critiche; garantire audit periodici sui bias; documentare criteri e metriche utilizzate; introdurre trasparenza verso i candidati e possibilità reali di contestazione; promuovere team di sviluppo diversificati. L’HR, da funzione amministrativa, deve diventare architetto di equità, guidando l’introduzione dell’AI anziché subirla.

La conclusione è chiara: l’AI non è né un nemico né una soluzione automatica. È uno strumento potentissimo, capace di migliorare decisioni e processi, oppure di consolidare disuguaglianze già presenti. Perché l’intelligenza artificiale diventi alleata dell’inclusione, le organizzazioni devono investire in cultura, governance, responsabilità e presenza femminile nei luoghi dove la tecnologia viene immaginata, costruita e applicata. Solo così sarà possibile fare dell’innovazione un motore di pari opportunità, e non un nuovo generatore di disparità invisibili.

Credito e investimenti: dal “rischio statistico” al circolo vizioso

Un ulteriore settore in cui si manifesta particolarmente questo rischio è quello dei sistemi di credit scoring e delle pratiche di investimento. Anche in questo caso l’IA rischia di apprendere da dataset storicamente sbilanciati.

Discriminazione algoritmica nel credito e negli investimenti

L’autrice del capitolo analizza come il denaro rappresenti non solo una risorsa economica, ma soprattutto potere decisionale, autonomia e possibilità di autodeterminazione. L’accesso al credito e agli strumenti finanziari, tuttavia, non è mai stato distribuito in modo neutro tra uomini e donne: la diseguaglianza attuale deriva da un percorso storico di esclusione economica femminile, ancora oggi evidente nelle difficoltà di ottenere prestiti, nella minore partecipazione agli investimenti e in condizioni finanziarie generalmente meno favorevoli.

La ricostruzione storica mostra come l’autonomia patrimoniale femminile sia stata a lungo limitata: nell’antichità le donne non potevano possedere beni o stipulare contratti, e per secoli l’educazione economica loro destinata ha riguardato solo la gestione domestica, non le scelte di investimento. Queste radici culturali continuano a influenzare le competenze e la fiducia finanziaria delle donne, dando origine al gender financial literacy gap, che si manifesta già in adolescenza e si traduce, in età adulta, in minore propensione all’investimento e minore familiarità con strumenti complessi.

Proxy, merito creditizio e automatismi opachi

A livello contemporaneo, il divario non è solo culturale: studi e dati empirici confermano che, anche a parità di condizioni economiche, le donne ricevono finanziamenti di importo inferiore, devono fornire più garanzie e accedono con più difficoltà ai capitali destinati alle imprese o al venture capital. Questo crea un circolo vizioso: minore credito oggi significa minore crescita economica futura, e quindi meno possibilità di soddisfare i requisiti che i sistemi finanziari utilizzano per valutare l’affidabilità.

In questo contesto si inserisce l’arrivo dell’intelligenza artificiale, utilizzata per valutare rischio, solvibilità e merito creditizio. L’IA promette efficienza e imparzialità, ma apprende dai dati esistenti, che riflettono già squilibri strutturali. Di conseguenza, il rischio non è quello di nuove forme di discriminazione, bensì di rendere invisibili e automatiche quelle già esistenti, attraverso processi di valutazione apparentemente tecnici.

Un nodo particolarmente critico è rappresentato dalla discriminazione per proxy: anche se il genere non viene utilizzato come variabile, l’algoritmo può dedurlo da indicatori indiretti — come carriere discontinue, periodi di part-time, pattern di spesa o cambiamenti reddituali legati alla maternità — producendo effetti discriminatori difficili da individuare. Diversi casi, anche recenti, mostrano come sistemi di scoring automatizzato abbiano assegnato limiti di credito più bassi alle donne nonostante condizioni economiche equivalenti.

Dati, diritto ed educazione finanziaria

Per rispondere a queste distorsioni, l’autrice del capitolo propone la prospettiva secondo cui i dati non sono mai neutrali: riflettono rapporti di potere e assenze. Progettare sistemi finanziari equi significa quindi interrogarsi su quali dati vengono raccolti, chi è rappresentato e chi resta fuori, e ridefinire anche la nozione tecnica di rischio includendo considerazioni su condizioni sociali e strutturali. L’approccio richiede partecipazione attiva dei soggetti marginalizzati, trasparenza nei modelli e capacità di spiegare e contestare le decisioni automatizzate.

Il capitolo osserva poi come il diritto svolga un ruolo decisivo: Paesi con maggiore parità sostenuta da politiche pubbliche (congedi, welfare, parità salariale) generano dati più equilibrati e, quindi, sistemi di IA meno distorti. Normative come GDPR e AI Act introducono requisiti di trasparenza, gestione del rischio e auditing dei sistemi automatizzati, ma la sola regolazione non basta senza un cambiamento delle condizioni socio-economiche che alimentano i dataset.

Infine, un elemento essenziale per prevenire future discriminazioni è investire nell’educazione finanziaria, affinché aumenti la partecipazione economica delle donne e, di conseguenza, la qualità dei dati su cui i modelli predittivi si basano. Programmi internazionali e iniziative nazionali dimostrano che maggiore alfabetizzazione finanziaria si traduce in più autonomia e più accesso agli strumenti di investimento.

In conclusione, l’IA può diventare un potente alleato della parità economica solo se integrata in un sistema che riconosce i bias storici, rivede le metriche di valutazione del rischio, coinvolge le persone più esposte e garantisce trasparenza, spiegabilità e controllo umano. Altrimenti, rischia di trasformare la diseguaglianza del passato in automatismi del futuro.

Sanità e ricerca: quando i dati ignorano sesso e genere

Un terzo ambito di interesse, a cui è stato dedicato un capitolo del libro, è quello della ricerca clinica, dove la lunga storia di sottorappresentazione femminile nei trial e di protocolli modellati sul “paziente standard” maschile si può tradurre in dataset che non riflettono differenze clinicamente rilevanti—dalla presentazione dei sintomi alle reazioni avverse, fino ai dosaggi e dove il bias rischia di diventare sistemico.

Discriminazione algoritmica nella sanità e nella ricerca clinica

Le autrici del capitolo affrontano il tema delle discriminazioni di genere nella ricerca clinica e nella sanità, mostrando come per decenni la medicina sia stata costruita su un modello “androcentrico”. Questo approccio ha ignorato differenze biologiche, sociali e culturali tra uomini e donne, con ricadute su diagnosi, terapie e accesso alle cure. Fino agli anni ’70, le donne – soprattutto in età fertile – venivano sistematicamente escluse dagli studi clinici, anche a causa di linee guida come quelle della FDA del 1977. Solo dagli anni ’90, con contributi come il celebre articolo sul “Yentl Syndrome”, prende corpo una nuova sensibilità verso la medicina di genere. Tuttavia, a livello europeo, le politiche per riequilibrare la rappresentanza femminile negli studi sono rimaste a lungo non vincolanti, e la sottorappresentazione è ancora diffusa.

La medicina di genere si basa sull’analisi di come sesso biologico e genere sociale influenzino l’insorgenza delle malattie, i sintomi e la risposta ai trattamenti. Riconoscerne la centralità significa costruire una medicina più precisa e appropriata, capace di tenere conto delle differenze reali tra uomini e donne. L’Italia ha compiuto passi importanti con la legge 3/2018 e il successivo Piano nazionale del 2019, che promuovono prevenzione, diagnosi e cure basate su un approccio sensibile al genere, oltre che la formazione del personale sanitario e la creazione di una rete di centri dedicati.

Sottorappresentazione femminile, diagnosi e terapie

Le discriminazioni, però, restano ancora oggi. Le donne presentano più reazioni avverse ai farmaci, sintomi diversi in patologie come infarto o tumori, ritardi diagnostici (come nel caso dell’endometriosi), e talvolta subiscono pregiudizi che influenzano l’interpretazione del dolore o del comportamento. Anche disturbi come l’autismo mostrano un forte bias diagnostico, con un rischio maggiore di mancata diagnosi nelle bambine e nelle ragazze.

Il capitolo dedica un’ampia analisi al ruolo dell’intelligenza artificiale, evidenziando come i sistemi di IA possano rappresentare sia un rischio sia un’opportunità. Se addestrati su dati incompleti o sbilanciati – per esempio dataset storicamente maschili – gli algoritmi rischiano di perpetuare le stesse discriminazioni diagnostiche e terapeutiche del passato. Per questo, la normativa europea sull’IA e il GDPR impongono principi come esattezza, rappresentatività dei dati, trasparenza e non discriminazione.

Parità algoritmica e dati inclusivi

Allo stesso tempo, l’IA può diventare un potente strumento di correzione: può rilevare pattern nascosti di bias, migliorare il reclutamento equo nei trial, personalizzare terapie sulla base di differenze biologiche e monitorare in tempo reale la parità di genere nei percorsi clinici.

La condizione essenziale è che i sistemi vengano progettati secondo il principio della “parità algoritmica”, evitando stereotipi e garantendo dataset completi, aggiornati e disaggregati per sesso e genere. Strumenti come l’uso di “dati sintetici”, se gestiti correttamente e nel rispetto della protezione dati, possono favorire sperimentazioni più sicure e inclusive.

Il capitolo conclude sostenendo che l’IA può diventare un catalizzatore della parità di genere, ma solo se inserita in un quadro regolatorio e culturale che valorizzi realmente la diversità. L’innovazione tecnologica non deve essere un fine, ma uno strumento per una medicina più equa, personalizzata e rispettosa delle differenze di ogni individuo.

Fairness by design: come prevenire la discriminazione

In un panorama tecnologico che evolve più velocemente della nostra capacità di comprenderlo, progettare un’AI davvero inclusiva non è un esercizio teorico, ma una responsabilità concreta. Significa partire da domande semplici ma decisive: chi stiamo includendo? chi rischiamo di escludere? quali voci non stiamo ancora ascoltando?

Per questo, alcuni consigli diventano imprescindibili: costruire dataset che rispecchino la complessità reale del mondo, adottare modelli che sappiano spiegare le proprie decisioni, introdurre verifiche periodiche e indipendenti, e coinvolgere fin dall’inizio le comunità che poi useranno – o subiranno – queste tecnologie. L’inclusività, insomma, non nasce da un algoritmo, ma dalle scelte consapevoli di chi lo progetta e lo governa.

Il libro in uscita “Donne, dati, algoritmi”, edizioni Maggioli, offre anche un capitolo dedicato alle mitigazioni per una AI inclusiva, con strumenti molto pratici per farlo. Vale la pena leggerlo proprio per questo: perché mostra che un’AI migliore è possibile, purché la costruiamo con le persone e non semplicemente per le persone.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x