L’intelligenza artificiale ha ormai superato la fase di sperimentazione ed è entrata stabilmente nei processi di selezione del personale.
I recruiter e le aziende diventano responsabili del controllo dei sistemi automatizzati, mentre i candidati devono fare i conti con un processo sempre più opaco.
Indice degli argomenti
L’adozione dell’AI nel recruiting: dati e diffusione
Secondo una rilevazione di Gartner, il 37% della forza lavoro sarà influenzato dalla generative AI nei prossimi due-cinque anni, un segnale dell’accelerazione con cui le HR stanno integrando queste tecnologie nei loro modelli operativi. Non si tratta più solo di filtrare CV o cercare parole chiave: l’AI viene impiegata per valutare risposte nelle video interviste, analizzare il linguaggio naturale e supportare modelli predittivi di performance stanno diventando parte integrante del processo di hiring, soprattutto nelle realtà con grandi volumi di candidature o con team HR strutturati. D’altra parte, i candidati non osservano l’adozione su larga scala senza preoccupazioni.
Un sondaggio Gartner su quasi tremila candidati ha rilevato che solo il 26% di chi cerca lavoro ritiene che l’AI valuti equamente le candidature, mentre una quota significativa esprime diffidenza nei confronti dell’uso automatizzato delle informazioni personali. Una sfiducia che cresce man mano che le aziende intensificano l’uso di sistemi automatizzati. Per quanto le preoccupazioni siano ragionevoli, queste non fermeranno l’adozione dell’AI: circa il 45% delle organizzazioni dichiara di usare l’AI in almeno una funzione HR nel 2025 e di voler incrementare l’adozione nei prossimi mesi. Questo salto tecnologico non riguarda solo grandi aziende hi-tech: l’AI viene progressivamente integrata in sistemi di screening, strumenti di interazione con i candidati e piattaforme di gestione dei talenti utilizzati in modo trasversale da diverse tipologie di aziende. I vantaggi operativi sono ovvi e tangibili, ma aprono inevitabilmente nuove questioni su equità, trasparenza e il ruolo dei recruiter.
Come l’AI trasforma il funnel di selezione
L’adozione dell’AI nei processi HR non è una moda tecnologica: è un cambio di paradigma che sta ridisegnando il funnel di selezione. Le aziende lo vedono come uno strumento per ridurre tempi, costi e carichi manuali. I candidati, invece, si ritrovano a partecipare a un processo che conoscono sempre meno e che richiede loro competenze nuove, spesso non dichiarate.
Screening dei CV: meno lettura umana, più ottimizzazione algoritmica
Gli ATS evoluti analizzano migliaia di curriculum in pochi secondi. Non cercano più coincidenze tra parole chiave: scompongono il testo, identificano competenze implicite, valutano coerenza narrativa, anzianità reale e allineamento con il profilo richiesto. Per un’azienda con centinaia di candidature al giorno è un vantaggio evidente: un filtro iniziale rapido, standardizzato e scalabile.
Dal punto di vista dei candidati
Per chi cerca lavoro, però, il CV diventa un esercizio di traduzione in “linguaggio macchina“. Sempre più candidati riscrivono il proprio CV per adattarlo ai criteri dei software e allo specifico annuncio: strutture standard, parole chiave mirate, frasi brevi, date coerenti. Non sempre per migliorare la sostanza, ma per superare il filtro.
Video-interviste e analisi comportamentale: valutazioni più veloci, ma anche più opache
Le piattaforme di video-recruiting permettono di gestire in modo rapido la fase di pre-colloquio. Analizzano tono di voce, ritmo, lessico, postura, micro-pause. In teoria aiutano a identificare segnali di attitudine o capacità comunicativa in modo più oggettivo e ripetibile. Per i team HR, soprattutto nei settori ad alto volume, significa filtrare rapidamente chi non soddisfa determinati standard.
Dal punto di vista dei candidati
Per i candidati la storia è diversa. La video-intervista, un tempo momento umano e interattivo, diventa un esercizio solitario davanti alla webcam, spesso con tempo limitato e senza possibilità di chiarire o approfondire la domanda. Inoltre, come mostrano gli studi su bias, un accento non standard o una dizione insicura possono penalizzare anche chi ha le competenze giuste.
Modelli predittivi di performance: un vantaggio per le aziende, un’incognita per i candidati
Alcune realtà stanno adottando modelli predittivi che utilizzano i dati interni (dai profili dei top performer ai loro percorsi di carriera) per identificare candidati simili. Lo scopo è ridurre il rischio di assunzioni non allineate e accelerare la selezione di profili considerati “ad alta probabilità di successo”.
Dal punto di vista dei candidati
Per chi è dall’altro lato, questo significa confrontarsi con un riferimento invisibile: il “modello del dipendente ideale“. Se questo modello si basa su gruppi storicamente omogenei per età, genere, formazione, l’AI rischia di penalizzare chi porta diversità, anche quando è più qualificato.
Efficienza algoritmica e digitalizzazione dei bias
L’AI è entrata nei processi di selezione con tre promesse forti: ridurre i tempi, rendere le valutazioni più coerenti e liberare i recruiter dalle attività ripetitive. In parte queste promesse si realizzano: il time-to-hire si accorcia, gli algoritmi applicano criteri uniformi e le funzioni HR possono concentrarsi sulle attività strategiche. Il problema è che, una volta superato l’entusiasmo iniziale, emerge una realtà più complessa.
L’efficienza non elimina i bias, li digitalizza
L’idea che l’AI possa “ripulire” i processi di selezione dai pregiudizi umani è ingenua. I modelli apprendono dai dati storici e ne replicano le distorsioni. Un’inchiesta del Guardian ha mostrato come alcuni sistemi di video-intervista penalizzino accenti marcati, modalità vocali atipiche o tratti linguistici non rappresentati nei dataset. Quando l’AI trasforma un accento o una disfluenza in un indicatore negativo, non sta valutando competenze: sta automatizzando un pregiudizio.
Quando l’AI inventa informazioni sui candidati
Un rischio ancora meno visibile riguarda la capacità dell’AI di generare informazioni false sui candidati. Lo ha documentato con precisione il Financial Times. Per verificare l’accuratezza dei chatbot, la giornalista Olivia Gagan ha chiesto a diversi modelli generativi di sintetizzare il suo profilo professionale.
Uno di questi – Grok, il modello sviluppato da xAI lanciato da Musk – ha inventato che fosse “in congedo di maternità dopo la nascita del suo primo figlio nel 2025”. Un evento mai accaduto. Il caso non rappresenta un’anomalia: dimostra che i chatbot possono attribuire caratteristiche sensibili (come maternità, età presunta o stato familiare) senza alcuna base reale.
Una ricercatrice Gartner, intervistata nel pezzo, ha definito il fenomeno “preoccupante” proprio perché la Talent Acquisition sia una delle principali funzioni automatizzate con AI menzionando il dato del Boston Consulting Group (circa il 70%). C’è poi un aspetto legale tutt’altro che secondario: se un algoritmo attribuisce a un candidato una condizione protetta come la gravidanza, disabilità, orientamento religioso e quella falsa informazione influenza la scelta, l’azienda rischia di violare le norme antidiscriminatorie anche se l’errore è nato dall’AI.
Lo ricorda una giurista citata dall’articolo, sottolineando che la discriminazione nasce dal trattamento, non dalla verità del dato. In altre parole, accanto all’identità reale e a quella online, oggi i candidati devono confrontarsi con una terza entità: l’identità generata dall’AI, che può diventare una variabile opaca e fuori controllo nei processi di selezione.
AI Act: il quadro normativo europeo per i sistemi ad alto rischio
L’AI Act introduce per la prima volta in Europa un quadro giuridico vincolante sull’uso dell’intelligenza artificiale nei processi di selezione. I sistemi utilizzati per lo screening dei CV, la valutazione dei candidati e le decisioni di assunzione sono classificati come “sistemi ad alto rischio” nell’Allegato III, sezione 2, dedicata ai sistemi impiegati nella gestione delle risorse umane. Questa classificazione non è formale: attiva un insieme di obblighi precisi per le aziende che adottano soluzioni di AI in fase di recruiting.
Questo implica obblighi stringenti:
Trasparenza verso i candidati (Titolo IV, Art. 52)
Le organizzazioni devono informare in modo chiaro e preventivo che una parte della valutazione è eseguita da sistemi automatizzati. Non basta una nota generica nel form di candidatura: il candidato deve sapere quando interviene l’AI, con quali funzioni e con quali limiti. In uno scenario in cui chatbot e algoritmi possono generare informazioni inesatte, questo requisito è la condizione minima per permettere al candidato di comprendere e, se necessario, contestare il processo.
Qualità e governance dei dati (Titolo III, Art. 10)
I fornitori e gli utilizzatori dei sistemi devono garantire che i dataset siano pertinenti rispetto al ruolo; rappresentativi e privi di distorsioni sistematiche; aggiornati e documentati. È un punto centrale. I casi documentati dal Guardian e dal Financial Times dimostrano che molti bias derivano proprio da dataset incompleti o costruiti su storie aziendali omogenee. L’AI Act rende queste responsabilità esplicite: un algoritmo che discrimina per difetti nei dati è una violazione di conformità, non un incidente tecnico.
Supervisione umana significativa (Art. 14)
Il regolamento non accetta la delega cieca all’algoritmo. La supervisione deve essere continua, competente, capace di intervenire e modificare decisioni automatizzate. In altre parole, il recruiter deve avere il potere e la competenza di fermare o correggere l’AI. Questo requisito è il cuore dell’intero impianto normativo: l’essere umano non è un “controllore passivo”, ma un responsabile attivo della correttezza del processo.
Documentazione, registri e tracciabilità (Art. 12 e Art. 18)
I sistemi ad alto rischio devono conservare log dettagliati che permettano di ricostruire:
- come è stato processato un CV;
- quali variabili hanno influenzato la valutazione;
- perché un candidato è stato escluso o promosso;
- come l’algoritmo è stato aggiornato nel tempo.
Questi obblighi cambiano drasticamente la gestione interna dei processi HR. Se un candidato sostiene di essere stato penalizzato da una decisione automatizzata, l’azienda deve poter dimostrare come ha funzionato il modello. Non è più sufficiente dire “ha deciso l’algoritmo”. Il regolatore europeo, con questo impianto, non limita l’uso dell’AI: lo disciplina, chiedendo alle aziende di assumersi la responsabilità delle conseguenze.
Il recruiter come custode etico e il presidio multidisciplinare
In questo contesto, il ruolo del recruiter cambia natura: non è più la persona che “sceglie” il candidato, ma chi garantisce che la scelta sia legittima, trasparente e non discriminatoria. L’introduzione dell’AI nei processi di selezione ridefinisce quindi il ruolo stesso del recruiter. Questa evoluzione è confermata anche dai principali report internazionali, dal Future of Jobs Report 2025 del World Economic Forum alle analisi SHRM, che individuano tra le competenze emergenti dell’HR la capacità di governare sistemi di AI, valutarne i limiti e presidiare i dati. Comprendiamo quindi che il recruiter non può essere più l’unico responsabile della valutazione dei candidati: il presidio umano che garantisce che un processo sempre più automatizzato resti corretto, trasparente e conforme all’AI Act diventa una mansione che coinvolge HR, IT, legal e compliance, perché le decisioni di assunzione si fondano ormai su elementi tecnici oltre che relazionali.
Alfabetizzazione algoritmica: comprendere strumenti e limiti
Il recruiter deve saper leggere e interpretare i risultati prodotti dall’AI, distinguendo ciò che è un’indicazione utile da ciò che potrebbe essere un’anomalia. Ma la comprensione non riguarda solo HR:
- il team IT verifica come funzionano i modelli;
- legal monitora la conformità dei flussi di dati;
- HR valuta la coerenza delle decisioni con i criteri di selezione.
È una competenza distribuita: nessuna funzione, da sola, può controllare un sistema complesso basato su modelli predittivi.
Audit trasversale: controllare l’AI è un compito condiviso
L’AI Act richiede una supervisione umana significativa, e questo implica che l’audit dell’AI sia tanto funzionale (HR) quanto tecnico (IT) e normativo (legal). Nella pratica:
- HR verifica a campione le candidature escluse e analizza eventuali pattern discriminatori;
- IT controlla configurazioni, aggiornamenti, dataset e metriche, assicurando che il sistema non si comporti in modo imprevisto;
- Le funzioni legal e compliance presidiano la tracciabilità, come richiesto dagli articoli 12, 14 e 18 dell’AI Act.
Solo l’integrazione di queste competenze consente di individuare distorsioni reali: un recruiter da solo può notare un’anomalia, ma non può stabilire se derivi da un limite del modello, da un dataset sbilanciato o da un problema tecnico.
Responsabilità delle decisioni: una filiera, non un individuo
L’AI Act chiarisce che l’azienda resta pienamente responsabile delle decisioni prese attraverso sistemi automatizzati. Di conseguenza:
- HR è responsabile della scelta finale;
- IT della corretta gestione e configurazione del sistema;
- legal della conformità con le norme antidiscriminatorie;
- la direzione della governance complessiva del processo.
Il recruiter diventa quindi un punto di raccordo, non un filtro isolato: è la persona che intercetta criticità, coordina gli altri attori e garantisce che l’AI sia uno strumento di supporto, non un fattore di rischio. L’equità non nasce dall’algoritmo, ma dal modo in cui le aziende lo progettano, lo controllano e lo correggono. È qui che si gioca il vero futuro etico della selezione: non nell’evitare l’AI, ma nel governarla con competenza, responsabilità e trasparenza.













