risorse umane

IA in azienda: la sfida è culturale, non tecnologica



Indirizzo copiato

L’adozione dell’IA nelle imprese non è solo una scelta tecnica. Senza cultura, visione e governance, il rischio è trasformare la tecnologia in un fattore di fragilità organizzativa, invece che in leva evolutiva

Pubblicato il 13 nov 2025

Alessandro Reati

Head of People & Culture e HR Practice Leader di Cegos Italia



intelligenza-artificiale-nella-pubblica-amministrazione-agenda-digitale; document management system

Nelle organizzazioni si consuma un equivoco pericoloso. L’IA viene adottata come si implementavano gli ERP: soluzione tecnica a problemi organizzativi. Si comprano licenze, si formano gli utenti, si misurano KPI. Fine.

Il rischio non è l’adozione lenta. È l’introduzione senza cultura, senza strategia, senza visione antropologica. Trattarla come aggiornamento software quando rappresenta una rivoluzione culturale: un cambiamento nel modo in cui pensiamo, decidiamo, ci relazioniamo.

L’IA non è neutrale. È un agente che modifica il campo: altera le dinamiche di potere, ridisegna i confini della competenza, introduce la dipendenza cognitiva. E rivela le fragilità culturali dell’organizzazione.

La regressione organizzativa nell’era BANI

Lo scenario geopolitico ci ha catapultati in era BANI (Brittle, Anxious, Nonlinear, Incomprehensible).
Le organizzazioni reagiscono con meccanismi regressivi: ricerca di certezze assolute, semplificazione eccessiva, delega acritica. All’algoritmo.

Spesso, dietro la corsa all’IA si nasconde una fuga dall’ambiguità. L’algoritmo promette pattern, previsioni, raccomandazioni. Ma l’IA non risolve la complessità: la trasferisce. Sposta l’ambiguità dal “cosa decidere” al “cosa accettare come valido”. Produce organizzazioni che si illudono di essere data-driven mentre sono algorithm-dependent.

Adozione rapida senza preparazione adeguata: due rischi speculari

Secondo SHRM (2025 Talent Trends: The Role of AI in HR. Society for Human Resource Management), il 43% delle organizzazioni usa già l’IA in HR (dal 26% del 2024), ma due terzi non ha formato i dipendenti. Si adotta velocemente, si prepara poco.

C-level che banalizzano

Manager che trattano l’IA come progetto IT. Sottovalutano l’impatto culturale, delegano senza governare, ignorano le emozioni. Come sottolinea CIPD nel rapporto “HR practices in Ireland 2025”, la maggioranza non ha condiviso piani chiari né formato dipendenti. Il risultato: una bomba a orologeria organizzativa.

Come evidenzia l’International Barometer Diversity & Inclusion 2025 (condotto dal Gruppo Cegos su 5.500 dipendenti, 10 Paesi), l’84% dei lavoratori ha assistito a discriminazioni sul lavoro, con aumento di forme sottili legate a background sociale e residenza. L’IA senza governance può cristallizzare questi bias.

Junior che si illudono

Giovani che credono che l’IA elimini la necessità di apprendimento specialistico. “Tanto lo chiedo a ChatGPT.” Questa illusione produce lavoratori cognitivamente fragili: perdita di competenza profonda, dipendenza acritica, erosione del pensiero critico. Come ricorda SHRM, tre quarti degli HR concordano che l’IA aumenterà il valore del giudizio umano. Ma solo se costruito in precedenza.

Comprendere cosa è davvero l’intelligenza artificiale

Uno dei rischi più insidiosi è il fraintendimento: l’idea che l’IA possieda “coscienza digitale”, che pensi come noi. È falso. È pericoloso.

L’IA – anche generativa – è riconoscimento di pattern e correlazione statistica. Non cognizione. Non pensiero. Non coscienza.

Come sottolinea Yann LeCun (Chief AI Scientist Meta, Turing Award 2018), le architetture di deep learning eccellono nel riconoscere pattern ma non possiedono comprensione genuina. Geoffrey Hinton (Nobel Fisica 2024 con John Hopfield per scoperte fondamentali che hanno reso possibile il machine learning con reti neurali artificiali), pur preoccupato per i rischi futuri, riconosce i limiti fondamentali.

La differenza è sostanziale: l’IA correla, non comprende. Predice il prossimo token, non ragiona sul significato. Riproduce pattern, non genera insight dalla riflessione.

Credere che l’IA “pensi” produce determinati effetti, quali delega acritica, deresponsabilizzazione, sovrastima delle capacità. Le HR devono guidare verso una comprensione realistica dell’IA.

Tre fronti di presidio per le risorse umane

Le Risorse Umane devono presidiare la qualità del processo su tre fronti:

1. Governance. Chi decide cosa automatizzare? E cosa non automatizzare? Non tutto deve essere delegato. Ci sono spazi decisionali che, se automatizzati, producono perdita di senso. Le HR devono costruire una mappa della delega e avviare conversazioni difficili sul conflitto tra efficienza e senso.

2. Ridefinizione dei ruoli. L’IA non elimina i ruoli: li ibridizza. Invisibilmente. Basti pensare al customer service. Se prima l’operatore gestiva tutto, oggi la chatbot fa il primo livello. Si è persa la visione d’insieme, si è creata asimmetria di potere. Le HR devono rendere visibile questa ibridazione e porsi: quanto vogliamo ibridare?

3. Gestione delle emozioni. Le emozioni — paura, ansia, disorientamento — non sono rumore. Sono il segnale più affidabile della trasformazione. Eppure vengono negate, minimizzate. Le HR devono legittimare lo spazio emotivo: nominare la paura, creare contenitori protetti, distinguere paura regressiva da generativa.

leadership aumentata e direzione di senso

Se le HR presidiano la consapevolezza, la leadership presidia la direzione di senso. La domanda non è “come implementiamo l’IA?” ma “cosa vogliamo potenziare?”

L’IA amplifica ciò che esiste: competenze, ma anche disfunzioni. Se un’organizzazione è verticistica, l’IA diventerà strumento di controllo. Serve costruire una visione chiara del futuro voluto.

Tre capacità distintive:

  • Pensiero critico situato. Il leader interpreta, valuta conseguenze, capisce quando una raccomandazione è culturalmente distruttiva. Il vero leader aumentato sa quando sospendere l’algoritmo.
  • Delega consapevole. Delegare all’algoritmo è una scelta sulla distribuzione del potere cognitivo. I leader devono delegare in modo trasparente, tracciabile, reversibile. La delega consapevole può sempre essere revocata.
  • Tolleranza per l’ambiguità. Nel contesto BANI, serve la capacità di stare nell’incertezza. L’IA può diventare droga organizzativa per non sentire l’ansia. Ma le organizzazioni resilienti imparano a lavorare con l’ambiguità.

Costruire alleanza tra umano e algoritmo

Serve lavoro culturale intenzionale. Un alleato si può interrogare, contestare e costruire un progetto comune. Il valore nasce dalla combinazione, non dalla sostituzione.

Tre dimensioni:

  • Alfabetizzazione critica. Non serve trasformare tutti in data scientist. Serve pensiero critico informato. L’obiettivo è saper dubitare: su quali dati è addestrato? Chi ha deciso cosa includere? Quali ipotesi implicite?
  • Spazi di sensemaking. Creare laboratori protetti dove sperimentare, sbagliare, confrontarsi. Non training formali, ma comunità di pratica. Il sensemaking è competenza strategica nell’era BANI.
  • Cultura dell’accountability. “L’ha detto l’algoritmo” non è giustificazione. Serve preservare il principio di responsabilità umana. Questo significa meccanismi chiari: audit trail, procedure di escalation, processi chiari, figure interpellabili.

Responsabilità sociale e impatto etico

È qui che si gioca la CSR (Corporate Social Responsibility). L’IA non è solo efficienza interna. È impatto sociale. Come sottolinea CIPD sull’EU AI Act, le organizzazioni devono garantire che i sistemi IA rispettino diritti fondamentali ed etica. Non per obbligo, ma per scelta valoriale.

I dati del Barometer 2025 su D&I di Cegos Group lo confermano: il 78% dei dipendenti riconosce l’impatto positivo delle politiche di responsabilità sociale, l’81% degli HR vuole accelerare. Le organizzazioni che ignorano la dimensione sociale dell’IA rischiano legittimità e competitività.

Quale organizzazione vogliamo diventare?

Non stiamo vivendo un cambio di strumenti. Stiamo attraversando un cambio di linguaggio organizzativo. L’IA introduce nuovi vocaboli, ma anche nuove sintassi sociali: chi può interrogare l’algoritmo, chi ha accesso ai dati, chi progetta e chi esegue.

Come evidenziano le ricerche SHRM sul progetto AI+HI (Artificial Intelligence + Human Ingenuity), le organizzazioni migliori costruiscono reti centrate sulle persone, dove tecnologia e ingegno umano si combinano. Non si sostituiscono.

L’IA potenzia. Ma siete voi a decidere cosa potenziare.

La domanda finale: quale organizzazione vogliamo diventare? Una che usa la tecnologia per controllare o abilitare? Che accelera l’efficienza a scapito del senso, o cerca equilibrio? Che reagisce al BANI con regressione, o con consapevolezza? Che tratta l’IA come neutro, o riconosce la sua dimensione etica?

La risposta non sta negli algoritmi. Sta nella cultura che scegliete di costruire. Ogni giorno. Con ogni decisione. Con ogni conversazione difficile che avete il coraggio di non evitare.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati