nuovi studi

Più stress sul lavoro, colpa dell’AI: come risolvere



Indirizzo copiato

Una ricerca di Berkeley mostra che l’AI generativa non riduce il lavoro ma lo intensifica, espandendo compiti, sfumando i confini tra vita e lavoro e moltiplicando il multitasking. Altri studi lo confermano Un ciclo che alimenta burnout e porta nuove sfide per AI Act, imprese e contrattazione. Ma ci sono soluzioni possibili

Pubblicato il 12 feb 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



AI lavoro stress

La narrazione dominante sull’AI nel mondo del lavoro si regge su una premessa apparentemente solida: gli strumenti di intelligenza artificiale generativa rendono i lavoratori più produttivi, più veloci, più capaci. Ne consegue che il lavoro diventa più leggero, che il tempo liberato può essere reinvestito in attività ad alto valore, che l’organizzazione ne beneficia su tutta la linea.

Questa è la versione che l’industria tecnologica ha venduto negli ultimi tre anni a milioni di professionisti e ai loro datori di lavoro. Una ricerca pubblicata il 9 febbraio 2026 su Harvard Business Review, condotta da Aruna Ranganathan e Xingqi Maggie Ye della UC Berkeley, segue questa premessa fino alle sue conseguenze reali e trova qualcosa di diverso, non una rivoluzione della produttività, ma un meccanismo silenzioso di intensificazione del lavoro che rischia di trasformare le aziende in macchine da burnout.

Lo studio sullo stress da AI

Lo studio si distingue per rigore metodologico. Le ricercatrici hanno trascorso otto mesi all’interno di un’azienda tecnologica statunitense di circa 200 dipendenti, combinando osservazione diretta in loco (due giorni a settimana), monitoraggio dei canali di comunicazione interna e oltre 40 interviste approfondite con personale di ingegneria, prodotto, design, ricerca e operations.

Non si tratta di un sondaggio a distanza o di un esperimento di laboratorio: è una ricerca etnografica condotta in un contesto reale. Un dettaglio cruciale, l’azienda non aveva imposto l’uso dell’AI. Aveva fornito abbonamenti enterprise a strumenti commerciali di AI generativa, ma l’adozione era volontaria. Nessuno riceveva nuovi target. Nessuno era sotto pressione esplicita.

Eppure, i dipendenti hanno spontaneamente iniziato a fare di più, perché gli strumenti rendevano quel “di più” accessibile, realizzabile, e spesso gratificante.

I tre meccanismi che intensificano il lavoro con l’AI

I ricercatori hanno identificato tre forme distinte attraverso cui l’AI generativa intensifica il lavoro, nessuna delle quali richiede pressione manageriale per attivarsi. Il primo meccanismo è l’espansione dei compiti (task expansion).

Espansione dei compiti e perimetro professionale

Poiché l’AI colma lacune di competenza, i lavoratori hanno iniziato ad assumere responsabilità che appartenevano ad altri. Product manager e designer hanno iniziato a scrivere codice. Ricercatori si sono fatti carico di attività ingegneristiche. Persone in tutta l’organizzazione hanno tentato lavori che prima avrebbero esternalizzato, rinviato o evitato.

L’AI rendeva questi compiti “accessibili”, offrendo quello che molti hanno descritto come un boost cognitivo: meno dipendenza dagli altri, feedback immediato, correzione in tempo reale. Queste sperimentazioni si sono accumulate in un ampliamento significativo del perimetro professionale di ciascuno, assorbendo lavoro che in precedenza avrebbe giustificato assunzioni aggiuntive.

L’effetto a catena è stato immediato, gli ingegneri si sono trovati a dedicare sempre più tempo a revisionare, correggere e guidare il lavoro generato o assistito dall’AI prodotto dai colleghi. Un carico che si è manifestato informalmente, nei thread di Slack e nelle consulenze rapide alla scrivania, senza mai essere formalizzato o riconosciuto.

Confini sfumati tra lavoro e non-lavoro

Il secondo meccanismo è la dissoluzione dei confini tra lavoro e non-lavoro. L’interfaccia conversazionale dell’AI ha eliminato la frizione dell’avvio, niente più pagina bianca, niente più soglia di ingresso intimidatoria.

Così i lavoratori hanno iniziato a infilare micro-sessioni di lavoro nei momenti che prima erano pause: un prompt durante il pranzo, una richiesta in riunione, un “ultimo messaggio veloce” prima di lasciare la scrivania perché l’AI potesse lavorare mentre ci si allontanava. Nessuna di queste azioni sembrava “lavoro aggiuntivo”.

Ma il loro accumulo ha prodotto giornate con meno pause naturali e un coinvolgimento più continuo. Lo stile conversazionale del prompting ha ulteriormente ammorbidito la percezione, scrivere una riga a un sistema AI somigliava più a una chat che a un’attività formale, rendendo facile lo sconfinamento nelle sere e nelle mattine presto senza una decisione deliberata. Molti lo hanno riconosciuto solo a posteriori: il tempo libero aveva smesso di fornire vero recupero.

Multitasking continuo e costi cognitivi

Il terzo meccanismo è l’esplosione del multitasking. L’AI ha introdotto un nuovo ritmo in cui i lavoratori gestivano più flussi attivi simultaneamente: scrivere codice manualmente mentre l’AI generava una versione alternativa, eseguire più agenti in parallelo, riprendere compiti a lungo rinviati perché l’AI poteva “gestirli in background”.

La sensazione era quella di avere un “partner” che aiutava a procedere nel carico di lavoro. Ma la realtà era un continuo spostamento dell’attenzione, verifiche frequenti degli output AI e un numero crescente di task aperti. Il multitasking e il context-switching, il continuo spostamento dell’attenzione tra compiti diversi, come la letteratura scientifica ha ampiamente dimostrato, riducono la qualità delle decisioni e aumentano il carico cognitivo.

Un ciclo auto rinforzante di burnout

Nel tempo, questo ritmo ha innalzato le aspettative sulla velocità, non necessariamente attraverso richieste esplicite, ma attraverso ciò che è diventato visibile e normalizzato nel lavoro quotidiano.

I tre meccanismi non sono indipendenti: si alimentano reciprocamente in quello che le ricercatrici descrivono come un ciclo auto rinforzante. L’AI accelera certi compiti, il che alza le aspettative di velocità. La velocità aumentata rende i lavoratori più dipendenti dall’AI.

La dipendenza amplia il perimetro di ciò che si tenta, il perimetro più ampio espande ulteriormente quantità e densità del lavoro. Come ha sintetizzato un ingegnere intervistato: “Pensavo che forse, essendo più produttivo con l’AI, avresti risparmiato tempo e lavorato meno. Ma in realtà non lavori meno. Lavori la stessa quantità o persino di più.”

Il punto critico della ricerca è che questo sovraccarico è volontario e spesso percepito come sperimentazione piacevole. Proprio per questo è invisibile al management, che lo interpreta come un segnale positivo di adozione entusiastica. Ma nel medio periodo, avvertono le ricercatrici, il risultato è “fatica, burnout e una crescente sensazione che sia più difficile staccare dal lavoro, soprattutto mentre aumentano le aspettative organizzative in termini di velocità e reattività”.

Burnout nel lavoro causa AI, altri studi

Lo studio di Berkeley non è un dato isolato. Si inserisce in un quadro probatorio che nell’ultimo anno ha iniziato a complicare la narrazione sulla produttività dell’AI. Nel luglio 2025, l’organizzazione di ricerca METR (Model Evaluation & Threat Research) ha pubblicato uno studio controllato randomizzato su 16 sviluppatori esperti che lavoravano sulle proprie repository open-source (mediamente oltre un milione di righe di codice e più di 22.000 stelle su GitHub).

Il risultato ha sorpreso tutti: gli sviluppatori che utilizzavano strumenti AI (Cursor Pro con Claude 3.5/3.7 Sonnet) impiegavano il 19% di tempo in più per completare i compiti, pur credendo di essere il 20% più veloci. Una percezione soggettiva completamente disconnessa dalla realtà misurabile.

I ricercatori hanno attribuito il rallentamento al tempo speso nel prompting, nella revisione degli output AI e nell’integrazione con codebase complesse, costi nascosti che annullavano i guadagni apparenti.

Nello stesso periodo, uno studio del National Bureau of Economic Research condotto da Anders Humlum e Emilie Vestergaard, che ha monitorato l’adozione dei chatbot AI in migliaia di luoghi di lavoro danesi incrociando i dati con i registri occupazionali, ha riscontrato un risparmio medio di tempo di appena il 2,8% tra gli utilizzatori, senza effetti significativi su redditi o ore lavorate in nessuna professione.

Un risultato modesto che contrasta nettamente con le promesse dell’industria. Il Workforce Trends Report 2026 di DHR Global su 1.500 professionisti ha trovato l’83% in stato di burnout, con un divario netto per seniority: 62% tra i profili junior contro il 38% tra i C-suite, a suggerire che il sovraccarico colpisce in modo asimmetrico chi ha meno potere negoziale.

Questi studi sono stati singolarmente criticati, ed è legittimo: ciascuno ha limiti metodologici specifici. Ma lo studio di Berkeley è più difficile da liquidare perché non mette in discussione la premessa che l’AI potenzi ciò che i dipendenti possono fare. La conferma, e poi mostra dove porta quel potenziamento quando non è governato.

Prevenire lo stress da AI con una “AI practice” organizzativa

Le ricercatrici non si limitano alla diagnosi. Propongono che le organizzazioni sviluppino quella che chiamano una “AI practice”: un insieme intenzionale di norme e routine che strutturano come l’AI viene usata, quando è appropriato fermarsi, come il lavoro dovrebbe (e non dovrebbe) espandersi in risposta alle nuove capacità.

La proposta si articola in tre pilastri.

Pause intenzionali e decisioni più lente

Primo, pause intenzionali. Non rallentare il lavoro, ma prevenire l’accumulo silenzioso di sovraccarico. Per esempio, prima di finalizzare una decisione importante, richiedere almeno un contro argomento e un collegamento esplicito agli obiettivi organizzativi, per allargare il campo di attenzione quel tanto che basta a proteggere dalla deriva decisionale.

Sequenziamento e protezione dell’attenzione

Secondo, sequenziamento. Raggruppare le notifiche non urgenti, trattenere gli aggiornamenti fino ai punti di pausa naturali, proteggere finestre di concentrazione in cui i lavoratori sono schermati dalle interruzioni. Invece di reagire a ogni output AI nel momento in cui appare, far avanzare il lavoro in fasi coerenti.

Radicamento umano e confronto tra pari

Terzo, radicamento umano. Proteggere tempo e spazio per l’ascolto e la connessione interpersonale. Brevi momenti di confronto che interrompano il coinvolgimento continuo e solitario con gli strumenti AI. L’AI fornisce una singola prospettiva sintetizzata; l’insight creativo dipende dall’esposizione a molteplici punti di vista umani.

L’AI Act, il lavoro e il contesto europeo e italiano

La ricerca di Berkeley parla di un’azienda tech americana, ma le sue implicazioni sono direttamente rilevanti per il contesto europeo e italiano, forse più che altrove. Perché l’Europa sta costruendo, con l’AI Act, un quadro regolatorio che si propone di governare non solo i rischi tecnici dell’AI ma anche le condizioni del suo impiego nei luoghi di lavoro.

Lo studio suggerisce che il problema non è solo la classificazione del rischio dei sistemi AI, ma la gestione delle dinamiche organizzative che la loro adozione innesca. L’AI Act, nella sua architettura basata sul rischio, si concentra giustamente sulle caratteristiche dei sistemi e sul loro impatto potenziale.

Ma il meccanismo di intensificazione descritto dai ricercatori di Berkeley si colloca in una zona che la regolazione normativa fatica a raggiungere, è un effetto emergente, non progettato, che nasce dall’interazione tra strumenti potenti e culture organizzative che premiano implicitamente la velocità e la reattività.

Nessun algoritmo è ad “alto rischio” perché fa lavorare le persone durante la pausa pranzo. Ma il risultato aggregato può essere altrettanto problematico. Per le aziende italiane che stanno avviando o accelerando i propri percorsi di adozione dell’AI, la lezione è concreta.

La fase più pericolosa non è quella in cui i dipendenti resistono all’AI, ma quella in cui la abbracciano con entusiasmo senza che l’organizzazione abbia definito confini, ritmi e pratiche di sostenibilità. Questa fase può sembrare un successo e nascondere un problema strutturale.

La formazione all’uso dell’AI, su cui molte aziende stanno investendo, rischia di essere incompleta se si limita alle competenze tecniche (come fare prompt efficaci, come usare gli strumenti) senza includere le competenze organizzative e di autoregolazione, quando fermarsi, come sequenziare, come proteggere il tempo non lavorativo.

C’è poi una dimensione che riguarda la contrattazione collettiva e le relazioni industriali, terreno su cui l’Europa ha una tradizione più robusta degli Stati Uniti. Se l’intensificazione del lavoro da AI è prevalentemente volontaria e auto-indotta, come suggerisce lo studio, gli strumenti classici di protezione del lavoratore (limiti di orario, straordinari, carichi di lavoro concordati) rischiano di essere insufficienti.

Serve un ripensamento che integri il tema dell’AI nelle policy aziendali sul benessere organizzativo e nella contrattazione di secondo livello.

Sovranità cognitiva e burnout da AI nel futuro del lavoro

C’è infine una dimensione più profonda, che lo studio sfiora senza svilupparla pienamente ma che merita attenzione. Il ciclo auto rinforzante descritto dalle ricercatrici, in cui l’AI accelera il lavoro, il lavoro accelerato aumenta la dipendenza dall’AI, e la dipendenza espande ulteriormente il lavoro, pone una questione di sovranità cognitiva del lavoratore.

Chi decide il ritmo? Chi stabilisce il perimetro? Se la risposta è “lo strumento , attraverso ciò che rende possibile”, siamo di fronte a una forma di eterodirezione tecnologica che non passa per ordini espliciti ma per affordance, le possibilità offerte dallo strumento ridefiniscono i confini del lavoro senza che nessuno lo abbia deciso.

Il tema interseca il dibattito europeo sulla centralità dell’essere umano nei sistemi AI (il principio di human oversight dell’AI Act) e dovrebbe entrare nella riflessione delle organizzazioni ben prima che diventi un problema regolatorio.

La domanda che lo studio di Berkeley lascia aperta, e che le aziende europee farebbero bene a porsi adesso, non è se l’AI rende i dipendenti più produttivi ma se quella produttività è sostenibile e chi ne paga il costo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x