autonomia cognitiva

Più efficienza, meno competenza: il prezzo dell’AI in azienda



Indirizzo copiato

L’AI aumenta davvero la produttività, ma non sempre rafforza la capacità interna delle organizzazioni. Quando accelera l’output senza consolidare metodo, memoria e giudizio, l’efficienza operativa può trasformarsi in dipendenza cognitiva e vulnerabilità strategica

Pubblicato il 24 mar 2026



società di intelligenza artificiale (1)
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

L’intelligenza artificiale, nel dibattito pubblico e manageriale, viene ancora raccontata troppo spesso attraverso una semplificazione che finisce per essere fuorviante, perché la si presenta o come una leva quasi automatica di efficienza, capace di comprimere tempi, ridurre attriti e aumentare la resa individuale e organizzativa, oppure, all’opposto, come una minaccia indistinta al lavoro umano; eppure il punto davvero decisivo non sta né nell’entusiasmo, né nel rifiuto, ma nella qualità del rapporto che un’organizzazione instaura con questi strumenti.

L’aumento di produttività generato dall’AI è reale, misurabile e in molti casi persino impressionante, ma può diventare strategicamente tossico se viene ottenuto al prezzo di una progressiva erosione dell’autonomia cognitiva, cioè della capacità interna di comprendere, valutare, ricordare, sedimentare metodo e trattenere valore nel tempo. Il nodo, in altri termini, è che fare più in fretta non equivale necessariamente a costruire di più, perché un conto è incrementare l’output, un altro conto è rafforzare la capacità dell’impresa di produrre giudizio, memoria operativa e competenza distintiva, e questo secondo aspetto è proprio quello che rischia di essere sottovalutato quando l’adozione dell’AI viene osservata esclusivamente attraverso i KPI dell’efficienza immediata, senza chiedersi se il sapere che rende possibile quella maggiore velocità si stia davvero depositando nell’organizzazione oppure stia restando, in misura crescente, fuori da essa.

Produttività AI e benefici di breve periodo

Che i benefici di breve periodo siano consistenti non è in discussione, e negarlo sarebbe semplicemente sbagliato. Uno degli studi più citati, Generative AI at Work, pubblicato anche sul Quarterly Journal of Economics [1], mostra che l’introduzione di un assistente generativo in un grande contesto di customer support ha prodotto un incremento medio di produttività del 15% su 5.172 operatori, con effetti particolarmente marcati sui profili meno esperti e meno performanti, i quali hanno migliorato velocità e qualità del lavoro in misura molto più netta rispetto ai senior, riducendo sensibilmente i tempi necessari per arrivare a standard prima accessibili solo dopo una lunga esposizione al mestiere.

L’ambivalenza dell’efficienza organizzativa

Questo dato, che per molti versi spiega l’entusiasmo con cui l’AI viene accolta nelle organizzazioni, contiene però già al proprio interno l’ambivalenza che conta analizzare, perché se da un lato è vero che questi strumenti diffondono più rapidamente le migliori pratiche e comprimono la curva di apprendimento, dall’altro non è affatto scontato che l’avvicinamento dei junior alle performance dei senior coincida con una crescita corrispondente della loro profondità di giudizio, della loro autonomia interpretativa o della loro capacità di reggere il compito in assenza dell’assistenza tecnica che li ha portati lì.

In altre parole, il fatto che l’output migliori non dimostra automaticamente che la competenza si sia consolidata: potrebbe anche significare, e spesso significa, che una parte della struttura cognitiva del lavoro — tono, sequenza, priorità, gerarchia delle informazioni, costruzione dell’argomentazione — è stata esternalizzata in una protesi che rende tutti più rapidi, ma non necessariamente più forti.

Ed è qui che la misurazione della produttività comincia a diventare insufficiente, o almeno insufficiente se la si intende solo come crescita dell’output, perché un’impresa non crea valore soltanto per il fatto di fare di più in meno tempo, ma soprattutto per il fatto di sviluppare un modo specifico di leggere i problemi, di formulare ipotesi, di riconoscere eccezioni, di correggere il tiro quando il contesto devia dalla norma; e se tutto questo, invece di sedimentare dentro l’organizzazione, resta incorporato nelle piattaforme, nei prompt, nei flussi di interazione e negli ambienti esterni che mediano il lavoro quotidiano, allora ciò che si sta comprando non è vera produttività strategica, ma una forma di efficienza a noleggio, utile e persino brillante nell’immediato, ma fragile nel momento in cui il vantaggio dovrebbe trasformarsi in patrimonio interno.

Produttività AI e sapere trattenuto nell’impresa

Dunque il punto non è solo produrre meglio, ma trattenere il sapere che rende possibile quella produzione. Per questa ragione la domanda giusta non è se l’AI aumenti l’efficienza — è scontato e provato che lo fa — ma se l’efficienza che produce lasci dietro di sé più capacità interna di quanta ne consumi, dal momento che la differenza tra un’organizzazione che si rafforza e una che si rende dipendente sta proprio qui: nel fatto che, nel primo caso, il lavoro accelerato genera anche memoria, metodo, codificazione proprietaria, capacità di replica autonoma, mentre nel secondo il miglioramento delle prestazioni resta legato al fatto che il ragionamento viene continuamente sostenuto, orientato o anticipato da un’infrastruttura esterna che l’azienda usa, ma non governa davvero.

Lo spostamento dal ragionare al validare

Le ricerche più recenti sul lavoro della conoscenza rendono questo slittamento particolarmente visibile. Lo studio di Microsoft Research e Carnegie Mellon University [2], condotto su 319 knowledge worker e 936 casi reali d’uso, mostra infatti che gli strumenti di generative AI riducono lo sforzo percepito del pensiero critico, ma contemporaneamente accrescono il rischio di over-reliance, cioè di affidamento eccessivo, e ciò che emerge non è tanto una scomparsa del lavoro mentale quanto un suo spostamento: il professionista tende a investire meno nella costruzione originaria del ragionamento e sempre più nella verifica, integrazione e correzione della risposta prodotta dalla macchina.

È uno slittamento che può apparire secondario solo se non si coglie la sua implicazione più profonda, e cioè il passaggio da una cultura dell’autorialità a una cultura dell’approvazione, nella quale l’essere umano non è più necessariamente il luogo in cui il pensiero prende forma, ma sempre più spesso il punto in cui il pensiero viene validato, corretto o rifinito dopo essere stato già predisposto altrove.

Produttività AI e standardizzazione delle competenze

Si dice spesso, giustamente, che una delle promesse più interessanti dell’AI sia la sua capacità di aiutare i profili meno esperti, e i dati effettivamente lo confermano, perché molti studi mostrano che l’assistenza generativa riduce il divario di performance tra junior e senior, accelera l’accesso a standard qualitativi più elevati e rende più uniforme la qualità dell’esecuzione; tuttavia proprio questa apparente democratizzazione delle prestazioni merita di essere letta con maggiore severità, perché se è certamente vero che i junior diventano più produttivi, non è detto che stiano diventando proporzionalmente più maestri del proprio lavoro.

Anzi, il rischio è che il sistema stia producendo un effetto molto meno rassicurante di quanto sembri, e cioè non un’elevazione diffusa verso l’eccellenza, ma una convergenza verso una competenza più standardizzata, più rapida, più efficiente ma al tempo stesso meno profonda, meno robusta e meno capace di reggere l’anomalia, l’ambiguità o il caso eccezionale. In questa prospettiva, la domanda smette di essere “quanto produciamo in più?” e diventa “che fine fa la capacità?” perché se la crescita dell’output coincide con una riduzione delle occasioni in cui si esercitano davvero sintassi, struttura logica, verifica, discernimento, memoria operativa e autonomia di giudizio, allora l’efficienza ottenuta nel breve periodo rischia di essere pagata con una progressiva atrofia delle competenze che servono nel medio.

Il segnale della dipendenza di processo

Non è un’ipotesi puramente filosofica. Uno studio pubblicato su Societies, pur con i limiti metodologici che gli stessi autori dichiarano e che vanno tenuti presenti con rigore, rileva una forte correlazione tra uso frequente di strumenti AI e cognitive offloading, insieme a una correlazione negativa con i punteggi di pensiero critico. Questo non autorizza conclusioni causali definitive, ma segnala in modo coerente con altri lavori che, quando la macchina diventa la scorciatoia cognitiva predefinita, l’essere umano tende progressivamente a esercitare meno le proprie facoltà analitiche, e ciò che inizialmente appare come un vantaggio in termini di comodità può trasformarsi, quasi impercettibilmente, in una dipendenza di processo.

Produttività AI e automation bias

Il problema si comprende ancora meglio se lo si guarda attraverso la lente dell’automation bias, vale a dire quella tendenza, ben nota nella letteratura sui sistemi di supporto alle decisioni, per cui gli utenti finiscono per attribuire all’automazione un’autorità superiore al dovuto, abbassando il livello di vigilanza critica proprio nel momento in cui sarebbe più necessario mantenerlo alto. Una systematic review ha mostrato che, quando il sistema fornisce un’indicazione errata, il rischio di prendere una decisione sbagliata aumenta del 26%, e il punto più interessante non è tanto l’errore della macchina in sé, quanto il fatto che l’essere umano, di fronte a un output credibile, tenda a sospendere il proprio controllo, come se la plausibilità formale della risposta bastasse a garantirne la validità sostanziale.

Con l’AI generativa questo rischio è ancora più sottile, perché il suggerimento non arriva come una segnalazione tecnica o come un Quindi esplicitamente meccanico, ma come una risposta ben scritta, plausibile, spesso elegante, talvolta persino più convincente di quanto non sia corretta; e proprio per questo l’interfaccia fluida, che costituisce uno dei grandi punti di forza di questi strumenti, può diventare anche il veicolo di una dipendenza meno visibile, poiché la comodità con cui la macchina restituisce forma, sintesi e direzione al lavoro quotidiano rende più facile scivolare da un uso dell’AI come supporto a un uso dell’AI come oracolo.

L’AI come sparring partner o autorità implicita

Per questo la vera distinzione, sul piano organizzativo, non è tra chi usa l’AI e chi non la usa, ma tra chi la incorpora come sparring partner e chi la incorpora come autorità implicita. Nel primo caso la macchina serve a mettere sotto pressione il pensiero umano, a generare alternative, a produrre controargomentazioni, a migliorare la qualità del confronto e ad accelerare l’attraversamento del problema senza sostituirne il centro decisionale; nel secondo caso, invece, l’AI finisce per occupare proprio quel centro, e allora l’organizzazione continua magari a funzionare bene nei contesti ordinari, ma si indebolisce laddove il vantaggio competitivo dipende dalla capacità di giudicare in condizioni di ambiguità, di incompletezza o di rottura dello schema.

Produttività AI e governance del capitale cognitivo

Quindi, la domanda giusta per le imprese non è se adottare l’AI, ma che cosa stanno dimenticando. Alla fine, la linea di discrimine davvero importante non passa tra aziende innovative e aziende arretrate, bensì tra aziende che riescono a trasformare l’accelerazione operativa in capitale cognitivo interno e aziende che si limitano a comprare velocità, qualità apparente e standardizzazione, senza costruire nulla che resti davvero loro. Nel primo caso il sapere prodotto dal lavoro quotidiano sedimenta in repository, procedure, memoria organizzativa, modelli proprietari, pratiche che l’impresa può mantenere, trasferire e far evolvere; nel secondo caso il vantaggio resta dipendente da una piattaforma, da un sistema esterno, da un’infrastruttura che abilita l’esecuzione ma non diventa patrimonio strategico dell’organizzazione.

Ed è per questo che ogni punto di produttività guadagnato può coincidere, almeno in certi contesti e oltre una certa soglia di delega, con un punto di dipendenza acquisita, il che trasforma la questione da semplice scelta tecnologica a problema di governance. Se l’AI produce solo velocità, uniformità e comodità, ma non aumenta la capacità interna dell’azienda di pensare, ricordare, codificare e decidere, allora non sta costruendo un asset: sta consumando quello che rende l’organizzazione autonoma. Il rischio più serio, in fondo, non è usare troppa intelligenza artificiale; è smettere di distinguere, proprio mentre la si adotta con entusiasmo, tra efficienza reale ed efficienza presa a noleggio [3].

Note

  1. [1] Brynjolfsson, Li, Raymond, Generative AI at Work, The Quarterly Journal of Economics
    https://academic.oup.com/qje/article/140/2/889/7990658 NBER Working Paper,

[2] Microsoft Research, The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects from a Survey of Knowledge Workers
https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf

[3] Gerlich, AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, Societies
https://www.mdpi.com/2075-4698/15/1/6

MIT Media Lab, Your Brain on ChatGPT
https://www.media.mit.edu/publications/your-brain-on-chatgpt/

Systematic review su Automation Bias
https://pmc.ncbi.nlm.nih.gov/articles/PMC3240751/

Prospettiva teorica su AI assistance e skill decay
https://pmc.ncbi.nlm.nih.gov/articles/PMC11239631/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x