scenari

Programmatori sostituiti dall’IA? Cosa dicono davvero studi e dati



Indirizzo copiato

L’intelligenza artificiale sta cambiando il lavoro dei programmatori, ma non li sta cancellando. I modelli linguistici accelerano molte attività e spostano il valore verso supervisione, architettura e giudizio critico, mentre cresce il rischio di sovraccarico cognitivo nei contesti ad alta automazione

Pubblicato il 23 apr 2026

Luigi Lella

ISEM – Institute for Scientific Methodology, Palermo



automazione del lavoro pubblico agendadigitale
Foto: Shutterstock
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Negli ultimi mesi, il dibattito attorno all’impatto dell’intelligenza artificiale sul mercato del lavoro ha subito una notevole accelerazione, alimentato da dati e previsioni che tendono a enfatizzare scenari di radicale trasformazione occupazionale.

I limiti degli LLM e il ruolo del programmatore

L‘Anthropic AI Exposure Index, pubblicato a marzo 2026, ha indicato che i programmatori informatici figurano tra le categorie professionali più esposte all’automazione da parte dei grandi modelli linguistici (LLM).

Parallelamente, CEO di aziende tecnologiche come Lei Jun di Xiaomi e figure di spicco come Jamie Dimon di JPMorgan Chase e Jensen Huang di Nvidia hanno alimentato proiezioni secondo cui l’IA comprimerebbe drasticamente gli orari di lavoro, arrivando persino a prefigurare settimane lavorative di tre giorni. Eppure, una lettura più attenta della letteratura scientifica e delle caratteristiche strutturali dei modelli linguistici attuali suggerisce che il rischio di sostituzione tout court dei programmatori sia fortemente sovrastimato, e che la vera sfida emergente sia di natura cognitiva piuttosto che occupazionale.

Per comprendere i limiti delle previsioni allarmistiche è necessario partire dall’architettura fondamentale dei modelli linguistici di grandi dimensioni. Gli LLM sono sistemi statistici addestrati su enormi corpus di testi prodotti da milioni di esseri umani, ciascuno portatore di competenze, valori e obiettivi propri. Il loro funzionamento è quello di un potente motore probabilistico che, dato un prompt, individua e genera le sequenze di token statisticamente più coerenti con il contesto fornito.

Secondo ricerche pubblicate nell’ambito della semantica distribuzionale e dell’apprendimento automatico, questi modelli eccellono nell’interpolazione tra pattern già visti durante l’addestramento, ma mostrano fragilità significative di fronte a compiti che richiedono vera pianificazione autonoma, ragionamento causale profondo o la definizione indipendente di obiettivi (Bender et al., 2021). Come dimostrato nell’articolo “Tra prompt e coscienza: il confine sottile che l’IA deve ancora attraversare”, è il prompt dell’utente a stabilire l’obiettivo del modello: senza quella guida, l’LLM non agisce. In questo senso, il programmatore non viene sostituito dal modello, ma assume un ruolo di direzione e supervisione del processo generativo.

Perché l’intelligenza artificiale non sostituisce i programmatori

Questa dinamica ridefinisce profondamente la metodologia di lavoro dei programmatori, senza però cancellarla. Storicamente, lo sviluppo del software ha attraversato diverse rivoluzioni metodologiche: dall’era della programmazione strutturata agli anni Settanta, passando per l’avvento della programmazione orientata agli oggetti negli anni Novanta, fino all’affermazione delle metodologie agili nei primi anni Duemila. In ciascuno di questi passaggi, i professionisti del settore hanno dovuto aggiornare le proprie competenze e adattare i propri flussi di lavoro.

L’introduzione degli strumenti di assistenza alla programmazione basati su LLM – come Copilot, Cursor o Claude – rappresenta un’ulteriore evoluzione in questa direzione. Studi empirici recenti hanno mostrato che l’uso di questi strumenti aumenta la produttività dei programmatori su compiti di generazione di codice boilerplate, accelera il debugging e facilita la documentazione, ma non elimina la necessità di competenze architetturali, di comprensione del dominio applicativo e di ragionamento astratto ad alto livello (Peng et al., 2023).

Come cambiano i ruoli di ingresso nello sviluppo software

Lo stesso Anthropic AI Exposure Index, pur segnalando un rallentamento nei tassi di assunzione per i lavoratori tra i 22 e i 25 anni nei ruoli altamente esposti, afferma di aver trovato “prove limitate” che l’IA abbia finora aumentato la disoccupazione nelle professioni coinvolte.

Questo dato è significativo: suggerisce che ciò che si sta osservando non è una sostituzione, ma una ristrutturazione delle posizioni di ingresso. I ruoli junior tradizionali — legati alla scrittura di codice ripetitivo, alla stesura di test elementari, alla manutenzione ordinaria — vengono in parte assorbiti dall’automazione, ma ciò trasforma i requisiti delle posizioni di accesso più che eliminare il lavoro in sé. I programmatori che entrano nel mercato del lavoro oggi sono chiamati a padroneggiare più rapidamente competenze di orchestrazione dei modelli, di prompt engineering avanzato, di valutazione critica degli output generativi. La curva di apprendimento si è irripidita, non azzerata.

L’urgenza di adattare la formazione universitaria all’evoluzione tecnologica

Una conferma concreta di questa traiettoria evolutiva viene dal mondo accademico italiano. Il Dipartimento di Informatica dell’Università di Pisa ha introdotto, nel corso di Advanced Programming della laurea magistrale in Computer Science – tenuto dai professori Antonio Cisternino e Andrea Corradini – l’uso obbligatorio dell’intelligenza artificiale come requisito per sostenere l’esame finale. Si tratta di una delle prime esperienze strutturate di questo tipo nel panorama universitario nazionale. L’obiettivo dichiarato non è facilitare il lavoro degli studenti, ma formarli a una competenza radicalmente diversa rispetto alla tradizionale scrittura del codice: quella di controllare, interpretare e criticare il lavoro prodotto da un sistema di IA generativa.

Come spiega lo stesso professor Cisternino, “l’AI scriverà sempre più codice: la domanda è quali competenze deve avere un informatico quando non è più lui a scriverlo direttamente“. Il criterio di valutazione adottato rispecchia questa visione: non la capacità di generare un software da zero, ma la capacità di governare l’output della macchina con consapevolezza critica. I risultati dell’esperimento hanno superato le aspettative: i progetti presentati dagli studenti sono stati giudicati di ottima qualità, a dimostrazione che, quando le basi disciplinari sono solide, l’IA diventa uno strumento di amplificazione e non di sostituzione delle competenze umane.

Cisternino ha tuttavia lanciato un avvertimento preciso sul piano sistemico: “Non abbiamo dieci anni per adattare il sistema formativo, come accadde con l’introduzione dell’informatica trent’anni fa“, chiedendo un dibattito nazionale urgente sulla didattica nell’era post-IA. L’esperienza pisana rappresenta, in questo senso, non solo un caso di innovazione didattica, ma un segnale chiaro di come il ruolo del programmatore stia evolvendo verso figure di supervisione critica dei sistemi automatizzati — confermando che la professione non è destinata a scomparire, ma a trasformarsi.

Il cognitive overload nei contesti ad alta automazione

Il vero problema emergente, e forse più urgente, è di natura psicofisiologica. Uno studio condotto da Boston Consulting Group in collaborazione con l’Università della California di Riverside su un campione di circa 1.500 lavoratori, i cui risultati sono stati pubblicati su Harvard Business Review nel 2024, ha identificato e descritto in modo sistematico il fenomeno del “cognitive AI overload” — un esaurimento cognitivo derivante dalla supervisione intensiva e continuativa di strumenti di intelligenza artificiale. I lavoratori che sperimentano questo stato riportano il 39% in più di errori gravi nel proprio lavoro e una propensione ad abbandonare il proprio impiego superiore del 39% rispetto ai colleghi non esposti a tale sovraccarico. I sistemi multi-agente — nei quali più modelli cooperano in sequenza per completare compiti complessi — risultano particolarmente stressanti, poiché moltiplicano il numero di output da valutare, integrare e correggere in tempi ridotti.

Questo fenomeno si inquadra in una letteratura più ampia relativa al carico cognitivo nei contesti lavorativi ad alta densità tecnologica. La teoria del carico cognitivo, sviluppata da John Sweller a partire dalla fine degli anni Ottanta nell’ambito della psicologia dell’istruzione (Sweller, 1988), distingue tra carico intrinseco — legato alla complessità del compito — e carico estraneo, generato dalla struttura e dalla presentazione delle informazioni. L’introduzione degli LLM nei flussi di lavoro dei programmatori può paradossalmente aumentare il carico estraneo: il professionista deve non solo risolvere il problema tecnico, ma anche verificare la correttezza del codice generato, identificarne i limiti, valutarne la sicurezza, integrarlo nell’architettura esistente e mantenere la tracciabilità delle decisioni prese. Questa sovrapposizione di compiti valutativi a compiti produttivi, se non adeguatamente gestita a livello organizzativo, si traduce in affaticamento mentale cronico.

Progettare il lavoro con l’intelligenza artificiale programmatori

La ricerca di BCG e UC Riverside suggerisce che una progettazione del lavoro ponderata, sia a livello di team che organizzativo, può ridurre significativamente questo affaticamento, anche in contesti di rapida adozione dell’IA. Interventi come la rotazione dei compiti ad alta intensità di supervisione, l’introduzione di pause strutturate, la chiarificazione delle responsabilità decisionali umane rispetto a quelle delegate al modello e la formazione specifica sulla gestione critica degli output generativi risultano efficaci nel contenere il cognitive overload. Questi elementi rimandano a principi consolidati nell’ergonomia cognitiva e nel design organizzativo, discipline che acquisteranno un’importanza crescente man mano che l’integrazione degli strumenti di IA si approfondisce nei contesti lavorativi (Hancock & Warm, 1989).

In definitiva, il quadro che emerge da una lettura integrata dei dati disponibili e della letteratura scientifica è quello di una trasformazione profonda ma non traumatica della professione del programmatore. Gli LLM stanno diventando strumenti di amplificazione delle capacità professionali, non sostituti autonomi. La produzione di codice di qualità continuerà a richiedere competenze di astrazione, comprensione del contesto applicativo, capacità di comunicazione con gli stakeholder e senso critico — tutte qualità che i modelli linguistici attuali non possiedono in forma autonoma, e che difficilmente svilupperanno nel breve periodo senza una guida umana consapevole. Il rischio reale non è la disoccupazione tecnologica di massa, ma la comparsa di nuove forme di stress professionale legate all’intensificazione del lavoro di supervisione cognitiva. Prepararsi a questa sfida richiede investimenti nella formazione, nel design organizzativo e nel benessere dei lavoratori, molto più che temere uno scenario di sostituzione che, almeno allo stato attuale delle evidenze, resta largamente ipotetico.

Riferimenti bibliografici

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). pp. 610–623. ACM, New York. https://doi.org/10.1145/3442188.3445922

Hancock, P. A., & Warm, J. S. (1989). A Dynamic Model of Stress and Sustained Attention. Human Factors: The Journal of the Human Factors and Ergonomics Society. 31(5), 519–537. https://doi.org/10.1177/001872088903100503

Peng, S., Kalliamvakou, E., Cihon, P., & Demirer, M. (2023). The Impact of AI on Developer Productivity: Evidence from GitHub Copilot. arXiv preprint. arXiv:2302.06590. https://doi.org/10.48550/arXiv.2302.06590

Sweller, J. (1988). Cognitive Load During Problem Solving: Effects on Learning. Cognitive Science. 12(2), 257–285. https://doi.org/10.1207/s15516709cog1202_4

Se vuoi, posso anche fare un secondo passaggio in modalità consigli di correzione e segnalarti dove aggiornare dati, fonti e passaggi migliorabili.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x