La domanda di formazione sull’intelligenza artificiale cresce, ma molte iniziative formative e molti progetti di adozione non producono risultati concreti. Non per mancanza di interesse o di investimenti, ma per un disallineamento strutturale tra formazione, adozione tecnologica e cambiamento organizzativo.
A partire da dati italiani ed europei, dal quadro regolatorio dell’AI Act e dalle evidenze più recenti emerge che la buona volontà non basta e che solo rispettando alcune condizioni si realizza un’adozione produttiva.
Indice degli argomenti
Perché oggi le persone vogliono formarsi sull’AI
Negli ultimi mesi la formazione sull’intelligenza artificiale è diventata una richiesta esplicita e diffusa. Non è curiosità tecnologica né adesione a una moda. Nella maggior parte dei casi, a chiedere formazione sono persone che lavorano in aziende e organizzazioni complesse e che percepiscono una pressione crescente: l’AI entra nei processi, nei discorsi del management, nelle aspettative implicite sui ruoli.
Il desiderio di formarsi nasce da una necessità concreta di orientamento, più che dalla ricerca di un vantaggio competitivo astratto. Un recente articolo del Wall Street Journal ha descritto questo fenomeno in termini di FOMO (Fear of Missing Out), invitando a non farsi travolgere dall’idea che senza competenze AI non si possa più lavorare. Lo spunto è corretto, ma incompleto.
La FOMO non nasce nel vuoto, nasce perché l’AI sta effettivamente entrando nei luoghi di lavoro. Ignorare questa dinamica significherebbe non comprendere perché la domanda di formazione sia oggi così forte.
La cronistoria della FOMO
Il concetto di Fear of Missing Out ha radici più lunghe di quanto si pensi. Il fenomeno fu identificato per la prima volta nel 1996 dal marketing strategist israeliano Dan Herman, durante una serie di focus group sui comportamenti di consumo. Nel 1997 Herman gli diede un nome, Fear of Missing Out, presentandolo a una conferenza dell’Israeli Marketing Association, e nel 2000 pubblicò il primo paper accademico sul tema nel Journal of Brand Management.
L‘acronimo FOMO, però, nacque solo nel maggio 2004, quando Patrick McGinnis, studente alla Harvard Business School, lo coniò in un articolo satirico sul giornale studentesco The Harbus, insieme al meno fortunato FOBO (Fear of a Better Option).
Il termine rimase a lungo confinato all’ambiente di Harvard, finché l’esplosione dei social media non gli diede portata globale. Nel 2013 la parola entrò nell’Oxford English Dictionary The Kara Goldin Show, lo stesso anno in cui il gruppo di ricerca di Andrew Przybylski a Oxford pubblicò il primo studio accademico su larga scala, stabilendo una correlazione tra FOMO, insoddisfazione e uso compulsivo delle piattaforme digitali.
Dal 2022, con l’arrivo di ChatGPT e l’esplosione dell’AI generativa, il concetto ha trovato un nuovo territorio di applicazione: l’AI FOMO, la paura, individuale e organizzativa, di restare tagliati fuori dalla rivoluzione dell’intelligenza artificiale.
Le aziende vogliono adottare l’AI, ma l’adozione resta fragile
Dal lato delle imprese, l’intenzione di adottare l’AI è altrettanto chiara. I dati ISTAT mostrano che nel 2025 il 16,4% delle imprese italiane con almeno 10 addetti utilizza almeno una tecnologia di intelligenza artificiale, in forte crescita rispetto agli anni precedenti.
Allo stesso tempo, oltre l’80% delle imprese non utilizza ancora l’AI in modo strutturato e indica tra le principali barriere la carenza di competenze, la difficoltà di integrazione nei processi e l’incertezza sugli impatti concreti.
Il contesto europeo aggiunge sfumature importanti. Secondo i dati della European Investment Bank, circa il 37% delle imprese dell’Unione europea utilizza già soluzioni di AI generativa, una quota in linea con quella statunitense. Nella manifattura, l’adozione europea risulta persino superiore.
Il vero divario non riguarda l’accesso alla tecnologia, ma la profondità con cui l’AI viene integrata nei processi organizzativi. In Europa, ancor più in Italia, l’AI resta spesso confinata a casi d’uso puntuali, senza diventare una piattaforma trasversale.
Formazione sull’AI: perché spesso non cambia il lavoro
In questo contesto, molta formazione sull’AI fatica a produrre effetti reali. Da un lato proliferano corsi centrati sugli strumenti, che insegnano a usare chatbot, assistenti e funzioni avanzate. Dall’altro, percorsi teorici che approfondiscono modelli, architetture e benchmark.
Entrambi rispondono a bisogni legittimi, ma spesso producono lo stesso risultato, aumentano la conoscenza senza modificare il modo di lavorare.
A rafforzare questa ambiguità contribuisce la diffusione indiscriminata di certificazioni. Oggi quasi ogni percorso formativo rilascia un attestato, indipendentemente dalla qualità, dalla durata o dall’impatto reale. Nella maggior parte dei casi, questi certificati attestano un solo fatto: che una persona ha frequentato un corso, spesso erogato da soggetti molto diversi per competenze, approccio e credibilità.
Non attestano la capacità di applicare l’AI in un contesto di lavoro reale, né l’effettivo miglioramento dei risultati. Il rischio è duplice. Per le persone, l’illusione che l’accumulo di attestati equivalga a una reale spendibilità professionale. Per le aziende, la tentazione di considerare la formazione “completata” sulla base di un elenco di certificazioni, senza interrogarsi su come quelle competenze vengano effettivamente utilizzate nei processi.
In assenza di un legame esplicito con il lavoro quotidiano, il certificato diventa un segnale formale, non una garanzia di cambiamento.
Le persone tornano in azienda con nuove conoscenze, ma trovano processi, sistemi e responsabilità identici a prima. Il certificato si aggiunge al curriculum, il workflow resta invariato.
Adozione e fallimento: lo stesso equivoco, su scala più ampia
Lo stesso schema si ripete nei progetti di adozione. Molte aziende avviano sperimentazioni, pilota e proof of concept, ma faticano a portare l’AI in produzione in modo stabile. Le ricerche più recenti sullo stato dell’AI in azienda confermano un forte divario tra sperimentazione e utilizzo effettivo, molta attività esplorativa, pochi casi in cui l’AI diventa parte strutturale del lavoro quotidiano.
Questo non segnala un fallimento della tecnologia, ma un limite organizzativo. L’AI viene introdotta come strumento aggiuntivo, senza ripensare flussi di lavoro, criteri di valutazione, ruoli decisionali.
Senza questo passaggio, l’adozione resta superficiale e i benefici tendono a esaurirsi rapidamente.
La cultura organizzativa fa la differenza
Il punto di contatto tra formazione inefficace e adozione fallimentare non è tecnologico, è culturale e organizzativo. Quando la cultura aziendale non cambia, l’AI finisce per digitalizzare pratiche esistenti invece di trasformarle.
Una dinamica già osservata in precedenti ondate tecnologiche, sistemi informativi introdotti senza ridisegnare processi e responsabilità hanno prodotto conformità formale, non produttività reale.
Con l’AI il rischio è amplificato dall’immediatezza dei benefici iniziali, che può mascherare l’assenza di un cambiamento strutturale. L’effetto “wow” dei primi utilizzi crea l’illusione che l’adozione sia avvenuta, quando in realtà mancano ancora la revisione dei modi di lavorare, la ridefinizione dei criteri di responsabilità e l’aggiornamento delle metriche di successo.
Quando l’AI funziona davvero
Le esperienze che producono risultati concreti condividono un tratto comune, l’AI diventa efficace quando è inserita in un percorso di cambiamento organizzativo, non quando viene trattata come strumento aggiuntivo.
In questi casi, la formazione segue un equilibrio preciso, una quota limitata di inquadramento concettuale e una parte prevalente di lavoro sul contesto reale. La teoria resta necessaria per comprendere limiti, rischi e possibilità dell’AI, ma occupa uno spazio contenuto.
Il cuore del percorso riguarda le attività quotidiane, quali processi sono coinvolti, dove si concentrano inefficienze o colli di bottiglia, quali decisioni possono essere supportate o automatizzate. Su questo terreno l’AI produce valore, non nella padronanza dell’ennesima interfaccia.
Un passaggio decisivo è la definizione di indicatori di risultato. Senza KPI espliciti, l’adozione dell’AI resta una percezione soggettiva di utilità. Quando invece l’intervento viene legato a metriche osservabili, tempi di ciclo, qualità dell’output, riduzione degli errori, carichi di lavoro, costi operativi, diventa possibile distinguere tra entusiasmo iniziale e miglioramento reale.
Altrettanto necessario è il ridisegno dei flussi di lavoro. L’AI non si limita a velocizzare ciò che già esiste, sposta responsabilità, punti di controllo e modalità decisionali.
Senza una revisione esplicita dei workflow, l’AI viene usata in modo intermittente o informale, con effetti limitati e difficili da consolidare.
Questo ridisegno non può prescindere dalle regole dell’organizzazione, policy aziendali, pratiche di sicurezza, gestione dei dati e vincoli di compliance. Quando questi elementi non vengono considerati fin dalla fase di formazione e sperimentazione, l’adozione resta fragile o si blocca nello scale-up.
In sintesi, meno attenzione al tool di turno, più attenzione ai processi; meno accumulo di conoscenza astratta, più capacità di misurare risultati e adattare i flussi operativi.
Il ruolo dell’AI Act: dalla scelta alla responsabilità
Il quadro regolatorio europeo rende questa riflessione non solo rilevante, ma ineludibile. L’AI Act non si limita a introdurre vincoli sull’uso di specifiche categorie di sistemi: afferma un principio più profondo, per cui l’intelligenza artificiale, quando entra nei processi organizzativi, diventa una responsabilità gestionale e non solo tecnologica.
Il regolamento introduce l’obbligo di garantire un’adeguata alfabetizzazione in materia di AI per le persone che progettano, utilizzano o supervisionano sistemi di intelligenza artificiale.
Con l’entrata in piena applicazione delle disposizioni più rilevanti dal 2 agosto 2026, la formazione non potrà più essere considerata un’iniziativa accessoria, ma parte integrante dei presidi di governance, controllo e gestione del rischio.
Le implicazioni sono dirette. Non sarà sufficiente dimostrare che le persone abbiano frequentato un corso o acquisito una certificazione. Sarà necessario mostrare che le competenze acquisite sono coerenti con l’uso concreto dei sistemi, con i processi aziendali coinvolti, con le policy interne su dati, sicurezza e responsabilità, e con i meccanismi di monitoraggio degli effetti prodotti.
La compliance non riguarderà il rispetto formale delle norme, ma la capacità dell’organizzazione di dimostrare che l’AI è integrata in modo consapevole, misurabile e controllato.
Formazione, adozione e cambiamento organizzativo, smettono di essere ambiti separati e diventano un unico problema di responsabilità manageriale.
Oltre la FOMO, verso un’AI produttiva
Superare la FOMO non significa ignorarla, ma trasformarla in una domanda più matura: non “che certificato serve”, ma “che parte del lavoro può cambiare davvero, e come misurarne gli effetti”.
La vera sfida non è imparare a usare l’AI ma renderla parte del lavoro quotidiano, in modo misurabile, governabile e coerente con le regole dell’organizzazione.
Sul terreno della formazione per il cambiamento e la transizione del lavoro, più che sulla corsa ai tool o ai modelli, si giocherà la capacità delle organizzazioni di trasformare la buona volontà in produttività reale.









