Nel 2025, il mercato dell’intelligenza artificiale nelle aziende italiane ha raggiunto 1,8 miliardi di euro, con una crescita annua del +50%. La spinta principale arriva dalla Generative AI: cresce del +60% e vale il 46% del mercato.
Indice degli argomenti
L’adozione dell’AI nelle imprese
Nonostante la corsa degli investimenti, l’adozione resta disomogenea: nelle grandi imprese il 71% ha avviato almeno un progetto, ma solo il 21% dichiara numerose progettualità operative; nelle PMI i progetti attivi sono ancora limitati (8%), pur con un 69% che si dice interessato.
Il fenomeno della “Shadow AI”
Un dato significativo emerso dalle recenti analisi è la diffusione della cosiddetta “Shadow AI”, ovvero l’utilizzo di strumenti di intelligenza artificiale da parte dei dipendenti senza l’approvazione o il controllo da parte dell’azienda. Secondo una ricerca, quasi la metà dei lavoratori italiani (47%) impiega strumenti di AI nelle proprie attività, ma appena il 19% si affida esclusivamente a soluzioni fornite e governate dall’impresa.[La Stampa] Questo uso non strutturato, se da un lato dimostra la proattività dei singoli, dall’altro introduce rischi significativi in termini di sicurezza dei dati e governance dei processi.
Dentro questi numeri emerge un punto pratico: la tecnologia non è più il collo di bottiglia. Le barriere dichiarate ruotano soprattutto attorno a processi percepiti come inadeguati, competenze limitate e compliance normativa.
In questo scenario, una roadmap IA efficace diventa un esercizio di allineamento tra priorità di business, portafoglio iniziative e modello operativo, evitando che sperimentazioni isolate si trasformino in costi ricorrenti difficili da governare.
| Dimensione impresa (per numero di addetti) | Tasso di adozione AI (2025) | Trend di crescita (2023-2025) |
| Piccole imprese (10-49 addetti) | 14,20% | +255% |
| Medie imprese (50-249 addetti) | 24,80% | +342,9% |
| Grandi imprese (≥250 addetti) | 53,10% | +120,3% |
| Media totale imprese (≥10 addetti) | 16,40% | +228% |
Tasso di adozione di soluzioni AI per classe dimensionale. Fonte: Elaborazione su dati ISTAT 2025. [AI4Business]
Analizzare i processi aziendali e identificare i casi d’uso
Il passaggio dalla curiosità all’adozione strutturale dell’intelligenza artificiale nelle aziende inizia quasi sempre dalla stessa attività: leggere i processi per come funzionano davvero, non per come sono descritti nelle procedure. La distribuzione delle soluzioni adottate aiuta a capire dove si sta creando valore operativo. I Text Analysis, Classification & Generation Systems sono la categoria più diffusa (39%), seguiti dai sistemi di Data Exploration, Prediction & Optimization(30%) e dai sistemi di Image, Audio, Video Analysis & Generation(16%). È un segnale rilevante: molte implementazioni partono da attività ad alto volume informativo, dove l’output dell’AI può essere inserito in un workflow con regole, controlli e responsabilità chiare.

Per evitare che l’adozione resti un insieme di micro-usi, la selezione dei casi d’uso può essere gestita con due criteri semplici: quanto il processo è ripetibile e misurabile, e quanto è chiaro chi valida l’output quando serve human oversight. Questo è particolarmente importante perché, anche quando le imprese acquistano licenze ready-to-use, i benefici non sono automaticamente tracciati: tra le aziende con progetti AI, l’84% ha attivato iniziative di GenAI e ha acquistato licenze (tra cui Microsoft Copilot, ChatGPT Plus e Gemini Advanced), ma solo circa la metà prova a misurarne l’impatto, spesso limitandosi al feedback dei dipendenti.
- Mappare i workflow nelle funzioni dove l’adozione è già statisticamente più frequente (Customer Service, Operations, ICT) e identificare i punti in cui testo e documenti sono colli di bottiglia.
- Definire un portafoglio di iniziative con priorità e ambizione coerenti, riducendo il rischio di disconnessione tra iniziative e modello operativo (tecnologia, dati, organizzazione, alfabetizzazione, ingegneria, governance).
Stimare i costi nascosti dell’integrazione tecnologica
Una volta identificati i casi d’uso, il tema che tende a decidere la sostenibilità è la prevedibilità dei costi: con la GenAI l’AI diventa una voce a consumo, fatta di token, API e infrastruttura cloud. Nella pratica, il costo reale non coincide con il listino del modello, perché dipende da quante chiamate vengono fatte durante un processo e da quanto contesto viene rimandato al modello a ogni invocazione. Nei workflow aziendali, un task non è una singola domanda e risposta: il modello viene richiamato più volte per interpretare input, recuperare informazioni, orchestrare tool esterni e validare l’output.
Questo effetto è amplificato dai contesti lunghi e persistenti: più cresce la finestra di contesto, più aumenta la quantità di token conteggiati a ogni chiamata, anche quando le informazioni non cambiano. Nei flussi con molte chiamate consecutive, lo stesso blocco informativo può essere “pagato” ripetutamente. Inoltre, nei modelli più avanzati entra in gioco la componente di reasoning token e la natura iterativa di alcuni step, che rende il consumo meno lineare e più difficile da prevedere.
Il tema non è solo di costi cloud: il mercato italiano dell’offerta è ancora fortemente orientato al custom(77%). Questo dato spiega perché, spesso, il budget viene assorbito anche da integrazione, manutenzione e riadattamenti del workflow. A complicare ulteriormente, la governance è dichiarata matura e integrata solo dal 9% delle aziende: senza regole chiare, l’uso cresce in modo opportunistico e l’azienda si accorge della spesa solo a consuntivo.
La componente di compliance aggiunge vincoli e attività operative. Nel quadro europeo, l’AI Act introduce un approccio risk-based e distingue quattro livelli di rischio, imponendo obblighi più stringenti per gli usi high-risk(ad esempio su documentazione, logging, dataset, robustezza e human oversight). Le scadenze richiamate includono l’entrata in vigore del regolamento il 1 agosto 2024, l’applicazione delle pratiche vietate dal febbraio 2025, le regole sui modelli di general-purpose AI operative da agosto 2025, e l’applicabilità piena dal 2 agosto 2026 con ulteriori finestre di transizione per alcune categorie high-risk.
AI Act: attenzione alle scadenze e ai possibili rinvii
Sebbene l’applicabilità piena dell’AI Act sia fissata per il 2 agosto 2026, il percorso è ancora in evoluzione. Una proposta della Commissione Europea, nota come “Digital Omnibus”, potrebbe introdurre un rinvio condizionato per gli obblighi legati ai sistemi ad “alto rischio”. Questo slittamento, che potrebbe variare da 6 a 16 mesi, è legato al ritardo nella pubblicazione degli standard tecnici armonizzati da parte degli organismi competenti (CEN-CENELEC). Tuttavia, pianificare basandosi su un potenziale rinvio è rischioso. Obblighi importanti come quelli sulla trasparenza (Art. 50) e sulle pratiche vietate restano validi, e le imprese che non iniziano ora il loro percorso di adeguamento rischiano di trovarsi senza il tempo necessario per implementare processi complessi come la gestione del rischio e la supervisione umana.
Quali sono i sistemi considerati ad alto rischio? La normativa AI Act, attraverso il suo Allegato III, delinea con chiarezza le categorie di sistemi di intelligenza artificiale classificati come ad alto rischio, in considerazione del loro potenziale impatto significativo su diritti fondamentali e sulla sicurezza individuale e collettiva. Identificazione biometrica e categorizzazione: Sistemi usati per l’identificazione a distanza in tempo reale e non.Infrastrutture critiche: Componenti di sicurezza nella gestione del traffico stradale, ferroviario, aereo e nella fornitura di acqua, gas, riscaldamento ed elettricità.Istruzione e formazione professionale: Sistemi che determinano l’accesso, l’ammissione o la valutazione degli studenti.Occupazione e gestione dei lavoratori: Software per la selezione del personale, valutazione delle performance e decisioni su promozioni o cessazioni.Accesso a servizi essenziali: Sistemi utilizzati per la valutazione del merito creditizio (credit scoring) o per determinare la priorità nell’invio di servizi di emergenza.Forze dell’ordine: Strumenti per valutazioni predittive del rischio di reati o sistemi di analisi della prova.Gestione della migrazione e controllo delle frontiere: Sistemi utilizzati per valutare i rischi per la sicurezza o per verificare l’autenticità dei documenti di viaggio.Amministrazione della giustizia: Sistemi destinati ad assistere un’autorità giudiziaria nella ricerca e interpretazione dei fatti e nell’applicazione della legge.
Per orientarsi sul perimetro e sulla timeline normativa, il riferimento operativo è il quadro europeo dell’AI Act. La stima dei costi, però, resta soprattutto un tema di design: segmentare l’uso dei modelli per task, ridurre chiamate ridondanti e introdurre caching dei risultati intermedi sono scelte che rendono la spesa più prevedibile, perché spostano il controllo dal “prezzo per token” alla struttura del workflow.

Esecuzione operativa e monitoraggio dei risultati
Chiariti casi d’uso e vincoli economici, l’esecuzione diventa la verifica della roadmap sul campo: l’AI deve entrare nei processi senza aumentare la fragilità operativa e senza trasformare il controllo umano in un costo crescente.
Implementare progetti pilota con un approccio pragmatico
| Il divario tecnologico tra grandi imprese e PMI sta aumentando. Nel 2023 la differenza nei tassi di adozione dell’AI era di 20 punti percentuali; nel 2025 questo gap è salito a 39 punti. [AI4Business] Questo scenario rende ancora più cruciale per le PMI un approccio pragmatico, focalizzato su progetti pilota ben definiti che possano dimostrare un valore concreto e scalabile, senza richiedere investimenti insostenibili in fase iniziale. |
Con queste premesse, il modo più solido per ridurre rischio e imprevedibilità è introdurre l’AI con un pilota a perimetro controllato, che abbia confini chiari, un workflow tracciabile e un owner di processo. Le evidenze sulle grandi imprese indicano che i casi d’uso più frequenti, come chatbot conversazionali e Intelligent Document Processing, si prestano bene a essere pilotati perché producono output confrontabili e inseribili in una catena di validazione.
La componente meno visibile, ma spesso decisiva, resta la capacità di assorbire il cambiamento. La ricerca OCX degli Osservatori Digital Innovation sottolinea che l’adozione procede più rapidamente della costruzione di competenze per governarla, con skill avanzate ferme all’11%. Un pilota pragmatico include quindi alfabetizzazione mirata e regole d’uso che separino nettamente sperimentazione e produzione, evitando che test continui impattino sia sui consumi sia sulla qualità del servizio.
Misurare le performance per garantire il ritorno sull’investimento
Dopo il pilota, la continuità operativa si gioca sulla misurazione: ciò che non è tracciato tende a restare una percezione, e la spesa “a consumo” diventa opaca. Questo punto emerge già nell’adozione delle licenze GenAI ready-to-use: pur essendo diffuse (84% delle aziende con progetti AI), solo circa la metà tenta una misurazione, spesso basata sul feedback dei dipendenti.
| Tipo di Violazione dell’AI Act | Sanzione Massima |
| Non conformità con le pratiche di AI vietate (Art. 5) e altre violazioni gravi. | Fino a 35 milioni di euro o il 7% del fatturato mondiale annuo. |
| Non conformità con altri obblighi del regolamento (es. data governance, documentazione, trasparenza). | Fino a 15 milioni di euro o il 3% del fatturato mondiale annuo. |
| Fornitura di informazioni inesatte o fuorvianti alle autorità competenti. | Fino a 7,5 milioni di euro o l’1% del fatturato mondiale annuo. |
Struttura delle sanzioni pecuniarie previste dall’AI Act. [BSD Legal]
Per rendere governabile la GenAI, i KPI devono legare consumo e valore in modo ripetibile. Sul fronte qualità, il focus è su tasso di errore, necessità di correzioni e casi di output non utilizzabile. Sul fronte economico, la metrica più utile è il costo per processo, che incorpora numero di chiamate API, token complessivi e attività umana di controllo. In un contesto dove il prezzo unitario può scendere ma il consumo per workflow può crescere per contesti lunghi, chiamate iterative e reasoning, la metrica “per singola query” rischia di essere fuorviante: è il processo end-to-end a determinare sostenibilità.













