la guida

Adottare l’AI in azienda senza sprechi: una roadmap pratica



Indirizzo copiato

L’AI accelera nelle imprese italiane, ma l’adozione resta irregolare tra grandi aziende e PMI. Per trasformare l’interesse in risultati servono casi d’uso misurabili, controllo dei costi, governance chiara e un’esecuzione graduale che colleghi sperimentazione, compliance e ritorno operativo

Pubblicato il 22 apr 2026

Mario Maschio

CEO, from9to10



Soluzioni intelligent document processing
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Nel 2025, il mercato dell’intelligenza artificiale nelle aziende italiane ha raggiunto 1,8 miliardi di euro, con una crescita annua del +50%. La spinta principale arriva dalla Generative AI: cresce del +60% e vale il 46% del mercato.

L’adozione dell’AI nelle imprese

Nonostante la corsa degli investimenti, l’adozione resta disomogenea: nelle grandi imprese il 71% ha avviato almeno un progetto, ma solo il 21% dichiara numerose progettualità operative; nelle PMI i progetti attivi sono ancora limitati (8%), pur con un 69% che si dice interessato.

Dentro questi numeri emerge un punto pratico: la tecnologia non è più il collo di bottiglia. Le barriere dichiarate ruotano soprattutto attorno a processi percepiti come inadeguati, competenze limitate e compliance normativa.

In questo scenario, una roadmap IA efficace diventa un esercizio di allineamento tra priorità di business, portafoglio iniziative e modello operativo, evitando che sperimentazioni isolate si trasformino in costi ricorrenti difficili da governare.

Dimensione impresa (per numero di addetti)Tasso di adozione AI (2025)Trend di crescita (2023-2025)
Piccole imprese (10-49 addetti)14,20%+255%
Medie imprese (50-249 addetti)24,80%+342,9%
Grandi imprese (≥250 addetti)53,10%+120,3%
Media totale imprese (≥10 addetti)16,40%+228%

Tasso di adozione di soluzioni AI per classe dimensionale. Fonte: Elaborazione su dati ISTAT 2025. [AI4Business]

Analizzare i processi aziendali e identificare i casi d’uso

Il passaggio dalla curiosità all’adozione strutturale dell’intelligenza artificiale nelle aziende inizia quasi sempre dalla stessa attività: leggere i processi per come funzionano davvero, non per come sono descritti nelle procedure. La distribuzione delle soluzioni adottate aiuta a capire dove si sta creando valore operativo. I Text Analysis, Classification & Generation Systems sono la categoria più diffusa (39%), seguiti dai sistemi di Data Exploration, Prediction & Optimization(30%) e dai sistemi di Image, Audio, Video Analysis & Generation(16%). È un segnale rilevante: molte implementazioni partono da attività ad alto volume informativo, dove l’output dell’AI può essere inserito in un workflow con regole, controlli e responsabilità chiare.

Per evitare che l’adozione resti un insieme di micro-usi, la selezione dei casi d’uso può essere gestita con due criteri semplici: quanto il processo è ripetibile e misurabile, e quanto è chiaro chi valida l’output quando serve human oversight. Questo è particolarmente importante perché, anche quando le imprese acquistano licenze ready-to-use, i benefici non sono automaticamente tracciati: tra le aziende con progetti AI, l’84% ha attivato iniziative di GenAI e ha acquistato licenze (tra cui Microsoft Copilot, ChatGPT Plus e Gemini Advanced), ma solo circa la metà prova a misurarne l’impatto, spesso limitandosi al feedback dei dipendenti.

  • Mappare i workflow nelle funzioni dove l’adozione è già statisticamente più frequente (Customer Service, Operations, ICT) e identificare i punti in cui testo e documenti sono colli di bottiglia.
  • Definire un portafoglio di iniziative con priorità e ambizione coerenti, riducendo il rischio di disconnessione tra iniziative e modello operativo (tecnologia, dati, organizzazione, alfabetizzazione, ingegneria, governance).

Stimare i costi nascosti dell’integrazione tecnologica

Una volta identificati i casi d’uso, il tema che tende a decidere la sostenibilità è la prevedibilità dei costi: con la GenAI l’AI diventa una voce a consumo, fatta di token, API e infrastruttura cloud. Nella pratica, il costo reale non coincide con il listino del modello, perché dipende da quante chiamate vengono fatte durante un processo e da quanto contesto viene rimandato al modello a ogni invocazione. Nei workflow aziendali, un task non è una singola domanda e risposta: il modello viene richiamato più volte per interpretare input, recuperare informazioni, orchestrare tool esterni e validare l’output.

Questo effetto è amplificato dai contesti lunghi e persistenti: più cresce la finestra di contesto, più aumenta la quantità di token conteggiati a ogni chiamata, anche quando le informazioni non cambiano. Nei flussi con molte chiamate consecutive, lo stesso blocco informativo può essere “pagato” ripetutamente. Inoltre, nei modelli più avanzati entra in gioco la componente di reasoning token e la natura iterativa di alcuni step, che rende il consumo meno lineare e più difficile da prevedere.

Il tema non è solo di costi cloud: il mercato italiano dell’offerta è ancora fortemente orientato al custom(77%). Questo dato spiega perché, spesso, il budget viene assorbito anche da integrazione, manutenzione e riadattamenti del workflow. A complicare ulteriormente, la governance è dichiarata matura e integrata solo dal 9% delle aziende: senza regole chiare, l’uso cresce in modo opportunistico e l’azienda si accorge della spesa solo a consuntivo.

La componente di compliance aggiunge vincoli e attività operative. Nel quadro europeo, l’AI Act introduce un approccio risk-based e distingue quattro livelli di rischio, imponendo obblighi più stringenti per gli usi high-risk(ad esempio su documentazione, logging, dataset, robustezza e human oversight). Le scadenze richiamate includono l’entrata in vigore del regolamento il 1 agosto 2024, l’applicazione delle pratiche vietate dal febbraio 2025, le regole sui modelli di general-purpose AI operative da agosto 2025, e l’applicabilità piena dal 2 agosto 2026 con ulteriori finestre di transizione per alcune categorie high-risk.

Per orientarsi sul perimetro e sulla timeline normativa, il riferimento operativo è il quadro europeo dell’AI Act. La stima dei costi, però, resta soprattutto un tema di design: segmentare l’uso dei modelli per task, ridurre chiamate ridondanti e introdurre caching dei risultati intermedi sono scelte che rendono la spesa più prevedibile, perché spostano il controllo dal “prezzo per token” alla struttura del workflow.

Esecuzione operativa e monitoraggio dei risultati

Chiariti casi d’uso e vincoli economici, l’esecuzione diventa la verifica della roadmap sul campo: l’AI deve entrare nei processi senza aumentare la fragilità operativa e senza trasformare il controllo umano in un costo crescente.

Implementare progetti pilota con un approccio pragmatico

Il divario tecnologico tra grandi imprese e PMI sta aumentando. Nel 2023 la differenza nei tassi di adozione dell’AI era di 20 punti percentuali; nel 2025 questo gap è salito a 39 punti. [AI4Business]

Questo scenario rende ancora più cruciale per le PMI un approccio pragmatico, focalizzato su progetti pilota ben definiti che possano dimostrare un valore concreto e scalabile, senza richiedere investimenti insostenibili in fase iniziale.

Con queste premesse, il modo più solido per ridurre rischio e imprevedibilità è introdurre l’AI con un pilota a perimetro controllato, che abbia confini chiari, un workflow tracciabile e un owner di processo. Le evidenze sulle grandi imprese indicano che i casi d’uso più frequenti, come chatbot conversazionali e Intelligent Document Processing, si prestano bene a essere pilotati perché producono output confrontabili e inseribili in una catena di validazione.

La componente meno visibile, ma spesso decisiva, resta la capacità di assorbire il cambiamento. La ricerca OCX degli Osservatori Digital Innovation sottolinea che l’adozione procede più rapidamente della costruzione di competenze per governarla, con skill avanzate ferme all’11%. Un pilota pragmatico include quindi alfabetizzazione mirata e regole d’uso che separino nettamente sperimentazione e produzione, evitando che test continui impattino sia sui consumi sia sulla qualità del servizio.

Misurare le performance per garantire il ritorno sull’investimento

Dopo il pilota, la continuità operativa si gioca sulla misurazione: ciò che non è tracciato tende a restare una percezione, e la spesa “a consumo” diventa opaca. Questo punto emerge già nell’adozione delle licenze GenAI ready-to-use: pur essendo diffuse (84% delle aziende con progetti AI), solo circa la metà tenta una misurazione, spesso basata sul feedback dei dipendenti.

Tipo di Violazione dell’AI ActSanzione Massima
Non conformità con le pratiche di AI vietate (Art. 5) e altre violazioni gravi.Fino a 35 milioni di euro o il 7% del fatturato mondiale annuo.
Non conformità con altri obblighi del regolamento (es. data governance, documentazione, trasparenza).Fino a 15 milioni di euro o il 3% del fatturato mondiale annuo.
Fornitura di informazioni inesatte o fuorvianti alle autorità competenti.Fino a 7,5 milioni di euro o l’1% del fatturato mondiale annuo.

Struttura delle sanzioni pecuniarie previste dall’AI Act. [BSD Legal]

Per rendere governabile la GenAI, i KPI devono legare consumo e valore in modo ripetibile. Sul fronte qualità, il focus è su tasso di errore, necessità di correzioni e casi di output non utilizzabile. Sul fronte economico, la metrica più utile è il costo per processo, che incorpora numero di chiamate API, token complessivi e attività umana di controllo. In un contesto dove il prezzo unitario può scendere ma il consumo per workflow può crescere per contesti lunghi, chiamate iterative e reasoning, la metrica “per singola query” rischia di essere fuorviante: è il processo end-to-end a determinare sostenibilità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x