l’approfondimento

E-procurement, ecco come l’IA trasforma i contratti pubblici



Indirizzo copiato

L’integrazione dell’intelligenza artificiale nei sistemi di acquisto della Pubblica Amministrazione promette di trasformare gli appalti in leve di politica pubblica, automatizzando la compliance e riducendo drasticamente i contenziosi legali attraverso l’analisi dei dati machine-readable

Pubblicato il 11 mar 2026

Matteo Gargiulo

Editor e specialista in media digitali e comunicazione internazionale



eprocurement agendadigitale
Foto: Shutterstock

La digitalizzazione dei contratti pubblici ha raggiunto una fase di maturità tecnica che permette finalmente di guardare oltre la semplice dematerializzazione dei documenti. Durante il convegno “Italia digitale: il nuovo mondo” tenutosi il 27 gennaio 2026 al Politecnico di Milano, i principali attori del settore digitale hanno analizzato come l’intelligenza artificiale nella Pubblica Amministrazione stia ridefinendo i processi di acquisto. Non si tratta più soltanto di gestire database, ma di abilitare una capacità di analisi che trasforma l’intero ciclo di vita di un appalto.

Andrea Valcamonica, Head of TeamSystem eProcurement, ha sottolineato come la digitalizzazione abbia reso il settore “machine-readable, creando il contesto ideale per un’IA strutturale”. Questa transizione segna l’inizio di una trasformazione profonda, dove il dato diventa il motore per una gestione più efficiente e trasparente della spesa pubblica.

La Rivoluzione eProcurement tra analisi predittiva e compliance

L’introduzione dell’intelligenza artificiale nel sistema degli approvvigionamenti non è un elemento accessorio, ma un cambiamento che investe ogni passaggio, dalla pianificazione alla verifica finale. Quando i sistemi diventano capaci di “leggere” e interpretare i dati dei bandi, la PA acquisisce strumenti di previsione precedentemente inimmaginabili. Nella fase di programmazione, l’intelligenza artificiale permette di effettuare analisi predittive per stime puntuali, riducendo il rischio di basi d’asta errate o non allineate al mercato.

Superare il contenzioso con la compliance by design

Uno dei problemi storici della burocrazia italiana è l’elevato tasso di ricorsi legali che bloccano le opere pubbliche. L’eProcurement punta a risolvere questa criticità agendo sulla fase documentale. Andrea Valcamonica ha spiegato che, attraverso l’IA, è possibile ridurre errori e contenziosi operando una “compliance by design ex-ante e non solo difensiva ex-post”. Questo approccio permette di verificare la conformità normativa dei bandi prima della loro pubblicazione, garantendo che l’appalto non sia più vissuto come un mero adempimento burocratico, ma come una vera “leva di politica pubblica”.

L’intelligenza artificiale applicata agli acquisti può analizzare una mole impressionante di operazioni: basti pensare che nel solo 2025 sulle piattaforme digitali sono transitati circa 80 miliardi di euro di bandi della PA. Gestire volumi simili richiede una visione d’insieme dell’architettura software, evitando di considerare l’IA come un semplice add-on dei sistemi esistenti. La trasparenza algoritmica diventa allora un requisito vitale: se l’assegnazione di una gara avviene tramite processi non trasparenti, viene meno la fiducia tra amministrazione e imprese, frenando l’evoluzione stessa dell’innovazione.

Investimenti e paradossi del sistema attuale

Nonostante le potenzialità tecniche, i dati evidenziano un forte squilibrio tra la spesa pubblica complessiva e quanto viene effettivamente investito per digitalizzare i processi d’acquisto. Nel 2025, a fronte di una spesa totale della PA pari a 270 miliardi di euro, gli investimenti specifici per l’eProcurement si sono fermati a 27 milioni di euro, ovvero appena lo 0,01% del totale. Questa sproporzione rappresenta uno dei principali ostacoli alla piena realizzazione della trasformazione digitale.

L’importanza dei soggetti aggregatori e del partenariato

Per ottimizzare queste risorse limitate, emerge la necessità di una maggiore coordinazione territoriale. Un driver fondamentale identificato dagli esperti consiste nell’unificare la spesa dei soggetti aggregatori. Questa strategia servirebbe a evitare la dispersione di fondi in progetti identici tra diverse amministrazioni e, contemporaneamente, a ridurre il digital divide che ancora penalizza alcune aree del Paese.

La complessità dell’IA richiede inoltre un superamento dei modelli di acquisto classici. Lanfranco Marasso, Head of International Digital Innovation & R&D di AlmavivA, ha ricordato come l’Italia abbia vissuto un periodo con “più soldi che idee” grazie al PNRR, ma ora la sfida è industrializzare i risultati della ricerca. Per farlo, occorre abbandonare la rigidità delle gare d’appalto tradizionali a favore di strumenti più moderni e flessibili, come:

  • Appalti pre-commerciali e appalti pubblici di innovazione.
  • Partenariato per l’Innovazione, che permette di lavorare insieme tra industria, università e settore pubblico.
  • Partenariato Pubblico Privato (PPP), essenziale per gestire tecnologie dai perimetri variabili come quelle legate all’intelligenza artificiale.

Questi modelli, previsti dalle direttive europee già dal 2016 , consentono di non “reinventare la ruota” ogni volta, ma di capitalizzare le competenze già formate, trasformando i partenariati in un patrimonio da preservare per il rilancio post-PNRR.

Infrastrutture e competenze: il lato umano della tecnologia

Perché l’eProcurement sia efficace, deve poggiare su basi fisiche e umane solide. Non esiste intelligenza artificiale senza una rete di telecomunicazioni resiliente e una sovranità digitale che garantisca il corretto posizionamento dei dati. Laura Capodicasa, Direttrice Public Sector del Gruppo Retelit, ha evidenziato come la velocità di risposta sia tutto: «nessuno aspetta una risposta lenta dall’IA, men che mai una macchina in mezzo alla strada». Questo implica investimenti in Data Center e Edge Data Center capaci di processare i dati vicino a dove nascono, con reti che entro il 2025 saranno in grado di superare gli 800 GB per circuito e saranno protette da attacchi quantistici grazie alla tecnologia Quantum Safety.

Tuttavia, il fattore critico rimane il personale. La mancata adozione da parte degli utenti è identificata come il primo rischio di fallimento per qualsiasi progetto software. Serve una formazione che non si limiti a spiegare le potenzialità dell’IA, ma che ne trasferisca chiaramente anche i limiti. In un contesto segnato dal calo demografico, la capacità di attrarre e trattenere talenti diventa vitale. Come osservato da Lanfranco Marasso, i giovani formati durante gli anni del PNRR sono il vero «tesoro del Paese da mettere a fattor comune».

In definitiva, l’evoluzione del settore pubblico dipende dalla capacità di integrare queste diverse dimensioni. L’IA non deve essere percepita come una minaccia per l’automazione, ma come un’alleata capace di potenziare la capacità operativa della PA. La storia degli ultimi venticinque anni, dal Millennium Bug al Cloud, dimostra che la Pubblica Amministrazione ha sempre dovuto abbattere pregiudizi per evolversi. La sfida attuale è gestire questo cambiamento attraverso una governance solida e una trasparenza che metta l’uomo al centro del processo decisionale.

FAQ: Intelligenza Artificiale

L’intelligenza artificiale (AI) è una tecnologia informatica che rivoluziona il modo con cui l’uomo interagisce con la macchina, e le macchine tra di loro. Può essere definita come il processo attraverso cui le macchine e i sistemi informatici simulano i processi di intelligenza umana. Per funzionare, l’IA necessita sia di componenti hardware che software specializzati per la scrittura e l’addestramento degli algoritmi di apprendimento automatico. I sistemi di IA processano enormi quantità di dati, creando correlazioni e modelli usati per fare previsioni. Questo processo consente a un chatbot di produrre scambi di informazioni realistici o a uno strumento di imparare a riconoscere le immagini. L’IA richiede tre abilità cognitive fondamentali: l’elaborazione del linguaggio naturale, il riconoscimento vocale e la visione artificiale.

L’intelligenza artificiale sta rivoluzionando il modo in cui viviamo e lavoriamo, trovando applicazione in un’ampia gamma di settori. Nel settore della comunicazione, l’IA ha reso possibile la creazione di chatbot sempre più sofisticati come ChatGPT e Gemini. Nel settore sanitario, l’IA viene utilizzata per la diagnosi precoce, l’analisi di immagini mediche e lo sviluppo di terapie personalizzate. Nel settore industriale, l’IA ottimizza i processi produttivi, migliora la manutenzione predittiva e aumenta l’efficienza operativa. Altri ambiti di applicazione includono la finanza, l’educazione, i trasporti, l’agricoltura e la sicurezza informatica, dove l’IA sta trasformando radicalmente i modelli operativi tradizionali.

L’intelligenza artificiale viene convenzionalmente classificata come “debole” quando risolve una particolare classe di problemi e non possiede abilità cognitive di carattere generale. Viene invece chiamata “forte” o “generale” (AGI) quando è in grado di esprimere capacità senzienti o consapevoli, potendo svolgere qualsiasi attività intellettuale umana. L’AGI rappresenterebbe una macchina indistinguibile da un umano in termini di capacità cognitive, con una comprensione universale e profonda. Mentre l’IA debole è già una realtà con applicazioni specifiche come il riconoscimento vocale o la guida autonoma, l’AGI resta un obiettivo ambizioso e controverso, con opinioni divise sulla sua realizzabilità e tempistica.

L’intelligenza artificiale affonda le radici in un passato remoto, con anticipazioni nell’arte come “Eva Futura” (1866) e “Metropolis” (1926). La pietra miliare scientifica è l’analisi di Turing (1950), che formalizzò dimensioni e tesi ancora attuali. L’ingegneria vide le prime speculazioni negli anni ’70 con modelli deduttivi e sistemi esperti. Questi approcci entrarono in crisi negli anni ’80 di fronte all’esigenza di elaborare dati numerici, venendo superati dall’avvento delle Reti Neurali. La svolta decisiva è arrivata con tre fattori chiave: l’aumento della potenza di calcolo, la disponibilità di enormi dataset e lo sviluppo di algoritmi più efficaci. Questo ha portato ai recenti progressi nei modelli fondazionali e nell’IA generativa, aprendo nuove frontiere di applicazione.

L’intelligenza artificiale sta attraversando una fase di trasformazione radicale che ridefinirà non solo le capacità tecniche dei sistemi computazionali, ma anche la comprensione dell’intelligenza stessa. Tra le tendenze emergenti troviamo l’auto-apprendimento, che permette ai sistemi di cercare ed elaborare autonomamente le informazioni necessarie per il loro sviluppo, e la multimodalità, che integra diverse forme di percezione e comprensione. I progressi nell’efficienza computazionale stanno democratizzando l’accesso a queste tecnologie, mentre la convergenza tra neuroscienze e IA sta aprendo nuove frontiere nella comprensione della coscienza. Parallelamente, lo sviluppo di sistemi più trasparenti e capaci di spiegare i propri ragionamenti affronta una delle critiche più significative mosse all’IA: la sua natura di “scatola nera”. L’integrazione di principi etici nello sviluppo dell’IA è diventata una priorità fondamentale.

Nonostante i progressi impressionanti, l’intelligenza artificiale presenta significativi limiti. Secondo ricercatori come Melanie Mitchell, mentre gli esseri umani costruiscono “modelli mentali” flessibili del mondo, l’IA sembra apprendere in modo diverso: non generalizza ma accumula “scorciatoie pratiche” per risolvere problemi. Si tratta di una sofisticata imitazione piuttosto che di una vera comprensione. Un esempio emblematico è lo studio di Keyon Vafa di Harvard, dove un’IA addestrata su indicazioni stradali di Manhattan ha creato una mappa mentale completamente distorta, suggerendo tragitti impossibili pur fornendo indicazioni corrette. All’IA mancano elementi fondamentali dell’esperienza umana: vita, volontà e coscienza. I computer non muoiono, non si annoiano, non hanno iniziativa propria o quella tensione verso il futuro che conferisce significato all’esistenza.

Le implicazioni etiche dell’intelligenza artificiale sono molteplici e complesse. Possiamo distinguere due dimensioni principali: l’etica nell’uso dell’IA (come utilizziamo sistemi già esistenti) e l’etica nella costruzione dell’IA (quali valori incorporiamo nei sistemi che creiamo). Un tema centrale è il bias cognitivo/decisionale che si introduce in una macchina, in funzione sia dei dati sia del processo stesso di apprendimento, che richiede una supervisione umana per essere identificato e corretto. Man mano che le tecnologie IA integrano logiche ragionative superiori, emergono questioni più profonde sulla cessione del controllo a sistemi automatizzati in ambiti critici come la finanza, i trasporti o gli impieghi militari. L’integrazione di principi etici nei sistemi di IA richiede lo sviluppo di sistemi capaci di comprendere e applicare principi morali in contesti complessi, bilanciando valori potenzialmente in conflitto.

L’intelligenza artificiale sta trasformando radicalmente il panorama educativo, introducendo strumenti e tecniche innovative che possono arricchire e personalizzare l’esperienza di apprendimento. L’IA può essere integrata nella didattica attraverso piattaforme di apprendimento online, giochi educativi, o sistemi di tutoraggio intelligenti. Tra i principali vantaggi troviamo la personalizzazione dell’apprendimento, con percorsi formativi adattati alle esigenze di ogni studente; il feedback immediato e dettagliato; l’automazione di compiti ripetitivi come la correzione di test a risposta multipla; e la creazione di esperienze di apprendimento immersive. Tuttavia, è fondamentale che l’uso dell’IA sia sempre guidato da considerazioni pedagogiche e didattiche. L’IA non è un sostituto dell’insegnante, ma un potente strumento che, se utilizzato correttamente, può arricchire l’esperienza di apprendimento, personalizzarla e renderla più efficace.

Le critiche filosofiche all’intelligenza artificiale sono profonde e multiformi. Noam Chomsky critica l’approccio ottimistico verso l’IA, sottolineando le differenze fondamentali tra la mente umana e i sistemi basati su machine learning. Egli rimarca la superficialità e i limiti etici dei chatbot, invitando a una riflessione più profonda. Altri filosofi evidenziano che all’IA manca ciò che è intrinsecamente umano: la vita, la volontà e la coscienza. I computer non muoiono, non si annoiano, non hanno iniziativa propria. Solo gli esseri umani possiedono quella tensione verso il futuro che conferisce significato all’esistenza. La questione fondamentale non è tanto se le macchine possano pensare, ma se possano sviluppare una comprensione autentica del mondo e un’esperienza soggettiva paragonabile a quella umana.

La governance dell’intelligenza artificiale richiede un approccio inclusivo e sistemico che vada oltre gli aspetti puramente tecnologici. La necessità di una governance nasce in contesti complessi caratterizzati dalla presenza di molteplici attori con diversi obiettivi, risorse e tempistiche. L’IA impatta su tutte queste componenti, accelerando i processi decisionali, aumentando la quantità di informazioni disponibili e modificando le relazioni tra gli attori coinvolti. Il focus della governance non dovrebbe essere la tecnologia in sé, ma la capacità dell’uomo di intercettare, metabolizzare e usare tutte le potenzialità che le nuove tecnologie offrono. A livello normativo, l’Unione Europea sta avanzando con l’IA Act per regolamentare l’uso etico dell’IA, mentre a livello organizzativo si richiede non solo l’individuazione di figure come il Chief Artificial Intelligence Manager, ma una vera e propria trasformazione della cultura aziendale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x