La digitalizzazione dei contratti pubblici ha raggiunto una fase di maturità tecnica che permette finalmente di guardare oltre la semplice dematerializzazione dei documenti. Durante il convegno “Italia digitale: il nuovo mondo” tenutosi il 27 gennaio 2026 al Politecnico di Milano, i principali attori del settore digitale hanno analizzato come l’intelligenza artificiale nella Pubblica Amministrazione stia ridefinendo i processi di acquisto. Non si tratta più soltanto di gestire database, ma di abilitare una capacità di analisi che trasforma l’intero ciclo di vita di un appalto.
FAQ: Intelligenza Artificiale
Cos’è l’intelligenza artificiale e come funziona?
L’intelligenza artificiale (AI) è una tecnologia informatica che rivoluziona il modo con cui l’uomo interagisce con la macchina, e le macchine tra di loro. Può essere definita come il processo attraverso cui le macchine e i sistemi informatici simulano i processi di intelligenza umana. Per funzionare, l’IA necessita sia di componenti hardware che software specializzati per la scrittura e l’addestramento degli algoritmi di apprendimento automatico. I sistemi di IA processano enormi quantità di dati, creando correlazioni e modelli usati per fare previsioni. Questo processo consente a un chatbot di produrre scambi di informazioni realistici o a uno strumento di imparare a riconoscere le immagini. L’IA richiede tre abilità cognitive fondamentali: l’elaborazione del linguaggio naturale, il riconoscimento vocale e la visione artificiale.
Quali sono le principali applicazioni dell’intelligenza artificiale?
L’intelligenza artificiale sta rivoluzionando il modo in cui viviamo e lavoriamo, trovando applicazione in un’ampia gamma di settori. Nel settore della comunicazione, l’IA ha reso possibile la creazione di chatbot sempre più sofisticati come ChatGPT e Gemini. Nel settore sanitario, l’IA viene utilizzata per la diagnosi precoce, l’analisi di immagini mediche e lo sviluppo di terapie personalizzate. Nel settore industriale, l’IA ottimizza i processi produttivi, migliora la manutenzione predittiva e aumenta l’efficienza operativa. Altri ambiti di applicazione includono la finanza, l’educazione, i trasporti, l’agricoltura e la sicurezza informatica, dove l’IA sta trasformando radicalmente i modelli operativi tradizionali.
Che differenza c’è tra intelligenza artificiale debole e intelligenza artificiale generale?
L’intelligenza artificiale viene convenzionalmente classificata come “debole” quando risolve una particolare classe di problemi e non possiede abilità cognitive di carattere generale. Viene invece chiamata “forte” o “generale” (AGI) quando è in grado di esprimere capacità senzienti o consapevoli, potendo svolgere qualsiasi attività intellettuale umana. L’AGI rappresenterebbe una macchina indistinguibile da un umano in termini di capacità cognitive, con una comprensione universale e profonda. Mentre l’IA debole è già una realtà con applicazioni specifiche come il riconoscimento vocale o la guida autonoma, l’AGI resta un obiettivo ambizioso e controverso, con opinioni divise sulla sua realizzabilità e tempistica.
Quali sono i principali sviluppi storici dell’intelligenza artificiale?
L’intelligenza artificiale affonda le radici in un passato remoto, con anticipazioni nell’arte come “Eva Futura” (1866) e “Metropolis” (1926). La pietra miliare scientifica è l’analisi di Turing (1950), che formalizzò dimensioni e tesi ancora attuali. L’ingegneria vide le prime speculazioni negli anni ’70 con modelli deduttivi e sistemi esperti. Questi approcci entrarono in crisi negli anni ’80 di fronte all’esigenza di elaborare dati numerici, venendo superati dall’avvento delle Reti Neurali. La svolta decisiva è arrivata con tre fattori chiave: l’aumento della potenza di calcolo, la disponibilità di enormi dataset e lo sviluppo di algoritmi più efficaci. Questo ha portato ai recenti progressi nei modelli fondazionali e nell’IA generativa, aprendo nuove frontiere di applicazione.
Quali sono le tendenze future dell’intelligenza artificiale?
L’intelligenza artificiale sta attraversando una fase di trasformazione radicale che ridefinirà non solo le capacità tecniche dei sistemi computazionali, ma anche la comprensione dell’intelligenza stessa. Tra le tendenze emergenti troviamo l’auto-apprendimento, che permette ai sistemi di cercare ed elaborare autonomamente le informazioni necessarie per il loro sviluppo, e la multimodalità, che integra diverse forme di percezione e comprensione. I progressi nell’efficienza computazionale stanno democratizzando l’accesso a queste tecnologie, mentre la convergenza tra neuroscienze e IA sta aprendo nuove frontiere nella comprensione della coscienza. Parallelamente, lo sviluppo di sistemi più trasparenti e capaci di spiegare i propri ragionamenti affronta una delle critiche più significative mosse all’IA: la sua natura di “scatola nera”. L’integrazione di principi etici nello sviluppo dell’IA è diventata una priorità fondamentale.
Quali sono i limiti attuali dell’intelligenza artificiale?
Nonostante i progressi impressionanti, l’intelligenza artificiale presenta significativi limiti. Secondo ricercatori come Melanie Mitchell, mentre gli esseri umani costruiscono “modelli mentali” flessibili del mondo, l’IA sembra apprendere in modo diverso: non generalizza ma accumula “scorciatoie pratiche” per risolvere problemi. Si tratta di una sofisticata imitazione piuttosto che di una vera comprensione. Un esempio emblematico è lo studio di Keyon Vafa di Harvard, dove un’IA addestrata su indicazioni stradali di Manhattan ha creato una mappa mentale completamente distorta, suggerendo tragitti impossibili pur fornendo indicazioni corrette. All’IA mancano elementi fondamentali dell’esperienza umana: vita, volontà e coscienza. I computer non muoiono, non si annoiano, non hanno iniziativa propria o quella tensione verso il futuro che conferisce significato all’esistenza.
Quali sono le implicazioni etiche dell’intelligenza artificiale?
Le implicazioni etiche dell’intelligenza artificiale sono molteplici e complesse. Possiamo distinguere due dimensioni principali: l’etica nell’uso dell’IA (come utilizziamo sistemi già esistenti) e l’etica nella costruzione dell’IA (quali valori incorporiamo nei sistemi che creiamo). Un tema centrale è il bias cognitivo/decisionale che si introduce in una macchina, in funzione sia dei dati sia del processo stesso di apprendimento, che richiede una supervisione umana per essere identificato e corretto. Man mano che le tecnologie IA integrano logiche ragionative superiori, emergono questioni più profonde sulla cessione del controllo a sistemi automatizzati in ambiti critici come la finanza, i trasporti o gli impieghi militari. L’integrazione di principi etici nei sistemi di IA richiede lo sviluppo di sistemi capaci di comprendere e applicare principi morali in contesti complessi, bilanciando valori potenzialmente in conflitto.
Come può l’intelligenza artificiale essere utilizzata nel settore educativo?
L’intelligenza artificiale sta trasformando radicalmente il panorama educativo, introducendo strumenti e tecniche innovative che possono arricchire e personalizzare l’esperienza di apprendimento. L’IA può essere integrata nella didattica attraverso piattaforme di apprendimento online, giochi educativi, o sistemi di tutoraggio intelligenti. Tra i principali vantaggi troviamo la personalizzazione dell’apprendimento, con percorsi formativi adattati alle esigenze di ogni studente; il feedback immediato e dettagliato; l’automazione di compiti ripetitivi come la correzione di test a risposta multipla; e la creazione di esperienze di apprendimento immersive. Tuttavia, è fondamentale che l’uso dell’IA sia sempre guidato da considerazioni pedagogiche e didattiche. L’IA non è un sostituto dell’insegnante, ma un potente strumento che, se utilizzato correttamente, può arricchire l’esperienza di apprendimento, personalizzarla e renderla più efficace.
Quali sono le critiche filosofiche all’intelligenza artificiale?
Le critiche filosofiche all’intelligenza artificiale sono profonde e multiformi. Noam Chomsky critica l’approccio ottimistico verso l’IA, sottolineando le differenze fondamentali tra la mente umana e i sistemi basati su machine learning. Egli rimarca la superficialità e i limiti etici dei chatbot, invitando a una riflessione più profonda. Altri filosofi evidenziano che all’IA manca ciò che è intrinsecamente umano: la vita, la volontà e la coscienza. I computer non muoiono, non si annoiano, non hanno iniziativa propria. Solo gli esseri umani possiedono quella tensione verso il futuro che conferisce significato all’esistenza. La questione fondamentale non è tanto se le macchine possano pensare, ma se possano sviluppare una comprensione autentica del mondo e un’esperienza soggettiva paragonabile a quella umana.
Come gestire la governance dell’intelligenza artificiale?
La governance dell’intelligenza artificiale richiede un approccio inclusivo e sistemico che vada oltre gli aspetti puramente tecnologici. La necessità di una governance nasce in contesti complessi caratterizzati dalla presenza di molteplici attori con diversi obiettivi, risorse e tempistiche. L’IA impatta su tutte queste componenti, accelerando i processi decisionali, aumentando la quantità di informazioni disponibili e modificando le relazioni tra gli attori coinvolti. Il focus della governance non dovrebbe essere la tecnologia in sé, ma la capacità dell’uomo di intercettare, metabolizzare e usare tutte le potenzialità che le nuove tecnologie offrono. A livello normativo, l’Unione Europea sta avanzando con l’IA Act per regolamentare l’uso etico dell’IA, mentre a livello organizzativo si richiede non solo l’individuazione di figure come il Chief Artificial Intelligence Manager, ma una vera e propria trasformazione della cultura aziendale.













