l’approfondimento

Comprendere l’intelligenza artificiale: una guida per la PA



Indirizzo copiato

L’intelligenza artificiale sta trasformando ogni aspetto della società. Il saggio “Prima che spicchi il volo: l’intelligenza artificiale tra il racconto di Bostrom e la saggezza tardiva di Hegel” esplora opportunità, rischi ed etica dell’IA, con particolare attenzione alla Pubblica Amministrazione, tra filosofia, normativa europea e sfide tecnologiche emergenti

Pubblicato il 19 set 2025

Luigi Lella

ISEM – Institute for Scientific Methodology, Palermo



virus intelligenza artificiale

L’intelligenza artificiale è oggi al centro di un’accelerazione tecnologica senza precedenti, la cui portata trasforma profondamente ogni aspetto della vita umana. Ma mentre ci affanniamo a sviluppare sistemi sempre più complessi, capaci di apprendere, decidere e persino creare, rimane aperta una domanda cruciale: siamo davvero in grado di comprendere ciò che stiamo costruendo?

Il saggio come guida e riflessione critica

Il saggio “Prima che spicchi il volo: l’intelligenza artificiale tra il racconto di Bostrom e la saggezza tardiva di Hegel” una guida introduttiva sull’Intelligenza Artificiale nella Pubblica Amministrazione, si propone di indagare proprio questo interrogativo cruciale.

L’opera si apre con due immagini potenti: da un lato, la favola dei passeri del filosofo Nick Bostrom, che allevano una civetta per aiutarli senza considerare il rischio che, una volta cresciuta, possa distruggerli; dall’altro, la nottola di Minerva di Hegel, simbolo della filosofia che comprende la realtà solo a posteriori.

Questo saggio si colloca proprio in questo spazio intermedio, tra l’azione che precede la riflessione e la comprensione che arriva tardi, cercando una saggezza anticipatrice prima che la “civetta” dell’IA spicchi il volo.


Il quadro normativo e gli obiettivi del testo

La scelta di realizzare questo testo di base sulla IA discende direttamente dalle richieste mandatorie delle linee guida AgID per l’adozione della IA nella pubblica amministrazione, secondo le quali le PPAA:

  • devono promuovere un uso responsabile ed efficace dell’IA,
  • devono sviluppare competenze specifiche per poter governare e regolamentare l’utilizzo dell’IA,
  • dovrebbero promuovere e incoraggiare una cultura dell’apprendimento continuo improntata alla formazione e all’arricchimento costante delle competenze di IA.

Questo testo è appositamente studiato per recepire anche l’invito a “contribuire a promuovere l’AI awareness e AI literacy dei cittadini, affinché riescano ad interagire in modo efficace, consapevole e sicuro con soluzioni di IA”.


Le sfaccettature dell’IA

Il testo esplora le molteplici sfaccettature dell’IA, dalle sue implicazioni etiche e sociali alle applicazioni pratiche, con un focus sulla pubblica amministrazione, e si propone di rendere la conoscenza accessibile a tutti.

L’autore ci guida in un viaggio che parte dalle definizioni stesse di IA, distinguendo tra un’IA “ristretta”, specializzata in compiti specifici come il campione di scacchi Deep Blue, e un’IA “generale” (AGI), il sogno di una mente artificiale versatile quanto quella umana.

Si esplora il concetto affascinante e controverso della “singolarità tecnologica”, un punto di non ritorno in cui il progresso tecnologico potrebbe superare la nostra capacità di comprensione e controllo. Il saggio delinea tre tipi di singolarità:

  • un’IA che si auto-perfeziona a velocità inimmaginabile,
  • un’IA che agisce autonomamente nel mondo reale attraverso la robotica avanzata,
  • la fusione mente-macchina, l’alba del cosiddetto transumanesimo.

Evoluzione storica tra speranze e inverni dell’IA

Il percorso storico dell’IA è costellato di “primavere” di ottimismo e “inverni” di disillusione.

Dagli albori con il Perceptron di Rosenblatt, un primo modello di neurone artificiale che accese grandi speranze negli anni ’60, si passò alla critica di Minsky e Papert che ne evidenziò i limiti, inaugurando il primo “inverno dell’IA”.

Successivamente, i sistemi esperti degli anni ’70 e ’80, basati su regole logiche per emulare il ragionamento di un esperto, hanno segnato una rinascita, pur scontrandosi con la rigidità del ragionamento deterministico e la difficoltà di gestire l’incertezza del mondo reale.

Per superare questi limiti, sono state introdotte architetture più complesse, capaci di gestire l’incertezza tramite il teorema di Bayes e la complessità del ragionamento umano attraverso la logica sfumata.

La vera rivoluzione recente è però il deep learning, con modelli come le reti neurali ricorrenti (RNN) e, soprattutto, l’architettura Transformer, che ha dato vita ai Large Language Models (LLM) come ChatGPT.

Questi modelli, pur potentissimi, presentano sfide intrinseche come l’opacità (la “scatola nera”), la tendenza a ereditare i bias presenti nei dati di addestramento e il rischio di “allucinazioni”, ovvero la generazione di informazioni plausibili ma errate.

Per affrontare queste criticità, la ricerca si sta muovendo verso soluzioni ibride neuro-simboliche, che combinano la capacità di apprendimento delle reti neurali con la robustezza e la trasparenza del ragionamento logico, nel tentativo di dotare l’IA di un “senso comune” che ancora le manca.


Dati, governance ed etica

L’implementazione dell’IA, specialmente nella PA, non può prescindere da una solida governance del dato, il vero fondamento di ogni sistema intelligente.

Il principio “garbage in, garbage out” è più attuale che mai: dati di scarsa qualità non possono che produrre risultati inaffidabili. Diventa cruciale superare la frammentazione dei dati in “silos” informativi, adottando architetture come i Digital Integration Hub per garantire un flusso informativo coerente e di alta qualità.

Questo percorso solleva imprescindibili questioni etiche. Il saggio affronta il bias algoritmico, la privacy, la responsabilità e l’impatto socio-economico, richiamando i principi guida per un’IA affidabile: supervisione umana, robustezza tecnica, privacy, trasparenza, diversità, equità, benessere sociale e accountability.

In questo contesto, il Regolamento Europeo sull’IA (AI Act) rappresenta una pietra miliare, introducendo un approccio basato sul rischio che vieta le applicazioni inaccettabili e impone requisiti stringenti per quelle ad alto rischio.

La codifica dei principi etici in algoritmi, un’idea anticipata dalle Leggi della Robotica di Asimov, si scontra con la complessità e la relatività culturale dei valori umani, come dimostrato dall’esperimento “Moral Machine”.

Per guidare le organizzazioni, in particolare le PA, in questo percorso di trasformazione, viene ripreso il modello di maturità sviluppato dagli Osservatori Artificial Intelligence e Agenda Digitale del Politecnico di Milano, che valuta cinque dimensioni chiave:

  • Dati e Patrimonio Informativo,
  • Metodologia e Algoritmi,
  • Organizzazione e Competenze,
  • Cultura Aziendale,
  • Relazione con Cittadini e Imprese.

Avviare un progetto di IA nella PA richiede una visione strategica chiara, una governance etica e uno studio di fattibilità che definisca obiettivi, selezioni i dati con cura, scelga i modelli più adatti (non sempre i più complessi sono i migliori) e valuti la sostenibilità ambientale.


Conclusione: tra Bostrom e Hegel

Il saggio si conclude con una riflessione profonda, tornando alle allegorie di Bostrom e Hegel.

L’IA è la “civetta allevata” che sta per spiccare il volo: è un progetto umano che può ancora essere guidato. La scelta è tra osservare passivamente il suo volo al crepuscolo o usare la lungimiranza, nutrita anche dalla letteratura e dalla filosofia, per orientare la tecnologia verso l’emancipazione e non la sottomissione, assicurando che i benefici siano per tutti e non per pochi.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati