Molti cittadini continuano a immaginare la Pubblica Amministrazione come un insieme di uffici, modulistica e funzionari che operano dietro una scrivania. In realtà, una parte significativa delle decisioni che incidono sulla vita quotidiana è già oggi affidata a sistemi informatici e algoritmi.
Ogni giorno software “invisibili” stabiliscono chi ha diritto a ricevere un bonus, come vengono distribuiti i turni del personale, quali quartieri hanno priorità negli interventi urbani, quante multe vengono generate e perfino come vengono allocate le risorse sociali.
La politica, quindi, non si scrive più solo nei decreti: oggi si scrive anche in codice.
Indice degli argomenti
Il burocrate invisibile: quando a decidere è l’algoritmo
Gli algoritmi sono strumenti potenti: elaborano milioni di dati in pochi istanti, garantiscono velocità ed efficienza e sono percepiti come neutrali. Ma proprio per queste caratteristiche rischiano di trasformarsi in un “burocrate invisibile”, capace di produrre effetti concreti senza offrire al cittadino un volto, una firma o un ufficio a cui rivolgersi in caso di necessità.
Si pensi, ad esempio, a quando un cittadino riceve una multa generata automaticamente o viene escluso da un bonus sociale perché il punteggio calcolato dal sistema non lo considera idoneo. In tali circostanze si pone il problema di capire a chi sia possibile rivolgersi per ottenere chiarimenti o presentare ricorso. Gli esempi di questo tipo non mancano e offrono spunti di riflessione.
Casi concreti: dalla Francia agli Stati Uniti
Non si tratta, del resto, di scenari ipotetici. È il caso della Francia, che durante la pandemia aveva sviluppato e rilasciato StopCovid (poi ridenominata TousAntiCovid), un’app per il tracciamento digitale dei contatti. Fin dall’inizio l’applicazione aveva sollevato forti dubbi: il modello centralizzato (ROBERT) dava al governo un accesso ampio ai dati sanitari e personali e molti esperti avevano segnalato rischi concreti per la privacy. L’adozione alla fine è stata al di sotto delle aspettative: le persone esitavano a scaricarla, in parte per la mancanza di chiarezza su come i dati sarebbero stati usati e per l’incertezza sull’effettiva efficacia nel limitare i contagi in modo significativo.
Negli Stati Uniti, la situazione si rivela ancora più complessa. I sistemi di predictive policing, che cercano di prevedere dove e quando potrebbero verificarsi reati, per distribuire risorse preventive, sono spesso costruiti su dati che possono riflettere disparità razziali o socioeconomiche. Un problema emergente è il cosiddetto feedback loop spaziale: i modelli usano dati storici di reati denunciati o arresti per “segnalare” aree ad alto rischio. Le forze dell’ordine vengono quindi di fatto concentrate in quei quartieri e questo porta a un maggior numero di arresti o segnalazioni, che alimentano ancora i dati del modello, rafforzando la percezione che quell’area sia “problematica”, spesso indipendentemente dal fatto che la criminalità reale sia aumentata o meno. Sono stati inoltre rilevati impatti sproporzionati su comunità già marginalizzate: quartieri con alta densità di minoranze etniche sono più soggetti a presenze di polizia maggiore, arresti più frequenti, anche quando i tassi reali di criminalità, controllati per vari fattori, non giustificano un intervento così intenso.
Questi esempi mostrano come un’IA opaca possa trasformarsi in una macchina di ingiustizie collettive, minando la fiducia dei cittadini nelle istituzioni.
Chi scrive le regole e chi può leggerle
Ogni algoritmo, in fondo, non è altro che la traduzione di regole in linguaggio informatico. A scrivere queste regole sono programmatori o team tecnici che scelgono criteri e parametri da trasformare in codice. Il problema è che non sempre è chiaro chi stabilisca tali regole, con quali logiche vengano definite e, soprattutto, chi abbia davvero il diritto di leggerle, comprenderle o contestarle.
Troppo spesso, infatti, il codice rimane chiuso in una “scatola nera”, custodita dai fornitori tecnologici o relegata agli uffici tecnici. Eppure, quando un software finisce per incidere sulle decisioni che regolano la vita delle persone, non si può più considerarlo un affare esclusivamente tecnico o privato: quel codice assume la stessa funzione di una norma amministrativa, con effetti concreti sulla società.
Proprio come ogni norma giuridica, anche l’algoritmo dovrebbe essere conoscibile, trasparente e contestabile. La politica e le scelte pubbliche possono certamente essere scritte in linguaggi di programmazione – uno dei più diffusi è Python, un linguaggio semplice, flessibile e molto utilizzato per sviluppare applicazioni di intelligenza artificiale e analisi dei dati – ma ciò non toglie che debbano restare leggibili e comprensibili da ogni cittadino, non soltanto da chi ha competenze informatiche.
Le prime esperienze di trasparenza: i registri algoritmici
Alcune città europee hanno scelto di intraprendere la strada della trasparenza. Amsterdam e Helsinki hanno istituito registri pubblici degli algoritmi, elenchi accessibili online in cui ogni cittadino può consultare quali sistemi vengono utilizzati dall’amministrazione, per quali attività e con quali obiettivi. In Italia si stanno muovendo i primi passi, con iniziative come l’Osservatorio sull’Amministrazione Automatizzata, che mappa e rende conoscibili gli algoritmi già attivi nelle Pubbliche Amministrazioni. Parallelamente, il dibattito sulle linee guida AgID per l’intelligenza artificiale nella PA e i progetti del PNRR in materia di digitalizzazione spingono nella stessa direzione: costruire fiducia, evitando che l’innovazione tecnologica diventi un fattore di esclusione o sfiducia sociale.
Queste esperienze rappresentano una nuova forma di educazione civica, adattata ai tempi dell’intelligenza artificiale: una cittadinanza non più solo digitale, ma anche “algoritmica”.
Dal codice chiuso al GovOps cognitivo
Per evitare che l’algoritmo diventi un tiranno silenzioso serve un nuovo approccio, che potremmo definire GovOps cognitivo. Non uno slogan, ma una metodologia concreta che punta a coniugare efficienza digitale e garanzie democratiche.
I suoi principi fondamentali possono essere così riassunti:
- Progettazione consapevole: algoritmi sviluppati con il contributo di giuristi, esperti etici, tecnici e rappresentanti dei cittadini.
- Leggibilità delle decisioni: criteri e logiche rese pubbliche e comprensibili, con spiegazioni sugli output generati.
- Trasparenza radicale: dataset aperti, report pubblici sulle performance e tracciabilità completa delle decisioni.
- Accountability istituzionale: la responsabilità finale deve restare in capo alle istituzioni, garantendo al cittadino canali di ricorso e la possibilità di revisione umana.
Solo così il codice smette di essere percepito come una minaccia e diventa una nuova grammatica della democrazia digitale.
La città come organismo cognitivo e responsabile
Immaginare la città del futuro significa vederla come un organismo cognitivo distribuito: sensori, algoritmi e piattaforme capaci di elaborare in tempo reale dati su traffico, rifiuti, welfare, sicurezza. Ma non basta che funzioni, è fondamentale che sia anche responsabile.
Una città governata da algoritmi chiusi è una città tecnocratica, dove le decisioni vengono prese senza un reale controllo democratico. Una città che adotta invece il GovOps cognitivo diventa una città consapevole: capace di spiegare le sue scelte, correggere gli errori e imparare dal feedback dei cittadini, mantenendo sempre al centro l’intervento umano e la responsabilità etica condivisa.
In questo senso, parlare di smart city non significa solo dotarsi di sensori e piattaforme tecnologiche, significa costruire un ecosistema in cui cittadini, amministratori e tecnici possano dialogare. La vera intelligenza urbana sarà quella capace di integrare l’innovazione con i valori democratici, evitando che la tecnologia diventi un fine in sé.
Non un burocrate invisibile, ma un alleato civico
La domanda cruciale è: da chi è governato l’algoritmo?
Se lasciamo che agisca nell’ombra, rischiamo di vivere in comunità amministrate da software opachi. Se invece apriamo il codice alla conoscenza pubblica, lo rendiamo verificabile e lo affianchiamo a processi di partecipazione, allora l’intelligenza artificiale può diventare un alleato civico.
La politica di domani si scriverà (anche) in linguaggi di programmazione, ma dovrà saper parlare la lingua dei cittadini. Per questo, servono nuove competenze civiche, che uniscano alfabetizzazione digitale, conoscenza dei diritti e consapevolezza dei meccanismi tecnologici.
La vera smart city non sarà quella più automatizzata, ma quella che saprà connettere tecnologia e democrazia, codice e fiducia.














