Negli ultimi anni l’AI – intesa in senso ampio, come insieme di algoritmi capaci di apprendere dai dati e svolgere compiti che tradizionalmente richiederebbero intelligenza umana – ha conosciuto una rapida diffusione in ambito pubblico. Anche i parlamenti, tradizionalmente percepiti come istituzioni relativamente conservative sul piano tecnologico, stanno esplorando il potenziale dell’AI per migliorare i propri processi interni e i servizi ai cittadini.
Le motivazioni alla base di questa spinta innovativa includono la necessità di gestire in modo più efficiente una grande mole di informazioni, aumentare la produttività del personale, nonché avvicinare l’istituzione parlamentare al pubblico attraverso strumenti digitali interattivi [1].
Tuttavia, il percorso verso un’integrazione efficace dell’AI nei contesti parlamentari è complesso. Da un lato, vi sono opportunità significative: l’AI può automatizzare compiti routinari, fornire analisi avanzate a supporto dei legislatori e rendere più trasparenti e accessibili i lavori d’aula [2].
Dall’altro lato, emergono sfide etiche e tecniche: l’uso di algoritmi opachi in processi democratici solleva interrogativi su responsabilità, bias e legittimità delle decisioni assistite da macchina [3]. Inoltre, senza adeguati framework di governance, c’è il rischio di implementazioni scoordinate o incoerenti con i principi democratici e dello stato di diritto [4].
In questo scenario complesso, le assemblee legislative si trovano a ricoprire un peculiare duplice ruolo: da un lato agiscono come regolatori, definendo le norme generali per l’uso dell’AI nella società, dall’altro operano come utilizzatori, chiamati a integrare tali tecnologie nelle proprie procedure interne. A livello UE27, secondo una ricerca della Camera polacca del giugno 2025, 16 paesi si sono già dotati di una legislazione che regola l’uso dell’AI. Il 63% dei Parlamenti o delle Camere dell’Unione europea si è anche già dotato di linee guida in proposito [5].
Questo contributo si propone di fornire un’analisi organica dell’impiego dell’AI nei parlamenti europei. Dopo aver delineato alcuni significativi casi concreti di utilizzo in una selezione rappresentativa di parlamenti nazionali dell’UE e nel Parlamento europeo stesso, verranno illustrati i principali ambiti applicativi.
Si passerà quindi a discutere benefici potenziali e rischi correlati, con particolare attenzione a temi quali la qualità dei dati, i bias algoritmici, la sovranità tecnologica e possibili abusi procedurali (come l’uso strumentale di AI per ostacolare l’attività legislativa).
Un focus specifico sarà dedicato al ruolo del fattore umano nei processi decisionali mediati dall’AI – concetti di human-in-the-loop e human-in-command – analizzando se il coinvolgimento umano attivo sia sufficiente a garantire controllo e accountability, alla luce sia della letteratura più recente sia delle disposizioni dell’AI Act europeo in via di attuazione.
Infine, verrà affrontata la questione di fondo: stabilire se l’ingresso dell’AI nei meccanismi parlamentari prefiguri una deriva tecnocratica, in cui gli algoritmi acquisiscono un peso eccessivo a scapito della deliberazione democratica, oppure se tali innovazioni possano essere incanalate in modo da rafforzare – anziché indebolire – il ruolo dei parlamenti nelle democrazie.
Indice degli argomenti
AI nei parlamenti europei: cosa mostrano i trend globali
Per contestualizzare il fenomeno, è indispensabile osservare il trend globale che investe le assemblee legislative. La crescente rilevanza dell’AI e della AI generativa è testimoniata dal World e-Parliament Report 2024 dell’Unione Interparlamentare (IPU): su 115 Camere consultate in 86 paesi (inclusi due Parlamenti sovranazionali), il 29% utilizza l’AI in qualche forma, un salto notevole rispetto all’1% registrato a livello sperimentale nel 2016.
Secondo il report, nel 2024 l’uso dell’AI da parte delle Assemblee legislative ha riguardato principalmente la documentazione e l’archiviazione di documenti (74%), il drafting legislativo e la formulazione degli emendamenti (51%), il monitoraggio delle proposte di legge (55%), la creazione e l’aggiornamento di database normativi (73%).
Inoltre, 75 Parlamenti su 100 hanno utilizzato l’informatica per gestire i testi dei progetti di legge in formato digitale, ma solo il 52% ha reso possibile verificare l’impatto di un determinato emendamento sul testo finale.
Le nuove tecnologie sono state utilizzate, nel 70% circa dei casi, anche per gestire le attività dell’Assemblea, come la calendarizzazione, la redazione dell’ordine del giorno e la distribuzione del tempo nella discussione. L’87% dei Parlamenti ha garantito l’accesso via streaming ai propri lavori e il 44% ha usato l’AI per la trascrizione dei lavori parlamentari.
Il ricorso all’AI per le funzioni legislative fondamentali, come la redazione di progetti di legge e l’analisi dei contributi dei cittadini, è rimasto invece estremamente limitato: solo 3 Parlamenti su 100 l’hanno usata, ma 27 su 100 – tra cui il Senato italiano – prevedono di esplorare in futuro questa possibilità [5].
Casi nei parlamenti europei: una selezione comparata
Alla luce di questo scenario, il presente lavoro esamina alcune esperienze in ambito UE. Di seguito si passano in rassegna sei casi emblematici: il Parlamento europeo stesso e cinque parlamenti nazionali (Finlandia, Estonia, Spagna, Germania, Grecia).
Tale selezione rappresenta una varietà di applicazioni e livelli di maturità tecnologica, offrendo uno spaccato delle diverse strategie di adozione in atto nel continente.
Il Parlamento europeo e l’AI per servizi, documenti e multilinguismo
A livello UE, il Parlamento europeo (PE) ha stabilito un primato nell’implementazione dell’AI, un risultato fortemente influenzato dalle necessità di supporto tecnologico per i suoi membri, nonché dalle sfide imposte dal multilinguismo e dal multiculturalismo dell’istituzione. Il PE ha avviato l’integrazione di diversi strumenti principalmente nell’ambito dei servizi amministrativi e documentali, vantando un ecosistema che spazia dai chatbot ai software di traduzione avanzata [2] [5].
Una prima applicazione riguarda l’uso di chatbot e assistenti virtuali. L’Europarlamento impiega questi strumenti per automatizzare i processi di domanda/risposta in vari settori, fornendo riscontri rapidi a quesiti frequenti del personale e dei deputati.
Tali assistenti aiutano a reperire informazioni su procedure parlamentari, stati di avanzamento delle pratiche o dettagli normativi, riducendo drasticamente i tempi di ricerca manuale. Esistono inoltre interfacce di supporto per le consultazioni pubbliche, integrate in piattaforme come “Contribuire al processo legislativo”.
Un’altra applicazione significativa per l’efficienza interna è l’auto-sintesi dei documenti. Il PE utilizza strumenti AI (incluse funzionalità avanzate come Microsoft Editor) per generare automaticamente sintesi testuali di documenti complessi.
Ciò consente ai parlamentari e ai funzionari di cogliere più rapidamente i contenuti essenziali di relazioni voluminose o proposte legislative tecniche. In un’istituzione che produce una mole ingente di atti, la capacità di ottenere riassunti immediati rappresenta un netto guadagno in termini di gestione del tempo.
Data la natura multilingue dell’UE, il PE ha investito massicciamente in soluzioni di traduzione automatica. In particolare, viene impiegato eTranslation, un tool capace di tradurre documenti in tutte le lingue ufficiali dell’Unione.
Questo strumento è cruciale per garantire che testi legislativi, interrogazioni e rapporti siano disponibili celermente in ogni lingua, facilitando il lavoro dei deputati di diversa nazionalità.
Parallelamente, nel campo della documentazione delle sedute, sono stati introdotti servizi di speech-to-text per la trascrizione in tempo reale degli interventi orali. Tali sistemi convertono automaticamente il parlato dei dibattiti in testo, rendendo immediatamente disponibili resoconti provvisori e assistendo i servizi di resocontazione nella produzione dei verbali ufficiali, che vengono comunque sottoposti a revisione umana per garantirne l’accuratezza.
Infine, l’AI gioca un ruolo chiave nell’organizzazione della conoscenza. Il PE utilizza il sistema EUROVOC per l’indicizzazione automatica (auto-indexing) dei documenti. Grazie agli algoritmi, gli atti prodotti vengono automaticamente etichettati con riferimenti tematici standardizzati, snellendo la categorizzazione e facilitando il successivo reperimento delle informazioni e il collegamento tra atti inerenti materie affini.
Va sottolineato che il Parlamento europeo ha approcciato queste innovazioni in modo olistico, accompagnandole con misure organizzative. È stato istituito un AI Oversight Board – un comitato interno per la supervisione dell’implementazione dell’AI – e sono state pubblicate linee guida etiche per l’uso responsabile della tecnologia da parte del personale.
Inoltre, è stata condotta una mappatura interna di tutti gli strumenti utilizzati dall’amministrazione, con l’obiettivo di garantire trasparenza e una gestione integrata dei rischi.
Secondo il Segretario Generale del PE, Alessandro Chiocchetti, l’istituzione mira a costruire una cultura interna di trasparenza, etica e prontezza operativa, concentrandosi su implementazioni pratiche affiancate da formazione adeguata e supervisione umana, affinché i sistemi possano essere usati in modo sicuro e nel pubblico interesse [6].
La Finlandia e l’AI come “esperto virtuale” nelle audizioni
Il parlamento finlandese si è distinto per un esperimento pionieristico nell’ambito dell’utilizzo dell’AI nel processo deliberativo. Nel 2021, il Committee for the Future (Commissione parlamentare per il Futuro) ha condotto un’audizione davvero singolare: ha infatti organizzato una sessione di audizione coinvolgendo personalità simulate da AI come esperti virtuali.
In termini tecnici, sono stati utilizzati modelli di linguaggio avanzati (Project December) per creare avatar conversazionali capaci di impersonare figure specifiche – denominate Muskie e Saara – con cui i parlamentari hanno potuto interagire ponendo domande su temi oggetto di studio.
La prima costruita sulle caratteristiche di un soggetto dell’élite tecnologica (Elon Musk), la seconda su quelle di una nota attivista ambientalista (Greta Thunberg) [7].
La sessione è stata strutturata in modo analogo a una tradizionale audizione parlamentare: i membri della Commissione avevano preparato in anticipo una serie di quesiti che, durante la seduta, sono stati rivolti ai due agenti virtuali.
Questi ultimi hanno fornito risposte scritte, articolando argomentazioni e persino contro-argomentazioni con uno stile assimilabile a quello di un interlocutore umano. L’obiettivo dichiarato dell’esperimento era esplorare fino a che punto l’AI potesse offrire prospettive informative utili al dibattito, formulando analisi e spunti complementari a quelli degli esperti umani [2].
L’iniziativa è stata condotta con la dovuta cautela metodologica: dopo ogni interazione con le entità AI, i deputati hanno discusso le risposte ottenute con il supporto di facilitatori umani, valutandone criticamente contenuto, pertinenza e qualità.
Questo processo metariflessivo ha permesso di esaminare sia le potenzialità che i limiti dello strumento. L’esperimento finlandese ha suscitato interesse a livello internazionale come proof of concept dell’impiego della generative AI per arricchire i processi di foresight e l’analisi di scenari futuri.
Il caso dimostra la volontà del Parlamento finlandese di integrare tecnologie emergenti, pur mantenendo un approccio critico e sottoponendo l’output algoritmico a una costante validazione umana.
L’Estonia e la verbalizzazione automatica con HANS
L’Estonia, all’avanguardia nella digitalizzazione della pubblica amministrazione, ha introdotto l’AI nel proprio parlamento (Riigikogu) con l’obiettivo prioritario di automatizzare la redazione dei resoconti.
Il fulcro di questa innovazione è il sistema HANS, un’infrastruttura di speech-to-text sviluppata specificamente per generare i verbali integrali delle sedute. La finalità del sistema è ridurre il carico di lavoro degli stenografi durante le sessioni plenarie e supportare i funzionari delle commissioni, accelerando drasticamente il processo di verbalizzazione.
Operativamente, il sistema agisce secondo un flusso strutturato: durante le sedute plenarie, la registrazione audio ad alta qualità viene segmentata automaticamente in porzioni temporali (di circa 10 minuti) e inviata al modulo AI di riconoscimento vocale.
L’algoritmo trascrive il parlato, identificando i diversi oratori e inserendo automaticamente la punteggiatura. Un valore aggiunto di HANS è la profonda integrazione con i sistemi informatici parlamentari: il software incrocia i segmenti audio con i metadati dell’ordine del giorno, inserendo nel verbale le intestazioni e i riferimenti all’argomento in discussione.
Inoltre, il sistema arricchisce il testo con link ai record di voto elettronico e riferimenti temporali associati alla registrazione video, facilitando una tracciabilità multimodale del dibattito.
Una volta assemblata la bozza grezza, interviene il controllo umano: un team di redattori verifica e corregge l’output dell’AI, sanando eventuali errori di riconoscimento fonetico o sintattico.
Esclusivamente a seguito di tale revisione, il resoconto viene pubblicato sul sito ufficiale del Riigikogu, con tempistiche notevolmente ridotte rispetto al passato.
HANS trova applicazione anche nelle commissioni, seppur con modalità differite poiché le riunioni non sono sempre trasmesse in diretta: i funzionari caricano nel sistema i file audio registrati e l’AI procede alla trascrizione e strutturazione, lasciando poi agli operatori il compito di rifinire il testo per il verbale ufficiale [8].
I risultati sono in linea con le aspettative di efficienza e rapidità. Secondo le specifiche tecniche, il tasso di errore della componente AI si mantiene inferiore al 10%, grazie anche al continuo addestramento del modello linguistico su nuovi termini, neologismi o nomi propri emergenti nel dibattito.
Il caso estone rappresenta un esempio riuscito di automazione a supporto della trasparenza: la pubblicazione quasi istantanea dei dibattiti consente a cittadini e media di accedere ai contenuti in tempi brevissimi, rafforzando la fruibilità e l’accountability dei lavori legislativi [9].
La Spagna e la trascrizione multilingue in tempo quasi reale
Un caso di particolare interesse per la gestione della complessità linguistica proviene dalla Spagna, dove il Congreso de los Diputados ha avviato l’implementazione di sistemi AI per la trascrizione automatica multilingue [10].
L’impulso decisivo a questa innovazione è giunto con la riforma del regolamento, adottata a fine 2023, che ha legittimato il pieno utilizzo delle lingue co-ufficiali (catalano, galiziano e basco, oltre al castigliano) nelle attività parlamentari nazionali [11].
Ciò ha posto l’esigenza di gestire in tempo reale la traduzione e la trascrizione in più lingue, un compito molto oneroso se svolto esclusivamente da umani.
Nel novembre 2024 il Parlamento spagnolo ha assegnato un contratto a una società specializzata per fornire servizi di trascrizione basati su AI, prima applicazione di questo tipo a livello nazionale in Spagna.
Pangeanic aveva già maturato esperienza trascrivendo automaticamente i dibattiti di un parlamento regionale (le Cortes della Comunità Valenciana) fin dal 2021, dove doveva riconoscere e trascrivere sia lo spagnolo sia il valenciano.
Ora, a livello statale, l’AI dovrà affrontare la complessità linguistica spagnola: il sistema sarà in grado di trascrivere interventi parlamentari in castigliano, catalano, galiziano e basco, integrandosi con i servizi di traduzione simultanea per fornire testi accurati in quattro lingue in tempo quasi reale.
L’adozione di questa tecnologia è vista come un passo fondamentale nella modernizzazione del Parlamento spagnolo. I vantaggi attesi includono una notevole efficienza documentale – i resoconti saranno prodotti più rapidamente e con minore dispendio di risorse umane – e un miglioramento in trasparenza e inclusività.
Infatti, grazie alla trascrizione tramite AI, i cittadini delle diverse regioni potranno accedere alle discussioni parlamentari in tempo reale nella propria lingua, superando barriere che prima imponevano di attendere traduzioni differite.
Questo ha un impatto diretto sulla partecipazione democratica: nelle comunità come la Catalogna o i Paesi Baschi, i residenti potranno seguire i dibattiti di Madrid man mano che avvengono, senza dover aspettare giorni per avere una trascrizione tradotta, il che rafforza il legame tra istituzioni nazionali e minoranze linguistiche.
Dal punto di vista operativo, il sistema prevede anche risparmi di costo e liberazione di risorse: il personale amministrativo che prima doveva dedicare molte ore alla trascrizione e traduzione potrà concentrarsi su attività a più alto valore aggiunto.
Stime iniziali indicano che l’automazione potrebbe ridurre fino al 40% i costi legati a queste attività, aumentando al contempo il grado di accuratezza grazie al miglioramento continuo dei modelli AI con il feedback umano.
È interessante notare come l’adozione di questi sistemi AI per la trascrizione stia avendo ricadute positive anche inattese, come nella tutela della diversità linguistica. L’affidabilità tecnologica influenza il comportamento politico: casi analoghi in altri paesi (come il Galles nel Regno Unito) suggeriscono che la presenza di trascrizione automatica in più lingue incentiva un maggior uso pubblico delle lingue minoritarie, poiché i rappresentanti sono rassicurati dal fatto che i loro interventi saranno compresi e documentati accuratamente a prescindere dalla lingua usata.
La Spagna si colloca oggi all’avanguardia nell’uso di AI per il plurilinguismo parlamentare, un modello che potrebbe ispirare altre democrazie in Europa.
La Germania tra governance strategica e applicazioni in aula
In Germania il percorso di introduzione dell’AI nei processi parlamentari si caratterizza per un approccio metodico e per alcune applicazioni pratiche già operative, specie nel Bundesrat (la camera alta), oltre a una pianificazione strategica avanzata nel Bundestag (camera bassa).
Bundestag. Il Bundestag ha sviluppato un quadro organico per identificare e prioritizzare le possibili applicazioni dell’AI nei suoi processi interni. In particolare, è stato elaborato il cosiddetto modello AI Cloverleaf (quadrifoglio AI), concepito dall’Unità AI del parlamento tedesco, che funge da framework di governance per l’adozione coordinata dell’AI.
Questo modello suddivide le applicazioni dell’AI in tre domini interconnessi, corrispondenti alle diverse funzioni/servizi parlamentari: il lavoro legislativo (redazione di progetti di legge, preparazione di sedute di commissione, gestione del dibattito in aula), dove l’AI può aiutare in attività come la ricerca legale automatizzata o la generazione di briefing; i servizi di supporto (biblioteca, uffici studi, traduzione, infrastrutture IT), in cui l’AI può fornire strumenti di analisi testuale, supporto multilingue, sintesi di informazioni; l’amministrazione interna (risorse umane, contratti, gestione IT, conformità), dove l’AI può ottimizzare flussi di lavoro ripetitivi, migliorare i sistemi decisionali e allocare risorse in modo più efficiente [4].
L’aspetto cruciale del modello Cloverleaf è l’enfasi sul coordinamento trasversale: al centro del quadrifoglio c’è l’intersezione tra i tre domini, a indicare che molte applicazioni AI (come strumenti di elaborazione testuale, recupero di informazioni, analisi di dati) sono utili a più dipartimenti contemporaneamente.
Ciò incoraggia il parlamento a sviluppare soluzioni riutilizzabili e sinergiche, evitando la creazione di silos isolati e duplicazioni. Come nota Martin Kamprath, coordinatore AI del Bundestag, questo approccio pratico e concreto consente di realizzare economie di scala e apprendimento condiviso, poiché le stesse tecnologie di base possono servire esigenze diverse.
Inoltre, il framework funge da guida per assicurare che in ogni dominio siano posti controlli e bilanciamenti adeguati – in linea coi valori democratici – prima di implementare soluzioni AI.
Attraverso workshop collaborativi tra i vari dipartimenti, il Bundestag ha mappato processi e compiti specifici, individuando oltre 180 possibili casi d’uso concreti per l’AI.
Sebbene non tutti questi casi d’uso siano stati ancora attuati, il fatto di averli identificati sistematicamente indica un elevato grado di maturità strategica.
Il Bundestag sta così creando le condizioni per un’adozione dell’AI responsabile, dove ogni progetto è valutato non solo per la fattibilità tecnica, ma anche per la coerenza etica e normativa.
Questo approccio rientra nello sforzo di dotarsi di un’adeguata AI governance, così che l’introduzione di algoritmi non avvenga in modo frammentario o confliggente con i principi parlamentari.
Inoltre, emerge un altro aspetto fondamentale: l’uso dell’AI segue una rigorosa mappatura delle funzioni, garantendo che l’innovazione risponda a bisogni specifici ed evitando l’adozione acritica di soluzioni tecnologiche sterili.
Bundesrat. Il Bundesrat, camera che rappresenta i Länder, ha già implementato alcune tecnologie degne di nota. Una in particolare risponde a un’esigenza peculiare di questa istituzione: il conteggio dei voti in Aula.
Poiché nel Bundesrat i voti avvengono per alzata di mano ma con modalità complesse, il conteggio manuale era laborioso. È stato, pertanto, introdotto un sistema di conteggio voti basato su visione artificiale: 12 telecamere in Aula rilevano automaticamente le mani alzate in ogni banco, attribuiscono il voto alla delegazione del Land corrispondente e calcolano in pochi secondi l’esito, visualizzandolo su uno schermo per la presidenza.
Questo sistema ha portato l’accuratezza del conteggio al 99% circa, minimizzando il margine d’errore umano e accelerando le procedure di voto [12].
Si tratta di un esempio concreto di come l’AI possa migliorare l’efficienza anche in aspetti molto specifici del processo parlamentare.
Il Bundesrat, in collaborazione con il Bundestag, sta inoltre sperimentando sistemi di riconoscimento vocale per la redazione dei resoconti delle commissioni e per sottotitolare in diretta le sedute. L’obiettivo è giungere a una soluzione unificata per entrambe le Camere, attualmente oggetto di test comparativi, così da snellire il lavoro dei resocontisti e aumentare la tempestività dei verbali.
Un altro fronte è lo sviluppo di tool di sintesi automatica di testi normativi complessi: il Bundesrat ha segnalato l’interesse a disporre di riassunti per leggi o documenti di centinaia di pagine, ad uso sia interno (uffici stampa, comunicati) sia per una migliore comunicazione ai cittadini.
Almeno un Land tedesco ha già testato un prototipo di tale strumento, e i risultati saranno valutati a livello federale.
Infine, è in programma un rilancio del sito web istituzionale del Bundesrat con integrazione di un chatbot basato su modelli linguistici simile a ChatGPT, per permettere agli utenti di porre domande sul funzionamento e sulle attività della Camera ottenendo risposte immediate e personalizzate.
Questa iniziativa risponde alla necessità di intercettare un pubblico più giovane, che predilige l’interazione con servizi digitali conversazionali; un assistente virtuale ben calibrato potrebbe dunque fungere da guida per l’accesso ai dati su leggi e dibattiti, abbattendo le barriere informative.
L’esperienza tedesca mostra quindi un duplice approccio virtuoso: da un lato strategia e governance, dall’altro sperimentazione pratica e graduale implementazione.
Questa combinazione permette di avanzare nell’innovazione assicurando che essa avvenga sotto controllo e con una visione d’insieme, coprendo l’intero spettro dell’attività parlamentare, dalle funzioni legislative core ai servizi di supporto e comunicazione.
La Grecia e l’archivio intelligente come infrastruttura nazionale
Un ulteriore esempio proviene dalla Grecia, dove il Parlamento ellenico ha recentemente avviato un ambizioso piano di trasformazione digitale fondato sull’AI.
Nel maggio 2025 il Parlamento greco ha firmato un Memorandum di cooperazione con il Ministero della Governance Digitale e dell’Intelligenza Artificiale, dando il via a una partnership volta ad accelerare la transizione digitale parlamentare attraverso l’uso di soluzioni AI [13].
Come dichiarato da Nikitas Kaklamanis – Presidente del Parlamento – “il Parlamento ellenico dimostra come le istituzioni possano unire il peso della propria storia con l’audacia dell’innovazione”.
Il fulcro del progetto è l’integrazione con l’Artificial Intelligence Factory – PHAROS, un’infrastruttura nazionale per lo sviluppo di modelli linguistici in lingua greca.
Il Parlamento è il primo ente pubblico a supportare questa AI Factory, mettendo a disposizione il proprio vasto archivio di atti e documenti (dal 1844 ad oggi) e il flusso quotidiano di nuove informazioni prodotte, allo scopo di addestrare modelli di linguaggio naturale in greco.
Ciò significa che l’AI nazionale potrà apprendere dal corpus parlamentare (dibattiti, leggi, interrogazioni) migliorando la capacità di comprendere e generare testo in lingua greca in ambiti istituzionali.
La cooperazione si sviluppa su quattro pilastri principali: elaborazione, analisi e gestione automatica dei materiali parlamentari; valorizzazione del patrimonio culturale della Biblioteca parlamentare; sviluppo di un assistente digitale intelligente per rispondere alle domande dei cittadini in linguaggio naturale; ottimizzazione dei processi amministrativi interni tramite automazione.
Un risultato atteso a breve termine è la realizzazione di un motore di ricerca potenziato dall’AI sull’archivio parlamentare: sarà possibile cercare rapidamente interventi, interpellanze o temi specifici in tutta la storia parlamentare greca, cosa che finora richiedeva consultazione manuale di verbali cartacei.
Inoltre, l’AI consentirà di segmentare automaticamente i video delle sedute, semplificando la navigazione audiovisiva e garantendo l’attribuzione puntuale degli interventi ai singoli oratori, migliorando trasparenza e accessibilità.
Per governare questa trasformazione, è stato istituito un Comitato di monitoraggio e coordinamento congiunto, comprendente accademici (esperti in AI e scienze computazionali), dirigenti parlamentari e funzionari ministeriali.
Questo comitato avrà il compito di supervisionare l’implementazione del Memorandum e assicurare che le soluzioni sviluppate rispettino sia gli obiettivi tecnici sia le garanzie legali.
Il caso greco evidenzia l’importanza di una collaborazione interistituzionale: il parlamento da solo spesso non dispone di tutte le competenze e infrastrutture per sviluppare AI avanzate, ma alleandosi con organismi governativi specializzati può acquisire tecnologia e know-how mantenendo però la sovranità sui propri dati e orientando i progetti verso le proprie esigenze specifiche.
Un quadro in evoluzione: dall’automazione documentale al ciclo legislativo
L’analisi comparata dei casi di studio di cui sopra evidenzia come l’applicazione dell’AI in ambito parlamentare si stia consolidando lungo filoni ben definiti: l’automazione dei processi documentali e di traduzione, l’interazione con i cittadini tramite interfacce conversazionali, l’analisi dei dati legislativi, la ricerca documentale avanzata e persino la sperimentazione deliberativa.
In questo mosaico di innovazioni, un tassello fondamentale riguarda l’assistenza alla redazione legislativa e la gestione delle procedure d’aula. Su questa frontiera specifica, il Senato della Repubblica italiana rappresenta un caso di eccellenza tecnologica.
Palazzo Madama ha abbracciato l’innovazione con un approccio pragmatico, sviluppando in-house soluzioni avanzate come GEM (Gestore EMendamenti), la suite per la gestione degli emendamenti.
Grazie a questi sistemi, l’amministrazione ha potuto gestire ed elaborare milioni di emendamenti e rendicontare migliaia di ore di sedute con efficienza.
Tali applicativi sono oggi citati dal Centre for Innovation in Parliament dell’IPU tra le best practice a livello internazionale, a dimostrazione di come l’AI e l’informatizzazione siano ormai essenziali per la tenuta funzionale delle assemblee [5].
Tuttavia, gli esempi citati costituiscono solo la punta dell’iceberg di uno sviluppo molto più capillare. Se nel 2016 l’uso dell’AI era limitato all’1% a livello sperimentale e nel 2020 solo il 10% dei parlamenti mondiali aveva adottato qualche forma di automazione (con appena il 6% legato al drafting legislativo) [2], oggi lo scenario europeo è radicalmente mutato.
Secondo i dati raccolti dalla Camera polacca nel giugno 2025, l’adozione è ormai sistemica nei 27 Stati membri. Le applicazioni più diffuse riguardano la trascrizione automatica delle sedute d’Aula (in uso presso 27 Parlamenti/Camere) e delle commissioni (14 amministrazioni parlamentari).
Accanto alla verbalizzazione, cresce l’uso di algoritmi per la sintesi di bozze di leggi, rapporti e trascrizioni in linguaggio semplificato, e anche la ricerca di informazioni su disegni di legge, votazioni, commissioni e altri aspetti del lavoro parlamentare.
Alla luce di questa diffusione pervasiva, nel capitolo seguente si analizzeranno nel dettaglio quali benefici tangibili queste innovazioni possano apportare all’attività parlamentare.
Benefici dell’AI nei parlamenti europei: efficienza, accesso, supporto
L’introduzione dell’AI nei parlamenti europei, come emerso dall’analisi comparata, non rappresenta un mero esercizio di modernizzazione tecnologica, bensì una leva strategica per perseguire obiettivi di efficienza, efficacia e accessibilità.
In questa sezione si analizzano i principali benefici tangibili derivanti dall’adozione di tali sistemi, sistematizzandoli in base ai principali ambiti di applicazione.
Efficienza operativa e risparmio di risorse
Un primo macro-ambito di benefici riguarda la capacità dell’AI di automatizzare compiti ripetitivi o ad alta intensità di manodopera, liberando risorse umane preziose e riducendo i costi operativi.
Nello specifico, la trascrizione automatica dei dibattiti (speech-to-text) consente di ottenere verbali tempestivamente e con un impiego ridotto di stenografi, permettendo di tagliare le spese di trascrizione fino al 40%, come evidenziato dalle prime esperienze sul campo [10].
Analogamente, in contesti caratterizzati dal multilinguismo, l’automazione delle traduzioni evita l’onere di dover tradurre manualmente ogni singolo documento, garantendo comunque la piena fruibilità dei testi nelle diverse lingue.
Sul fronte della gestione della conoscenza, i sistemi di classificazione documentale basati su AI sono in grado di archiviare e indicizzare automaticamente migliaia di atti parlamentari, permettendo un reperimento delle informazioni decisamente più rapido ed efficace rispetto agli archivi tradizionali o ai database con etichettatura manuale.
Infine, anche le operazioni puramente amministrative – come la calendarizzazione di riunioni e lo smistamento della corrispondenza – possono essere delegate ad agenti software tramite soluzioni di Robotic Process Automation (RPA), in linea con quanto suggerito dalle linee guida dell’IPU [14].
Il risultato complessivo è un netto aumento della produttività degli staff parlamentari, che possono così distogliere l’attenzione dalle incombenze burocratiche per dedicarla ad attività di analisi e supporto qualificato.
Accesso, trasparenza e nuovi canali verso i cittadini
Un secondo ambito cruciale riguarda il ruolo dell’AI nel rendere le istituzioni parlamentari più aperte e intellegibili.
L’adozione di queste tecnologie permette di ridurre drasticamente i tempi di pubblicazione delle trascrizioni, consentendo agli elettori e agli stakeholder di seguire quasi in diretta i lavori d’aula, superando i tradizionali ritardi nella diffusione dei resoconti ufficiali [10].
Inoltre, l’AI offre strumenti potenti per abbattere le barriere cognitive: gli algoritmi possono generare sintesi in linguaggio non tecnico di progetti di legge o relazioni, aiutando i non addetti ai lavori a comprendere la portata di atti normativi complessi [14].
In senso più ampio, i chatbot e gli assistenti virtuali configurano un nuovo canale di comunicazione diretta: anziché dover navigare attraverso manuali di procedura o architetture web complesse, il cittadino può interrogare l’istituzione in linguaggio naturale, ottenendo risposte immediate e pertinenti.
Tali strumenti, se implementati con rigore, hanno il potenziale di ridurre la distanza tra Parlamento e cittadinanza, intercettando in particolare le fasce demografiche più giovani, abituate a modalità di interazione conversazionale.
L’AI si rivela inoltre uno strumento decisivo per potenziare la partecipazione pubblica ai processi legislativi (public engagement).
Grazie alle tecniche di elaborazione del linguaggio naturale, è oggi possibile raccogliere e sintetizzare rapidamente migliaia di contributi inviati dai cittadini – come nel contesto di consultazioni pubbliche o petizioni online – estraendo i temi ricorrenti e offrendo ai parlamentari una mappa concettuale delle posizioni emerse [14].
In tale prospettiva, l’adozione di piattaforme di deliberazione assistita – sul modello di Pol.is, utilizzato con successo a Taiwan per individuare aree di consenso e dissenso normativo tramite il clustering delle opinioni [2] – rappresenta una frontiera promettente anche per il contesto europeo.
Tali strumenti consentirebbero di gestire consultazioni su larga scala in modo più efficace, aiutando i legislatori a decodificare il sentiment dell’opinione pubblica su temi complessi senza incorrere nel rischio di sovraccarico informativo derivante dalla lettura di migliaia di contributi individuali non strutturati.
Supporto alle attività legislative e decisionali
Forse l’ambito più promettente è quello in cui l’AI funge da assistente intelligente per parlamentari e funzionari durante il ciclo legislativo.
Sistemi di ricerca e analisi semantica sono oggi in grado di scandagliare istantaneamente vasti archivi normativi e giurisprudenziali alla ricerca di precedenti, testi analoghi o conflitti normativi.
Un algoritmo può confrontare un nuovo disegno di legge con l’intero corpus legislativo vigente per evidenziarne sovrapposizioni o incongruenze [14]. Questo aiuta ad assicurare coerenza e a evitare duplicazioni legislative.
Inoltre, l’AI apre nuove frontiere nell’Analisi di Impatto della Regolamentazione (AIR): attraverso modelli predittivi è possibile simulare gli effetti attesi ex ante di una proposta, individuando possibili conseguenze inattese sulla base di serie storiche e statistiche, sebbene tali applicazioni predittive si trovino ancora in una fase prevalentemente sperimentale [15].
Nel processo emendativo, il caso italiano offre un esempio di eccellenza nella gestione dei grandi volumi documentali.
Il sistema GEM, sviluppato internamente al Senato, utilizza svariate tecnologie, tra cui algoritmi di clustering testuale per raggruppare rapidamente emendamenti dal contenuto simile [5].
Tale funzionalità consente di trattare congiuntamente – in fase di discussione e voto – proposte emendative sostanzialmente identiche, razionalizzando i lavori d’Aula.
Lo strumento si rivela strategico soprattutto in contesti di ostruzionismo, caratterizzati dalla presentazione di migliaia di emendamenti volti a rallentare l’iter di approvazione: l’AI rileva sistematicamente tali ridondanze, supportando la Presidenza nell’organizzazione efficiente delle votazioni.
È cruciale sottolineare che, nel modello GEM, l’output algoritmico rimane sempre soggetto a verifica umana: il personale del Senato valida i raggruppamenti proposti, modificandoli ove necessario, prima che essi producano effetti procedurali.
Ciò garantisce che nessuna decisione sulla sorte degli emendamenti sia delegata alla macchina in assenza di supervisione.
Ulteriori benefici decisionali derivano da strumenti di analisi dei dati parlamentari: con tecniche di data mining, si possono identificare pattern e tendenze legislative, quali priorità e aree di interesse che richiedono maggior attenzione.
Inoltre, è possibile identificare indicatori di performance legislativa (KPI legislativi) che le commissioni possono usare per valutare l’efficacia del processo legislativo [14].
Rafforzamento della capacità analitica e conoscitiva
Infine, l’AI agisce da moltiplicatore della base informativa a disposizione dei decisori pubblici.
Attraverso tecniche di machine learning, diviene possibile correlare informazioni provenienti da fonti eterogenee – indicatori economici, letteratura scientifica, sentiment dei social media – fornendo sintesi evidence-based preziose per elevare la qualità del dibattito parlamentare.
Inoltre, algoritmi di profilazione e analisi delle reti possono supportare l’identificazione di esperti, stakeholder e report di ricerca rilevanti su specifici temi, analizzando grandi volumi di pubblicazioni accademiche e professionali [14].
Tale funzionalità ottimizza l’attività istruttoria delle Commissioni, consentendo ai parlamentari di convocare audizioni mirate e di accedere tempestivamente alle fonti più qualificate e aggiornate.
Dalle opportunità alle sfide: un quadro di sintesi
Occorre infine precisare che la rassegna qui proposta non ha pretese di esaustività: lo spettro delle potenziali applicazioni è in continua evoluzione e quelli esposti rappresentano solo i casi d’uso più consolidati. In estrema sintesi, i benefici dell’AI per i parlamenti possono essere ricondotti a quattro direttrici fondamentali: accelerazione (processi più rapidi), migliore informazione (supporto analitico e conoscitivo potenziato), maggiore apertura (trasparenza e coinvolgimento del pubblico) e ottimizzazione (uso più efficiente delle risorse umane e finanziarie).
Tuttavia, la concretizzazione di tali vantaggi non costituisce un automatismo, né il percorso è esente da criticità. Come si vedrà nel capitolo successivo, l’adozione dell’AI porta con sé una serie di rischi e sfide complesse – di natura tecnica, etica, sociale e infrastrutturale – che richiedono un’attenta ponderazione e la predisposizione di adeguate misure mitigative.
Rischi e criticità dell’AI nei parlamenti: cosa può andare storto
A fronte delle indubbie opportunità descritte, l’integrazione dell’AI nei processi parlamentari non è esente da zone d’ombra.
L’adozione di tali tecnologie solleva infatti interrogativi complessi di diversa natura, che investono anche il cuore stesso della rappresentanza democratica. Di seguito si analizzano i principali nodi critici emersi tanto dal dibattito dottrinale quanto dalle prime esperienze sul campo.
Bias algoritmici e qualità dei dati
Un assioma fondamentale dell’informatica recita che la qualità degli output dipende imprescindibilmente dalla qualità dei dati di input (garbage in, garbage out). Se i dataset parlamentari o amministrativi utilizzati per l’addestramento contengono errori, lacune o – ancor peggio – distorsioni sistematiche, l’AI tenderà inevitabilmente a replicarle o amplificarle.
Un problema noto è il cosiddetto bias linguistico-culturale: diversi studi hanno dimostrato che modelli generativi (come le varie versioni di GPT) possono fornire risposte con un orientamento politico variabile a seconda della lingua utilizzata.
È stato osservato che gli output tendono ad apparire più conservativi se sollecitati in lingue associate a contesti socio-politici più tradizionalisti – come il polacco – e più progressisti in lingue come lo svedese [16].
Traslando questo rischio in ambito parlamentare, le conseguenze possono essere sottili ma insidiose. Se un algoritmo di sintesi venisse addestrato prevalentemente su documenti redatti in linguaggio burocratico, potrebbe produrre riassunti oscuri per il cittadino medio, vanificando l’intento di semplificazione e accessibilità.
Analogamente, un sistema di analisi legislativa potrebbe involontariamente sovrastimare argomenti ricorrenti nel passato a scapito di prospettive nuove o minoritarie, risultando intrinsecamente conservatore.
Dati sbilanciati possono portare a output sbilanciati, pertanto per ridurre i bias diviene essenziale l’utilizzo di dati di addestramento curati e di alta qualità (high-quality, curated training data).
A ciò si aggiunge il problema dell’opacità: i modelli di AI, specialmente quelli basati su deep learning, operano spesso come black box (scatole nere). Anche in assenza di un bias intenzionale, possono emergere pregiudizi impliciti difficili da individuare all’interno di grandi corpora.
Tale criticità è stata ampiamente dibattuta nel contesto delle audizioni della Commissione speciale AIDA (Artificial Intelligence in a Digital Age) del Parlamento europeo, dove gli eurodeputati hanno espresso forti timori sulla capacità dell’AI di perpetuare disuguaglianze strutturali [3].
A supporto di tali tesi vengono spesso citati precedenti inquietanti in ambito pubblico: in Austria, un sistema di assegnazione di servizi sociali ha penalizzato i cittadini in base a criteri discriminatori legati alle prospettive occupazionali, mentre nei Paesi Bassi l’algoritmo antifrode SyRI ha colpito in modo sproporzionato i residenti di quartieri a basso reddito.
Sebbene questi casi non riguardino direttamente l’attività legislativa, evidenziano un rischio sistemico: se un parlamento si affidasse acriticamente a sistemi di scoring o analisi di dati sociali per indirizzare le proprie politiche, potrebbe finire per legittimare analisi distorte, influenzando la produzione normativa in modo sfavorevole per le categorie più vulnerabili.
Sovranità digitale e dipendenza da terze parti
Una seconda criticità strutturale riguarda la dipendenza tecnologica. Molti sistemi di AI avanzata – specialmente i Large Language Models (LLM) e le infrastrutture di cloud computing necessarie per sostenerli – sono forniti da attori privati, sovente extra-europei (in primis le Big Tech statunitensi).
Ciò solleva un duplice ordine di questioni in capo alle istituzioni rappresentative.
In primo luogo, emerge il problema della sovranità sui dati: affidare la trascrizione dei dibattiti o l’analisi di documenti riservati a un servizio esterno comporta necessariamente la trasmissione di tali informazioni al di fuori del perimetro di sicurezza dell’istituzione.
Anche in presenza di contratti con rigide clausole di riservatezza, permane il rischio potenziale che informazioni sensibili possano essere esposte o intercettate, specialmente se il servizio AI è erogato tramite cloud pubblico.
Le strategie di mitigazione variano: nel caso della Spagna, la soluzione implementata è fornita da un’azienda nazionale che opera su infrastrutture dedicate, attenuando i rischi di esfiltrazione.
Analogamente, il sistema GEM del Senato italiano è un’applicazione sviluppata in-house, garantendo il pieno controllo dei dati.
Tuttavia, laddove un parlamento decidesse di ricorrere direttamente alle API di piattaforme commerciali globali per riassumere testi o analizzare dossier, i contenuti dei disegni di legge transiterebbero temporaneamente su server terzi.
Per fronteggiare tale rischio, diverse linee guida internazionali – come quelle adottate da Singapore per la pubblica amministrazione o le direttive del Congresso degli Stati Uniti – impongono divieti stringenti sull’inserimento di informazioni non pubbliche negli strumenti generativi commerciali, prescrivendo l’uso di ambienti controllati e richiedendo sistematicamente che ogni output generato dall’AI sia sottoposto a verifica umana per garantirne accuratezza e conformità alle norme sul copyright [2].
In secondo luogo, emerge il rischio della dipendenza tecnologica (vendor lock-in). Se un parlamento incardina i propri processi critici su software o modelli proprietari forniti da terzi, rischia di trovarsi vincolato a quel fornitore per futuri aggiornamenti, manutenzione e costi di licenza, senza reali alternative di mercato a breve termine.
Ancor più rilevante è il profilo politico: delegare funzioni cruciali a scatole nere di cui non si detiene il controllo algoritmico pone un serio problema di autodeterminazione istituzionale.
Tale consapevolezza ha innescato una tendenza verso lo sviluppo di modelli linguistici nazionali – come la Polonia con Polish Large Language Model – PLLuM [17], o la stessa Grecia con PHAROS [18] – e ad aderire a iniziative europee di cloud sovrano, per poter disporre di AI più trasparenti e controllabili.
Nel contesto parlamentare, ciò si traduce in una crescente preferenza per software open source o per soluzioni sviluppate in cooperazione interparlamentare.
A tal proposito l’IPU svolge un ruolo di collettore e promuove la condivisione di use case tra parlamenti: ad oggi, sono stati condivisi oltre 40 casi d’uso da parte delle assemblee di tutto il mondo, inclusi contributi significativi dalla Camera dei Deputati brasiliana, dal Parlamento estone, dal Parlamento europeo e da entrambe le Camere italiane.
Questa rete di scambio mira a evitare la duplicazione degli sforzi, permettendo alle istituzioni di innovare senza dipendere integralmente dalle logiche di mercato [1].
Affidabilità, errori e “automation bias”
Un altro nodo critico riguarda l’intrinseca fallibilità dei sistemi. Per quanto evoluti, gli algoritmi di AI rimangono strumenti probabilistici e non deterministici.
Un sistema di trascrizione con un tasso di errore anche marginale del 5–10% – oggi plausibile – mancherà inevitabilmente termini specifici o ne traviserà il senso; se ciò accadesse in un passaggio chiave di un dibattito legislativo, il significato potrebbe risultare alterato fino all’intervento di una correzione manuale.
Ancor più insidioso è il rischio derivante dai modelli generativi, propensi alle cosiddette allucinazioni: la generazione di contenuti sintatticamente plausibili ma fattualmente errati.
In un contesto istituzionale, le conseguenze possono essere severe: un riassunto automatico di un testo normativo che omette una clausola di salvaguardia potrebbe indurre i deputati a sottovalutare l’impatto di una norma, così come un chatbot istituzionale affetto da errori potrebbe erogare ai cittadini dati legislativi obsoleti, minando la fiducia nelle fonti ufficiali.
È dunque imperativo predisporre rigidi protocolli di validazione umana a valle dell’output. Tuttavia, tale misura di sicurezza nasconde una trappola cognitiva nota in letteratura scientifica come automation bias: la tendenza degli operatori umani a fare eccessivo affidamento sui sistemi di supporto decisionale, riducendo progressivamente la propria soglia di vigilanza critica, specialmente in presenza di carichi di lavoro elevati.
Come evidenziato da alcuni studi sulla complacency nell’interazione uomo-macchina, se il sistema si dimostra affidabile per lungo tempo, l’operatore tende a smettere di cercare conferme o errori, trasformando la supervisione in una mera ratifica formale [19].
In ambito parlamentare, ciò può tradursi in un rischio concreto: gli stenografi o i funzionari potrebbero abituarsi a non rileggere integralmente le bozze prodotte dall’AI, lasciando che errori sottili filtrino nei record ufficiali.
In questo dominio, deve vigere un principio di precauzione digitale: la certezza del diritto e l’accuratezza del dato devono prevalere sull’efficienza temporale, richiedendo controlli incrociati costanti anche a costo di rallentare i flussi operativi.
Ostruzionismo algoritmico e disinformazione: nuovi abusi possibili
Una minaccia inedita riguarda l’uso antagonistico dell’AI nei processi democratici. In particolare, è stato teorizzato, e in parte già sperimentato, il rischio di un blocco dell’iter legislativo tramite emendamenti generati da AI.
Con i moderni strumenti di Generative AI, è diventato banale produrre infinite variazioni su un tema – ad esempio migliaia di versioni sintatticamente diverse di un articolo aggiuntivo – creando una massa critica di emendamenti tecnicamente distinti ma sostanzialmente ripetitivi. Questo fenomeno, definibile come ostruzionismo algoritmico, mira a saturare la capacità di esame degli uffici parlamentari.
L’Italia offre un case study a livello globale. Il record assoluto è stato raggiunto durante la XVII legislatura, in occasione della discussione sulla Riforma Costituzionale. In un solo giorno, il 23 settembre 2015, furono presentati ben 82.730.460 emendamenti, generati attraverso un algoritmo.
La quasi totalità fu dichiarata irricevibile dall’allora Presidente del Senato, Pietro Grasso, motivando la decisione con l’oggettiva impossibilità di “vagliare nel merito l’abnorme numero di emendamenti, se non al prezzo di creare un precedente che consenta di bloccare i lavori parlamentari per un tempo incalcolabile”.
Il caso evidenzia tuttavia anche la risposta tecnologica: nonostante la mole di dati, gli uffici del Senato – supportati da una versione sperimentale dell’attuale sistema GEM – riuscirono a gestire, processare e classificare l’intera mole di atti in soli tre giorni [5].
L’episodio mostra come l’AI possa potenziare le tattiche ostruzionistiche e che quindi le assemblee debbano dotarsi di strumenti sempre più sofisticati per analizzare e disinnescare tentativi di paralisi procedurale.
Parallelamente ai rischi procedurali, l’AI potrebbe essere usata per generare disinformazione nel contesto parlamentare.
L’uso di deepfake testuali o audiovisivi rende tecnicamente possibile la fabbricazione di dichiarazioni apocrife di parlamentari, la contraffazione di comunicati stampa o persino la creazione di bozze legislative fittizie, con l’intento di confondere gli stakeholder o screditare gli avversari politici.
La penetrazione di tali contenuti artefatti nelle discussioni d’Aula o nel circuito mediatico rischia di distorcere gravemente il processo decisionale.
Sul piano regolatorio, il tema è inquadrato come rischio di integrità informativa: in Spagna, nel marzo 2025, il Governo ha approvato una misura legislativa che introduce obblighi di etichettatura dei contenuti AI e sanzioni in caso di mancata segnalazione, in coerenza con l’impostazione europea [20].
A livello UE, l’AI Act prevede infatti specifici obblighi di trasparenza per i deepfake e, in determinati casi, per contenuti testuali generati o manipolati [21].
Ne consegue l’esigenza, per i parlamenti, di adottare strumenti e protocolli di verifica dell’autenticità delle informazioni impiegate nei lavori, includendo anche soluzioni di rilevazione automatizzata dei contenuti sospetti.
Fiducia pubblica, legittimità e responsabilità
Un profilo di rischio immateriale, ma di portata sistemica, concerne l’impatto sulla fiducia dei cittadini nelle istituzioni rappresentative.
La democrazia parlamentare non si fonda solo sull’efficienza degli output, ma anche su simboli e rituali di deliberazione pubblica che garantiscono la legittimità del decisore.
Qualora nell’opinione pubblica si radicasse la percezione che leggi e decisioni siano di fatto plasmate da logiche algoritmiche, potrebbero acuirsi sentimenti di alienazione e sfiducia verso la politica.
Questo scenario impone un radicale sforzo di trasparenza: le assemblee dovranno comunicare con chiarezza quando e come utilizzano l’AI, ribadendo che si tratta di strumenti ausiliari e che la discrezionalità politica rimane una prerogativa esclusiva degli eletti.
L’accountability deve restare saldamente nelle mani della componente umana, preservando quella che in letteratura è definita riserva di umanità [22], implicita anche nel mandato rappresentativo.
Strettamente connesso è il nodo della responsabilità giuridica (liability): se un bias o un errore di un sistema AI conducesse a una decisione legislativa viziata o discriminatoria, come si configurerebbe l’imputabilità?
Allo stato attuale, la responsabilità ricade sull’operatore umano (il decisore politico o il funzionario che ha validato l’atto), ma l’evoluzione tecnologica richiederà verosimilmente una codificazione più puntuale per evitare vuoti di tutela.
In tale direzione si muove l’AI Act europeo, che impone obblighi precisi ai fornitori e agli utilizzatori di sistemi ad alto rischio, includendo requisiti tassativi di supervisione umana e gestione del rischio [23].
Un parlamento che impieghi l’AI in processi sensibili dovrà pertanto allinearsi a tali standard, implementando rigorose valutazioni d’impatto, documentando il funzionamento degli algoritmi e garantendo un oversight umano qualificato [24].
Bilancio delle sfide e prospettive di intervento
Riassumendo, la tassonomia dei rischi associati all’AI parlamentare si articola su più livelli: dalle distorsioni tecniche (bias e discriminazione) alle vulnerabilità infrastrutturali (perdita di sovranità sui dati), dalle incognite sull’affidabilità (errori e allucinazioni) fino alle minacce esterne (usi malevoli e ostruzionismo) e al conseguente deficit di fiducia istituzionale. Tali criticità non possono essere affrontate con un approccio meramente tecnico, ma richiedono risposte strutturate sotto forma di misure mitigative e di governance. È proprio su questo terreno – quello del mantenimento del controllo umano e della definizione di salde cornici regolatorie – che si concentra la sezione seguente.
Il fattore umano nell’AI parlamentare: loop, comando e governance
Un principio cardine per un’adozione responsabile dell’AI in ambito parlamentare risiede nel mantenimento di un adeguato controllo umano sui processi e sulle decisioni supportate dalla tecnologia.
In letteratura e nelle policy emergenti si fa costante riferimento ai concetti di human-in-the-loop (umano nel ciclo) e human-in-command (umano al comando); un paradigma, quest’ultimo, adottato esplicitamente anche dal Senato italiano nella gestione degli strumenti di supporto legislativo.
È dunque opportuno chiarire l’esatta portata di tali definizioni e interrogarsi se esse siano, di per sé, sufficienti a garantire la sicurezza e il pieno rispetto dei valori democratici.
Dall’addestramento all’uso: Human-in-the-loop come ecosistema
Per comprendere la profondità del controllo necessario in ambito parlamentare, è indispensabile superare una visione generica della supervisione e adottare le categorie analitiche fornite dalla letteratura scientifica.
In una prima fase, quella dell’apprendimento e dell’addestramento, la disamina dello stato dell’arte condotta da alcuni ricercatori [25] definisce il concetto di Human-in-the-loop Machine Learning non solo come strumento per migliorare l’accuratezza, ma come un ecosistema di interazione avanzata.
All’interno di questo ombrello, gli autori identificano tre approcci distinti basati su chi detiene il controllo del learning process:
- Active Learning: in cui il sistema guida l’apprendimento e tratta l’operatore umano come un oracolo interpellato solo per annotare dati incerti.
- Interactive Machine Learning: caratterizzato da un’interazione più stretta e frequente, dove l’utente fornisce feedback continui e incrementali.
- Machine Teaching: dove il controllo si inverte e sono gli esperti umani di dominio a delimitare attivamente la conoscenza da trasferire al modello. Quest’ultimo approccio è particolarmente affine al contesto legislativo, dove i funzionari parlamentari insegnano alla macchina le specificità del linguaggio giuridico.
Accanto a queste modalità, la ricerca sottolinea l’importanza della Explainable AI (XAI): non è sufficiente che l’algoritmo risolva un problema con accuratezza, ma deve possedere la capacità di spiegare all’umano perché una data soluzione è stata scelta.
Il ruolo umano nell’interpretabilità dei risultati è ancora un campo di indagine aperto, ma rappresenta un prerequisito indispensabile per l’accountability.
Tre livelli di controllo: in-the-loop, on-the-loop, out-of-the-loop
Spostando l’analisi dalla fase di apprendimento a quella di esecuzione operativa, la dottrina (recepita anche in ambito difesa e sicurezza) distingue ulteriormente tre livelli di gradazione del controllo umano [5], fondamentali per calibrare il rischio:
- Human-in-the-loop: l’uomo è parte attiva del ciclo decisionale. La macchina esegue un compito ma si arresta prima di renderlo effettivo, attendendo la validazione umana. È il caso del sistema GEM del Senato: l’AI propone, l’uomo dispone.
- Human-on-the-loop: l’umano non interviene in ogni singola azione, ma supervisiona il processo dall’alto (monitoraggio), mantenendo la capacità di intervenire o abortire l’operazione in qualsiasi momento.
- Human-out-of-the-loop: la macchina agisce in completa autonomia senza possibilità di intervento umano immediato. Tale modalità, seppur efficiente, è generalmente considerata inaccettabile per le funzioni core del processo democratico, dovendo essere limitata a compiti a bassissimo rischio.
Tuttavia, queste architetture (sia di apprendimento che di esecuzione) costituiscono solo la condizione necessaria, ma non sufficiente, per la legittimità democratica.
È qui che subentra il livello superiore della governance, definito dal principio Human-in-command. Come esplicitato dal Senato della Repubblica, tale filosofia sancisce una gerarchia invalicabile: “gli esseri umani, e non le macchine, devono mantenere l’autorità, il controllo e la responsabilità ultima sulle decisioni”.
La distinzione è dirimente: mentre le categorie in/on/out of the loop descrivono le modalità operative, lo Human-in-command stabilisce quella che può definirsi una postura etico-giuridica.
In parole semplici, indipendentemente dal livello di autonomia del sistema, la macchina rimane ontologicamente uno strumento; l’umano è il comandante che decide quale livello di loop applicare e ne porta la responsabilità morale e legale.
Nel contesto parlamentare, ciò implica che l’atto di volontà politica o amministrativa deve essere sempre, in ultima istanza, riconducibile a una coscienza umana.
Dall’etica al diritto: l’AI Act e l’obbligo di human oversight
Questo paradigma di controllo non rappresenta più soltanto una best practice etica, ma è stato elevato a precetto giuridico vincolante.
L’AI Act trasforma il principio dello Human-in-command in disposizioni cogenti, enfatizzando che gli utilizzatori professionali (i cosiddetti deployers) devono mantenere il pieno controllo e la capacità di giudizio indipendente.
Nello specifico, come accennato, l’Articolo 14 (Human Oversight) stabilisce che i sistemi di AI ad alto rischio devono essere progettati e sviluppati in modo tale da poter essere efficacemente sorvegliati da persone fisiche durante tutto il periodo del loro utilizzo.
La norma non si limita a richiedere una presenza umana generica, ma dettaglia le capacità che l’operatore deve possedere per esercitare una sorveglianza effettiva. Tra queste, spiccano:
- Piena comprensione: la capacità di comprendere correttamente le capacità e i limiti del sistema e di monitorarne il funzionamento.
- Consapevolezza dell’automation bias: l’obbligo di rimanere consapevoli della tendenza a fare affidamento automatico o eccessivo sugli output della macchina.
- Potere di intervento: la capacità tecnica e l’autorità legale di interpretare l’output, decidere di non utilizzarlo, o – aspetto cruciale – di sovrascrivere (override) o interrompere il funzionamento del sistema in qualsiasi momento.
In ambito parlamentare, ciò si traduce in un vincolo operativo ineludibile. Anche qualora specifici strumenti di supporto interno non ricadessero formalmente nella classificazione dei sistemi ad alto rischio, la natura politica della funzione legislativa suggerisce di applicare per analogia i medesimi standard di garanzia.
Pertanto, i sistemi non devono mai dettare esiti vincolanti: l’ultima parola deve spettare sempre al funzionario o al politico, il quale deve poter dimostrare di aver esercitato un vaglio critico sostanziale e non una mera ratifica formale dell’output algoritmico.
Quando il controllo rischia di diventare “rubber stamping”
Tuttavia, il dibattito istituzionale non è privo di voci critiche circa l’effettiva tenuta di queste garanzie.
Durante le audizioni della Commissione speciale AIDA, diversi eurodeputati hanno espresso scetticismo sull’efficacia reale delle forme di supervisione.
Emblematica la posizione dell’eurodeputata Kim Van Sparrentak, che ha sollevato la questione se, in determinati ambiti sensibili, non sia preferibile escludere tout court gli algoritmi dal processo decisionale – data l’asimmetria di responsabilità rispetto agli esseri umani – piuttosto che accontentarsi della presenza di un operatore da qualche parte nel loop [3].
Il timore fondato è che la mera presenza umana possa non garantire automaticamente comprensione e accountability.
Se un algoritmo complesso elabora una decisione e l’umano deve giustificare a posteriori perché ha scelto di avallarla, quest’ultimo potrebbe non disporre degli elementi cognitivi per farlo, a causa dell’opacità intrinseca del sistema.
In altre parole, il paradigma Human-in-the-loop rischia di ridursi a una mera garanzia formale (o rubber stamping [26]) qualora l’operatore non comprenda a fondo la logica della macchina o si limiti a ratificare per routine le proposte dell’AI.
Da qui deriva l’insistenza dottrinale sui requisiti di trasparenza e spiegabilità: affinché il controllo umano sia effettivo e non solo formale, è indispensabile che i sistemi siano interpretabili e che i decisori politici e amministrativi siano adeguatamente formati per decodificarne i risultati.
Allargando lo sguardo alla dimensione sistemica, l’eurodeputato Sergey Lagodinsky ha posto l’accento sul rischio di una privatizzazione della funzione pubblica, qualora l’AI – prevalentemente sviluppata dal settore privato – finisca per sostituirsi alla discrezionalità umana nell’esercizio del potere [3].
Il cuore del monito risiede nel principio di accountability: la democrazia esige che le decisioni siano assunte da soggetti chiamati a risponderne di fronte al corpo elettorale.
Delegare porzioni crescenti di autorità a sistemi automatici proprietari rischierebbe di spostare il baricentro decisionale al di fuori del circuito democratico, consegnandolo di fatto a logiche aziendali opache.
Da qui emerge la richiesta di una legislazione e di un oversight democratico robusti, capaci di riequilibrare l’uso della tecnologia.
In termini operativi, ciò implica che la supervisione tecnica interna affidata ai funzionari (lo human-in-the-loop di cui si è parlato) non è condizione sufficiente; occorre affiancarla a un controllo esterno (external oversight [27]) sulle modalità di implementazione dell’AI.
Tale livello superiore di garanzia dovrebbe concretizzarsi attraverso audit indipendenti sugli algoritmi utilizzati, relazioni periodiche e pubbliche sull’impatto dell’AI nei lavori parlamentari e il coinvolgimento attivo dei diversi stakeholder (società civile, accademia, esperti) nella definizione delle linee guida etiche.
Governance dell’AI nei parlamenti: linee guida IPU e cornice AI Act
La transizione da un uso sperimentale a un’adozione strutturale dell’AI impone alle assemblee legislative un cambio di paradigma.
Se nella fase pionieristica l’innovazione era spesso guidata dall’iniziativa di singoli uffici o dipartimenti IT (bottom-up), la maturità tecnologica attuale richiede una strategia di governance olistica e centralizzata.
La sfida per i parlamenti è duplice: da un lato devono recepire le normative generali (come l’AI Act) in qualità di utilizzatori ad alto profilo, dall’altro devono esercitare la propria autonomia regolamentare per definire norme interne che tutelino la specificità della funzione legislativa.
Non si tratta solo di gestire server o software, ma di governare processi decisionali ibridi uomo-macchina.
In risposta a queste esigenze, e per mitigare i rischi di opacità e deresponsabilizzazione precedentemente analizzati, il panorama internazionale ha visto il proliferare di iniziative volte a fornire strumenti non solo concettuali, ma anche operativi.
Si sta passando, dunque, da una logica puramente tecnica a una visione di costituzionalismo digitale interno alle Camere.
Linee guida IPU: ruoli, responsabilità e gestione del cambiamento
In questo contesto di necessaria autoregolamentazione, un contributo decisivo è giunto dall’Unione Interparlamentare (IPU), che nel 2025 ha pubblicato le nuove Linee guida per l’AI nei Parlamenti [28].
Il documento si distingue per un approccio pragmatico e stratificato: anziché proporre una ricetta unica (one size fits all), le linee guida declinano responsabilità e principi differenziati per i tre attori chiave dell’ecosistema parlamentare: i vertici amministrativi, i parlamentari eletti e i manager tecnologici.
Il ruolo dei vertici amministrativi: strategia e gestione del cambiamento
Per gli alti funzionari parlamentari, le linee guida pongono l’accento sulla dimensione strategica. L’adozione dell’AI non deve essere guidata dalla tecnologia, bensì dagli obiettivi istituzionali. I principi cardine includono:
- Allineamento strategico: ogni iniziativa AI deve supportare direttamente gli obiettivi di lungo termine del Parlamento.
- Gestione del rischio e delle risorse: la necessità di implementare quadri globali per l’identificazione dei rischi e di garantire un’allocazione efficiente delle risorse finanziarie e umane.
- Gestione del cambiamento e coinvolgimento degli stakeholder: l’adozione di un approccio strutturato alla trasformazione organizzativa, accompagnato da programmi di formazione globale per il personale (upskilling). L’approccio raccomandato è quello di una agilità strutturata: iniziare con progetti pilota che apportino valore aggiunto immediato minimizzando i rischi, per poi scalare sulla base di indicatori di successo chiari.
- Monitoraggio delle prestazioni e degli impatti: ultimo ma non per importanza, la definizione di adeguati KPI (Key Performance Indicators) per monitorare non solo l’efficienza tecnica, ma l’effettiva implementazione dei sistemi e il valore pubblico generato.
Il ruolo dei Parlamentari: etica e supervisione politica
Ai deputati e senatori (MPs) spetta il compito cruciale della sorveglianza etica e politica. Le linee guida IPU identificano cinque pilastri inderogabili per gli eletti:
- Supervisione umana: l’AI deve essere intesa come strumento per aumentare, e mai sostituire, il processo decisionale umano.
- Trasparenza e Responsabilità: comunicazione chiara verso i cittadini su quando e come l’AI viene utilizzata, con strutture di accountability ben definite.
- Equità e Privacy: garanzia assoluta contro bias discriminatori e protezione robusta dei dati sensibili. Ai parlamentari è richiesto di non essere utenti passivi, ma di esercitare una oversight attiva sull’implementazione dell’AI, comprendendone sia le opportunità che i limiti intrinseci.
Il ruolo dei manager IT: architettura e sicurezza
Infine, per i responsabili dei sistemi informativi (IT Managers), il focus si sposta sulla solidità tecnica. I requisiti essenziali comprendono:
- Architettura e Sicurezza: progettazione di sistemi scalabili, manutenibili e dotati di misure di sicurezza proattive (security-by-design).
- Data Governance: implementazione di rigorosi protocolli per la qualità e la gestione dei dati, che sono il carburante dell’AI.
- Integrazione sistemica: garanzia che i nuovi strumenti AI si integrino fluidamente con i sistemi parlamentari preesistenti (legacy systems), evitando la creazione di silos tecnologici. La strategia tecnica suggerita è quella dello sviluppo iterativo, con cicli continui di test, validazione e monitoraggio delle performance.
Il modello proposto dall’IPU suggerisce che il successo dell’AI in Parlamento non dipenda dalla sola tecnologia, ma dalla capacità di gestire queste tre dimensioni – strategica, politica e tecnica – in un quadro di governance unitario e coerente.
AI Act: approccio basato sul rischio e valutazioni d’impatto
Il quadro di riferimento è oggi costituito dall’AI Act, che fornisce ai parlamenti nazionali non solo vincoli, ma una bussola metodologica.
La normativa adotta un approccio basato sul rischio (risk-based approach): vieta pratiche inaccettabili e impone requisiti di conformità severi per i sistemi classificati ad alto rischio.
Ne consegue che un sistema di AI utilizzato per decisioni incidenti su diritti fondamentali o sicurezza pubblica deve soddisfare requisiti di gestione del rischio, qualità dei dati, tracciabilità, trasparenza e supervisione umana.
Nel contesto parlamentare, sebbene molte applicazioni siano interne e non incidano direttamente sui diritti dei cittadini, esse possono comunque assumere rilevanza ad alto rischio quando contribuiscono, anche indirettamente, a decisioni pubbliche di impatto generale o a processi che orientano l’azione pubblica.
Un punto dirimente per le assemblee legislative, in qualità di utilizzatori (deployers) pubblici, risiede nell’Articolo 27, che introduce l’obbligo di Valutazione d’Impatto sui Diritti Fondamentali (FRIA) per specifiche classi di sistemi di AI ad alto rischio prima della messa in uso.
L’AI Act chiarisce inoltre la relazione di complementarità tra FRIA e DPIA (Data protection impact assessment – art. 35 del GDPR), delineando un modello di valutazione integrata dei rischi per i diritti e le libertà.
In prospettiva di governance, la FRIA non va interpretata come un mero adempimento documentale, bensì come un dispositivo organizzativo di responsabilizzazione.
La letteratura giuridica e sociotecnica evidenzia che l’efficacia delle valutazioni d’impatto dipende dalla loro traducibilità in misure operative (mitigazioni verificabili, procedure di reclamo e rimedio, responsabilità e criteri di aggiornamento).
In particolare, studi recenti sottolineano la necessità di criteri operazionali per stimare severità e probabilità degli impatti sui diritti, altrimenti l’architettura valutativa rischia di rimanere meramente formale [29].
In termini operativi, ciò comporta una due diligence rafforzata e, soprattutto, una governance lungo l’intero ciclo di vita del sistema.
La ricerca sull’AI nel settore pubblico converge sull’idea che la governance algoritmica richieda: (i) strutture (organi di indirizzo e controllo), (ii) processi (valutazioni ex ante, monitoraggio ex post, audit), (iii) capacità (competenze e AI literacy), e (iv) meccanismi di accountability, poiché l’uso di modelli in contesti pubblici produce conseguenze valoriali e politiche anche quando presentato come mera ottimizzazione tecnica.
Traducendo tali requisiti teorici nella prassi istituzionale, gli assetti minimi di governance per un parlamento che operi come deployer non possono limitarsi alla mera conformità burocratica, ma devono strutturarsi attorno a cinque pilastri operativi fondamentali:
- Classificazione del rischio e perimetrazione d’uso: mappatura dei casi d’uso (interni/esterni; supporto/automazione; effetti diretti/indiretti), con individuazione di criteri specifici di misura dell’impatto pubblico;
- Valutazioni d’impatto integrate e basate su evidenze: FRIA (Art. 27) e, ove applicabile, DPIA, con esplicita modellazione degli scenari di danno e dei gruppi potenzialmente colpiti, prevedendo aggiornamenti quando cambiano fattori di contesto o sistema;
- Tracciabilità e auditabilità come requisiti tecnici e organizzativi: predisposizione di registri conformi alla disciplina sui sistemi ad alto rischio (Art. 12), con regole su conservazione, accesso, separazione dei compiti e controlli indipendenti, al fine di garantire la ricostruzione ex post delle operazioni; la letteratura sugli audit end-to-end mostra che la tracciabilità è precondizione per l’attribuzione delle responsabilità [30];
- Gestione della qualità dei dati e prevenzione di distorsioni: politiche di data governance (qualità, rappresentatività, completezza, controllo dei drift), con ruoli chiari e registri delle trasformazioni, in coerenza con l’enfasi dell’AI Act sui dataset e sulla mitigazione dei rischi discriminatori;
- Supervisione umana sostanziale e non simbolica: definizione di punti di controllo (approvazione, override, escalation), formazione dei funzionari e attribuzione di autorità effettiva a chi esercita il controllo; le evidenze empiriche sulle percezioni dei cittadini indicano che opacità e insufficiente supervisione umana incidono direttamente su legittimità e fiducia nelle adozioni pubbliche di AI [31].
Infine, l’AI Act eleva la trasparenza a norma cogente (Art. 50): quando un cittadino interagisce con un chatbot o viene esposto a contenuti generati/manipolati, devono essere fornite informative chiare e distinguibili; inoltre, per testi generati/manipolati pubblicati con lo scopo di informare il pubblico su questioni di interesse pubblico, l’obbligo di disclosure è esplicitamente previsto, con eccezioni circoscritte. In chiave di governance parlamentare, ciò implica presidiare la filiera comunicativa, per prevenire asimmetrie informative e rischi di inganno cognitivo nel discorso pubblico.
Accountability algoritmica e architettura istituzionale
L’intero impianto di governance sin qui delineato converge verso il principio cardine dell’accountability algoritmica. Tale concetto impone il superamento della deresponsabilizzazione tecnologica: deve essere sempre identificabile un centro di imputazione di responsabilità, sia esso una persona fisica o un organo. A titolo esemplificativo, il Segretario Generale potrà rispondere delle scelte amministrative automatizzate, mentre la Presidenza di Commissione risponderà dell’uso di strumenti di supporto in ambito legislativo.
L’accountability presuppone inoltre la documentabilità: è indispensabile mantenere traccia di come il sistema abbia elaborato una determinata raccomandazione, per consentire uno scrutinio ex post. In prospettiva evolutiva, appare auspicabile l’introduzione negli organigrammi parlamentari di una figura di garanzia analoga al Data Protection Officer (DPO), ma focalizzata specificamente sull’AI – una sorta AI Ethics Officer – con il compito di monitorare la conformità degli algoritmi ai principi etici e regolamentari (una direzione verso cui si stanno muovendo le diverse istituzioni europee attraverso board di supervisione interna).
In conclusione, i principi di human-in-the-loop e human-in-command non costituiscono automatismi garantiti dalla tecnologia, ma obiettivi da perseguire attivamente. Essi vanno implementati attraverso misure concrete – supervisione qualificata, trasparenza radicale, capacità di intervento in tempo reale – e incardinati in un contesto di governance robusta fatta di policy, formazione continua e audit indipendenti. Solo a queste condizioni l’AI potrà rimanere uno strumento a servizio delle istituzioni e non trasformarsi in un decisore occulto dei processi democratici.
Questo scenario apre il campo all’interrogativo di fondo che attraversa l’intero lavoro: l’AI sta trasformando i parlamenti per rafforzare la democrazia rappresentativa, o si sta scivolando inconsapevolmente verso una nuova forma di tecnocrazia algoritmica? È su questo nodo cruciale che si concentra la discussione finale.
Discussione: parlamento aumentato o tecnocrazia algoritmica
L’analisi fin qui condotta delinea un quadro complesso e sfaccettato. Da un lato, le evidenze empiriche dimostrano che l’AI può essere integrata proficuamente nel funzionamento parlamentare senza stravolgerne l’architettura costituzionale: nella stragrande maggioranza dei casi osservati, la tecnologia svolge un ruolo ancillare e di supporto, agendo da moltiplicatore di efficienza per l’attività legislativa.
Dall’altro, permane una latente preoccupazione che l’ingresso massiccio di sistemi automatizzati nel processo democratico possa alterarne gli equilibri e la percezione pubblica.
Una prima considerazione rassicurante è che, allo stato attuale, i parlamenti stanno adottando l’AI quasi esclusivamente in ambiti tecnico-amministrativi, guardandosi bene dal delegare alla macchina la discrezionalità politica o il merito delle scelte normative.
Nessuna legge è oggi – né lo sarà nell’immediato futuro – scritta dall’AI in senso sostanziale. Anche nei casi più avanzati di sperimentazione, l’algoritmo ha fornito scenari e argomentazioni, ma la valutazione e la sintesi politica sono rimaste saldamente nelle mani dei deputati.
Non si riscontra, dunque, una deriva verso l’algocrazia (governo degli algoritmi) in senso puro, intesa come un sistema in cui le macchine assumono decisioni vincolanti sostituendosi ai rappresentanti eletti.
Tuttavia, con l’evolversi delle tecnologie, questa linea di confine rischia di assottigliarsi. Se in prospettiva un sistema AI fosse in grado di redigere bozze di legge complete o suggerire emendamenti puntuali basati su una presunta ottimizzazione dei dati, emergerebbe il rischio concreto che la complessità tecnica o l’inerzia cognitiva inducano i legislatori ad avallare acriticamente tali proposte.
Si profilerebbe così una forma di delegation by default: uno scenario in cui l’umano rimane formalmente al comando (in-command), ma sostanzialmente abdica alla propria funzione di giudizio perché riconosce alla macchina una superiorità epistemica.
In questo scenario, la minaccia non è la dittatura delle macchine, bensì una tecnocrazia algoritmica (o algocrazia soft): un assetto in cui le decisioni politiche non scaturiscono più dal conflitto dialettico e valoriale, ma vengono presentate come risultati inevitabili di calcoli ottimali, riducendo il parlamento a mero organo di ratifica.
La domanda chiave, dunque, non è se l’AI sia utile, ma se essa ridurrà o amplificherà la capacità del Parlamento di esercitare il proprio ruolo costituzionale.
I benefici analizzati suggeriscono un potenziale di amplificazione democratica: un’assemblea meglio informata, liberata da incombenze burocratiche ripetitive e capace di processare la complessità del reale grazie ai dati, è un’assemblea che può deliberare in modo più solido, consapevole e inclusivo.
Strumenti come la trascrizione multilingue o i chatbot informativi non sono vezzi tecnologici, ma ponti che riducono la distanza con la cittadinanza, potenziando la legittimità delle istituzioni.
In questa visione ottimistica, l’AI diviene uno strumento di emancipazione per il decisore pubblico: sottraendo tempo alla burocrazia per restituirlo alla politica, essa potrebbe paradossalmente riumanizzare il lavoro parlamentare, permettendo agli eletti di concentrarsi su ciò che nessuna macchina può fare: il giudizio di valore, la mediazione del conflitto e la visione del futuro.
D’altro canto, i rischi evidenziati mostrano che ciò non avverrà automaticamente. In assenza di presidi culturali e procedurali adeguati, l’AI potrebbe introdurre dinamiche distorsive all’interno delle assemblee: bias occulti che orientano subdolamente il taglio interpretativo dei dossier, opacità che impedisce al cittadino di ricostruire la genesi delle decisioni, e una pericolosa concentrazione di competenze in capo a ristrette élite tecniche (funzionari esperti o fornitori esterni), con la possibilità di aumentare l’asimmetria di potere all’interno delle istituzioni.
Si concretizza qui il rischio di una deriva tecnocratica di nuovo conio: se la tecnocrazia classica prevedeva il governo degli esperti in luogo dei politici, in futuro potrebbe assistersi a un governo degli algoritmi mediato dagli esperti.
Per scongiurare tale ipotesi, occorre non solo totale trasparenza metodologica, ma anche una vera e propria democratizzazione nell’uso degli strumenti: è imperativo che la classe parlamentare acquisisca un livello sufficiente di AI literacy per interrogare – o meglio ancora sfidare – le macchine e che le decisioni sull’adozione dei sistemi siano assunte in sedi collegiali e non delegate unilateralmente agli uffici tecnici.
Una riflessione centrale investe il concetto stesso di legittimazione democratica. Nella democrazia rappresentativa, il corpo elettorale accetta le decisioni perché assunte da rappresentanti politicamente responsabili.
Se si diffondesse la percezione che a decidere siano entità non elette e non intelligibili – siano essi tecnici o scatole nere algoritmiche – la catena di legittimazione rischierebbe di spezzarsi.
Pertanto, anche in un parlamento digitalizzato, è cruciale che gli eletti rimarchino costantemente il proprio ruolo deliberativo.
Potrebbe consolidarsi una prassi virtuosa che veda i relatori dichiarare in Aula quali algoritmi siano stati utilizzati e su quali giudizi politici si basino le decisioni assunte. In tal modo si andrebbe a ristabilire la corretta gerarchia tra supporto tecnico e volontà sovrana.
Va peraltro notato che il ricorso all’expert advice non è una novità introdotta dall’AI (i parlamenti si sono sempre avvalsi di uffici studi, consigli scientifici e pareri tecnici). La differenza sostanziale risiede nel pluralismo: mentre più esperti umani garantiscono la diversità delle vedute, l’adozione massiva di un singolo sistema algoritmico rischia di imporre una monocultura epistemica o un pensiero unico tecnocratico.
Per questo motivo, potrebbe rivelarsi salutare l’adozione di approcci multi-modello (confrontare i risultati di sistemi diversi per evitare bias specifici) o limitare l’uso dell’AI ad aspetti oggettivi, escludendo valutazioni di merito sulla bontà delle proposte di legge.
Nella discussione pubblica è emerso anche l’argomento che l’AI potrebbe ridurre la politicità di alcune scelte, spostandole sul terreno tecnico. Occorre sfatare il mito della neutralità: anche le scelte su come usare l’AI sono intrinsecamente politiche.
Si consideri il caso del raggruppamento degli emendamenti: se un algoritmo segnala che un emendamento è semanticamente identico a un altro, ciò appare come un fatto neutro. Tuttavia, la scelta procedurale di accorparli in un unico voto può avere un preciso riflesso politico.
Un parlamentare deve conservare il diritto di obiettare. L’integrazione dell’AI non deve restringere lo spazio della dialettica; al contrario, il vero banco di prova sarà la capacità della politica di rivendicare la facoltà di derogare ai suggerimenti algoritmici.
Il futuro del parlamentarismo si giocherà proprio su questo delicato bilanciamento tra l’efficienza computazionale e la flessibilità, talvolta irrazionale ma necessaria, della mediazione politica.
Volgendo lo sguardo al quadro d’insieme, l’analisi suggerisce che si è lontani oggi dal rischio di una deriva tecnocratica.
La diffusa consapevolezza dei rischi e la natura stessa delle assemblee parlamentari – quali fori di confronto pubblico e contraddittorio – agiscono da anticorpi: qualsiasi utilizzo improprio dell’AI verrebbe presumibilmente rilevato e denunciato dalle opposizioni o dagli organi di stampa.
Semmai, il pericolo maggiore potrebbe annidarsi nelle zone grigie, dove l’uso dell’AI è invisibile al pubblico e sottratto alla discussione d’Aula.
Un esempio potrebbe riguardare la presidenza di un’Assemblea che utilizzi un algoritmo opaco per gestire l’ammissibilità degli atti: in assenza di disclosure, sorgerebbero legittimi dubbi sull’imparzialità dell’organo di garanzia.
Per tale ragione, è necessario ribadire la necessità che ogni innovazione tecnologica sia accompagnata da protocolli di trasparenza e da regole chiare e pubbliche.
Un segnale incoraggiante giunge dalla vivacità della diplomazia parlamentare. La creazione di reti di scambio e la condivisione di best practices – come emerso nel Summit IPU delle Commissioni sul Futuro tenutosi a Montevideo nel 2023 [2] – testimoniano una volontà collettiva di governare l’AI in chiave democratica.
Questa cooperazione transnazionale riduce il rischio di derive isolate e favorisce lo sviluppo di standard comuni rispettosi dei valori dello Stato di diritto.
Inoltre, il protagonismo diretto dei parlamenti nel discorso sull’AI – sottraendo il monopolio del dibattito ai governi o alle Big Tech – costituisce di per sé un antidoto alla tecnocrazia, riportando la questione nell’arena della rappresentanza politica.
L’AI nei parlamenti è un mezzo potente che può sia rafforzare la democrazia (se impiegata per informare, includere e velocizzare) sia eroderla (se lasciata libera di sostituire il dibattito, concentrare il potere o introdurre bias occulti).
L’ago della bilancia non sarà la tecnologia in sé, ma la qualità della governance politica che sarà costruita attorno ad essa.
Allo stato attuale, l’approccio prevalente appare improntato a una sana gradualità, con l’essere umano saldamente al centro del ciclo decisionale.
Tuttavia, la vera sfida dei prossimi anni sarà mantenere questa centralità a fronte di sistemi sempre più performanti e pervasivi.
Ciò richiederà verosimilmente una stagione di riforme dei Regolamenti parlamentari. Sarà necessario aggiornare le fonti del diritto per disciplinare l’interazione uomo-macchina, introducendo norme che codifichino l’utilizzo degli strumenti algoritmici.
Il cantiere è aperto: l’obiettivo non è arrestare l’innovazione, ma costituzionalizzarla, affinché il Parlamento del futuro sia più efficiente grazie alle macchine, ma più umano nelle sue finalità. Il tema è aperto e in rapida e continua evoluzione.
Conclusioni: un’AI “al servizio”, non “al posto” del Parlamento
L’utilizzo dell’AI nei parlamenti europei è una realtà emergente che offre significative opportunità di modernizzazione delle istituzioni rappresentative, ma che va perseguito con attenzione e responsabilità.
I casi concreti analizzati dimostrano che l’AI può svolgere un ruolo prezioso nel migliorare l’efficienza (automatizzando trascrizioni, traduzioni, classificazione di documenti), nel facilitare l’accesso e la trasparenza (chatbot, sintesi di testi legislativi, analisi di contributi pubblici) e nel supportare l’attività legislativa e di controllo (ricerca di informazioni, gestione di emendamenti, analisi di dati complessi).
I benefici riscontrati – dal risparmio di tempo e risorse alla maggiore inclusività linguistica, fino all’ausilio nell’analisi delle politiche – suggeriscono che un parlamento augmented dall’AI potrebbe essere più efficace e vicino ai cittadini rispetto a uno che ne è privo.
Al contempo, la ricerca evidenzia che tali implementazioni devono avvenire entro limiti chiari e con contromisure adeguate ai rischi.
Bias algoritmici, errori e opacità rappresentano minacce concrete alla qualità e all’imparzialità dei processi parlamentari, mentre l’eventualità di un uso strumentale dell’AI (come per l’ostruzionismo legislativo) mostra che la tecnologia può essere piegata a fini antidemocratici se non regolata.
Human-in-the-loop e human-in-command emergono non come slogan, ma come principi operativi irrinunciabili: l’essere umano – siano essi i funzionari o, in ultima istanza, i rappresentanti eletti – deve restare al timone, con capacità di controllo e decisione finale su qualunque output generato dall’AI.
L’AI Act e le linee guida internazionali forniranno un quadro normativo entro cui incardinare queste garanzie, ma sarà fondamentale l’impegno di ogni parlamento nel tradurle in prassi concrete.
Non si è diretti verso una deriva tecnocratica: l’AI, di per sé, non trasforma un parlamento in un governo di macchine, se il parlamento rimane vigile custode del proprio ruolo.
Piuttosto, si è all’alba di un modello di parlamento aumentato, in cui tecnologia e processo democratico coesistono, e con la tecnologia che svolge una funzione di supporto.
Per realizzare questo modello in forma virtuosa, servirà una vigilanza costante: ogni innovazione dovrà essere vagliata non solo per l’efficienza, ma anche per la sua compatibilità con i principi di rappresentanza, pubblicità del processo, equità e inclusione.
Servirà anche una cultura istituzionale che abbracci il cambiamento senza farsi dominare da esso: ciò implica parlamentari consapevoli delle potenzialità e dei limiti dell’AI, disposti a sperimentare ma anche pronti a intervenire quando vi sia la minaccia di scavalcare il controllo democratico.
In ultima analisi, l’adozione dell’AI nei parlamenti europei può costituire un esempio positivo di come le democrazie sappiano innovarsi mantenendo fermi i propri valori.
L’AI può diventare un alleato della democrazia parlamentare – uno strumento che, nelle mani di rappresentanti responsabili, migliora la legislazione e rende il Parlamento più aperto e responsabile.
Oppure, in mancanza di cautele, potrebbe alimentare narrazioni di esautoramento della politica a vantaggio di poteri tecnici invisibili.
La differenza la faranno le scelte che le istituzioni compiranno oggi, nelle fasi iniziali di questa trasformazione.
La ricerca condotta in questo lavoro suggerisce che, almeno in Europa, si sta cercando di incanalare l’innovazione tecnologica in una direzione compatibile con la sovranità parlamentare e la partecipazione democratica – come sintetizzato dall’idea che le macchine possono ordinare dati e riconoscere schemi, ma sono gli esseri umani a dover scrivere le leggi e assumersene la responsabilità.
A tal proposito, è indispensabile demistificare la tecnologia ricordando sempre la sua vera natura: i sistemi di AI non sono entità senzienti, bensì strumenti matematici complessi, fondati su algebra e statistica, progettati per ottimizzare funzioni obiettivo su grandi moli di dati.
Pertanto, l’etica non risiede, né potrà mai risiedere, nella macchina stessa, ma appartiene esclusivamente – semplificando ai minimi termini – alla sfera di chi ne definisce l’architettura (i progettisti) e di chi ne governa l’impiego (nel caso in esame i parlamenti).
Sarà compito della comunità politico-istituzionale, affiancata dalla comunità scientifica, continuare a monitorare e guidare il processo di innovazione radicale in atto, affinché l’AI nei parlamenti resti al servizio della democrazia e non viceversa.
[1] Inter-Parliamentary Union, «Use cases for AI in parliament | Inter-Parliamentary Union», 2024. Disponibile su: https://www.ipu.org/innovation-tracker/story/use-cases-ai-in-parliament
[2] Popvox Foundation, «Representative Bodies in the AI Era: International Collaboration and Examples», 2024. Disponibile su: https://www.popvox.org/representative-bodies-in-the-ai-era/international
[3] A. Chiappetta, «Navigating the AI frontier: European parliamentary insights on bias and regulation, preceding the AI Act», Policy Review, dic. 2023, doi: 10.14763/2023.4.1733.
[4] Inter-Parliamentary Union, «Prioritizing AI use cases at the German Bundestag». Disponibile su: https://www.ipu.org/innovation-tracker/story/prioritizing-ai-use-cases-german-bundestag
[5] Ufficio Valutazione Impatto – Senato della Repubblica, «L’intelligenza artificiale in Senato Le nuove tecnologie informatiche hanno migliorato (e come) il processo legislativo?», 2025. Disponibile su: https://www.senato.it/4746?dossier=37445
[6] Polish Presidency of the EU Council, «Informal Meeting of the Secretaries General of the National Parliaments of the European Union and the European Parliament». Disponibile su: https://parleu2025.pl/en/news/30-june/
[7] M. Heikkilä, «POLITICO AI: Decoded: The EU’s AI rules — Finland talks to machines — Facebook’s fairness project», POLITICO. Disponibile su: https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-transatlantic-schisms-finland-talks-to-machines-facebooks-fairness-project/
[8] Riigikogu, «AI-powered verbatim records system (HANS)», Inter-Parliamentary Union. Disponibile su: https://www.ipu.org/ai-use-cases/ai-powered-verbatim-records-system-hans
[9] e-Estonia, «HANS, AI support tool for Estonian Parliament». Disponibile su: https://e-estonia.com/hans-ai-support-tool-for-estonian-parliament/
[10] «Pangeanic to implement AI transcription technology in Spanish Parliament». Disponibile su: https://blog.pangeanic.com/pangeanic-will-implement-ai-transcription-technology-in-spanish-parliament
[11] C. Guerrero, D. Rovirosa, F. Heller, e L. Zornoza, «Il Parlamento spagnolo approva l’uso di tutte le lingue ufficiali, mentre l’UE prende tempo», Euractiv Italia. Disponibile su: https://euractiv.it/section/politica/news/il-parlamento-spagnolo-approva-luso-di-tutte-le-lingue-ufficiali-mentre-lue-prende-tempo/
[12] B. Tech, «Transformative Digital Innovations in Parliamentary Operations: A Case Study of the German Bundesrat». Disponibile su: https://library.bussola-tech.co/p/digital-innovations-german-bundesrat
[13] K. Stratis, «Press Release: “The Hellenic Parliament is entering dynamically into the era of Artificial Intelligence.” – GRNET Website». Disponibile su: https://grnet.gr/en/2025/10/22/hellenicparliament-pressrelease-faros-ai/
[14] Inter-Parliamentary Union, «The role of AI in parliaments». Disponibile su: https://www.ipu.org/ai-guidelines/role-ai-in-parliaments
[15] OECD, «AI in policy evaluation: Governing with Artificial Intelligence». Disponibile su: https://www.oecd.org/en/publications/governing-with-artificial-intelligence_795de142-en/full-report/ai-in-policy-evaluation_c88cc2fd.html
[16] C. P. Walker e J. C. Timoneda, «Is ChatGPT conservative or liberal? A novel approach to assess ideological stances and biases in generative LLMs», Political Science Research and Methods, pp. 1–15, dic. 2025, doi: 10.1017/psrm.2025.10057.
[17] D. Tilles, «City becomes first to use Polish AI model to support local administration», Notes From Poland. Disponibile su: https://notesfrompoland.com/2025/08/11/city-becomes-first-to-use-polish-ai-model-to-support-local-administration/
[18] CORDIS | European Commission, «Pharos: The Greek AI Factory for accelerating AI innovation | Pharos | Project | Fact Sheet | HORIZON». Disponibile su: https://cordis.europa.eu/project/id/101234269
[19] R. Parasuraman e D. H. Manzey, «Complacency and Bias in Human Use of Automation: An Attentional Integration», Hum Factors, vol. 52, fasc. 3, pp. 381–410, giu. 2010, doi: 10.1177/0018720810376055.
[20] «Spain to impose massive fines for not labelling AI-generated content», Reuters, 11 marzo 2025. Disponibile su: https://www.reuters.com/technology/artificial-intelligence/spain-impose-massive-fines-not-labelling-ai-generated-content-2025-03-11/
[21] AI Act Service Desk, «Article 50: Transparency obligations for providers and deployers of certain AI systems». Disponibile su: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-50
[22] G. Gallone, Riserva di umanità e funzioni amministrative. Wolters Kluwer, 2023.
[23] EU Artificial Intelligence Act, «Article 14: Human Oversight». Disponibile su: https://artificialintelligenceact.eu/article/14/
[24] EU Artificial Intelligence Act, «Article 26: Obligations of Deployers of High-Risk AI Systems». Disponibile su: https://artificialintelligenceact.eu/article/26/
[25] E. Mosqueira-Rey, E. Hernández-Pereira, D. Alonso-Ríos, J. Bobes-Bascarán, e Á. Fernández-Leal, «Human-in-the-loop machine learning: a state of the art», Artif Intell Rev, vol. 56, fasc. 4, pp. 3005–3054, apr. 2023, doi: 10.1007/s10462-022-10246-w.
[26] E. M. R. Kleppe David Kiron, Steven Mills, and Anne, «AI Explainability: How to Avoid Rubber-Stamping Recommendations», MIT Sloan Management Review, 12 giugno 2025. Disponibile su: https://sloanreview.mit.edu/article/ai-explainability-how-to-avoid-rubber-stamping-recommendations/
[27] OECD, «Governing with Artificial Intelligence: The State of Play and Way Forward in Core Government Functions», OECD Publishing, set. 2025. doi: 10.1787/795de142-en.
[28] Inter-Parliamentary Union, «Guidelines for AI in parliaments – Key points for parliamentary IT managers; Guidelines for AI in parliaments – Key points for senior parliamentary managers; Guidelines for AI in Parliaments – Key points for MPs», 2025. Disponibile su: https://www.ipu.org/document/mission-report
[29] G. Malgieri e C. Santos, «Assessing the (severity of) impacts on fundamental rights», Computer Law & Security Review, vol. 56, p. 106113, apr. 2025, doi: 10.1016/j.clsr.2025.106113.
[30] I. D. Raji et al., «Closing the AI Accountability Gap: Defining an End-to-End Framework for Internal Algorithmic Auditing», 3 gennaio 2020, arXiv: arXiv:2001.00973. doi: 10.48550/arXiv.2001.00973.
[31] N. Feng e Y. Chandra, «Accountability in Government Use of AI: Citizen Concerns and Preferences», Public Administration – Wiley Online Library, 2025, Disponibile su: https://onlinelibrary.wiley.com/doi/10.1111/padm.70030?utm_medium=article&utm_source=researchgate.net
















