approfondimento

Disinformazione, una Commissione parlamentare ad hoc: ecco cosa fa



Indirizzo copiato

La disinformazione alimentata dall’AI generativa ha abbattuto costi e tempi della menzogna su larga scala. Mentre il Senato istituisce una Commissione d’inchiesta, il nodo vero resta la velocità: scuola, docenti e coordinamento europeo sono il terreno decisivo

Pubblicato il 19 mar 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



dipendenza da social; disinformazione commissione parlamentare
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Il 4 marzo 2026 il Senato della Repubblica ha approvato una delibera che istituisce una Commissione parlamentare di inchiesta sulla diffusione intenzionale e massiva di informazioni false attraverso la rete. L’atto, pubblicato in Gazzetta Ufficiale l’11 marzo, copre un perimetro ampio: dalla creazione di identità digitali false alla produzione di contenuti personalizzati attraverso i dati degli utenti, fino ai meccanismi di raccolta illecita di dati sensibili a fini politici.

La Commissione, sedici senatori, poteri assimilabili a quelli dell’autorità giudiziaria in materia di acquisizione documentale, budget di 50.000 euro annui, sarà operativa fino alla fine della XIX legislatura. Un segnale istituzionale significativo che presenta anche limiti strutturali evidenti: i tempi parlamentari e quelli dell’AI generativa non si misurano con lo stesso orologio.

Commissione parlamentare contro la disinformazione, il nodo scuole

Il punto più rilevante della delibera, spesso trascurato nel dibattito pubblico, è contenuto nell’articolo 2, lettera f): la Commissione dovrà verificare il livello di attuazione dell’insegnamento dell’educazione alla cittadinanza digitale nell’ambito dell’educazione civica, e la sua reale efficacia formativa. La scuola è contemporaneamente il terreno più esposto e lo strumento più promettente. Sul versante dell’esposizione, i dati sono preoccupanti. Solo il 9% degli adulti si ritiene in grado di riconoscere un deepfake.

Nelle scuole si registrano già casi di studenti che utilizzano tecnologie deepfake per produrre contenuti molesti o sessualmente espliciti che coinvolgono compagni e insegnanti, lasciando i legislatori a rincorrere norme di cyberbullismo inadeguate alla nuova realtà. Sul versante delle opportunità, la Commissione europea e l’OCSE stanno sviluppando un framework condiviso per l’AI literacy, la cui versione definitiva è attesa nel 2026, con l’obiettivo di supportare gli insegnanti nell’integrare queste competenze nei programmi curricolari. L’Italia ha la possibilità di agganciare questo processo: ma servono investimenti sui docenti, non solo indicazioni normative.

Il gap strutturale: norme lente, tecnologia veloce

Il problema di fondo non è la volontà politica, ma l’asimmetria della velocità. L’AI Act europeo prevede, a partire da agosto 2026, l’obbligo di etichettatura dei contenuti generati da AI e la trasparenza nelle interazioni sintetiche, con sanzioni fino al 6% del fatturato globale. Il Digital Services Act impone obblighi di trasparenza alle grandi piattaforme. La delibera del Senato aggiunge un livello di monitoraggio nazionale. Sono tutti strumenti necessari.

Ma la disinformazione guidata dall’AI ha già attraversato una soglia critica nel 2026: i deepfake sono diventati quasi indistinguibili dalla realtà. Secondo il Servizio di ricerca del Parlamento europeo, i modelli di AI generativa abbassano i costi e accelerano la capacità degli attori ostili, statali e non, di produrre e distribuire contenuti ingannevoli su scala.

Quali risposte servono contro la disinformazione AI generativa

Le priorità da affrontare, in particolare, sono tre.

Il ruolo decisivo della formazione dei docenti

Formare i docenti, non solo gli studenti. La cittadinanza digitale funziona solo se chi la insegna ha strumenti aggiornati. Il mandato della Commissione parlamentare sull’efficacia formativa dell’educazione civica digitale è utile, ma deve tradursi in risorse per la formazione continua degli insegnanti, non in audit a consuntivo.

Oltre il singolo falso: una capacità critica sistemica

Uscire dalla logica del singolo contenuto falso. Il problema non è più identificare la singola notizia falsa: è sviluppare una capacità critica sistemica di fronte a flussi di contenuti in cui reale e sintetico si mescolano continuamente. Come scrive l’UNESCO, non siamo di fronte a una semplice crisi della disinformazione, ma a una crisi della conoscenza stessa: i deepfake non introducono solo falsità nell’ecosistema informativo, erodono i meccanismi attraverso cui le società costruiscono una comprensione condivisa della realtà.

Il coordinamento europeo come livello necessario

Coordinamento europeo. Le risposte nazionali, compresa quella italiana, rischiano di restare frammentate. Il framework OCSE-Commissione europea sull’AI literacy, il DSA, l’AI Act sono il perimetro giusto: l’Italia deve essere protagonista attiva, non recettore passivo.

La Commissione parlamentare è un passo nella giusta direzione. La disinformazione generativa non aspetta però i tempi dei lavori parlamentari. Servirebbe una risposta che viaggiasse alla stessa velocità del problema.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x