dsa e ai act

Deepfake e propaganda: quali poteri ha Agcom sulle piattaforme



Indirizzo copiato

Agcom incrocia Dsa e Ai Act nella gestione dei contenuti manipolati: deepfake e content farm rendono più difficile distinguere vero e verosimile, con effetti sul dibattito civico e sui processi democratici. Le grandi piattaforme devono valutare e mitigare rischi sistemici, mentre l’Autorità opera tra limiti e margini d’intervento

Pubblicato il 22 dic 2025

Elisa Giomi

Commissaria Agcom



deepfakes

Come è noto, Agcom è stata designata Coordinatore dei Servizi Digitali ai sensi del Digital Services Act (Dsa), il Regolamento europeo entrato in vigore nel novembre 2022, assumendo un ruolo centrale nella supervisione delle piattaforme online e nella tutela dell’ecosistema digitale.

È forse meno noto, invece, che questo ruolo si intreccia con le sfide poste dall’intelligenza artificiale e con le previsioni del Regolamento che rappresenta il primo tentativo di disciplinarla nello spazio europeo, l’AI Act.

Agcom, Dsa e Ai Act: il perimetro dei contenuti manipolati

In questo testo provo a dare un saggio dell’interazione fra i due plessi normativi e delle competenze che ne derivano in capo ad Agcom. Per ragioni di brevità, l’esercizio è ristretto a un ambito preciso, ovvero quello dei contenuti manipolati artificialmente e potenzialmente capaci di alterare i processi democratici.

Come spiegherò, questi presentano numerosi effetti collaterali non solo a livello macro-sociale ma anche a livello micro-sociale, segnatamente sull’integrità cognitiva degli individui (e quindi sulla qualità delle loro relazioni). Si tratta di un aspetto che finisce spesso sullo sfondo ma sul quale ritengo importante insistere, anche per valorizzare, per contrasto, l’efficacia delle tutele normative esistenti.

Deepfake e propaganda: perché la manipolazione allarma l’ecosistema informativo

Facciamo un passo indietro. Uno dei casi che più hanno contribuito a generare comprensibile allarme per il disordine informativo potenzialmente prodotto da contenuti artificialmente generati risale al maggio dell’anno scorso, con la circolazione di video in cui star di Hollywood come Emma Stone e Brad Pitt sostengono la propaganda russa contro l’Ucraina.

Si tratta di interviste deepfake, realizzate tramite Ai e doppiate in francese e tedesco. Prima che la loro diffusione venga interrotta, ricevono migliaia di visualizzazioni su social network e piattaforme di condivisione video.

Contenuti fake fatti con l’Ai: la fatica epistemica richiesta agli utenti

Quando ci troviamo di fronte a contenuti come questi ci viene richiesta una vera e propria “fatica epistemica”, sostiene Lee McIntyre nel celebre “Post-verità” (Utet, 2019), necessaria per comprendere il rapporto tra quanto leggiamo o vediamo con la verità e la realtà.

L’informazione è vera? La sua “confezione” è autentica, cioè realizzata da umani, oppure è stata generata artificialmente? Prendiamo il caso, sempre più diffuso, dell’automated journalism, ovvero quel tipo di giornalismo caratterizzato dall’utilizzo dell’intelligenza artificiale per la creazione di articoli in maniera automatica, cioè grazie a piattaforme e software concepiti per la scrittura di testi. Qui le informazioni sono, di norma, vere, ma il contenuto è generato artificialmente.

Content farm e zona grigia: il mercato della plausibilità politica

Esistono tuttavia prodotti che si situano in una pericolosa zona grigia a metà tra realtà e finzione. Un’inchiesta condotta da Newsguard nell’aprile del 2024 ha portato alla luce l’esistenza di numerose content farm che, per prezzi decisamente abbordabili, compresi tra 30 e 350 dollari, realizzano interi siti in grado di autoalimentarsi.

Questi siti pubblicano decine di articoli al giorno tramite la Ai generativa, programmata per creare false storie in supporto o a sfavore di precisi esponenti politici. Sono quasi tutte riscritture di notizie vere, riportate senza citare la fonte, con aggiunta di particolari falsi oppure strategicamente decontestualizzati e ricontestualizzati in modo da apparire credibili.

Rischio epistemico e de-referenzializzazione

Molto difficile, insomma, distinguere dove finisce la realtà e dove inizia la sua plausibile riscrittura. Oltre alla “fatica epistemica”, la diffusione di deepfake comporta infatti anche il cosiddetto “rischio epistemico”, ovvero l’impossibilità di accertare la verità di un contenuto sulla base del confronto con la realtà empirica, fattuale, cioè con il referente esterno.

Sarebbe in atto un processo di “de-referenzializzazione” della conoscenza dovuto alla enorme pervasività e capacità della Ai — incomparabile rispetto a tecnologie e apparati di mediazione precedenti — nel produrre qualcosa che percepiamo come verosimile.

Viceversa, l’atteggiamento ormai quasi “fideistico” di gran parte dell’utenza nella validità delle risposte delle chatbot viene efficacemente inquadrato come una sorta di patologia della conoscenza detta “epistemia” (Quattrociocchi et al., 2025)[1]: l’illusione che quella restituita dai prompt che rivolgiamo alle chatbot sia, appunto, conoscenza, mentre si tratta invece di plausibilità superficiale, coerenza e autorevolezza apparente del linguaggio e del testo, che è però frutto di una approssimazione basata su pattern statistici.

Nelle interpretazioni più apocalittiche, quello che si consuma con la diffusione dei LLM sarebbe un vero e proprio complotto, un deliberato progetto delle big tech che, a fini commerciali, mirano a modificare irreversibilmente la nostra relazione con l’informazione (Patrick Lee Plaisance, 2025)[2].

Tra allarmismi e opportunità: l’AI come alleato contro la misinformazione

Mi pare importante ricordare che l’Ai è uno strumento utilissimo nel newsmaking, che ha consentito lo sviluppo di moltissime applicazioni — ad opera tanto di centri di ricerca e organizzazioni no profit quanto, soprattutto, di big tech — di importanza cruciale nel contrasto alla misinformazione, destinata inevitabilmente a correre più rapidamente di qualunque fact checker umano[3].

Si tratta allora di massimizzare i benefici di questa tecnologia e limitare o prevenire gli usi distorti, e in questo senso alcuni strumenti interessanti provengono dall’Ai Act. Non solo: l’interazione tra questo regolamento e il Dsa rende gli strumenti ancora più chirurgici e ritaglia alcune, significative competenze in capo ad Agcom.

Agcom, Dsa e Ai Act: quando l’AI diventa servizio intermediario

L’Ai Act (considerando 119) è molto chiaro: riconosce che l’intelligenza artificiale possa essere utilizzata per fornire “servizi intermediari” — o parti di essi — come quelli indicati nell’art. 3 del Dsa e stabilisce (considerando 118) che in tal caso il fornitore o utilizzatore di Ai dovrà rispettare, oltre all’Ai Act, anche la disciplina del Dsa.

Si intendono, per servizi intermediari, i servizi di cloud e di hosting, le piattaforme online come social media, market place, motori di ricerca, piattaforme di condivisione video e molto altro. Ad esempio, se l’intelligenza artificiale è utilizzata per fornire motori di ricerca online (la cosiddetta “ricerca generativa”), il prestatore di questo servizio — cioè chi fornisce il motore di ricerca — nel momento in cui si avvale dell’Ai è soggetto non solo alla disciplina dell’Ai Act ma anche del Dsa, che regola, appunto, lo sviluppo dei servizi online (questo in teoria: devono poi essere valutati i casi concreti).

Rischi sistemici e grandi piattaforme: chi fa cosa

Non solo: l’Ai Act rimanda espressamente al Dsa per la gestione dei rischi sistemici connessi a sistemi di Ai “integrati in piattaforme online di dimensioni molto grandi o motori di ricerca online di dimensioni molto grandi” (considerando 118).

Il Dsa stabilisce (art. 34) che i fornitori di VLOPs (very large online platforms) e di VLOSEs (very large online search engines) valutino ogni anno i possibili effetti negativi prodotti dai loro servizi su diritti fondamentali, dibattito civico, processi elettorali e sicurezza pubblica, prevedendo misure per mitigarli.

Ora, il soggetto incaricato di far rispettare il Dsa, vigilando dunque anche sulla gestione dei rischi sistemici da parte delle grandi piattaforme, è il DSC (Digital Services Coordinator), ovvero Agcom per il nostro Paese. Tuttavia, su VLOPs e VLOSEs la competenza è esclusivamente della Commissione europea (art. 56 del Dsa).

Significa che l’Autorità non ha poteri di enforcement (quelli necessari a garantire il rispetto dei regolamenti, come avviare indagini, ordinare la cessazione di violazioni, imporre sanzioni, ecc.) né sulle grandi piattaforme né sui prestatori di servizi che non sono stabiliti in Italia. I suoi poteri, su questi soggetti, sono limitati essenzialmente a segnalazione e cooperazione con i DSC di altri Paesi.

L’eccezione che abilita misure temporanee

È tuttavia interessante sapere che esistono eccezioni. In qualità di DSC, Agcom può, in realtà, esercitare poteri di enforcement anche su prestatori di servizi non stabiliti in Italia nei casi in cui questi siano responsabili di violazioni del Dsa — relative, appunto, a diritti fondamentali, sicurezza ecc. — capaci di causare danni gravi.

In questi casi Agcom può intervenire anche sulle piattaforme di grandi dimensioni imponendo misure temporanee, tese ad esempio a limitare la circolazione di determinati contenuti. Le misure dovranno poi essere notificate alla Commissione europea, la quale deciderà se e come intervenire (artt. 2, 3 e 52 del Dsa).

Dal caso di scuola agli strumenti interni: quando interviene Agcom sul pubblico italiano

Tornando allora ai video deepfake con i volti noti del cinema che sposano la propaganda russa, quali sarebbero state le possibilità di intervento? Si tratta di un puro caso di scuola perché i video non sono stati doppiati in italiano, quindi eccedono l’ambito di competenza dell’Autorità, ma vale la pena porsi la domanda nel caso — certo non inverosimile, considerando l’accessibilità delle applicazioni — di contenuti diffusi nella nostra lingua.

Si tratta, ripetiamolo, di prodotti realizzati con Ai, la cui circolazione presenta un rischio sistemico per i processi di formazione dell’opinione pubblica, potenzialmente distorti da endorsement di posizioni anti-ucraina fatte da figure, quali le star di Hollywood, dotate di popolarità globale e altrettanta moral suasion.

Anche se si tratta di video che coinvolgono piattaforme di dimensioni molto grandi, come YouTube, Facebook e TikTok, dunque di competenza della Commissione europea, in forza dell’eccezione prevista dal Dsa Agcom avrebbe potuto intervenire con misure temporanee, volte a limitare l’amplificarsi della violazione a danno dell’utenza italiana, in attesa che la Commissione stessa decida di intervenire.

Per completezza è utile menzionare che Agcom dispone anche di importanti strumenti “interni” per contrastare video deepfake come quelli oggetto di questa breve disamina: è il caso del Regolamento attuativo dell’art. 41.7 del TUSMA (il testo unico sui servizi di media audiovisivi), che disciplina proprio le procedure di intervento dell’Autorità nei confronti della circolazione di contenuti audiovisivi violativi, rivolti al pubblico italiano, veicolati da piattaforme di video sharing platform stabilite in altri Stati membri (delibera 298/23/CONS).

Questo regolamento prevede che l’Autorità possa limitare la libera circolazione di programmi, video generati dagli utenti e comunicazioni commerciali audiovisive veicolate da una piattaforma se ci si trova innanzi a un pregiudizio grave, imminente e irreparabile dei diritti degli utenti.

Alfabetizzazione digitale e tutele: la posta in gioco di lungo periodo

Disporre di strumenti diversi e complementari consentirà di beneficiare del potenziale dell’Ai che vediamo ormai operare e progredire in ogni ambito della vita individuale e collettiva, riparando il pubblico dai rischi di manipolazione e distorsione della conoscenza che la stessa Ai può produrre, complice l’inesperienza degli utenti stessi.

Se è fuori dubbio che il rapporto tra Ai e democrazia sarà una delle questioni fondamentali del nostro tempo, è altrettanto certo che l’alfabetizzazione digitale avrà un ruolo centrale in questo.

[1] Quattrociocchi, W. et al. (2025), “The simulation of judgment in LLMs”, PNAS, 122:42.

[2] Jang, E., Plaisance, P. L. (2025), “Textual and Comparative Analyses on AI Policies: How Big Tech and Their Global Watchdogs Frame Virtues and Responsibility”, Journal of Media Ethics, 40:4, pp. 187-204.

[3] In questi articoli una aggiornata ricognizione: López Linares, C. (2025), “Five tools to detect, analyze and counter disinformation”, LatAm Journalism Review by the Knight Center, https://latamjournalismreview.org/articles/five-tools-to-detect-analyze-and-counter-disinformation/; Pilati, F., Venturini, T. (2025), “The use of artificial intelligence in counter-disinformation: a world wide (web) mapping”, Front. Polit. Sci. 7:1517726.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x