Con l’avvento dei media digitali, il concetto di verità, così come descritto da Aristotele nella Metafisica, ha subito una trasformazione radicale in quella che possiamo definire post-verità.
Indice degli argomenti
L’informazione nell’era della post-verità
Oggi, tale termine, descrive un contesto in cui i fatti oggettivi perdono rilevanza a favore delle emozioni e delle credenze personali. La capacità dei media di modellare la percezione della realtà è stata studiata per decenni. Un episodio emblematico è rappresentato dalla trasmissione radiofonica di Orson Welles, andata in onda sulla CBS, nel lontano 1938. In quell’occasione, un adattamento radiofonico de La guerra dei mondi, fu presentato come un notiziario in diretta, raccontando un’invasione aliena con toni realistici. La struttura del programma, unita all’autorevolezza della radio come mezzo d’informazione, generò il panico tra molti ascoltatori, dimostrando come un medium possa influenzare e alterare la percezione della realtà. Secondo la ricerca condotta dallo psicologo Hadley Cantril, circa 1,2 milioni di persone furono ingannate, mentre chi tra gli ascoltatori, disponeva di maggiori strumenti culturali e critici, riuscì a riconoscere la finzione. Questo episodio rappresenta una delle prime grandi manifestazioni della capacità dei media di modellare la realtà, un fenomeno che oggi, con i social network, assume una portata ancora più ampia. L’evento rivelò come l’alfabetizzazione mediatica fosse un fattore chiave nella resistenza alla disinformazione, concetto ancora centrale nell’era digitale.
Il concetto di post-verità si inserisce all’interno di una più ampia trasformazione dell’immaginario collettivo. Come evidenziato dal filosofo francese Edgar Morin, l’immaginario moderno si è evoluto con la diffusione dei media, diventando parte della vita quotidiana. Con l’avvento dei social network, esso si è polverizzato in bolle informative, creando gruppi che condividono narrazioni e credenze senza una verifica critica.
L’assenza di un filtro editoriale rigoroso nei nuovi media ha permesso una proliferazione di contenuti spesso fuorvianti. La facilità di produzione e diffusione delle informazioni ha reso possibile una partecipazione attiva degli utenti, che non sono più solo consumatori ma anche produttori di contenuti. Questo fenomeno ha dato vita a una cultura della personalizzazione della verità, in cui ogni individuo costruisce la propria versione della realtà, basata sulle informazioni che sceglie di consumare.
L’avvento dell’era digitale ha trasformato radicalmente il modo in cui le persone accedono, condividono e consumano informazioni. In tale contesto si è verificata una vera e propria crescita esponenziale delle fake news, amplificate dagli algoritmi delle piattaforme social, che tendono a premiare il coinvolgimento degli utenti piuttosto che l’accuratezza dell’informazione. Durante le elezioni presidenziali statunitensi del 2016, notizie false riguardanti i candidati hanno avuto una diffusione virale, dimostrando come la post-verità possa influenzare processi democratici fondamentali.
Le fake news sfruttano diversi meccanismi psicologici e tecnologici, che amplificano la loro persuasività e diffusione:
- Bias di conferma: gli utenti tendono a credere e condividere contenuti che confermano le loro idee preesistenti, riducendo il pensiero critico.
- Monetizzazione della disinformazione: molte notizie false sono create con l’unico obiettivo di generare traffico online e ricavi pubblicitari.
- Manipolazione delle immagini e deepfake: le nuove tecnologie, come l’intelligenza artificiale, rendono sempre più difficile distinguere tra realtà e finzione.
I social media e le piattaforme digitali hanno reso la comunicazione globale e istantanea, aumentando le opportunità di accesso all’informazione per miliardi di utenti. Tuttavia, questa democratizzazione dell’accesso alle notizie ha portato con sé nuove sfide, tra cui la rapida diffusione della disinformazione e delle fake news. Contenuti falsi o manipolatori possono viaggiare a una velocità impressionante, alimentati dagli algoritmi che privilegiano l’engagement rispetto all’accuratezza.
In questo contesto, il fact-checking è emerso come uno strumento fondamentale per contrastare la disinformazione. In America, siti come PolitiFact e Snopes utilizzano metodologie giornalistiche per verificare le affermazioni, mentre soluzioni tecnologiche, come l’intelligenza artificiale, vengono sempre più integrate per affrontare il problema su larga scala. Tuttavia, nonostante gli sforzi, la lotta contro la disinformazione è complessa, poiché deve confrontarsi con la mancanza di fiducia nei media e con il crescente scetticismo verso le istituzioni.
In aggiunta, le decisioni delle piattaforme social di ridurre o eliminare le politiche di verifica sollevano nuove preoccupazioni. Recentemente, negli Stati Uniti, Mark Zuckerberg CEO di Meta ha interrotto le collaborazioni con fact-checker indipendenti, seguendo un approccio più vicino a quello decentralizzato adottato da X con le “Community Notes“.
Questa scelta, seppur giustificata dalla necessità di promuovere una maggiore libertà di espressione, alimenta dubbi sulla capacità delle piattaforme di contenere la disinformazione in periodi critici, come durante le campagne elettorali o le crisi sanitarie. Inoltre, la decisione di Meta rischia di influenzare altre piattaforme, spingendo verso modelli più permissivi e auto-regolati che potrebbero ridurre la fiducia del pubblico nelle informazioni online.
La disinformazione non è solo un problema di comunicazione, ma una minaccia per la stabilità delle società democratiche. Fake news e teorie del complotto possono alimentare divisioni politiche, compromettere elezioni, mettere a rischio la salute pubblica (come nel caso della pandemia di COVID-19) e fomentare discorsi d’odio.
La decisione di Meta di inseguire un modello simile a quello di Musk su X potrebbe avere conseguenze significative. Da un lato, potrebbe aumentare il coinvolgimento degli utenti. Dall’altro, rischia di amplificare la diffusione di fake news e ridurre la responsabilità delle piattaforme.
Se negli Stati Uniti si assiste a una crescente liberalizzazione dell’ecosistema digitale, con un approccio che privilegia l’autoregolamentazione delle piattaforme, l’Europa, invece, si è mossa nella direzione opposta. Con il Digital Services Act (DSA), entrato in vigore nel 2022, l’Unione Europea ha compiuto un passo significativo nella regolamentazione delle piattaforme digitali, introducendo obblighi specifici volti a limitare la diffusione della disinformazione e a garantire una maggiore tutela degli utenti. Il DSA mira a bilanciare il diritto alla libertà di espressione con la necessità di contrastare contenuti illegali e dannosi, promuovendo un ambiente digitale più sicuro e trasparente. Tuttavia, l’impatto di queste decisioni sul dibattito pubblico resta una questione aperta, con implicazioni che toccano la trasparenza, la fiducia nell’informazione e la libertà di espressione.
In questo contesto, il fact-checking emerge come uno strumento fondamentale per contrastare la disinformazione e ristabilire un rapporto di fiducia con l’informazione.
Di cosa parliamo quando parliamo di fact-checking
Il fact-checking, o verifica dei fatti, è un processo di analisi che mira a valutare l’accuratezza e la veridicità di dichiarazioni, affermazioni o informazioni diffuse attraverso vari canali, inclusi i media tradizionali, i social media e le comunicazioni istituzionali.
Nato come pratica giornalistica, il fact-checking è oggi un pilastro fondamentale per contrastare la disinformazione e garantire un’informazione di qualità.
Il fact-checking: definizione, metodologie e strumenti
La procedura di raccolta e analisi di prove per verificare se un’affermazione è vera, falsa o parzialmente vera, tipica del fact-checking, ha come obiettivi principali:
- Contrastare la disinformazione: identificare e correggere affermazioni false che potrebbero influenzare negativamente l’opinione pubblica.
- Educare il pubblico: fornire agli utenti strumenti e risorse per distinguere tra fatti e notizie false.
- Promuovere la trasparenza: chiamare le autorità, le organizzazioni e i media a rispondere per le informazioni errate o fuorvianti.
In Italia, il fact-checking ha assunto un’importanza crescente grazie a iniziative come Pagella Politica, che si concentra sull’analisi dell’attualità politica, e Facta, che monitora le fake news su argomenti di attualità. Entrambi i progetti editoriali sono membri attivi dell’International Fact-Checking Network (IFCN), la principale rete internazionale dei progetti di fact checking e firmatari del suo Codice dei Principi, che riassume le buone pratiche nella verifica delle informazioni.
Esistono diversi modelli di fact-checking, ognuno con caratteristiche e metodologie specifiche.
Il fact-checking giornalistico è il modello più tradizionale. Si basa su un’analisi manuale condotta da giornalisti specializzati, che verificano l’accuratezza di affermazioni pubbliche, articoli e contenuti diffusi sui media. L’obiettivo è fornire un’analisi trasparente e imparziale, spesso accompagnata da una spiegazione dettagliata del processo di verifica.
Il fact-checking istituzionale, invece, viene svolto da enti governativi o organizzazioni ufficiali per contrastare la disinformazione su temi critici, come la salute pubblica o le elezioni.
Infine, il fact-checking automatizzato sfrutta tecnologie avanzate, come l’intelligenza artificiale (IA), per analizzare enormi quantità di dati in pochi secondi. Sebbene questo metodo permetta di verificare milioni di contenuti rapidamente, gli algoritmi possono avere difficoltà a cogliere il contesto e le sfumature di alcune informazioni.
Che sia giornalistico, istituzionale o automatizzato, ogni approccio presenta punti di forza e limiti. Tuttavia, il fact-checking resta una risorsa essenziale per garantire un’informazione trasparente e affidabile. In un panorama mediatico sempre più complesso, la collaborazione tra giornalisti, istituzioni e tecnologie avanzate è fondamentale per contrastare la disinformazione e promuovere un’informazione responsabile.
Una delle prime fasi del fact-checking consiste nell’identificazione delle fonti primarie delle informazioni da analizzare. Questo processo implica:
- Trovare la fonte originale: è fondamentale risalire alla dichiarazione o al contenuto originale per evitare distorsioni successive.
- Valutare l’affidabilità delle fonti: si analizzano la reputazione e la competenza delle fonti, verificando se sono indipendenti, autorevoli e trasparenti.
- Incrociare i dati: le informazioni vengono confrontate con altre fonti indipendenti per verificare coerenza e accuratezza.
L’adozione di strumenti tecnologici ha rivoluzionato il fact-checking, rendendo possibile analizzare grandi quantità di dati in tempi brevi attraverso:
- Algoritmi e machine learning: algoritmi avanzati analizzano il linguaggio per rilevare modelli ricorrenti di disinformazione. Tecnologie come il Natural Language Processing (NLP) identificano toni manipolatori e incongruenze. Un esempio, è il sistema di ClaimBuster, progettato per identificare automaticamente affermazioni verificabili nei discorsi pubblici.
- Software dedicati: strumenti come CrowdTangle (tool di Meta utilizzato fino al 2024) sostituito da Content Library,strumento che però limita l’utilizzo a coloro che lavorano in “istituzioni accademiche o non-profit qualificate che stanno conducendo ricerche scientifiche o di interesse pubblico”, monitorano la diffusione delle informazioni sui social media, mentre Google Fact Check Explorer aiuta i fact-checker a trovare rapidamente verifiche esistenti.
- Database e archivi: le piattaforme di fact-checking si avvalgono di database ufficiali e open data per incrociare dati storici e statistici. In Italia, ad esempio, ISTAT e Eurostat sono risorse fondamentali per verificare dati economici e sociali.
Perché è necessario il fact-checking: impatti e limiti
La disinformazione, se diffusa su larga scala, può minare la fiducia nei media tradizionali e nelle istituzioni, con conseguenze dirette e gravi su diversi aspetti della società. Nella politica, fake news mirate possono influenzare le elezioni e alimentare la polarizzazione sociale. Un esempio emblematico, è la disinformazione diffusa durante il referendum sulla Brexit, che ha amplificato le divisioni politiche. In ambito sanitario, la pandemia di COVID-19, ha mostrato come le fake news sui vaccini abbiano ridotto la fiducia nella scienza e nei sistemi sanitari, con un impatto negativo sulla campagna vaccinale. Non da meno per il settore dell’economia, la disinformazione può danneggiare mercati e aziende, come nel caso di diffusione di false informazioni su aziende quotate, che hanno portato a crolli finanziari.
Questo fenomeno, alimentato dalla polarizzazione dei social media, crea bolle informative, in cui le persone sono esposte solo a contenuti che confermano le loro convinzioni. Studi autorevoli, come quello di Cass. R. Sunstein, in “Republic: Divided Democracy in the Age of Social Media”, dimostrano che queste dinamiche aumentano il rischio di radicalizzazione e di divisione sociale. Inoltre, la perdita di fiducia nei media tradizionali genera anche uno scetticismo diffuso verso i fact-checker stessi, specialmente in contesti polarizzati, dove il controllo delle informazioni viene spesso percepito come una forma di censura.
Nonostante il suo ruolo essenziale, il fact-checking presenta alcune limitazioni che ne riducono l’efficacia:
- Rischi di bias nei controllori: i fact-checker, siano essi giornalisti o istituzioni, possono essere percepiti come parziali, soprattutto in contesti politicamente divisivi. Anche l’approccio alla selezione dei contenuti da verificare può influenzare la percezione di imparzialità, aumentando lo scetticismo del pubblico nei confronti del processo.
- Tempi di reazione rispetto alla viralità delle fake news: uno dei limiti principali è la velocità con cui le fake news si diffondono. Studi hanno dimostrato che le notizie false si propagano molto più velocemente rispetto a quelle vere. Questo significa che i fact-checker spesso intervengono quando il danno è già stato fatto, rendendo difficile arginare le conseguenze.
- La questione “Chi controlla i controllori?”: la credibilità del fact-checking dipende dalla trasparenza e dall’affidabilità di chi verifica. Senza una supervisione indipendente, il processo potrebbe essere percepito come manipolato o influenzato da interessi di parte. Organizzazioni come l’International Fact-Checking Network (IFCN) hanno introdotto standard e codici di condotta per mitigare questi rischi.
Alla luce di quanto espresso si può affermare che il fact-checking è un’arma fondamentale nella lotta alla disinformazione, ma affronta sfide significative legate alla velocità della diffusione delle fake news, alla fiducia del pubblico e alla percezione di imparzialità. Per migliorare la sua efficacia, è necessario integrare strumenti tecnologici, come l’intelligenza artificiale, per un controllo più rapido e su larga scala; promuovere l’educazione digitale, affinché gli utenti sviluppino un pensiero critico rispetto alle informazioni che consumano e garantire una maggiore trasparenza nei metodi di verifica, per rafforzare la fiducia nel processo di fact-checking. Solo attraverso un approccio combinato è possibile ridurre l’impatto della disinformazione sulla società e promuovere un’informazione affidabile e responsabile.
Fact-checking tra democratizzazione e crisi di autorevolezza: il ruolo degli utenti nell’era digitale
Il sociologo Patrice Flichy, nel suo saggio “La società degli amatori. Sociologia delle passioni ordinarie nell’era digitale”, descrive come gli “amatori”, grazie alla tecnologia, siano riusciti ad acquisire legittimità in molti ambiti tradizionalmente riservati agli esperti, come giornalismo, scienza e politica. Nel campo del fact-checking, questo significa che l’autorevolezza di una verifica non dipende più da una certificazione istituzionale, ma dal consenso collettivo degli utenti.
Tuttavia, se il valore della verità viene determinato dalla popolarità di una correzione piuttosto che da un’analisi scientifica o metodologica, si potrebbe creare un sistema di verifica influenzato da bias e opinioni soggettive, piuttosto che da criteri oggettivi. Ad esempio, una fake news che diventa popolare all’interno di una certa comunità, potrebbe non essere smentita, ma anzi rafforzata, poiché gli utenti potrebbero essere più inclini a credere e difendere ciò che conferma le proprie convinzioni (bias di conferma).
Secondo Flichy, la rivoluzione digitale ha democratizzato l’accesso alla conoscenza, permettendo agli amatori di partecipare attivamente alla produzione di contenuti e informazioni, spesso in settori tradizionalmente riservati agli esperti. Un esempio concreto è la decisione di Meta di affidarsi alle “Note della Comunità”, un sistema che consente agli utenti stessi di correggere e valutare le informazioni, riducendo il ruolo dei fact-checker professionisti.
Vantaggi:
- La conoscenza non è più esclusiva di un’élite, ma viene distribuita tra la collettività.
- Il fact-checking diventa più rapido e partecipativo, con la possibilità di una correzione diffusa.
Svantaggi:
- Gli utenti non hanno sempre gli strumenti o la formazione per distinguere la verità dalla manipolazione.
- Il sistema potrebbe essere vulnerabile a distorsioni cognitive e manipolazioni di gruppo.
Un rischio di questo processo di democratizzazione è che può portare a una crisi di autorevolezza: se tutti possono contribuire alla conoscenza, chi garantisce l’affidabilità dell’informazione?
La decisione di Meta di eliminare il fact-checking professionale a favore di un modello partecipativo solleva diverse criticità:
- Meno controllo sulle informazioni false: senza fact-checker professionisti, il rischio di diffusione di fake news aumenta.
- Verifica più democratica, ma meno accurata: il giudizio collettivo non sempre si basa su criteri scientifici o oggettivi.
- La verità diventa relativa: se la validità di un’informazione dipende dal consenso piuttosto che dai fatti, la verifica potrebbe essere influenzata più dalla popolarità che dalla realtà.
Il ricorso al modello partecipativo, in un’epoca di polarizzazione politica, può portare a ritenere vera una notizia falsa da una parte della comunità solo perché riceve abbastanza supporto, mentre una notizia vera può essere bollata come falsa se non incontra il favore di un gruppo dominante.
Il modello adottato da Meta, basato sulla verifica collettiva attraverso le Note della Comunità, sembra confermare molte delle intuizioni di Flichy, soprattutto nel passaggio dal sapere esperto a un modello partecipativo. Tuttavia, se da un lato questo cambiamento può essere visto come una trasformazione potenzialmente positiva, dall’altro solleva seri dubbi sulla qualità dell’informazione e sul rischio di manipolazione.
Possibili scenari futuri:
- Se il sistema di verifica collettivo si dimostrerà efficace, potrebbe rappresentare un’evoluzione del fact-checking, rendendolo più decentralizzato e veloce.
- Se invece si rivelerà inefficace o facilmente manipolabile, potrebbe portare a una maggiore disinformazione e alla necessità di ritornare a un sistema basato su esperti.
I social media sono oggi tra i principali canali di diffusione delle informazioni, ma anche delle fake news. Per contrastare la disinformazione, le piattaforme hanno adottato strategie diverse, che spaziano da modelli centralizzati, basati sulla collaborazione con fact-checker professionisti, a modelli decentralizzati, in cui gli utenti stessi partecipano attivamente alla verifica dei contenuti.
Facebook è la piattaforma che ha storicamente collaborato con organizzazioni di fact-checking accreditate dall’International Fact-Checking Network (IFCN) per individuare e limitare la diffusione di contenuti falsi. Questo avviene attraverso due strategie principali:
- Collaborazioni con fact-checker indipendenti: piattaforme come PolitiFact e Facta (in Italia) verificano i contenuti segnalati, contrassegnando quelli non accurati. I post identificati come falsi vedono una drastica riduzione della visibilità e vengono accompagnati da link a fonti affidabili (Meta Transparency Report).
- Meccanismi di segnalazione e riduzione della visibilità: oltre al lavoro dei fact-checker, facebook utilizza algoritmi per individuare contenuti sospetti e consente agli utenti di segnalarli. Se un contenuto viene verificato come falso, la piattaforma ne riduce la portata organica e avvisa gli utenti che vi hanno interagito, contribuendo a ridurre la diffusione della disinformazione.
La recente decisione di Meta di eliminare il programma di fact-checking negli Stati Uniti, sostituendolo con un sistema simile alle “Community Notes” di X, ha sollevato preoccupazioni. Questa scelta potrebbe aumentare il rischio di diffusione di fake news, soprattutto in contesti politicamente sensibili come le elezioni. Queste dinamiche evidenziano come il contrasto alla disinformazione sui social sia in continua evoluzione, con un bilanciamento tra moderazione istituzionale e partecipazione degli utenti.
LinkedIn si distingue dagli altri social media per il suo focus sul networking professionale, un aspetto che riduce la vulnerabilità della piattaforma alla disinformazione di massa. Questo risultato è favorito da un sistema di moderazione che combina l’intervento umano con algoritmi avanzati, garantendo la rimozione di contenuti non professionali e privilegiando qualità e pertinenza. Inoltre, la natura stessa della community, composta principalmente da professionisti, limita la diffusione su larga scala di fake news. Tuttavia, restano presenti rischi legati alla manipolazione di informazioni aziendali o di mercato.
Con l’arrivo di Elon Musk, X ha introdotto cambiamenti radicali nella moderazione dei contenuti, spostandosi verso un modello basato sulla partecipazione degli utenti. Al centro di questa trasformazione ci sono le Community Notes, un sistema che consente agli utenti di aggiungere annotazioni ai post ritenuti fuorvianti, convalidandole attraverso un gruppo diversificato di revisori (X Help Center).
Questo approccio decentralizzato presenta opportunità e rischi: da un lato, favorisce la trasparenza e il coinvolgimento diretto degli utenti, riducendo il rischio di censure; dall’altro, per essere realmente efficace, richiede una partecipazione ampia e competente. In assenza di un controllo adeguato, potrebbero emergere risultati imprecisi, mentre la disinformazione potrebbe continuare a diffondersi prima che vengano aggiunte annotazioni correttive, compromettendo temporaneamente l’affidabilità delle informazioni.
I diversi approcci adottati dai social media evidenziano contraddizioni significative, soprattutto in termini di efficacia e gestione delle informazioni. Da un lato, i modelli centralizzati, come quello di Facebook, garantiscono un maggiore controllo sui contenuti, ma sono spesso criticati per possibili bias e per la lentezza nell’intervenire su contenuti problematici. Dall’altro, i modelli decentralizzati, come quello adottato da X, favoriscono la trasparenza e il coinvolgimento degli utenti, ma risultano meno strutturati e quindi potenzialmente inefficaci nel bloccare rapidamente la disinformazione.
Queste differenze sollevano una questione cruciale: come bilanciare la libertà di espressione con il controllo delle informazioni? Il fact-checking sui social media rappresenta una sfida cruciale nella lotta alla disinformazione. Le recenti decisioni di Meta e X di privilegiare approcci decentralizzati sollevano dubbi sulla loro efficacia nel contrastare le fake news, lasciando agli utenti la responsabilità della verifica. Tuttavia, un equilibrio tra modelli centralizzati, decentralizzati e la collaborazione con fact-checker indipendenti potrebbe essere la chiave per affrontare in modo efficace la sfida della disinformazione nell’era digitale.
Il Digital Services Act (DSA)
Il Digital Services Act (DSA), introdotto dalla Commissione Europea nel dicembre 2020 e approvato ufficialmente dal Parlamento Europeo il 5 luglio 2022, rappresenta una delle normative più significative per la regolamentazione del panorama digitale moderno, mirando a garantire uno spazio digitale più sicuro, trasparente e responsabile.
DSA: principi fondamentali, soggetti coinvolti e primi effetti della regolamentazione digitale
Uno degli obiettivi cardine del DSA è la creazione di un ambiente digitale dove gli utenti possano navigare e interagire in sicurezza. La normativa si propone di proteggere i consumatori da contenuti illegali e dannosi, limitando la diffusione di disinformazione e garantendo il rispetto dei diritti fondamentali. Questo risultato è perseguito attraverso una combinazione di obblighi normativi per le piattaforme digitali, strumenti di segnalazione più efficaci per la rimozione di contenuti illeciti e meccanismi di ricorso che consentono agli utenti di contestare decisioni delle piattaforme.
Le piattaforme digitali sono inoltre tenute a dimostrare maggiore trasparenza nella gestione dei contenuti, adottando politiche di moderazione più chiare e accessibili. Questi requisiti sono particolarmente rilevanti per le Very Large Online Platforms (VLOPs), che hanno un impatto significativo sulla società grazie alla loro ampia portata.
Il DSA introduce misure specifiche per contrastare la diffusione di contenuti illegali, come l’incitamento all’odio, violazioni della proprietà intellettuale e disinformazione su temi critici, tra cui la salute pubblica. Le piattaforme sono obbligate a:
- Implementare sistemi efficaci per la rimozione rapida di contenuti illeciti una volta segnalati.
- Collaborare con le autorità nazionali e con gli organi di regolamentazione per identificare e perseguire i responsabili della pubblicazione di tali contenuti.
L’approccio del DSA non si limita alla rimozione dei contenuti illegali, ma punta anche alla prevenzione, promuovendo standard più elevati nella progettazione degli algoritmi e nella moderazione dei contenuti.
Un aspetto cruciale del DSA è la richiesta di maggiore responsabilità alle piattaforme digitali. Le VLOPs, definite come piattaforme con un bacino di utenti molto ampio, con oltre 45 milioni di utenti mensili nell’Unione Europea, giocano un ruolo centrale nell’ecosistema digitale e sono soggette a obblighi specifici. In particolare, sono tenute a garantire la trasparenza algoritmica, fornendo agli utenti informazioni chiare sul funzionamento degli algoritmi che determinano la visibilità dei contenuti e le raccomandazioni personalizzate.
La trasparenza algoritmica che le piattaforme devono garantire include:
- La pubblicazione di report periodici che spiegano come gli algoritmi influenzano la diffusione dei contenuti.
- La possibilità per gli utenti di scegliere opzioni alternative ai sistemi algoritmici di personalizzazione.
- Accesso ai dati per ricercatori indipendenti, consentendo lo studio dell’impatto degli algoritmi sulla società e sulla disinformazione.
Le VLOPs, hanno anche il compito di valutare e mitigare i rischi sistemici legati a fenomeni come: la disinformazione, la manipolazione elettorale e la polarizzazione sociale.
Per contrastare questi fenomeni, devono implementare misure correttive e creare un sistema di segnalazione trasparente per gli utenti.
Inoltre, il DSA introduce nuove regole per la trasparenza della pubblicità mirata, richiedendo alle piattaforme di fornire informazioni sui criteri di targeting e sull’origine dei contenuti sponsorizzati.
Un elemento innovativo del DSA è la creazione dei Digital Services Coordinators (DSC), autorità nazionali designate a monitorare l’applicazione della normativa. I DSC svolgono diverse funzioni:
- Vigilanza sull’operato delle piattaforme digitali nel proprio territorio.
- Gestione delle segnalazioni degli utenti e risoluzione delle controversie tra le piattaforme e gli utilizzatori.
- Collaborazione con altre autorità nazionali ed europee per garantire un’applicazione uniforme del DSA.
In Italia, il ruolo di DSC è stato affidato all’Autorità per le Garanzie nelle Comunicazioni (AGCOM), che è responsabile della supervisione delle piattaforme e dell’applicazione delle sanzioni in caso di violazione delle normative. L’AGCOM gestisce inoltre la risoluzione delle controversie tra fornitori di piattaforme e utenti attraverso strumenti di risoluzione extragiudiziale. Secondo l’Autorità per le Garanzie nelle Comunicazioni, i meccanismi di tutela sono essenziali per garantire un equilibrio tra la libertà di espressione e la sicurezza degli utenti.
Tra i principali meccanismi di tutela introdotti dal DSA per garantire maggiore equità e trasparenza nelle decisioni delle piattaforme si evidenziano:
- Diritto di contestazione delle decisioni delle piattaforme: gli utenti possono presentare ricorsi contro le decisioni delle piattaforme relative alla rimozione di contenuti o alla limitazione di accesso.
- Risoluzione extragiudiziale delle controversie (ADR): viene promossa la risoluzione di conflitti attraverso organismi indipendenti, riducendo i tempi e i costi rispetto ai procedimenti giudiziari tradizionali.
- Accesso ai dati per i ricercatori e fact-checker indipendenti: questo meccanismo garantisce uno studio più approfondito sull’impatto delle piattaforme digitali, promuovendo una maggiore trasparenza e responsabilità.
La Commissione Europea ricopre un ruolo chiave nel garantire l’uniformità dell’applicazione del DSA tra gli Stati membri. In particolare, supervisiona l’operato delle VLOPs e dei Very Large Online Search Engines (VLOSEs), assicurando che rispettino gli obblighi previsti dalla normativa.
Attraverso il Digital Services Board, la Commissione coordina i DSC nazionali, favorendo lo scambio di informazioni e la condivisione di buone pratiche. Questo approccio collaborativo è essenziale per affrontare sfide transnazionali come la disinformazione e i contenuti illegali, che spesso superano i confini giurisdizionali.
Dalla sua entrata in vigore, il Digital Services Act sta già mostrando i primi risultati concreti sia a livello europeo che nazionale. Tra gli effetti principali si evidenziano:
- Miglioramento della trasparenza delle piattaforme: le VLOPs hanno iniziato a pubblicare report dettagliati sul funzionamento dei loro algoritmi e sulle strategie di moderazione dei contenuti. Questa misura ha contribuito a una maggiore fiducia da parte degli utenti e ha fornito strumenti utili per i ricercatori indipendenti.
- Riduzione della disinformazione e dei contenuti illegali: in alcuni Stati membri, le piattaforme hanno registrato una diminuzione della diffusione di contenuti falsi o manipolatori grazie all’adozione di sistemi di moderazione più rigorosi.
- Casi concreti di applicazione in Europa e Italia: in Italia, l’AGCOM ha già emesso sanzioni nei confronti di alcune piattaforme per il mancato rispetto degli obblighi di trasparenza e moderazione. A livello europeo, il Digital Services Board ha coordinato indagini transnazionali su campagne di disinformazione legate a temi politici sensibili.
Il Digital Services Act rappresenta una svolta significativa nella regolamentazione dello spazio digitale, puntando a bilanciare libertà di espressione e sicurezza degli utenti. Sebbene i primi effetti siano incoraggianti, la sua efficacia dipenderà dall’applicazione concreta della normativa e dalla capacità delle piattaforme di adattarsi a queste nuove regole, contribuendo a un ecosistema informativo più trasparente e affidabile.
Libertà di espressione e disinformazione nell’era digitale: strumenti di equilibrio e modelli a confronto tra Europa e USA
La diffusione di Internet e dei social media ha trasformato il modo in cui le notizie vengono prodotte e diffuse. Un tempo, l’informazione era appannaggio di giornalisti professionisti con una formazione specifica, mentre oggi, chiunque, attraverso blog, YouTube, X e Facebook, può pubblicare informazioni e raggiungere un vasto pubblico. Questa democratizzazione dell’informazione ha trasformato il modo in cui le notizie vengono prodotte e diffuse, ampliando l’accesso alla comunicazione ma sollevando al contempo interrogativi sulla qualità, l’affidabilità e il controllo delle fonti. Nel citizen journalism, i video amatoriali di testimoni oculari spesso anticipano i media tradizionali nella copertura di eventi globali (es. Primavera Araba, proteste in Iran). Influencer e blogger, molti senza background giornalistico, hanno acquisito un’enorme influenza nel dettare l’agenda informativa su temi politici, sociali o economici. L’uso di piattaforme alternative, come Medium o Substack permettono a scrittori indipendenti di pubblicare contenuti senza il filtro delle redazioni tradizionali.
Tuttavia, insieme a questi cambiamenti emergono sfide significative, che mettono in discussione la qualità e l’affidabilità dell’informazione, con i seguenti rischi principali:
- Mancanza di fact-checking e verifica delle fonti, con un aumento della disinformazione.
- Sensazionalismo: gli algoritmi premiano contenuti virali più che notizie accurate.
- Polarizzazione: le notizie si frammentano in “echo chambers” n cui gli utenti tendono a interagire solo con informazioni che confermano le proprie convinzioni.
Secondo il sociologo Patrice Flichy, il giornalismo tradizionale è stato sfidato daun modello più partecipativo, dove i lettori non sono più solo consumatori passivi, ma attori nella produzione delle notizie. Tuttavia, questa democratizzazione dell’informazione ha anche aperto la strada alla manipolazione e alla perdita di autorevolezza del sapere giornalistico.
Il Digital Service Actsi colloca al centro di un dibattito cruciale: come bilanciare il diritto alla libertà di espressione con la necessità di contrastare la disinformazione? La sfida principale consiste nel trovare un equilibrio tra il rispetto dei diritti fondamentali degli utenti e la moderazione dei contenuti potenzialmente dannosi. Se da un lato la libertà di espressione è garantita dalla Carta dei diritti fondamentali dell’Unione Europea, dall’altro la proliferazione di contenuti falsi o manipolativi minaccia la coesione sociale e la sicurezza. Per questo motivo, il Digital Service Act introduce strumenti per moderare i contenuti senza compromettere i diritti degli utenti, promuovendo un approccio proporzionato e trasparente.
Una moderazione eccessiva dei contenuti potrebbe portare a forme di censura, riducendo il pluralismo informativo. Per evitare questi rischi, il Digital Service Act richiede alle piattaforme di adottare politiche chiare e rendere conto delle decisioni prese, garantendo il diritto degli utenti di contestare le decisioni. Il DSAsi pone dunquecome un punto di equilibrio tra la protezione della libertà di espressione e la lotta alla disinformazione. Tra i principali strumenti introdotti troviamo:
- Meccanismi per garantire la libertà di espressione e moderazione responsabile: le piattaforme sono obbligate a pubblicare report dettagliati sulle loro politiche di moderazione e a garantire la trasparenza nei processi decisionali. Questo approccio assicura che la moderazione dei contenuti sia proporzionata e non arbitraria.
- Diritto di ricorso e supervisione imparziale: gli utenti hanno il diritto di contestare le decisioni relative alla rimozione dei contenuti o alla limitazione di accesso. Il Digital Services Board, insieme ai Digital Services Coordinators, garantisce una supervisione indipendente, riducendo il rischio di abusi.
Il dibattito sulla regolamentazione del digitale evidenzia una netta differenza tra l’approccio europeo e quello statunitense. L’Unione Europea ha adottato un modello normativo, che impone obblighi specifici alle piattaforme digitali, mentre negli Stati Uniti prevale l’autoregolazione, lasciando alle aziende la responsabilità di definire le proprie politiche di moderazione.
La decisione presa dal CEO di Meta di ridurre la collaborazione negli Stati Uniti con i fact-checker indipendenti, rappresenta un esempio concreto di questa divergenza. Questo cambio di rotta ha sollevato dubbi sull’efficacia dell’autoregolazione nel contrastare la disinformazione, soprattutto in un contesto già segnato da preoccupazioni sulla diffusione di fake news.
Al riguardo, uno studio della Harvard Misinformation Review, ha dimostrato che gli utenti americani percepiscono il fact-checking professionale come più efficace rispetto alle verifiche effettuate da algoritmi o utenti comuni. Inoltre, è emerso che la fiducia nelle etichette di fact-checking varia a seconda delle affiliazioni politiche, con i repubblicani più scettici rispetto ai democratici. Questi dati suggeriscono che un sistema decentralizzato come quello adottato da Meta potrebbe non essere sufficiente a contrastare la disinformazione, soprattutto in un contesto di polarizzazione politica. La progressiva riduzione del ruolo dei fact-checker professionisti potrebbe quindi minare ulteriormente l’affidabilità delle informazioni online.
In Europa, l’applicazione del Digital Services Act (DSA) ha portato a interventi concreti per garantire la conformità delle piattaforme. In Italia, l’AGCOM ha dimostrato una forte capacità di vigilanza, imponendo sanzioni significative per assicurare il rispetto delle normative. Tuttavia, nonostante il quadro regolamentare più rigido, la diffusione delle fake news rimane una sfida, soprattutto in contesti politicamente polarizzati, dove la rapidità con cui si propagano rende difficile un intervento tempestivo ed efficace.
Per affrontare le sfide del digitale, diventa essenziale adottare strategie che bilancino la libertà di espressione con la necessità di una moderazione efficace. Alcuni elementi chiave per un approccio più equilibrato includono:
- Educazione digitale e pensiero critico: promuovere l’alfabetizzazione digitale tra gli utenti è fondamentale per sviluppare competenze di valutazione critica delle informazioni.
- Collaborazione tra piattaforme, governi e fact-checker: un lavoro sinergico tra attori diversi può rafforzare le strategie di contrasto alla disinformazione e migliorare l’efficacia della moderazione.
- Normative flessibili e adattabili: il rapido evolversi delle tecnologie richiede regolamenti capaci di rispondere prontamente a nuove minacce e opportunità, mantenendo un equilibrio tra innovazione e tutela dell’informazione.
L’evoluzione della regolamentazione digitale dovrà quindi tenere conto di queste sfide, cercando soluzioni efficaci che garantiscano un ecosistema online più sicuro e trasparente, senza compromettere la libertà di espressione e l’accesso a informazioni affidabili.
Conclusioni
Il panorama digitale è in continua evoluzione, portando con sé nuove sfide legate alla disinformazione e alla regolamentazione dei contenuti online. Il futuro del fact-checking dipenderà dalla capacità di adattare strumenti e strategie a un ecosistema sempre più complesso, in cui l’intelligenza artificiale (IA) giocherà un ruolo chiave nell’identificazione e nel contrasto delle fake news. Tuttavia, l’uso di queste tecnologie solleva interrogativi cruciali sulla trasparenza, sull’affidabilità degli algoritmi e sul rischio di bias, evidenziando la necessità di una regolamentazione equilibrata e in continua evoluzione.
Il Digital Services Act (DSA) rappresenta un passo fondamentale in questa direzione, fornendo una base normativa solida per affrontare le sfide della disinformazione, ma la sua efficacia dipenderà dalla capacità dell’Unione Europea di monitorarne l’applicazione e di aggiornare costantemente le misure adottate. La collaborazione tra governi, piattaforme digitali e organizzazioni indipendenti sarà determinante per garantire l’imparzialità e la trasparenza nei processi di verifica, evitando che il fact-checking si trasformi in uno strumento di controllo arbitrario piuttosto che di tutela dell’informazione.
Il dibattito sulla moderazione dei contenuti online continua a confrontarsi con la sfida di bilanciare la libertà di espressione con la necessità di contrastare la disinformazione e i contenuti dannosi. Le piattaforme digitali devono adottare politiche di moderazione chiare, trasparenti e applicate in modo equo, evitando sia la censura eccessiva sia la permissività che favorisce la diffusione di contenuti falsi o dannosi.
Uno strumento importante in questa direzione è il diritto di ricorso introdotto dal DSA, che consente agli utenti di contestare le decisioni prese dalle piattaforme in merito alla rimozione dei contenuti o alla limitazione dell’accesso. Tuttavia, la regolamentazione da sola non basta: è fondamentale investire in educazione digitale, affinché gli utenti acquisiscano competenze critiche per valutare l’affidabilità delle informazioni in modo autonomo e responsabile. La consapevolezza del pubblico è uno dei fattori più efficaci nel ridurre l’impatto della disinformazione. In un ambiente digitale sempre più dinamico e frammentato, la consapevolezza degli utenti diventa un elemento essenziale per la costruzione di un ecosistema informativo sostenibile. Individui informati e dotati di strumenti per il fact-checking autonomo sono meno vulnerabili alle fake news e più inclini a contribuire a un dibattito pubblico basato sui fatti.
Per rafforzare questo processo, è necessario che l’educazione digitale venga integrata nei sistemi scolastici e sostenuta da campagne di sensibilizzazione a livello istituzionale. Inoltre, l’adozione di strumenti tecnologici che permettano agli utenti di verificare le informazioni in modo semplice e accessibile può rappresentare un passo decisivo per aumentare la fiducia nell’informazione online e ridurre la diffusione di contenuti falsi o manipolati.
In sintesi, il futuro della regolamentazione digitale non può prescindere da un approccio integrato che combini innovazione tecnologica, normative flessibili e il coinvolgimento attivo degli utenti. Solo attraverso un equilibrio tra responsabilità, trasparenza e consapevolezza sarà possibile costruire un ambiente informativo più sicuro, resiliente e democratico.
Bibliografia
Cantril H., “The Invasion from Mars: A Study in the Psychology of Panic”, 1940, Princeton University Press.
Flichy P., “Storia della comunicazione moderna”, 1994, Baskerville.
Flichy P., Vagni T., “La società degli amatori. Sociologia delle passioni ordinarie nell’era digitale”, 2014, Liguori
Graves L., “Deciding What’s True: The Rise of Political Fact-Checking in American Journalism”, 2016, Columbia University Press.
McIntyre L., “Post-Truth”, 2018, MIT Press.
Morin E., “Lo spirito del tempo”, 1962, Meltemi
Puente D., “Il grande inganno di internet”, 2019, Solferino.
Serafini L., & Zagni G., “Fact-checking. Epistemologie e pratiche informative: un’analisi sociologica”, 2024, Franco Angeli.
Sunstein C. R., “#Republic: Divided Democracy in the Age of Social Media”, 2017, Princeton University
Articoli
Fletcher R., Cornia A., Graves L., & Nielsen R. K., “Measuring the reach of fake news and online disinformation in Europe”, 2020, Reuters Institute for the Study of Journalism.
Guess A., Nyhan B., & Reifler J., “Exposure to untrustworthy websites in the 2016 US election”, 2020, Nature Human Behaviour.
Vosoughi S., Roy D., & Aral S., “The spread of true and false news online”, 2018, Science, 359 (6380), 1146-1151.
Blanchar, J., & Norris, C., “Labelling Trump’s lies as ‘disputed’ on X makes supporters believe them more, study finds”, 2024, The Guardian. https://www.theguardian.com/technology/2024/sep/20/trump-tweets-false-label-credibility-supporters
Borgobello, M., “Dispute online: nuove tutele per gli utenti contro i giganti del web”, 2024, Agenda Digitale. https://www.agendadigitale.eu/mercati-digitali/dispute-online-nuove-tutele-per-gli-utenti-contro-i-giganti-del-web/
Franchi, J., “Fact-checking: chi controlla i controllori? Anomalie, dubbi e conflitti d’interesse”, 2021, Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/fact-checking-chi-controlla-i-controllori-anomalie-dubbi-e-conflitti-dinteresse/
Jia, C., & Lee, T., “Journalistic interventions matter: Understanding how Americans perceive fact-checking labels”, 2024, Harvard Misinformation Review. https://misinforeview.hks.harvard.edu/article/journalistic-interventions-matter-understanding-how-americans-perceive-fact-checking-labels/
Lorusso, A. M., “Disinformazione inevitabile come il gossip? Saper distinguere fa la differenza”, 2022, Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/disinformazione-inevitabile-come-il-gossip-saper-distinguere-fa-la-differenza/
Mallamaci, A., “Difendersi dalle fake news si può: consigli pratici e strumenti utili”, 2024, Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/difendersi-dalle-fake-news-si-puo-consigli-pratici-e-strumenti-utili/
Martel, C., & Rand, D. G., “Fact-checker warning labels are effective even for those who distrust fact-checkers”, 2024, Nature Human Behaviour, 8, 1957–1967. https://www.nature.com/articles/s41562-024-01973-x
Pecoraro, A., “Fact checking, se Meta insegue Musk: le sfide per il marketing”, 2025, Agenda Digitale. https://www.agendadigitale.eu/mercati-digitali/fact-checking-meta-insegue-musk-le-sfide-per-il-marketing/
Zagni, G., “La verità sul nostro fact-checking”, 2025, Appunti. https://appunti.substack.com/p/la-verita-sul-nostro-fact-checking
“Artificial intelligence in fact-checking: Opportunities and challenges”, 2023, IEEE Xplore Digital Library. https://ieeexplore.ieee.org/abstract/document/10386371
“The role of fact-checking in combating political polarization”, 2022, Journal of Applied Social Psychology, 52(8), 1007-1015. https://onlinelibrary.wiley.com/doi/pdfdirect/10.1111/jasp.12959