verso il digital service act

Disinformazione, le Big Tech aderiscono al codice di condotta Ue: azioni, norme e sanzioni

Il nuovo codice di condotta europeo sulla disinformazione sottoscritto da Meta, Twitter, Microsoft, Google e TikTok anticipa per molti versi il Digital Service Act per effettuare una transizione morbida verso le nuove regole e per dare effettività immediata ad alcune necessità operative. Ecco in cosa consiste

20 Giu 2022
Massimo Borgobello

Avvocato a Udine, co-founder dello Studio Legale Associato BCBLaw, PHD e DPO Certificato 11697:2017

Recovery Fund

Meta, Twitter, Microsoft, Google e Tik Tok hanno sottoscritto il nuovo codice di condotta europeo sulla disinformazione: sostituisce il precedente del 2018 ed è un buon segnale di una svolta in campo.

Il nuovo codice di condotta e il Digital Service Act

Sì, perché l’Unione europea ha imposto norme più severe sulla disinformazione online e le Big Tech si adeguano: questo è il riassunto di quanto avvenuto il 16 giugno 2022.

candidatura
Passione per il diritto dell’informatica? Candidati per il team Legal di P4I!
Legal
Privacy

Digital Services Act, una internet più sicura? Ma sarà sfida applicare le nuove regole

Il codice di condotta anticipa per molti versi il Digital Service Act, ossia la proposta di Regolamento UE depositata il 15 giugno 2022 per la regolamentazione dei mercati digitali.

In attesa dell’approvazione e dell’entrata in vigore della disciplina cogente, le Big Tech hanno sottoscritto un codice di condotta, per effettuare una transizione morbida verso le nuove regole e per dare effettività immediata ad alcune necessità operative.

La prima fra tutte: analizzare i rischi sistemici che generano ed effettuare analisi di riduzione del rischio.

I rischi più rilevanti

Tra i rischi più rilevanti, sono stati individuati la diffusione di contenuti illegali, la possibilità di effetti negativi sui diritti fondamentali, la manipolazione dei servizi di informazione con rischi connessi al processo democratico ed alla sicurezza pubblica, eventuali effetti negativi in relazione alla violenza di genere e ai minori e gravi conseguenze sulla salute fisica o mentale degli utenti.

Di fatto: disinformazione, anche politica, pregiudizi alla persona determinati dalla diffusione di notizie o immagini, questioni inerenti alla discriminazione per genere, razza, etnia o religione, maggior tutela dei minori online.

Un discorso specifico lo meritano i cosiddetti dark patterns, ossia «“percorsi oscuri” per spingere gli utenti a compiere azioni che altrimenti non avrebbero svolto o rendere più difficile compiere altro, come ad esempio dare il consenso al trattamento dei propri dati personali» (definizione di Andrea Afferni).

L’Unione europea ha deciso, correttamente di vietarli tout court.

Un criterio dimensionale di applicabilità di norme e sanzioni

Viene, poi, introdotto un criterio dimensionale di applicabilità di norme e sanzioni: piattaforme e i motori di ricerca online saranno considerati “molto grandi” se supereranno i 45 milioni di utenti.

Per questi soggetti scatta l’obbligo di impostare un sistema di raccomandazione dei contenuti agli utenti non basato sulla profilazione.

La sfida si preannuncia, quindi, enorme ed interessante.

Previsto, inoltre, un sistema di risposta alle crisi, la cui necessità è stata evidenziata dalla guerra in Ucraina.

Un comitato di coordinatori nazionali dei servizi digitali potrà raccomandare alla Commissione di attivare il meccanismo, finalizzato alla valutazione di impatto delle attività di piattaforme e motori di ricerca, con la possibilità di adottare misure proporzionate ed efficaci a tutela dei diritti fondamentali.

In altri termini, l’applicazione di filtri a contenuti e meccanismi non espliciti di censura.

La disinformazione dovrebbe essere disincentivata sotto il profilo economico: in altri termini, una volta “deciso” che un contenuto è fake, gli introiti pubblicitari per piattaforme e motori di ricerca andrebbero azzerati o drasticamente ridotti.

Le azioni a contrasto degli account falsi

Altro tema “scottante”: le azioni a contrasto degli account falsi: le aziende dovranno effettuare controlli sulla “effettività” degli account per disincentivare l’utilizzo dei bo.

La problematica è molto seria, e non potrà essere superata senza l’imposizione dell’identità digitale e della relativa necessità per la creazione di un account.

Altre misure potranno essere anche efficaci, ma saranno sempre azioni di correzione di una problematica e mai una soluzione di sistema.

Minori online e pubblicità

Per i minori online, poi, si profila il divieto di messaggi pubblicitari legati all’impego di dati personali.

Infine: maggior trasparenza sulle attività di sponsorizzazione dei contenuti, lotta ai deep fake, task force permanente per valutare rischi per gli utenti.

Conclusioni

Una regolamentazione “seria” del mercato digitale: questo è il Digital Service Act, il cui terreno viene preparato da questo “nuovo” codice di condotta.

Un mercato regolato da norme serie e da interlocuzione tra Big Tech e Unione europea, con un modello più “World Economic Forum” e meno “Far West”.

Regole chiare, possibilità di censura elevatissima: più controlli e meno libertà o, almeno, meno libertà di sfruttamento per i soggetti privati, con maggior controllo esercitato da quelli pubblici.

In altri termini, il Nuovo Mondo Digitale all’alba del suo inizio.

WHITEPAPER
Canale ICT: 5 misure di successo automatizzare il business
Sicurezza
Software
@RIPRODUZIONE RISERVATA

Articolo 1 di 4