Il caso degli youtuber Theborderline ha riacceso i riflettori sulla pericolosità delle cosiddette challenge, ma siamo così sicuri che introdurre nuove fattispecie di reati sia la soluzione adatta?
Il caso dovrebbe forse spingerci a riflettere, anche, sul difficile esercizio intellettuale della ricerca della verità.
Il caso The Borderline e le reazioni
Per quanto il caso di Casal Palocco appaia, semplicemente, un’ipotesi di omicidio stradale determinato – forse – dall’impiego del cellulare alla guida (oltre che all’uso di sostanza stupefacenti stando alla carta stampata), il clamore mediatico sulla vicenda è stato richiamato dal fatto che i protagonisti della triste vicenda fossero dei famosi youtuber e che stessero registrando mentre il fatto è avvenuto.
Questo ha portato alcuni esponenti politici ad ipotizzare l’introduzione dell’ennesima fattispecie di reato, per punire chi, maggiorenne o meno, “esalta condotte illegali” o “istiga alla violenza” postando dei video sui social e guadagnando attraverso le piattaforme digitali con pene fino a 5 anni di carcere.
In realtà alcuni rimedi sono già operativi e riguardano tutti i contenuti spazzatura, dall’incitamento all’odio alla disinformazione. Vediamo quali.
Il Digital Service Act
Vediamo il Digital Services Act, in vigore dal 2024. L’articolo 34 del Digital Service Act, rubricato “Valutazione del rischio”, dispone quanto segue.
Gli obblighi in capo alle grandi piattaforme
“1. I fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi individuano, analizzano e valutano con diligenza gli eventuali rischi sistemici nell’Unione derivanti dalla progettazione o dal funzionamento del loro servizio e dei suoi relativi sistemi, compresi i sistemi algoritmici, o dall’uso dei loro servizi. Essi effettuano le valutazioni dei rischi entro la data di applicazione di cui all’articolo 33, paragrafo 6, secondo comma, e successivamente almeno una volta all’anno, e in ogni caso prima dell’introduzione di funzionalità che possono avere un impatto critico sui rischi individuati a norma del presente articolo. La valutazione del rischio deve essere specifica per i loro servizi e proporzionata ai rischi sistemici, tenendo in considerazione la loro gravità e la loro probabilità, e deve comprendere i seguenti rischi sistemici: a)la diffusione di contenuti illegali tramite i loro servizi; b)eventuali effetti negativi, attuali o prevedibili, per l’esercizio dei diritti fondamentali, in particolare i diritti fondamentali alla dignità umana sancito nell’articolo 1 della Carta, al rispetto della vita privata e familiare sancito nell’articolo 7 della Carta, alla tutela dei dati personali sancito nell’articolo 8 della Carta, alla libertà di espressione e di informazione, inclusi la libertà e il pluralismo dei media, sanciti nell’articolo 11 della Carta, e alla non discriminazione sancito nell’articolo 21 della Carta, al rispetto dei diritti del minore sancito nell’articolo 24 della Carta, così come all’elevata tutela dei consumatori, sancito nell’articolo 38 della Carta; c)eventuali effetti negativi, attuali o prevedibili, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica; d)qualsiasi effetto negativo, attuale o prevedibile, in relazione alla violenza di genere, alla protezione della salute pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e mentale della persona.
2. Nello svolgimento delle valutazioni dei rischi, i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi tengono conto, in particolare, dell’eventualità e del modo in cui i seguenti fattori influenzano uno dei rischi sistemici di cui al paragrafo 1: a) la progettazione dei loro sistemi di raccomandazione e di qualsiasi altro sistema algoritmico pertinente; b) i loro sistemi di moderazione dei contenuti; c) le condizioni generali applicabili e la loro applicazione; d) i sistemi di selezione e presentazione delle pubblicità; e) le pratiche del fornitore relative ai dati. Le valutazioni analizzano inoltre se e in che modo i rischi di cui al paragrafo 1 siano influenzati dalla manipolazione intenzionale del loro servizio, anche mediante l’uso non autentico o lo sfruttamento automatizzato del servizio, nonché l’amplificazione e la diffusione potenzialmente rapida e ampia di contenuti illegali e di informazioni incompatibili con le condizioni generali”.
In altri termini, gli operatori di grandi dimensioni devono preventivamente valutare le ipotesi di rischio da utilizzo dei loro servizi con riferimento alle materie indicate nell’articolo 34 e, in ossequio al successivo articolo 35, devono impostare gli algoritmi in modo da mitigare i rischi di cui all’articolo 34: “I fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi adottano misure di attenuazione ragionevoli, proporzionate ed efficaci, adattate ai rischi sistemici specifici individuati a norma dell’articolo 34, prestando particolare attenzione agli effetti di tali misure sui diritti fondamentali”.
In conclusione, per il DSA la piattaforma deve impostare sistemi che disincentivino l’utente dal fruire di contenuti spazzatura e deve rendere tali contenuti poco remunerativi sotto il profilo economico.
Si tratta, a tutta evidenza, di un obbligo di “moderazione” dei contenuti: obbligo consistente nell’impostare strumenti idonei affinché l’ambiente digitale sia “più sano” – per quanto vago possa essere questo criterio.
La correlazione tra qualità del contenuto ed introiti pubblicitari
I Considerando del DSA però sono chiari sulle finalità del Regolamento: il numero 69 spiega la correlazione tra qualità del contenuto ed introiti pubblicitari.
“69. Quando ai destinatari del servizio vengono presentate inserzioni pubblicitarie basate su tecniche di targeting ottimizzate per soddisfare i loro interessi e potenzialmente attirare le loro vulnerabilità, ciò può avere effetti negativi particolarmente gravi. In alcuni casi, le tecniche di manipolazione possono avere un impatto negativo su interi gruppi e amplificare i danni per la società, ad esempio contribuendo a campagne di disinformazione o discriminando determinati gruppi. Le piattaforme online sono ambienti particolarmente sensibili per tali pratiche e presentano un rischio per la società più elevato. Di conseguenza, i fornitori di piattaforme online non dovrebbero presentare inserzioni pubblicitarie basate sulla profilazione, come definite all’articolo 4, punto 4), del regolamento (UE) 2016/679, utilizzando le categorie speciali di dati personali di cui all’articolo 9, paragrafo 1, dello stesso regolamento, anche utilizzando categorie di profilazione basate su tali categorie speciali. Tale divieto lascia impregiudicati gli obblighi applicabili ai fornitori di piattaforme online o a qualsiasi altro fornitore di servizi o inserzionista coinvolti nella diffusione della pubblicità a norma del diritto dell’Unione in materia di protezione dei dati personali”.
Disinformazione e di accessibilità alle informazioni
Il numero 70 parla esplicitamente di disinformazione e di accessibilità alle informazioni in ragione della loro verificabilità.
(70) Un elemento essenziale dell’attività di una piattaforma online consiste nel modo in cui le informazioni sono messe in ordine di priorità e presentate nella sua interfaccia online per facilitare e ottimizzare l’accesso alle stesse da parte dei destinatari del servizio. Ciò avviene, ad esempio, suggerendo, classificando e mettendo in ordine di priorità le informazioni in base ad algoritmi, distinguendole attraverso testo o altre rappresentazioni visive oppure selezionando in altro modo le informazioni fornite dai destinatari. Tali sistemi di raccomandazione possono avere un impatto significativo sulla capacità dei destinatari di recuperare e interagire con le informazioni online, anche per facilitare la ricerca di informazioni pertinenti per i destinatari del servizio e contribuire a migliorare l’esperienza dell’utente. Essi svolgono inoltre un ruolo importante nell’amplificazione di determinati messaggi, nella diffusione virale delle informazioni e nella sollecitazione del comportamento online. Di conseguenza, le piattaforme online dovrebbero provvedere in modo coerente affinché i destinatari del loro servizio siano adeguatamente informati del modo in cui i sistemi di raccomandazione incidono sulle modalità di visualizzazione delle informazioni e possono influenzare il modo in cui le informazioni sono presentate loro. Esse dovrebbero indicare chiaramente i parametri di tali sistemi di raccomandazione in modo facilmente comprensibile per far sì che i destinatari del servizio comprendano la modalità con cui le informazioni loro presentate vengono messe in ordine di priorità. Tali parametri dovrebbero includere almeno i criteri più importanti per determinare le informazioni suggerite al destinatario del servizio e i motivi della rispettiva importanza, anche nel caso in cui le informazioni siano classificate in ordine di priorità sulla base della profilazione e del suo comportamento online”.
Tutela dei minori
Il Considerando 71, infine, si occupa della tutela dei minori.
“(71) La protezione dei minori è un importante obiettivo politico dell’Unione. Una piattaforma online può essere considerata accessibile ai minori quando le sue condizioni generali consentono ai minori di utilizzare il servizio, quando il suo servizio è rivolto o utilizzato prevalentemente da minori, o se il fornitore è altrimenti a conoscenza del fatto che alcuni dei destinatari del suo servizio sono minori, ad esempio perché già tratta i dati personali dei destinatari del suo servizio che rivelano la loro età per altri scopi. I fornitori di piattaforme online utilizzate dai minori dovrebbero adottare misure adeguate e proporzionate per proteggere i minori, ad esempio progettando le loro interfacce online o parti di esse con il massimo livello di privacy, sicurezza e protezione dei minori per impostazione predefinita, a seconda dei casi, o adottando norme per la protezione dei minori, o aderendo a codici di condotta per la protezione dei minori. Dovrebbero prendere in considerazione le migliori pratiche e gli orientamenti disponibili, come quelli forniti dalla comunicazione della Commissione «Un decennio digitale per bambini e giovani: la nuova strategia europea per un’internet migliore per i ragazzi (BIK +)». I fornitori di piattaforme online non dovrebbero presentare inserzioni pubblicitarie basate sulla profilazione utilizzando i dati personali del destinatario del servizio se sono consapevoli con ragionevole certezza che il destinatario del servizio è minore. Conformemente al regolamento (UE) 2016/679, in particolare al principio della minimizzazione dei dati di cui al suo articolo 5, paragrafo 1, lettera c), tale divieto non dovrebbe indurre il fornitore della piattaforma online a mantenere, acquisire o trattare un numero di dati personali superiore a quello di cui dispone già per valutare se il destinatario del servizio è un minore. Pertanto, tale obbligo non dovrebbe incentivare i fornitori di piattaforme online a rilevare l’età del destinatario del servizio prima del loro utilizzo. Dovrebbe applicarsi fatto salvo il diritto dell’Unione in materia di protezione dei dati personali”.
Tutela risarcitoria
L’articolo 54 prevede una responsabilità civile diretta per le piattaforme: “I destinatari del servizio hanno il diritto di chiedere un risarcimento, conformemente al diritto dell’Unione e nazionale, ai fornitori di servizi intermediari relativamente a danni o perdite subiti a seguito di una violazione degli obblighi stabiliti dal presente regolamento da parte dei fornitori di servizi intermediari”.
Per quanto la disposizione appaia volta prevalentemente ai soggetti che operano sulle piattaforme in maniera professionale e che si vedono ingiustamente bannati dalle stesse, nulla vieta che la disposizione si applichi anche ai soggetti fruitori del servizio che si vedono danneggiati da un contenuto oggetto di non adeguata moderazione.
La disinformazione istituzionalizzata
L’informazione mainstream non è né sinonimo di buona informazione né, tantomeno, di verità.
Il rischio di disinformazione tramite AI, sia undeground che mainstream è già stato segnalato più volte ed anche in questa sede.
Va però ricordato che il tema della moderazione sui social network non è un tema neutro.
Basti pensare alle recenti affermazioni di Mark Zuckerberg, owner di Meta, che ha candidamente affermato che durante la pandemia i social di proprietà di Meta stessa hanno letteralmente censurato alcune informazioni, per richiesta diretta delle istituzioni politiche e sanitarie: «sfortunatamente, penso che diverse istituzioni hanno esitato su alcuni fatti e chiesto di censurare alcuni contenuti che, a posteriori, sono risultati essere discutibili o veri».
I meccanismi del DSA, purtroppo, pur tutelando molto gli utenti online, verosimilmente contribuiranno ad aumentare questo tipo di distorsioni informative.
Conclusioni
Più sicurezza equivale, da sempre, a meno libertà, qualunque sia il campo di applicazione. Informazione, servizi digitali o vita privata non fanno eccezione.
Vogliamo perseguire più reati? Intercettazioni a strascico, per lo più penalmente irrilevanti.
Vogliamo un ambiente sicuro online? Appiattimento dei contenuti.
Vogliamo – magari in buona fede – spingere la popolazione verso una determinata scelta? Censuriamo – anche – le notizie vere che contraddicono la versione “ufficiale”.
Intanto Elon Musk continua a trovare elementi di censura occulta su Twitter: algoritmi nascosti o politica per risparmiare sulla moderazione?
La ricerca della verità è selezione delle fonti: esercizio intellettuale difficilissimo.