Tutela dei minori sulle piattaforme digitali: le sfide per il legislatore Ue - Agenda Digitale

Digital Services Act

Tutela dei minori sulle piattaforme digitali: le sfide per il legislatore Ue

La tutela dei minori, declinata in un panorama digitale sempre più ricco di opportunità e insidie, presenta grandi sfide per il legislatore europeo. In attesa dell’approvazione del Digital Services Act, facciamo il punto anche sui ritardi del nostro Paese

15 Giu 2021
Daniela Messina

Professore a contratto di diritto dell’informazione e dell’informatica – Università degli Studi di Napoli “Parthenope”

Questa foto di Autore sconosciuto è concesso in licenza da CC BY-NC-ND

Alla luce del valore che assume la protezione dei minori all’interno delle società democraticamente avanzate e all’incremento massivo dell’uso delle nuove tecnologie da parte di tali soggetti, diviene oggi prioritario valutare come tale peculiare tutela si declina all’interno del panorama digitale e quali possano essere le relative prospettive future dal momento che tali piattaforme rappresentano sicuramente delle straordinarie “porte spalancate verso il mondo”, ma al contempo risultano essere estremamente ricche di insidie proprio per tale fascia di popolazione.

Il nostro Paese, che già ha recepito con forte ritardo la direttiva 2018/1808 in materia di servizi media audiovisivi[1] deve anche accelerare sul riordino delle norme del settore con l’emanazione di un nuovo Testo Unico.

Adescamento minorile online, fenomeno in crescita: come avviene e come prevenirlo

Minori e uso della rete durante la pandemia

Intervenire è diventato ancora più urgente, dopo la pandemia. Da un’analisi condotta da Audiweb e destinata a rilevare la total digital audience del 2020[2] è emerso che l’accesso medio giornaliero alla Rete nell’anno caratterizzato dall’esplosione della pandemia da Covid-19 è stato caratterizzato da un incremento del 3,3% rispetto al 2019. Dinanzi a un risultato sicuramente prevedibile alla luce delle misure restrittive che hanno caratterizzato l’Italia durante l’emergenza epidemiologica, tuttavia, colpiscono particolarmente i numeri relativi all’utilizzo della Rete da parte dei minori. Per tale fascia di popolazione, infatti, si è registrato un incremento di ben +106,4% per il segmento 13-17 anni e addirittura del +137,1% per il segmento 2-12 anni. Sebbene un aumento così rilevante e duraturo, soprattutto tra i più piccoli, sia stato sicuramente determinato in gran parte dall’avvio della didattica a distanza imposta dal periodo emergenziale, è indubbio che dinanzi a una riduzione significativa delle possibilità di interazione sociale normalmente garantite dalla vita scolastica e dalle attività sportive, i più giovani si siano rifugiati inevitabilmente nel mondo delle piattaforme digitali.

WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Legal
Privacy

Si è trattato di una vera “migrazione di massa” che ha coinvolto proprio quella fascia di popolazione che risulta maggiormente esposta all’influenza di contenuti dannosi in quanto ancora priva di una maturità e di una capacità critica tali da consentire una corretta e non lesiva fruizione di determinati immagini, suoni o parole. È ampiamente noto, infatti, che i minori richiedano un’attenzione dedicata da parte dell’ordinamento dal momento che la relativa tutela non solo deve sostanziarsi nella necessaria individuazione di norme e presidi sanzionatori a protezione della dignità e della riservatezza dei singoli, ma deve volgere lo sguardo anche al percorso di crescita del minore al fine di garantire una equilibrata evoluzione della sua personalità mediante la previsione di ulteriori e più specifici limiti e garanzie.

Un sistema di tutela specifico che trova immediato riconoscimento nella stessa Carta costituzionale partendo dal principio personalista che innerva l’intero testo e risulta incardinato negli artt. 2 Cost e 3 Cost., per poi realizzarsi nell’art. 31, comma 2, che attribuisce alla Repubblica uno specifico compito di protezione nei confronti della maternità, dell’infanzia e della gioventù richiedendo a tal fine la predisposizione di appositi istituti. Con riferimento, inoltre, all’ambito particolare della diffusione dei contenuti audiovisivi un ulteriore riferimento è rappresentato dall’art. 21, comma 6 della Costituzione laddove il limite esplicito del buon costume è stato tradizionalmente declinato anche a garanzia della dignità, del pudore sessuale e dell’equilibrio psichico e morale dei minori.

Digital Services Act, il “rebus” dei contenuti illeciti: la Ue rischia di aumentare il caos

Le misure a tutela dei minori nel panorama delle piattaforme digitali

La rilevanza e l’impellenza di tale riflessione è d’altra parte imposta dalle vicende di cronaca che si succedono tristemente ormai da anni. Il 2021, in particolare, si è aperto con una terribile notizia relativa a una bambina di soli 10 anni che avrebbe perso la vita in seguito alla partecipazione ad una sfida denominata Blackout challenge all’interno di una piattaforma particolarmente popolare tra i più giovani: TikTok.

Una vicenda estremamente grave che ha spinto l’Autorità Garante per la protezione dei dati personali a intervenire d’urgenza con il provvedimento n. 20 del 22 gennaio 2021 imponendo alla piattaforma la limitazione provvisoria del trattamento dei dati personali, ai sensi degli artt. 58, par. 2, lett. f) e 66, par. 1, del Regolamento 679/2016, e stabilendo il divieto di ogni ulteriore utilizzo di informazioni relative agli utenti per i quali non vi sia assoluta certezza dell’età anagrafica.

In realtà, con nota n. 47853 del 15 dicembre 2020, l’Autorità aveva già inviato nel dicembre 2020, quindi, prima dei gravosi fatti, un formale procedimento nei confronti della società contestando la presunta violazione di un nutrito numero di disposizioni del Regolamento e rilevando forti criticità proprio con riferimento agli strumenti di age verification destinati agli utenti[3].

In seguito a tali provvedimenti, la piattaforma ha avviato un percorso di verifica dell’età anagrafica di tutti gli iscritti al fine di procedere alla rimozione degli account associati agli utenti al di sotto della soglia minima di 13 anni. Inoltre, ha previsto anche la realizzazione di uno studio sull’implementazione di sistemi di intelligenza artificiale per la verifica dell’età, una campagna informativa per sensibilizzare genitori e figli sui rischi connessi all’utilizzo di tali servizi e la predisposizione di un modulo che consentirà agli utenti di segnalare rapidamente e facilmente i membri che sembrano non rispettare il limite di età stabilito per l’accesso alla piattaforma.

Il Digital Service Act

La decisione di attivare un sistema di notifiche da parte degli utilizzatori della piattaforma si pone perfettamente in linea con il quadro di strumenti di tutela individuati a livello sovranazionale all’interno del Digital Service Act, la proposta di Regolamento adottata dalla Commissione europea nel dicembre 2020 che si pone come obiettivo fondamentale l’introduzione sul territorio europeo di una serie di obblighi di due diligence a carico dei fornitori di servizi digitali al fine di garantire la sicurezza, la fiducia e la tutela dei diritti fondamentali degli utenti europei[4].

Con riferimento, in particolare, alle misure di contrasto dei contenuti illeciti, la proposta prevede la creazione di una solida “intelaiatura comunicativa” basata sull’attivo coinvolgimento delle piattaforme e di tutti i soggetti variamente coinvolti dall’attività di tali provider. Tale struttura trova il suo nodo centrale nell’individuazione ai sensi dell’art. 10 di un punto di contatto unico mediante il quale i singoli fornitori di servizi sono tenuti a instaurare un canale di comunicazione diretto con le autorità di settore degli Stati membri, la Commissione e il Comitato europeo per i servizi digitali, istituito ex art. 47, al fine di facilitare il confronto su tutte le questioni relative alla corretta applicazione delle nuove norme in materia, come nel caso dell’adozione di ordini finalizzati a contrastare i contenuti illegali ex art.9 della proposta.

Sotto il profilo più strettamente connesso alla tutela dei minori, la nuova architettura prevista dal legislatore introduce ai sensi dell’art. 14 uno specifico meccanismo di notifica e azione finalizzato a consentire la segnalazione da parte di qualsiasi utente o ente circa la presenza di contenuti illegali sulla piattaforma. A tal fine, il considerando 12, chiarisce che con tale termine si dovrà intendere qualsiasi informazione “indipendentemente dalla loro forma, che ai sensi del diritto applicabile sono di per sé illegali, quali l’illecito incitamento all’odio o i contenuti terroristici illegali e i contenuti discriminatori illegali, o che riguardano attività illegali, quali la condivisione di immagini che ritraggono abusi sessuali su minori, la condivisione non consensuale illegale di immagini private, il cyberstalking, la vendita di prodotti non conformi o contraffatti, l’utilizzo non autorizzato di materiale protetto dal diritto d’autore o le attività che comportano violazioni della normativa sulla tutela dei consumatori”.

Ai sensi della disposizione, ogni segnalazione dovrà essere opportunamente motivata con chiara indicazione circa l’ubicazione elettronica, in particolare l’indirizzo o gli indirizzi URL e tutte quelle informazioni supplementari che consentono una agevole individuazione del contenuto che si ritiene lesivo. La notifica, inoltre, dovrà essere corredata da una dichiarazione in cui il segnalatore confermi la convinzione in buona fede circa l’esattezza e la completezza delle informazioni e delle dichiarazioni ivi contenute.

I “segnalatori attendibili”

In tale prospettiva, assume particolare rilievo l’ulteriore previsione indirizzata esplicitamente alle piattaforme online e destinata a realizzare una via preferenziale per i cosiddetti “segnalatori attendibili”, intesi come quei soggetti che, ai sensi dell’art.19, dispongono di capacità e competenze particolari ai fini dell’individuazione, dell’identificazione e della notifica di contenuti illegali. Tali soggetti dovranno rappresentare interessi collettivi ed essere indipendenti da qualsiasi piattaforma online. Inoltre, dovranno essere in grado di presentare le notifiche in modo tempestivo, diligente e obiettivo. È evidente la volontà del legislatore europeo di garantire un delicato bilanciamento tra la tutela dei diritti fondamentali con particolare attenzione ai minori e lo svolgimento di attività di impresa al fine di evitare segnalazioni pretestuose che possano limitare il corretto funzionamento delle piattaforme in questione e, al contempo, inficiare l’obiettivo perseguito.

A tali fornitori, inoltre, ai sensi dell’art. 21 viene ulteriormente richiesto di allertare le autorità giudiziarie o di contrasto competenti in caso di ragionato sospetto circa la commissione o la probabile commissione tramite i propri servizi di un reato grave che minaccia la vita e la sicurezza delle persone.

A tale “intelaiatura comunicativa” si aggiungono poi le norme più penetranti destinate alle piattaforme online di dimensioni molto grandi ossia quelle che prestano i propri servizi a un numero medio mensile di destinatari attivi nell’Unione pari o superiore a 45 milioni. In tale prospettiva, a tali provider sarà assegnato il delicato compito di valutare annualmente l’eventuale presenza di rischi sistemici significativi derivanti dal funzionamento e dall’uso dei loro servizi nell’Unione (art.26). In particolare, l’attenzione di tali piattaforme dovrà soffermarsi, innanzitutto, sull’esistenza di contenuti illegali il cui rischio associato risulta inevitabilmente aggravato dal possibile effetto amplificativo determinato dalla presenza di account con bacini di utenza particolarmente ampi.

In secondo luogo, su tali piattaforme ricadrà l’obbligo di evidenziare eventuali effetti negativi per l’esercizio dei diritti fondamentali al rispetto della vita privata e familiare e alla libertà di espressione e di informazione, del diritto alla non discriminazione e dei diritti del minore, sanciti rispettivamente dagli articoli 7, 11, 21 e 24 della Carta dei diritti fondamentali dell’Unione europea. In tale prospettiva, l’attenzione è rivolta in particolare ai problemi connessi all’implementazione di sistemi algoritmici che possono determinare fenomeni lesivi o limitativi dei diritti degli utenti. Infine, le piattaforme saranno tenute a individuare eventi di manipolazione intenzionale del servizio, tramite ad esempio la predisposizione di account falsi o l’uso di sistemi automatizzati, che “possono condurre alla rapida e ampia diffusione di informazioni che costituiscono contenuti illegali o comunque in grado di avere ripercussioni negative, effettive o prevedibili, sulla tutela della salute pubblica, dei minori, del dibattito civico, o con effetti reali o prevedibili sui processi elettorali e sulla sicurezza pubblica”.

Al fine di arginare tali rischi sistemici, le piattaforme saranno tenute ad adottare misure di attenuazione ragionevoli, proporzionate ed efficaci tenendo conto anche dei sistemi di moderazione dei contenuti, di raccomandazione, di selezione e di visualizzazione della pubblicità già implementati.

È evidente la complessità di tale punto tenuto conto che la richiesta si rivolge a società private che perseguono interessi sostanzialmente economici e implica inevitabilmente una analisi delicata finalizzata all’individuazione di un difficile punto di equilibrio tra tutela dei diritti fondamentali e misure di contrasto a fenomeni lesivi della libertà degli utenti. Consapevole della gravosità della richiesta, il legislatore europeo incoraggia intense attività di cooperazione con i segnalatori attendibili, le organizzazioni delle società civile interessate al settore nonché la predisposizione di appositi codici di condotta ad ampio coinvolgimento da parte delle piattaforme e meccanismi di autoregolamentazione e coregolamentazione.

Minori e piattaforme di video-sharing: in attesa del nuovo Testo Unico in materia di servizi media audiovisivi

Se il Digital Service Act rappresenta il prossimo futuro in quanto la proposta dovrà essere sottoposta ad approvazione da parte del Parlamento Europeo e degli Stati Membri, il presente è, invece, rappresentato dalla direttiva 2018/1808 in materia di servizi media audiovisivi[5] le cui norme si intrecciano con le precedenti senza soluzione di continuità. Nel rispetto dell’attuale quadro normativo sul commercio elettronico, anch’esso destinato a essere modificato dalla citata proposta di Regolamento, la direttiva prevede delle norme specificamente dedicate ai minori sulla scia di una consolidata tradizione normativa che ha visto da sempre, nel settore radiotelevisivo prima, e nell’audiovisivo poi, una peculiare attenzione rivolta dal legislatore nei confronti di tale fascia di utenza vista la pervasività che caratterizza tale mezzo di comunicazione all’interno delle società democraticamente avanzate.

In tale prospettiva, la novità più rilevante e inerente al tema della tutela dei minori è sicuramente rappresentata dal riconoscimento tra i servizi media audiovisivi delle piattaforme di video-sharing ossia di quelle piattaforme il cui obiettivo principale ovvero una funzionalità essenziale è rappresentata proprio dalla fornitura di programmi, video generati dagli utenti o entrambi per il grande pubblico, per i quali il fornitore della piattaforma non ha responsabilità editoriale, ma interviene direttamente nella loro organizzazione anche con mezzi automatici o algoritmi, in particolare mediante visualizzazione, attribuzione di tag e sequenziamento.

In tale ambito, l’art. 28-ter della direttiva stabilisce per la prima volta a carico degli Stati membri l’obbligo di assicurare che i fornitori di piattaforme di video sharing soggetti alla loro giurisdizione adottino misure adeguate a tutelare i minori dalla diffusione di contenuti che possano nuocere al loro sviluppo fisico, mentale o morale. Inoltre, a garanzia del grande pubblico viene richiesto un analogo intervento per contrastare la diffusione di materiale che istighi all’odio e alla violenza.

Per rendere tali previsioni ancora più efficaci, il legislatore europeo ha stabilito l’implementazione di più rigorosi strumenti di controllo dell’accesso nei casi più gravi. Tali interventi prevedono, tra l’altro, proprio l’implementazione all’interno delle piattaforme di meccanismi trasparenti e di facile uso finalizzati alla segnalazione di materiale lesivo da parte degli utenti a cui si aggiungono i sistemi di controllo parentale e gli strumenti di age verification. Di rilievo è anche la previsione di funzionalità che consentano agli utenti che caricano video su tali piattaforme di dichiarare se in essi sono presenti comunicazioni commerciali. Infine, la direttiva prevede per tali fornitori di servizi anche il divieto di diffusione di comunicazioni commerciali aventi ad oggetto bevande alcoliche che si rivolgano specificatamente ai minori o che esaltino eccessivamente il loro consumo. Inoltre, è fatto divieto di diffondere comunicazioni commerciali che arrechino pregiudizio fisico, mentale o morale ai minori o che li esortino direttamente ad acquistare o prendere in locazione un prodotto o un servizio sfruttando la loro inesperienza o credulità.

Sebbene tali misure dovranno essere praticabili e proporzionate, tenendo conto delle dimensioni della piattaforma per la condivisione di video e della natura del servizio offerto, l’introduzione di nuove norme destinate a tali tipo di provider rappresenta sicuramente un importante passo in avanti nel quadro di tutela dei minori da troppo tempo in affanno dinanzi alla straordinaria diffusione delle nuove tecnologie.

Conclusioni

Eppure, nonostante il rilievo di tale direttiva, il cui termine ultimo di recepimento era previsto per il 19 settembre 2020, il legislatore italiano ha provveduto ad introdurla all’interno dell’ordinamento solo poche settimane fa, con legge n. 53 del 22 aprile 2021. A tale intervento dovrà seguire poi il riordino delle norme del settore con l’emanazione di un nuovo Testo Unico.

È evidente che in attesa dell’approvazione del Digital service act e delle ulteriori novità che apporterà, tale ritardo rappresenta un’occasione mancata per l’Italia che avrebbe potuto approfittare proprio di questo tempo per accelerare la riforma di un quadro normativo ancora eccessivamente ancorato a un passato non pienamente digitale. In particolare, un tempestivo recepimento della direttiva avrebbe potuto garantire, in un momento estremamente delicato come quello attuale, un ulteriore e più penetrante strumento di garanzia per i minori con riferimento all’uso delle piattaforme digitali tenuto conto che nel loro essere “porte spalancate verso il mondo” rischiano, se non sapientemente regolate, di far entrare i “gelidi venti” dei contenuti d’odio e di violenza a danno proprio di quella parte di popolazione che richiede, soprattutto oggi, una maggiore protezione.

Note

  1. Direttiva (UE) 2018/1808 del Parlamento Europeo e del Consiglio del 14 novembre 2018 recante modifica della direttiva 2010/13/UE, relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti la fornitura di servizi di media audiovisivi (direttiva sui servizi di media audiovisivi), in considerazione dell’evoluzione delle realtà del mercato
  2. Total Digital Audience Dicembre 2020 – Audiweb
  3. Garante per la protezione dei dati personali, nota n. 47853 del 15 dicembre 2020
  4. Proposal for a Regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC
  5. Direttiva (UE) 2018/1808 del Parlamento Europeo e del Consiglio del 14 novembre 2018 recante modifica della direttiva 2010/13/UE, relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti la fornitura di servizi di media audiovisivi (direttiva sui servizi di media audiovisivi), in considerazione dell’evoluzione delle realtà del mercato

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4