Minori sui social: educhiamoli per difenderli - Agenda Digitale

società digitale

Minori sui social: educhiamoli per difenderli

Un algoritmo può aiutare a rendere migliori e più sicure le nostre vite, ma non può sostituirsi all’elemento umano. Un assunto tanto più vero quando si tratta di minori in rete: leggi e tecnologie da sole non bastano. Occorre educare i più piccoli, a casa e a scuola, a difendersi dai pericoli del digitale

17 Dic 2021
Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Zakaria Sichi

Studio Legale Martorana

L’estate scorsa la tiktoker cinese Xiao Qiumei ha perso la vita cadendo da una gru per oltre 40 metri, il tutto in diretta sul noto social network. Peraltro, la ragazza si era guadagnata oltre 100.000 follower proprio con lo stesso tipo di attività pericolose che sono state poi causa del suo decesso.

Negli ultimi due anni la stessa sorte è capitata ad altri giovani – tra cui diversi italiani – che sono morti in incidenti stradali su auto lanciate a folle velocità mentre erano in live su Instagram.

Altri ancora sono deceduti per scattare selfie panoramici da luoghi pericolosi per poterli postare sui propri account.

La tecnologia non basta per difendere i minori sui social

Sono notizie come queste che spingono legislatori o autorità di tutto il mondo a regolare i social con più forza, per tutelare i minori. Le regole in materia sono piuttosto chiare, ma hanno bisogno di essere attuate dai gestori delle piattaforme anche con l’ausilio delle nuove tecnologie, come i nuovi e ancora imperfetti algoritmi per controllare l’età e impedire l’accesso agli infra tredicenni.

WEBINAR
27 Gennaio 2022 - 15:00
PIPL: tutto quello che devi sapere sulla nuova normativa cinese
Legal
Sicurezza

Oppure come la spinta legislativa, in Europa e negli Usa, per una revisione degli algoritmi atta impedire l’amplificazione contenuti dannosi, soprattutto ai minori. Si veda contenuti come consigli di diete estreme o, appunto, azioni pericolose.

Ma leggi e tecnologie da sole non sono sufficienti, anzi: sono un paravento per eludere i doveri educativi.

Di fondo, ricerca della popolarità e del più alto numero di seguaci possibili passa spesso attraverso la messa in scena di giochi pericolosi. Il problema è che tendenzialmente funziona, come se il brivido provato dal protagonista fosse capace di attraversare lo schermo dello smartphone e colpire lo spettatore, il quale poi decide di seguire la persona con la speranza di vedere altri video simili; questo l’autore lo sa ed agisce di conseguenza.

Più di recente, l’attenzione si è focalizzata sulla riproduzione – in molte scuole italiane – della nota serie tv coreana Squid Game, e non sempre per averla vista su Netflix, ma anche dopo aver trovato le scene divenute virali su tutti i social.

Ebbene, tutto questo è molto preoccupante in ottica di tutela dei minori. Molti giovanissimi utilizzano ogni giorno le varie piattaforme che il web offre, e possono incrociare questo tipo di contenuti nel pieno del loro percorso di crescita, una fase in cui la popolarità, il successo e la venerazione dei coetanei sono ipotesi attraenti, ma gli esempi per conseguire l’obiettivo non sempre sono positivi. In questo senso ci si è mossi partendo dall’intensificazione del monitoraggio delle iscrizioni ai social sulla base delle regole vigenti in materia e col supporto delle nuove tecnologie, le quali possono essere una buona base – ma non l’unica – su cui lavorare.

Le regole sull’accesso dei minori ai social network

In tema di minori e web, l’art. 8 del Regolamento UE 2016/679 (GDPR), prevede che, per quanto riguarda l’offerta diretta di servizi della società dell’informazione ai minori, qualora il trattamento di dati personali considerato sia basato sul consenso, quest’ultimo è lecito laddove il minore che lo esprime abbia compiuto. Qualora invece abbia un’età inferiore, tale trattamento è lecito soltanto se il consenso è stato prestato o autorizzato dal titolare della responsabilità genitoriale. Se però la base giuridica del trattamento è un’altra, come ad esempio il legittimo interesse o l’adempimento di un obbligo di legge, allora l’art. 8 non trova applicazione.

Al contempo, poi, il GDPR consente ai legislatori degli Stati membri di stabilire un’età inferiore per la capacità del minore di acconsentire al trattamento dei dati nei confronti dei soggetti che propongono servizi della società dell’informazione, purché non abbia meno di 13 anni. In Italia, ad esempio, tale soglia è fissata a 14 anni, ai sensi dell’art. art. 2-quinquies del Codice Privacy come novellato dal D. Lgs. n. 101/2018. Negli Stati Uniti, invece, il Children’s Online Privacy Protection Act fissa l’età del consenso digitale a 13 anni.

Tutto piuttosto semplice e chiaro, senonché il Regolamento precisa che continuano a essere valide ed efficaci le leggi dei singoli Stati europei sulla capacità a concludere i contratti, limite fissato in Italia a 18 anni. Questo significa che, per scaricare ed utilizzare l’app di un social, è necessario avere almeno 13 anni, ma per concludere un contratto online ne occorrono 18. Il problema è quindi quello di capire se l’adesione ad un social può essere considerata stipulazione di un contratto, e su questo punto ci sarebbe da discutere, poiché se così fosse allora il minore non potrebbe aprire un account su Facebook senza il consenso dei genitori. Su questa linea si è sempre collocato il Garante per l’infanzia e l’adolescenza, che ha spesso ribadito come l’iscrizione ai social dovrebbe avvenire soltanto al compimento della maggiore età, in quanto si tratterebbe di concludere un contratto con un fornitore di servizi digitali che, seppure gratuiti, comporterebbero la cessione di un valore rappresentato dai dati personali inseriti in fase di iscrizione e poi oggetto di cessione a terzi per finalità di marketing.
Di fatto, però, a sciogliere ogni dubbio applicativo ci hanno pensato gli stessi gestori dei social network, stabilendo – ai fini dell’iscrizione – delle soglie minime di età inferiori ai 18 anni. Ciò può significare che, secondo loro, aprire un account non equivale a concludere un contratto, e quindi si applica l’età del consenso digitale anziché quella della capacità di agire. E sono poi queste soglie ad essere oggetto di controlli.

Minori e social: cosa non ha funzionato

Quando si parla di controllo dell’età per l’iscrizione ai social network, occorre partire da ciò che non ha funzionato per capire come i gestori hanno corretto – o vorranno correggere – le prestazioni, ed in particolar modo il meccanismo superato dell’inserimento della data di nascita.

Uno studio sostenuto dall’UE e pubblicato a dicembre 2020 ha rivelato quanto sia facile per i bambini eludere i meccanismi di verifica dell’età più “rudimentali” usati dalle applicazioni più famose. Le misure impiegate dalle più diffuse piattaforme di social media per verificare l’età dell’utente durante il processo di iscrizione, infatti, sono state valutate inefficaci. Secondo la ricerca sostenuta dai progetti CyberSec4Europe e ASAP, finanziati dall’UE, i bambini di tutte le età potrebbero eludere completamente i meccanismi semplicemente mentendo sul proprio anno di nascita. I ricercatori hanno cercato di stabilire in che modo venissero applicati limiti d’età dalle dieci principali applicazioni social e di comunicazione usate dai bambini.

Analizzando le procedure di verifica dell’età di Discord, Facebook, Houseparty, Instagram, Messenger, Skype, Snapchat, TikTok, Viber e WhatsApp, è stato scoperto che tutte queste applicazioni permettono a un utente di creare un account se afferma di avere 16 anni al momento della registrazione. In sostanza, le piattaforme disabilitavano la registrazione solo se l’utente avesse inserito un’età inferiore ai 13 anni, mentre se avesse affermato di averne 16, nessuna delle applicazioni successivamente avrebbe richiesto di provare l’età. Questo potrebbe esporre i più piccoli ai principali rischi del web, come il cyberbullismo, l’adescamento di minori o il digital kidnapping.

Sulla base dei risultati dello studio, i promotori hanno ritenuto di dover suggerire lo sviluppo di meccanismi di controllo sfruttando le nuove tecnologie di intelligenza artificiale, sempre però nel rispetto delle disposizioni in materia di protezione dei dati personali. Altri sistemi di minor impatto sulla data protecrion sarebbero – a detta loro – in grado quantomeno di scoraggiare gli utenti più giovani a procedere all’iscrizione, ad esempio rendendo predefinite le impostazioni privacy più stringenti per chi dichiara di non essere ancora maggiorenne. Anche in questo caso, però, occorrerebbe passare attraverso un rafforzamento delle misure tecniche per rendere di fatto impossibile mentire sull’età, che è stato il vero punto debole fino ad oggi.

Le nuove tecnologie in soccorso dei social network

Nel febbraio scorso, Google ha annunciato il ricorso alle tecnologie di machine learning per applicare automaticamente le restrizioni d’età ai video di YouTube, ivi compresi quelli pubblicati su altri siti. In questo modo, quando gli utenti incrociano dei filmati destinati ai soli maggiorenni su altre piattaforme, dovranno comunque effettuare il login per guardare quei video direttamente su YouTube a seguito di una verifica dell’età. Si tratta essenzialmente di una modalità di filtraggio dei contenuti in relazione all’utente specifico il quale, laddove non fosse in grado di dimostrare di essere maggiorenne o si rivelasse minorenne, verrà reindirizzato automaticamente verso contenuti più adatti, a prescindere dal “luogo” in cui il video è stato reperito; questo per evitare, come spesso accade, che dei filmati non adatti ai minori vengano ripubblicati sugli altri siti o blog per aggirare le misure di controllo anagrafico di YouTube.

Addirittura, per quanto riguarda i cittadini europei ed in linea con le nuove normative come la Direttiva sui servizi di media audiovisivi (AVMS) è previsto un nuovo ed ulteriore passaggio di verifica dell’età: qualora i sistemi non riescano a stabilire che un utente ha almeno 18 anni, questi dovrà fornire un documento di identità valido o una carta di credito per la verifica dell’età.

Senza farsi aspettare troppo, anche l’allora Facebook – oramai Meta – ha annunciato nell’ottobre scorso che modificherà e potenzierà gli algoritmi dei suoi social per tutelare i più giovani.

Il vicepresidente degli affari globali della società, Nick Clegg, ha infatti fatto sapere che provvederanno a lavorare sulle tecnologie di monitoraggio anagrafico sulla scia di quanto annunciato da Google, stabilendo che gli algoritmi verranno addestrati a regolare l’erogazione di contenuti ogni volta che verrà rilevato che un adolescente visualizza per più volte dei contenuti che potrebbero non giovare al suo benessere.

Allo stesso tempo, Meta sta pensando di avviare un’iniziativa chiamata “Prenditi una pausa da Instagram”, volta cioè a sfruttare le tecnologie per invitare a smettere temporaneamente di usare il social a tutti quegli adolescenti che usano per troppo tempo la piattaforma.

Ora, queste nuove misure possono in qualche modo essere di aiuto per la tutela dei minori online, anche se – essendo strumenti di monitoraggio successivi all’iscrizione – sembrano una dichiarazione di resa per quanto riguarda il controllo dell’età in entrata. Infatti, già oggi la maggior parte dei filtraggi avviene su account già creati. Molti social, ed in particolare quelli appartenenti a Meta, addestrano gli algoritmi ad analizzare le interazioni dei singoli profili, ed in base a questo riescono a capire se questi appartengono a maggiorenni o a minorenni e, in quest’ultimo caso, se essi hanno un’età inferiore o superiore alla soglia richiesta, con conseguente cancellazione dei profili non in regola. Anche TikTok, dopo le proteste per i molti video non adatti ai minori, ha rafforzato i controlli sfruttando strumenti volti ad analizzare gli account subito dopo l’iscrizione ed a prescindere dall’età anagrafica indicata in origine, la quale, come dimostrato dallo studio europeo visto in precedenza, non è assolutamente affidabile.

Conclusioni: IA e non solo

Le possibili proposte per rinforzare e rendere più efficaci i controlli al fine di tutelare i minori dalla visualizzazione di contenuti non adatti alla loro crescita, sono molteplici. Peraltro, considerando l’abbandono annunciato dei progetti di social dedicati esclusivamente ai bambini come Instagram Kids, e appurata l’inefficacia dell’indicazione dell’età, l’attenzione si focalizza naturalmente sull’intelligenza artificiale e le nuove tecnologie.

Gli stessi autori dello studio portato avanti dall’UE hanno cercato di ipotizzare strumenti ulteriori, partendo dall’utilizzo dei dati biometrici come lo sfruttamento del riconoscimento facciale per trarre conclusioni dai lineamenti dei singoli utenti della cui età si possa dubitare. Altra ipotesi riguarda invece il riconoscimento vocale. Tuttavia, se la prima soluzione solleva quesiti importanti circa il rispetto delle normative vigenti e potrebbe aggiungere problemi ulteriori a quelli già esistenti, la seconda rischia invece di rivelarsi inefficace e facilmente eludibile.

Da molti esperti arriva anche la proposta di utilizzare il sistema SPID. Quest’ultimo dovrebbe idealmente consentire di avere una garanzia sulla reale identità degli utenti e, per i minori di 14 anni, di ricevere il permesso dei genitori che dovranno vigilare sull’uso corretto dei social da parte dei figli.

Ora, al di là degli annunci e delle proposte, è importante che i doveri educativi non vengano elusi affidando alla sola tecnologia l’adempimento dei compiti essenziali per la tutela dei minori sul web.

Infatti, sebbene da un lato l’intelligenza artificiale – utilizzata nel rispetto delle regole – può essere uno strumento determinante per monitorare le iscrizioni ai social ed i contenuti erogati ad uno specifico pubblico, è l’educazione la vera soluzione a lungo termine. Quest’ultima è infatti capace di intervenire anche dove la tecnologia non può arrivare, soprattutto quando – come accade nella maggioranza dei casi – non è perfetta e perde qualcosa per strada.

In altri termini, sarebbe utile partire da una solida educazione all’uso del web, tanto in famiglia quanto a scuola, dedicandovi tempo e cura. Dopodiché, dato che purtroppo diventa sempre più difficile impedire che certi tipi di contenuti arrivino ai più giovani, occorrerebbe quantomeno prepararli, aiutandoli a capire come porsi difronte a determinate immagini, spegnendo sul nascere la voglia di imitarle o approvarle, proprio perché resi consapevoli dei pericoli e degli effetti negativi di determinate azioni.

Uno dei principali rischi delle nuove tecnologie, è infatti quello di accantonare l’elemento umano convincendosi che gli algoritmi bastino a migliorare le nostre vite e la sicurezza delle categorie più vulnerabili. Bisogna però tenere presente che l’obiettivo è rendere l’intelligenza artificiale uno strumento al servizio dell’essere umano, e non un suo sostituto.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4