TikTok e minori, che delusione: si apre una lunga partita per le tutele - Agenda Digitale

la riflessione

TikTok e minori, che delusione: si apre una lunga partita per le tutele

Nell’immediato cambia pochissimo. Pregevole ma di efficacia da dimostrare la campagna di sensibilizzazione. E per l’intelligenza artificiale che verifichi l’età bene dovremo aspettare chissà quanto

04 Feb 2021
Riccardo Berti

avvocato Centro Studi Processo Telematico

Franco Zumerle

Avvocato Coordinatore Commissione Informatica Ordine Avv. Verona

Fu così che la montagna partorì un topolino.

L’iniziativa del Garante Privacy per bloccare il social network TikTok perché non controlla adeguatamente l’età degli iscritti, a quanto pare, ha trovato componimento con un “blocco del servizio” che rimane sulla carta e che, soprattutto, non sembra offrire maggior tutela agli iscritti più giovani del social network (almeno nell’immediato).

Dopo il provvedimento di blocco di TikTok comunicato dal Garante Privacy il 22 gennaio scorso, il social non ha dato corso alle misure imposte dal Garante (immediata cessazione del trattamento con riferimento a tutti gli utenti del social di cui non è accertata con sicurezza la maggiore età) e ha preferito invece proporre un componimento che gli consente di mantenere attivo il servizio (vittoria sostanziale per il social network) a fronte di impegni minimi nell’immediato e più significativi (ma generici) nel futuro.

Cosa succederà dal 9 febbraio a TikTok

A partire dal 9 febbraio Tik Tok bloccherà tutti gli utenti italiani e chiederà di indicare di nuovo la data di nascita prima di continuare ad utilizzare l’app.

WEBINAR
18 Novembre 2021 - 15:00
PNRR: Cybersecurity e innovazione digitale (sicura).
Sicurezza
Cybersecurity

TikTok si è anche impegnata a rimuovere gli account di utenti infra-tredicenni che siano individuati (nulla si dice, nel provvedimento, delle sorti degli account degli infra-quattordicenni, che dovrebbero a rigore poter essere mantenuti solo con l’acquisizione del consenso dei genitori).

Scorza: “Social e minori, segnata la strada per maggiori tutele”

Già in passato (nel 2019) TikTok aveva eliminato tutti gli account degli utenti infra-tredicenni, ma l’unico effetto era stato quello di eliminare i profili social degli animali domestici o di qualche azienda che non aveva avuto la lungimiranza di inserire come “data di nascita” quella del padrone/titolare.

Verosimilmente stavolta non accadrà nemmeno questo visto che agli utenti sarà data la possibilità di riottenere l’account sospeso dopo il blocco, quindi la soluzione immediata proposta dal social per la soluzione delle problematiche esposte dal Garante, per come descritta nel comunicato diffuso dall’Autorità, pare più un palliativo che una reale soluzione.

Gli impegni di TikTok di lungo periodo

Più interessanti sono gli impegni di TikTok nel medio/lungo periodo, con il social network che si è impegnato ad avviare con l’Autorità privacy irlandese (paese dove TikTok ha fissato il proprio stabilimento principale e che farà quindi da capofila delle iniziative europee a tema privacy nei confronti della piattaforma) una discussione sull’utilizzo dell’intelligenza artificiale a fini di “age verification”.

La promessa di TikTok non è chiara nei tempi, nei modi e negli effetti e rende evidente come quello del Garante sia un parziale dietro front rispetto agli assetti iniziali del provvedimento del 22 gennaio.

Del resto una simile marcia indietro è ragionevole se si pensa che quello iniziale era un provvedimento spinto dall’ondata di preoccupazione popolare nei confronti del social network e che sembrava non tener conto del fatto che numerosi altri social network (anche orientati ai minori) non adottano procedure di verifica dell’età così sofisticate.

Verso una soluzione generale

Il provvedimento del Garante ha poi avuto il pregio di aprire il dibattito sugli strumenti informatici per la tutela dei minori sul web, con idee interessanti (anche se forse troppo macchinose ad oggi) come ad esempio l’utilizzo di SPID per verificare l’età minima per accedere al social (il che forse contribuirà ad aprire all’utilizzo di questa credenziale digitale anche ai minorenni).

L’interesse di TikTok è però è quello di non rendere troppo difficile l’accesso al proprio social network. Se davvero oggi TikTok pretendesse un accesso tramite SPID mentre tutti gli altri social si rifanno a procedure più semplici ed immediate, perderebbe verosimilmente una larga fetta dei propri utenti (del resto il social ha fatto fortuna proprio grazie alla propria facilità ed immediatezza d’uso).

Il social network sta cercando quindi una soluzione semplice ed efficace per la verifica dell’età, che non pesi sugli utenti i quali possibilmente non dovrebbero nemmeno accorgersi che questo controllo ulteriore è stato implementato (a meno che non siano effettivamente infra-tredicenni).

L’intelligenza artificiale per la verifica dell’età

E TikTok ha un vantaggio importante in questa sfida tecnologica. Mentre infatti in altri social è possibile nascondere la propria identità dietro testi scritti e immagini di fantasia, il social network di ByteDance è fondato sulla condivisione della propria immagine davanti ad una fotocamera.

Non dovrebbe quindi essere eccessivamente difficile isolare i fotogrammi prodotti dagli utenti e verificare se un infra-tredicenne ne è protagonista, attraverso software dedicati allo scopo.

Sul punto, a dire il vero, le intelligenze artificiali che popolano le nostre app e le fotocamere dei nostri smartphone non sono oggi così sviluppate e danno prova di errori a volte anche comici, ma non si dubita che le soluzioni professionali possano svilupparsi tanto da ottenere un sufficiente grado di precisione.

Tra le soluzioni già disponibili sul mercato si registra ad esempio Yoti, un’app che sfrutta sistemi di intelligenza artificiale per verificare l’età di un soggetto tramite smartphone (ed anche il fatto che la persona “verificata” non stia poggiando una fotografia sullo schermo, ingannando il verificatore).

Il margine di errore di due anni

Il software ha però un margine di errore di oltre 2 anni ed infatti si propone un controllo con documento di identità per completare la verifica (controllo che poi è necessario per accertare che effettivamente la persona a cui si associa l’età sia chi dice di essere, altrimenti è sufficiente rivolgersi ad una sorella o a un fratello maggiore compiacente per bypassare la procedura).

TikTok verosimilmente cercherà di sviluppare uno strumento più preciso da implementare al momento dell’iscrizione e/o sui contenuti successivamente prodotti e che possa, specie in quest’ultimo caso, eliminare falsi positivi (es. una madre che dal proprio profilo condivide un video in cui compare la figlia).

E’ ovvio però che questa attività di scansione e controllo comporterà un ulteriore trattamento dati davvero esteso da parte di TikTok.

Lo sviluppo di simili tecnologie fa poi sempre preoccupare per il loro eventuale utilizzo anche per eliminare altre tipologie di contenuti “scomodi” solo cambiando un settaggio del software.

In ogni caso l’iniziativa del Garante italiano ha sicuramente ottenuto l’effetto di modificare le priorità della compagnia che controlla TikTok, che ora sa di dover implementare soluzioni per rendere effettivo il divieto di iscrizione dei minori di tredici anni alla sua piattaforma e verosimilmente farà da apripista per l’adozione di soluzioni simili anche da parte di altri social network.

Questa spinta verso soluzioni tecnologiche di age verification porta con sé l’ulteriore problema derivante dal fatto che queste costose soluzioni basate sul machine learning difficilmente saranno alla portata delle piattaforme di dimensioni minori, creando così un divario difficilmente colmabile fra grandi piattaforme in compliance e piccole piattaforme in difficoltà non solo a guadagnare fette di mercato ma anche a raggiungere la compliance normativa necessaria per poter lecitamente operare sul mercato.

La campagna di sensibilizzazione

Il Garante ha inoltre ottenuto l’impegno di Tik Tok a lanciare una campagna informativa sia sulla propria app che su altri media (che inizierà il 4 febbraio) riguardo la verifica dell’età e di sensibilizzazione sulla sicurezza (con comunicazioni rivolte ai genitori che saranno invitati a controllare soprattutto il fatto che i figli si iscrivano solo se hanno più di 13 anni).

Dopo la verifica dell’età, l’app invierà notifiche push agli utenti prima di bloccarli, e li informerà sul requisito dell’inserimento dell’età e della possibilità di presentare ricorso per ottenere indietro il loro account dopo che è stato sospeso.

Sempre per informare maggiormente gli utenti sulla gestione dei propri dati, il social pubblicherà dei banner in app mettendo a disposizione dei link contenenti informazioni sugli strumenti di sicurezza e su come cambiare le impostazioni del profilo da “pubblico” a “privato”.

Infine il Garante ha comunicato che darà via sulle reti nazionali ad una campagna di sensibilizzazione con l’obiettivo di richiamare i genitori a svolgere un ruolo attivo di vigilanza e a prestare particolare attenzione al momento in cui verrà richiesto ai figli di indicare la loro età per accedere a TikTok.

La moderazione dei contenuti

TikTok ha infine anticipato l’introduzione direttamente in app di un pulsante che permette agli utenti di segnalare rapidamente e facilmente utenti che sembrano avere meno di 13 anni e si è impegnata a duplicare il numero dei moderatori di lingua italiana dei contenuti presenti sulla piattaforma.

L’alert per le informazioni non verificate

TikTok non si sta attivando solamente per la soluzione del problema degli utenti infra-tredicenni, ma negli ultimi tempi sta predisponendo numerose modifiche per garantire maggiormente i propri utenti e selezionare i contenuti.

Da ultimo, con annuncio del 03 febbraio, TikTok ha annunciato che inizierà a mostrare un alert prima di consentire l’accesso a video che contengono informazioni non verificate.

L’avviso comparirà per tutti quei contenuti che, verificati da fact-checkers, non sono stati confermati da fonti affidabili.

Sui video comparirà un messaggio di questo tipo: “Caution: Video flagged for unverified content.” e un ulteriore alert comparirà nel caso in cui un utente voglia condividere il video non verificato, chiedendo conferma all’utente circa la volontà di condividere un video non verificato.

WEBINAR
28 Ottobre 2021 - 12:00
FORUM PA 2021- Sanità: Cybersecurity, conoscere per non rischiare
Sicurezza
Cybersecurity
@RIPRODUZIONE RISERVATA

Articolo 1 di 4