Data protection a scuola

Le piattaforme DAD sorvegliano gli studenti: il report Human Right Watch e cosa dovrebbero fare i Governi

Le piattaforme DAD tracciano e profilano in modo occulto gli studenti di tutto il mondo: i dettagli del report diffuso da Human Right Watch, il legame con i contenuti personalizzati, il caso Google, perché i governi non sono riusciti a tutelare i nostri ragazzi e cosa fare adesso

Pubblicato il 18 Lug 2022

Diego Dimalta

Co-founder Privacy Network

DAD-didattica-a-distanza-e-learning

Studenti, non prodotti”: è questo il claim dell’ultima iniziativa di Human Right Watch che mira a sensibilizzare i governi di tutto il mondo sui diritti degli studenti. Diritti che, stando al report pubblicato proprio da HRW, sarebbero stati violati praticamente da tutti i principali governi del pianeta, complice la pandemia ed il conseguente ricorso massivo a strumenti di remote learning.

Tecnologie sempre più invasive nelle scuole, ma la tutela dei ragazzi è solo una scusa

Dall’analisi di circa 150 strumenti di didattica a distanza, suggeriti da 49 governi, è stato evidenziato come un numero impressionante di questi strumenti utilizzi sistemi di tracciamento e profilazione (spesso occulti) tali da consentire di sorvegliare gli studenti di tutto il mondo senza nemmeno chiedere il loro consenso.

Sorveglianza delle piattaforme DAD: un esempio pratico

Per capire la gravità della situazione facciamo un esempio molto semplice, ripreso dal report in questione: prendiamo un ragazzino qualunque di 9 anni, lo chiamiamo Rodin. Il ragazzino va a scuola e usa i sistemi imposti dai propri docenti a tutta la classe. I docenti a loro volta si adeguano alle indicazioni di istituto che si rifanno a quelle provenienti dal Ministero.

Rodin pensa che tutte queste tecnologie son molto utili per aiutarlo nell’apprendimento ma non immagina che, a sua insaputa, uno sciame invisibile di sistemi di tracciamento sorveglia le sue interazioni online: la piattaforma DaD della sua scuola monitora la posizione fisica di Rodin; la lavagna virtuale trasmette informazioni sulle sue abitudini di scarabocchi a società di marketing (c.d. AdTech); quando la lezione finisce, i tracker lo seguono fuori dalla sua classe virtuale e verso le diverse app e siti visitati su Internet.

La piattaforma di social media che Rodin usa per pubblicare i suoi compiti accede silenziosamente all’elenco dei contatti del suo telefono e scarica i dettagli personali sulla sua famiglia e i suoi amici. Tutti questi dati raccolti silenziosamente, vengono poi esaminati da sofisticati algoritmi capaci di creare un fedele ritratto intimo di Rodin, per capire come potrebbe essere facilmente influenzato in modo da vendergli qualche prodotto oppure da profilarlo per scopi magari anche non commerciali (es: social scoring).

Di fatto, le scuole ed i governi hanno ceduto i diritti dei ragazzi a fronte di una presunta gratuità dei servizi dei giganti della tecnologia come, ad esempio, Google. Del resto era evidente che le big tech non potessero fornire servizi così avanzati senza scopi secondari. Perché avrebbero dovuto farlo?

Il punto è che qualcuno si sarebbe dovuto porre queste domande sin da principio o, quantomeno, avrebbe dovuto ascoltare chi, come Privacy Network, sin da subito ha cercato di allertare il Governo, evidenziando le criticità nell’utilizzo di piattaforme come quelle di Google Education.

Dei campanelli d’allarme del resto esistevano e quindi non si può, a parere di chi scrive, scaricare tutta la colpa sulle big tech, essendo invece necessaria un’autoanalisi volta a chiedersi: “come mai la pubblica amministrazione ancora oggi ha problemi così seri a comprendere l’importanza della data protection?”.

Il punto è che qui non hanno sbagliato le società informatiche, non ha sbagliato il DPO della PA (spesso sottopagato e poco informato delle intenzioni politiche) ma ha sbagliato l’intero sistema che non è stato in grado di tutelare i nostri ragazzi regalando informazioni anche molto intime. Ancora una volta la PA ha fallito nel suo compito di scegliere la cosa migliore per noi, o meglio, per i nostri bambini; ma quali sono i risultati?

Piattaforme DAD e tracciamento studenti: perché è successo

Human Rights Watch ha condotto analisi tecniche su una moltitudine di prodotti per valutarne la gestione dati dei bambini, quindi ha confrontato i risultati con l’informativa sulla privacy del prodotto per determinare se le società EdTech sono state trasparenti con i propri utenti. È emerso che, in effetti, molte di loro hanno processato dati, anche in modo molto invasivo, omettendo anche i minimi accorgimenti.

Ma perché le big tech avrebbero dovuto sorvegliare i nostri ragazzi?

Per capirlo è sufficiente guardare ai numeri. Google Classroom, la piattaforma di didattica a distanza di Google, ha riferito che nel periodo di pandemia ha quasi quadruplicato i suoi utenti sino ad arrivare a quasi 150 milioni. Allo stesso modo, G Suite for Education, stando a Bloomberg, ha raddoppiato il suo numero di utenti arrivando a oltre 170 milioni di studenti ed educatori.

Questa crescita di utenti ha naturalmente anche generato ricavi e profitti record. Così, mentre l’economia globale è crollata, il patrimonio delle big tech dell’education è più che raddoppiato.

Zoom Video Communications, che ha fornito servizi gratuiti a oltre 125.000 scuole in 25 paesi, oltre a servizi gratuiti limitati per il pubblico in generale, ha avuto un miglioramento del 326% nel 2020 rispetto ai 12 mesi precedenti.

Ma se questi servizi erano gratuiti, come hanno fatto le big tech a ottenere simili risultati? Semplice, come ricorda Andy Rubin, creatore di Android: “We don’t monetize the things we create. We monetize users”.

L’intervento delle big tech ha sicuramente colmato una lacuna tecnologica dei governi e, d’altro canto, è evidente che nessuno ti offre un servizio senza avere ritorno alcuno. Dobbiamo chiederci: il prezzo in perdita di riservatezza è stato più salato del prevedibile? E, soprattutto, tutto ciò non poteva essere gestito in modo più trasparente nei confronti dei bambini e delle famiglie?

Piattaforme DAD e profilazione senza consenso: i dettagli del report HRW

Per capire il livello dell’invasività di questi sistemi è necessario riportare qualche numero.

Delle 73 app EdTech esaminate da Human Rights Watch, sono state trovate 41 app (56%) che hanno raccolto gli ID pubblici dei propri utenti. Ciò ha consentito a queste app di taggare i bambini e identificarli i loro dispositivi al solo scopo di tracciarli e vendere loro qualcosa, in un secondo momento.

Le 41 app che sono risultate in grado di raccogliere tali informazioni, specie su sistemi Android, sono state approvate da 29 governi e complessivamente hanno tracciato circa 6,24 miliardi di utenti, compresi i bambini.

La cosa peggiore, occorre evidenziarlo, è che nessuna di queste app ha consentito ai propri utenti di rifiutarsi di essere tracciati. Questa raccolta di dati è quindi risultata del tutto invisibile per il bambino che vede semplicemente l’interfaccia dell’app sul proprio dispositivo senza comprendere cosa accade realmente.

Secondo il report, difatti, ben 27 app che non informano i propri studenti, né attraverso la loro privacy policy, né altrove, del fatto che l’app e i suoi tracker AdTech di terze parti potrebbero tracciare e profilare e gli studenti, negando in questo modo ai bambini e genitori ogni diritto basilare.

Non solo, delle 73 app esaminate da HRW, circa il 30 percento consentiva la possibilità di individuare la precisa localizzazione del bambino, con uno scarto di appena 4 metri.

Si tratta di una circostanza molto grave in quanto le informazioni sulla posizione fisica di un bambino rivelano anche dettagli estremamente intimi su la sua vita che va ben oltre le coordinate.

Una volta raccolti, questi dati, possono rivelare informazioni sensibili come dove vive un bambino e dove va a scuola, i viaggi tra le case dei genitori divorziati, e visite a uno studio medico specializzato in cancro infantile. Questi dati sono estremamente sensibili (non necessariamente nel senso giuridico del termine) anche solo se raccolti dalle big tech, ma la loro pericolosità aumenta se si consideri l’ormai alta probabilità di data breaches. Cosa accadrebbe se malintenzionati venissero in possesso di simili informazioni? SI tratta del resto di una possibilità non remota, motivo per cui, ragionando “by design”, come impone il GDPR, bisognerebbe evitare di raccogliere a priori simili dati.

Piattaforme DAD e profilazione: il caso Google

Ovviamente il “sorvegliato speciale” del report di HRW è Google che detiene ormai un dominio senza precedenti sul mercato pubblicitario digitale mondiale.

Secondo i dati pubblici, l’azienda è stata il leader di mercato globale nella pubblicità online per in un decennio, controllando una quota del 27,5% della spesa pubblicitaria digitale nel 2021. Nel 2020 l’80% del suo fatturato annuo totale (147 miliardi di dollari) è derivato proprio dalla sua attività pubblicitaria. Del resto, oltre il 92% di tutte le query Internet nel mondo vengono eseguite tramite Google. Gli algoritmi dell’azienda possono quindi incidere in modo tangibile su quella che è la visione nostra e dei ragazzini nei confronti del mondo che ci sta attorno.

Ebbene, dei 164 prodotti EdTech esaminati da Human Rights Watch, 132 prodotti (80%) utilizzano tecnologie di tracciamento sviluppate da Google. Di questi, l’86% del totale delle 73 app Android esaminate, avevano almeno un tracciante che consentiva all’azienda la possibilità di accedere ai dati personali dei bambini.

Non solo, l’81% dei siti web per ragazzi esaminati trasmette i dati dei bambini a Google tramite ad tracker, cookie di terze parti e “remarketing” di Google Analytics.

Human Rights Watch ha esaminato i siti web identificati per utilizzare uno strumento offerto da Google Analytics, hanno consentito agli sviluppatori di creare elenchi di segmenti di pubblico personalizzati in base al comportamento degli utenti e quindi di indirizzare gli annunci a quegli utenti, utilizzando Google Ads e Display & Video 360.

DI contro, nel report si evidenzia che le norme pubblicitarie di Google vietano di prendere di mira i minori di 13 anni con pubblicità comportamentale, tuttavia, non esiste una vera e propria politica di due diligence per verificare che gli utilizzatori di tali skills stiano effettivamente rispettando la regola.

Non a caso, attraverso l’analisi dinamica, Human Rights Watch ha rilevato che esistono app che trasmettono a Google i dettagli su ciò che i bambini cercano, circostanza questa che evidenzia come la regola di Google non sia rispettata adeguatamente.

Piattaforme DAD e profilazione bambini: il problema dei contenuti personalizzati

L’uso delle informazioni personali dei bambini per fornire contenuti altamente mirati e gli annunci pubblicitari svolge un ruolo enorme nel dare forma all’esperienza degli stessi e nella creazione del proprio “io”.

Facciamo un esempio: se ad oggi, molte persone sono convinte che la terra è piatta, è anche perché gli algoritmi, in qualche modo, hanno deciso di mostrare una determinata tipologia di contenuti a queste persone, tanto da far sembrare vera anche una cosa palesemente falsa. Se ciò è avvenuto con circostanze così evidenti (come la sfericità del globo) e se ciò ha intaccato la mente formata di adulti, capite la potenza che potrebbe avere nei confronti della mente ancora fragile dei ragazzi.

Questo può influenzare, modificare e manipolare i loro pensieri e convinzioni, spingendoli verso risultati particolari e possibilmente influenzandoli capacità di compiere scelte autonome. Ogni bambino ha diritto alla libertà di pensiero e all’accesso ad informazioni di qualità. La legge internazionale sui diritti umani protegge i bambini libertà di pensiero incondizionatamente dall’interferenza di qualsiasi misura lecita o illecita. Le operazioni che abbiamo esaminato è evidente che non rispettano questo diritto.

Cosa dovrebbero fare adesso i governi

I governi dovrebbero quindi intervenire per garantire che tutti i bambini siano informati e possano accedere a informazioni online facilmente reperibili, diverse e di buona qualità, inclusi i contenuti indipendenti, privi di interessi commerciali e politici.

I governi dovrebbero anche garantire che la ricerca e il filtraggio delle informazioni, inclusi i sistemi di raccomandazione, non diano priorità ai contenuti a pagamento o ai contenuti derivanti da opache operazioni di profilazione dell’utente, specie se si parla di bambini.

Insomma, come si diceva in apertura, è necessario che i governi di tutto il mondo, Italia compresa, inizino a percepire la data protection non come un problema ma come un’opportunità da sfruttare per tutelare adulti e ragazzi da manipolazioni che possono andare dalla “semplice” manipolazione commerciale sino alla più profonda manipolazione politica e culturale.

Non a caso il Comitato delle Nazioni Unite sui diritti dell’infanzia ha avvertito che il trattamento dei dati tramite i servizi educational delle big tech “può comportare violazioni o abusi dei diritti dei minori” e ha invitato gli Stati a “proibire per legge la profilazione o il targeting di bambini di qualsiasi genere”.

Solo partendo da qui potremmo invertire la rotta tutelando davvero i diritti dei bambini, pensando a loro come studenti, non prodotti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3