Quando si parla di TikTok, la preoccupazione principale ruota attorno alla privacy dei dati, con il timore che i dati degli utenti possano finire nelle mani sbagliate. Tuttavia, un problema più insidioso risiede nella potenza dell’algoritmo, che è stato rilevato indirizzare gli spettatori verso contenuti pericolosi.
Questo problema è particolarmente preoccupante per i genitori e gli educatori, poiché ciò che gli adolescenti vedono sui social media può avere un profondo impatto psicologico.
Un’indagine del Wall Street Journal nel 2021 ha rivelato che l’algoritmo di TikTok stava portando gli spettatori a contenuti dannosi. Nonostante gli sforzi dell’azienda per rafforzare la moderazione dei contenuti e promettere un algoritmo più equilibrato, uno studio recente suggerisce che l’esperienza dell’app per i giovani adolescenti rimane sostanzialmente invariata.
L’American Psychological Association (APA) ha espresso preoccupazione per il potenziale degli algoritmi di condurre gli adolescenti su percorsi pericolosi. L’APA ha recentemente raccomandato ai genitori di monitorare l’uso dei social media da parte dei propri figli e di prestare attenzione ai segnali di contenuti dannosi.
Danni da algoritmo, non è solo clamore
Questa preoccupazione non è infondata. Un esperimento del Center for Countering Digital Hate ha rilevato che l’algoritmo di TikTok consigliava rapidamente video sul suicidio e sui disturbi alimentari agli account che erano stati appositamente creati dai ricercatori per imitare i tredicenni.
Nonostante queste preoccupazioni, TikTok sostiene di essere impegnato a moderare i contenuti, con un team di oltre 40.000 persone dedicate all’attività. Nell’ultimo trimestre del 2022, la società ha rimosso circa 85 milioni di post che violavano le linee guida della community. Tuttavia, il fatto che molti account che pubblicano contenuti dannosi rimangano attivi solleva interrogativi sull’efficacia di queste misure.
I dirigenti di TikTok sostengono che la piattaforma può essere un luogo in cui condividere sentimenti su esperienze difficili e alcuni esperti sostengono l’idea che affrontare attivamente emozioni difficili possa essere vantaggioso sia per gli spettatori che per chi pubblica.
L’azienda mira a rimuovere i video che promuovono o glorificano l’autolesionismo consentendo al contempo contenuti educativi o di recupero.
I dati oltre le parole
Nonostante gli sforzi per moderare i contenuti dannosi, è evidente che c’è ancora molto da fare per proteggere i nostri figli dai contenuti online dannosi.
Secondo una ricerca del Center of Countering Digital Hate, possiamo vedere che il vero nemico è l’algoritmo stesso:
- TikTok ospita contenuti relativi ai disturbi alimentari, accumulando oltre 13,2 miliardi di visualizzazioni.
- Alcuni contenuti che promuovono i disturbi alimentari aggirano la moderazione utilizzando hashtag codificati, incluso il nome del cantante Ed Sheeran. Si tratta di un vero e proprio linguaggio alternativo chiamato “Algospeak”.
- Gli account fake di TikTok creati dai ricercatori sono stati esposti a contenuti di autolesionismo e disturbi alimentari pochi minuti dopo aver consultato il feed Per Te dell’app: i contenuti relativi al suicidio sono stati consigliati entro una media di 2,6 minuti, mentre i contenuti sui disturbi alimentari sono stati suggeriti entro 8 minuti.
- Un nuovo account TikTok creato da un utente di 13 anni che interagisce con contenuti sull’immagine corporea e sulla salute mentale riceverà raccomandazioni di contenuti simili ogni 39 secondi.
- Gli account TikTok con “loseweight” nel nome, definiti “Vulnerable Teen Accounts”, hanno ricevuto molte più raccomandazioni per disturbi alimentari e contenuti di autolesionismo.
- Questi account di adolescenti vulnerabili sono stati esposti a video tre volte più dannosi e a dodici volte più video di autolesionismo rispetto agli account di adolescenti standard.
- Agli Vulnerable Teen Accounts sono stati mostrati anche più video relativi alla salute mentale.
I dati del Center for Countering Digital Hate dipingono un quadro preoccupante del panorama digitale delle piattaforme particolarmente navigate dagli adolescenti.
Il solo volume di visualizzazioni sui contenuti relativi ai disturbi alimentari, oltre 13,2 miliardi, è allarmante. Evidenzia la natura pervasiva di tali contenuti dannosi e la possibilità che essi influenzino gli utenti più vulnerabili.
L’uso del linguaggio in codice e dei riferimenti alla cultura popolare per eludere gli sforzi di moderazione (l’Algospeak di cui abbiamo accennato prima) mostra una comprensione sofisticata dei sistemi della piattaforma da parte dei nostri ragazzi, rendendola ancora più difficile da controllare e monitorare. Ciò sottolinea la necessità di strumenti e strategie di moderazione più avanzati per combattere tali tattiche.
Non solo: mostra anche quanto siano deboli le regole di protezione della piattaforma.
La rapida esposizione di nuovi utenti a contenuti di autolesionismo e disturbi alimentari è particolarmente preoccupante. Il fatto che tali contenuti possano essere consigliati entro pochi minuti dalla creazione dell’account solleva seri interrogativi sugli algoritmi di raccomandazione della piattaforma e sul loro potenziale nel causare danni.
La frequenza dei consigli sui contenuti dannosi, ogni 39 secondi per gli utenti che interagiscono con l’immagine corporea e il contenuto relativo alla salute mentale, è un’altra area di preoccupazione. Questa esposizione costante può avere un impatto negativo sulla salute mentale degli adolescenti, rafforzando percezioni e comportamenti negativi.
Il targeting di “Vulnerable Teen Accounts” con contenuti significativamente più dannosi è un duro richiamo di come gli algoritmi possano inavvertitamente esacerbare le vulnerabilità già esistenti. Ciò evidenzia la necessità di una progettazione di algoritmi più sfumata e sensibile che tenga conto delle potenziali vulnerabilità degli utenti.
Il confine tra contenuti dannosi e discussioni utili è spesso sfumato. I video in cui le persone descrivono i propri sentimenti e pensieri estremi potrebbero non essere considerati una violazione e non ricadrebbero sotto il controllo del moderatore. Tuttavia questi video possono ancora avere un effetto dannoso su una certa fascia di popolazione.
Cosa fare se si entra in contatto con un ragazzo che ha pensieri suicidi
Prima di tutto niente panico!
Le reazioni di panico rendono impossibile la comunicazione. È utile mostrare di essere presente, di prendere sul serio i problemi, di essere convinto che esista una soluzione e di aiutare a volerla trovare.
E ricorda che non sei solo: puoi trovare aiuto in molti modi.
- Comunica con loro il problema e fagli sentire che sei preoccupato per il loro benessere. Contrariamente a quanto si possa pensare, parlare di suicidio con un ragazzo non peggiorerà la situazione.
- Presta molta attenzione a tutti i segnali verbali e non verbali del ragazzo.
- Rivolgiti al tuo pediatra o ai fornitori di servizi di salute mentale locali che lavorano con bambini e adolescenti. Spiega cosa vedi e senti e pianifica insieme a loro una valutazione della salute mentale.
Quanto è davvero dannosa tale esposizione per i nostri figli?
L’esposizione di bambini e giovani adulti a contenuti dannosi su piattaforme di social media come Instagram può avere gravi conseguenze.
La ricerca ha dimostrato che Instagram, noto per le sue rappresentazioni pubbliche ed esplicite di autolesionismo, può rappresentare un rischio per il pubblico vulnerabile.
Un sondaggio statunitense che ha coinvolto giovani adulti ha rilevato che l’esposizione a contenuti di autolesionismo su Instagram era associata a ideazione suicidaria, autolesionismo e disturbi emotivi, anche quando si controllava l’esposizione a contenuti simili da altre fonti.
Più preoccupante è che l’esposizione a contenuti di autolesionismo su Instagram ha previsto esiti di autolesionismo e tentativi di suicidio entro il mese successivo.
Questi risultati forniscono una forte evidenza che tale esposizione può innescare un effetto di contagio negli utenti più vulnerabili, sottolineando l’urgente necessità di misure protettive più solide su queste piattaforme.
Le cose potrebbero essere più profonde di quanto tu possa pensare
Detto questo, possiamo sostenere che i social media sono il nemico da sconfiggere quando parliamo di proteggere i nostri figli.
Secondo uno studio di meta-analisi, le persone ricorrono all’autolesionismo e contemplano il suicidio come meccanismo di coping per alleviare alcuni tipi di stress.
Altre ricerche non hanno riscontrato quasi nessun effetto dannoso dell’esposizione ai contenuti dei social media stessi.
Molte altre ricerche affermano che l’ideazione suicidaria e un effettivo comportamento autolesionista sono strettamente legati.
Il quadro è chiaro: la vera spinta è dentro i nostri figli, o parte di loro.
Nell’era digitale di oggi, gli algoritmi delle piattaforme di social media “semplicemente” si intersecano con le vite dei nostri figli in modi profondi e spesso invisibili.Questi algoritmi, progettati per mantenere gli utenti coinvolti, possono inavvertitamente esporre le giovani menti a contenuti dannosi, inclusi post relativi all’autolesionismo e al suicidio.
La lotta per un mondo digitale più sicuro continua
Come genitori, educatori e società nel suo insieme, dobbiamo riconoscere il ruolo che gli algoritmi dei social media svolgono nella vita dei nostri figli. Dobbiamo sostenere spazi digitali più sicuri, pratiche algoritmiche più trasparenti e un solido supporto per la salute mentale per i nostri giovani. Dobbiamo anche educare i nostri figli sui potenziali rischi e impatti dei contenuti che consumano online, dotandoli delle capacità di pensiero critico necessarie per navigare nel mondo digitale in modo sicuro e responsabile.
Il dilemma di TikTok sottolinea la necessità di un dialogo continuo, ricerca e sviluppo di politiche per garantire la sicurezza e il benessere dei nostri giovani cittadini digitali.
Tuttavia, rimane una domanda cruciale: le piattaforme social commerciali possono davvero assolvere a questi compiti? Le piattaforme commerciali sono, dopotutto, guidate da motivazioni di profitto, che a volte possono entrare in conflitto con l’obiettivo di creare un ambiente digitale sicuro e positivo per i giovani utenti.
Ciò solleva la possibilità di esplorare alternative non commerciali.
Forse abbiamo bisogno di uno spazio digitale pubblico e non commerciale che operi indipendentemente dalle regole del mondo degli affari e del profitto.
Una piattaforma del genere potrebbe dare la priorità al benessere dei suoi utenti sopra ogni altra cosa, creando un ambiente digitale più sicuro e di maggiore supporto per i nostri figli.
Si tratta di una questione complessa che richiede ulteriore esplorazione e dialogo, ma il benessere dei nostri figli nel mondo digitale dovrebbe sempre essere la nostra massima priorità.
Bibliografia
All the ways TikTok tracks you and how to stop it, https://www.wired.co.uk/article/tiktok-data-privacy
Arendt, F., Scherr, S., & Romer, D. (2019). Effects of exposure to self-harm on social media: Evidence from a two-wave panel study among young adults. New Media & Society, 21(11–12), 2422–2442. https://doi.org/10.1177/1461444819850106
Deadly by design, Center of Countering Digital Hate, (2022)
Kuehn, K.S., Dora, J., Harned, M.S. et al. A meta-analysis on the affect regulation function of real-time self-injurious thoughts and behaviours. Nat Hum Behav 6, 964–974 (2022). https://doi.org/10.1038/s41562-022-01340-8
TikTok Feeds Teens a Diet of Darkness, https://www.wsj.com/articles/tiktok-feeds-teens-a-diet-of-darkness-8f350507
What to Do if Your Child Has Suicidal Thinking, https://www.webmd.com/parenting/features/what-to-do-if-child-has-suicidal-thoughts