Il rapporto tra algoritmi e salute mentale è al centro di un acceso dibattito ed è materia di studio, per capire gli impatti che social network e nuove tecnologie hanno soprattutto sui giovani. In questo framework si contestualizza la rivelazione, da parte dell’agenzia Reuters, di una ricerca interna non destinata alla pubblicazione in cui Meta ammetterebbe che Instagram mostra più contenuti sui disturbi alimentari agli adolescenti che si sentono a disagio con il proprio corpo.
La ricerca diffusa da Reuters quantifica in quasi tre volte la differenza di esposizione dei ragazzi vulnerabili rispetto ai loro coetanei. A quattro anni dalle rivelazioni della whistleblower Frances Haugen, ex manager Meta, secondo cui l’azienda sarebbe stata a conoscenza di questi effetti, il tema ora riemerge.
Indice degli argomenti
Algoritmi e salute mentale, la ricerca di Meta
Nella sua indagine, Meta ha intervistato 1.149 adolescenti durante l’anno scolastico 2023-2024, chiedendo loro con quale frequenza si sentissero a disagio rispetto al proprio corpo dopo l’uso di Instagram. I ricercatori hanno poi analizzato manualmente, per tre mesi, i contenuti visualizzati da ciascun partecipante. Ne è emerso che, per i 223 ragazzi che riferivano un disagio frequente, i post e i video collegati a disturbi alimentari o ideali di magrezza costituivano in media il 10,5% dei contenuti visualizzati; negli altri utenti la quota scendeva al 3,3%.
Il rapporto rileva anche una maggiore esposizione a materiali “provocativi” (27% contro 13,6%). Secondo Reuters, Meta sottolinea che questi dati non dimostrerebbero un nesso causale tra uso della piattaforma e disagio psicologico. Tuttavia, il risultato evidenzia un preciso pattern: gli adolescenti più vulnerabili vedono più contenuti che rispecchiano la loro vulnerabilità.
Il precedente
Nel 2023, la trasmissione Presa Diretta dedicò un’inchiesta (intitolata La Scatola Nera) agli effetti dei social sul cervello degli adolescenti, citando le ricerche del Centre for Countering Digital Hate (CCDH). L’organizzazione britannica, in un suo importante report denominato “Deadly by Design”, aveva dimostrato che bastava creare degli account fingendosi tredicenni e interagire anche con un solo contenuto su corpo o dieta perché TikTok suggerisse, nel giro di pochi minuti, dozzine di video su diete estreme, “thinspiration” e autolesionismo.
Il report rivelava dati allarmanti: TikTok proponeva agli adolescenti con account “standard”, ogni 39 secondi in media, video su salute mentale o immagine corporea; i contenuti sui disturbi alimentari arrivavano poi dopo appena 8 minuti; mentre i contenuti sul suicidio comparivano dopo solo 2,6 minuti.
Gli account che recavano riferimenti come “loseweight” (quindi indicanti soggetti potenzialmente più vulnerabili a certi contenuti) ricevevano 3 volte più video dannosi rispetto agli account standard e 12 volte più video su autolesionismo e suicidio. I contenuti su salute mentale in questi casi arrivavano ogni 27 secondi (contro i 39 degli account standard).
L’indagine ha inoltre identificato oltre 13 miliardi di visualizzazioni per hashtag collegati a disturbi alimentari, spesso camuffati per eludere la moderazione.
Come funziona lo STAR Framework
Il CCDH ha denunciato l’assenza di tutele efficaci e proposto la STAR Framework, cioè un modello di regolazione basato su Safety by design, Transparency, Accountability e Responsibility, per rendere le piattaforme digitali responsabili dei danni che i loro algoritmi provocano ai più giovani.
Il CCDH ha presentato i dati raccolti al Parlamento britannico, contribuendo al dibattito che ha portato all’Online Safety Act (UK, 2023), la prima legge europea a imporre obblighi specifici di tutela dei minori online.
In Italia, l’indagine di Presa Diretta che citava questo studio ebbe, sul breve periodo, una certa risonanza, ma nessuna conseguenza concreta. Il tema restò confinato al puro commento mediatico e la “scatola nera” tornò presto a chiudersi.
Salute mentale, algoritmi e piattaforme
Il citato studio cel CCDH e ricerche più recenti mostrano che la distorsione algoritmica è un tratto strutturale dell’economia dell’attenzione delle piattaforme.
- TikTok. Amnesty International, nel rapporto Driven into Darkness (2023), ha evidenziato che il feed For You può condurre giovani utenti che mostrano interesse per la salute mentale in rabbit hole di contenuti su depressione e autolesionismo.
- YouTube. Il CCDH ha pubblicato il report YouTube’s Anorexia Algorithm (2024-2025): simulando profili di tredicenni, è stato rilevato che un terzo delle raccomandazioni riguardava disturbi alimentari o pratiche estreme di dieta; la ricerca è stata verificata anche dal servizio televisivo CBS/60 Minutes.
- Snapchat. Uno studio dell’Università di Maastricht mostra come la piattaforma utilizzi una “content curation” guidata dall’algoritmo, localizzazione in tempo reale e interazioni gamificate che danno priorità alle metriche di engagement anziché al benessere degli utenti più giovani.
- X (ex Twitter). Il CCDH segnala che la piattaforma è diventata un luogo in cui il discorso d’odio domina, suggerendo che la performance algoritmica e la moderazione sono insufficienti, soprattutto in un contesto di vulnerabilità giovanile.
Altri studi si sono incentrati sull’algoritmo “Who-to-Follow” di X, che tende a costruire reti chiuse di persone che condividono le stesse idee. Questo può rendere la piattaforma più polarizzata, perché gli utenti vedono solo opinioni simili e finiscono per credere che quelle siano le uniche esistenti.
Viene replicato un modello identico: l’attenzione dell’utente diventa la variabile da massimizzare, e la vulnerabilità (ansia, insicurezza, disturbo) è il segnale più redditizio.
Il significato del report di Meta
Il fatto che oggi sia Meta stessa a pubblicare una ricerca di questo tipo segna una discontinuità. Dopo anni di azioni legali collettive e di interrogazioni parlamentari, l’azienda sceglie di “raccontare” il rischio e di porsi come parte della soluzione.
Si tratta di una forma di trasparenza amministrata, che consiste nel misurare, dichiarare, ma restare, sostanzialmente padroni del frame.
Nel comunicato ufficiale del 2024 di Meta (“Our Work to Help Provide Young People with Safe, Positive Experiences”, e nelle dichiarazioni rilasciate a Axios (febbraio 2024) dal portavoce di Meta, Andy Stone, si apprende che l’azienda intende offrire “esperienze online sicure e adatte all’età”, sottolineando di aver investito per oltre un decennio in strumenti dedicati alla sicurezza dei minori.
Il linguaggio tecnico usato da Meta in queste occasioni (con termini come “esperienze”, “ricerca”, “impegno”) sposta l’attenzione dal tema etico a quello gestionale, dove il rischio viene trattato come un dato, più che come responsabilità.
La verità è che gli adolescenti che dichiarano un disagio corporeo vedono regolarmente contenuti potenzialmente dannosi e non si tratta di un’anomalia statistica, quanto piuttosto di una forma di profilazione emotiva.
Gl impatti
L’aspetto forse meno discusso di questo ecosistema è la dimensione cognitiva ed economica della vulnerabilità. Il tempo trascorso online è una misura di engagement e, allo stesso tempo, una risorsa estratta e monetizzata: più a lungo un utente resta immerso nel flusso dei contenuti, più dati produce e più accurata diventa la profilazione che alimenta il ciclo pubblicitario.
Nel caso dei minori, il valore di mercato della loro attenzione non si misura solo in minuti ma in plasticità cognitiva, cioè nella capacità degli algoritmi di anticipare gusti, ansie e desideri in formazione.
Secondo la Harvard T.H. Chan School of Public Health (2024), le piattaforme social hanno generato negli Stati Uniti oltre 11 miliardi di dollari di ricavi pubblicitari provenienti da utenti under 18, a testimonianza di quanto il pubblico minorile rappresenti un segmento strategico del mercato digitale.
Questa dipendenza economica rende strutturalmente difficile per le piattaforme disincentivare l’uso prolungato o limitare la raccolta dei dati dei più giovani, nonostante gli obblighi del Digital Services Act e le pressioni regolatorie.
Sul piano cognitivo, uno studio pubblicato sull’American Journal of Law & Medicine (Algorithms, Addiction and Adolescent Mental Health, 2024) descrive l’interazione continua con i contenuti predittivi come una “forma di esposizione cognitiva permanente”: un flusso di stimoli che ricalibra progressivamente i tempi di attenzione e i meccanismi di autovalutazione.
Gli adolescenti, esposti a sequenze sempre più personalizzate di contenuti emotivamente carichi, finiscono per misurare sé stessi attraverso ciò che l’algoritmo restituisce, in un circuito di conferma che riduce la capacità di distacco critico.
Le neuroscienze hanno già descritto questo fenomeno come una retroazione dopaminergica, simile a quella indotta dai giochi d’azzardo o dai sistemi di reward intermittente: un ciclo di micro-gratificazioni che mantiene alta la vigilanza e produce dipendenza comportamentale.
Nel contesto dei social, tale meccanismo si innesta su una fase dello sviluppo (l’adolescenza) in cui le aree cerebrali legate all’autocontrollo sono ancora in formazione.
La vulnerabilità, dunque, costituisce una risorsa economica e cognitiva, cioè un materiale da cui estrarre valore predittivo.
Ogni incertezza, ogni oscillazione emotiva, diventa un segnale utile per affinare la raccomandazione e incrementare la permanenza, poiché il modello non punta più a vendere prodotti, bensì a coltivare la prevedibilità del comportamento.
Il risultato è un’economia che monetizza l’instabilità psicologica e che, paradossalmente, prospera sulle emozioni che dovrebbe invece proteggere.
Il quadro normativo europeo
Dal febbraio 2024 è in vigore il Digital Services Act (Regolamento UE 2022/2065), che all’articolo 28 impone alle piattaforme accessibili ai minori “misure appropriate e proporzionate” per garantire un elevato livello di tutela, vietando la pubblicità basata su profilazione e imponendo valutazioni d’impatto sui rischi sistemici.
Il nodo che il Digital Services Act tenta di affrontare è quello di introdurre un limite strutturale all’uso commerciale della vulnerabilità cognitiva, imponendo che la sicurezza dei minori non sia subordinata alla logica dell’engagement.
Nel luglio 2025 la Commissione UE ha pubblicato le Linee guida per l’applicazione dell’articolo 28, specificando che le piattaforme devono mitigare anche contenuti “idonei a compromettere lo sviluppo psicologico dei minori” e adottare sistemi di age assurance efficaci.
L’Artificial Intelligence Act (Regolamento UE 2024/1689), entrato in vigore nel 2024, classifica l’uso dell’IA in contesti che coinvolgono minori come “ad alto rischio”, imponendo tracciabilità, trasparenza e audit indipendenti.
A completare il quadro, nel 2024 la Commissione europea ha avviato le prime indagini formali su TikTok, Snapchat e YouTube per valutare la loro conformità al DSA. È stata peraltro la prima volta in cui Bruxelles ha utilizzato i nuovi poteri di audit algoritmico previsti dal regolamento.
Dal metaverso all’AI: i timori sono cambiati
Se, nelle inchieste del 2021 e del 2023, la grande paura di cui si parlava prendeva il nome di metaverso (inteso come fuga nel virtuale da parte degli adolescenti), nel 2025 la minaccia è diversa e più subdola ed è rappresentata dall’intelligenza artificiale integrata nei feed, capace di prevedere emozioni e modellare l’esperienza digitale intorno a esse. Mentre il metaverso prometteva immersione; l’IA promette aderenza, cioè, non ci separa dalla realtà, la ricalibra.
Gli algoritmi di raccomandazione basati su reti neurali apprendono dai nostri tempi di scorrimento, dalle pause, dai ritorni su un’immagine. Ogni esitazione è un segnale; ogni curiosità diventa una coordinata predittiva.
Il rischio è quindi essere predetti con precisione crescente fino a vedere riflessi nel feed i propri stessi punti di vulnerabilità.
La scelta di Meta di effettuare il proprio studio coincide con un cambio di linguaggio/atteggiamento, dalla negazione alla spiegazione, pur trattandosi di documento interno. L’azienda parla di “ricerca” e di “impegno a comprendere i giovani”, adottando un registro quasi accademico. Tuttavia, la trasparenza così intesa è descrittiva e si limita a raccontare il problema senza risolverlo. Finché la conoscenza del funzionamento algoritmico resterà monopolio delle piattaforme, la trasparenza continuerà a essere una forma di autonarrazione, cioè un linguaggio di reputazione, più che di responsabilità.
I dati
Il dato principale che è trapelato dallo studio Meta (10,5% contro 3,3%) descrive in ogni caso un meccanismo di amplificazione del disagio, non certo un incidente.
Le evidenze di TikTok, YouTube, Snapchat e X confermano che il fenomeno è sistemico e che la vulnerabilità è diventata un parametro operativo dell’economia digitale.
L’Europa ha reagito con strumenti normativi solidi, anche se la distanza tra diritto e pratica resta ampia.
Servono audit indipendenti, standard di valutazione comuni e la possibilità, per i ricercatori, di accedere ai dati che oggi restano chiusi nei server aziendali.
La vera sfida è ricondurre la conoscenza all’esterno, permettendo alla società di comprendere ciò che gli algoritmi fanno e, soprattutto, a chi. Allora potremo dire di aver davvero aperto la scatola nera.
_____________________________________________________________________
Bibliografia
Amnesty International. (2023). Driven into Darkness: How TikTok Fails to Address Risks to Children and Young People’s Mental and Physical Health Despite Past Warnings. Amnesty International USA. Disponibile su: https://www.amnestyusa.org/reports/tiktok-fails-to-address-risks-to-children-and-young-peoples-mental-health-despite-past-warnings
American Journal of Law & Medicine. (2024). Costello, N. et al. Algorithms, Addiction and Adolescent Mental Health: An Interdisciplinary Study to Inform State-Level Policy Action to Protect Youth from the Dangers of Social Media. Cambridge University Press. DOI: 10.1017/amj.2023.25
Centre for Countering Digital Hate (CCDH). (2022). Deadly by Design: How Instagram Fails to Protect Users from Eating Disorder Content. Londra. Disponibile su: https://counterhate.com/research/deadly-by-design
Centre for Countering Digital Hate (CCDH). (2024). YouTube’s Anorexia Algorithm: How YouTube Recommends Eating Disorders Videos to Young Girls. Londra. Disponibile su: https://counterhate.com/wp-content/uploads/2024/12/CCDH.YoutubeED.Nov24.Report_FINAL.pdf
Commissione Europea. (2025). Guidelines on the Protection of Minors under Article 28 of the Digital Services Act. Bruxelles: Directorate-General for Communications Networks, Content and Technology.
Disponibile su: https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors
Commissione Europea. (2024). Commission opens formal proceedings against TikTok on election risks under the Digital Services Act. 17 december 2024. Bruxelles.
Disponibile su: https://ec.europa.eu/commission/presscorner/detail/en/ip_24_6487
Commissione Europea. (2024). Commission sends requests for information to YouTube, Snapchat and TikTok on recommender systems under the Digital Services Act. 2 october 2024.
Disponibile su: https://digital-strategy.ec.europa.eu/en/news/commission-sends-requests-information-youtube-snapchat-and-tiktok-recommender-systems-under-digital
Centre for Countering Digital Hate (CCDH). (2023). Twitter/X Continues to Host Posts Reported for Extreme Hate Speech. Londra.
Disponibile su: https://counterhate.com/research/twitter-x-continues-to-host-posts-reported-for-extreme-hate-speech
Harvard T.H. Chan School of Public Health. (2024). Social Media Platforms Make $11 Billion in Ad Revenue from U.S. Teens. Harvard Gazette.
Disponibile su: https://hsph.harvard.edu/news/social-media-platforms-generate-billions-in-annual-ad-revenue-from-u-s-youth
Meta Platforms, Inc. (31 gennaio 2024). Our Work to Help Provide Young People with Safe, Positive Experiences. Menlo Park: Meta Newsroom.
Disponibile su: https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences
Presa Diretta. (2023). La Scatola Nera – Qual è l’impatto di social e smartphone sul cervello di bambini e ragazzi? Rai 3, marzo 2023.
Disponibile su: https://www.raiplay.it/video/2023/03/PresaDiretta—La-scatola-nera-20032023
Reuters. (2025, 20 ottobre). Instagram Shows More Eating-Disorder-Adjacent Content to Vulnerable Teens — Internal Meta Study. Londra.
Disponibile su: https://www.reuters.com/business/instagram-shows-more-eating-disorder-adjacent-content-vulnerable-teens-internal-2025-10-20
Wall Street Journal. (2021). The Facebook Files.
Disponibile su: https://www.wsj.com/articles/the-facebook-files-11631713039










