Il destino delle politiche globali di sicurezza digitale per i minori può essere determinato da una giuria di dodici cittadini in uno degli Stati più estesi e meno popolati degli Stati Uniti continentali.
Indice degli argomenti
Il processo del secolo a Meta sulla tutela minori
Paradossale, forse. Eppure, è esattamente quello che sta accadendo a Santa Fe, dove da sei settimane si svolge uno dei primi processi civili al mondo a portare Meta, la società che controlla Facebook, Instagram e WhatsApp, di fronte a un tribunale per rispondere delle conseguenze delle proprie scelte di design sugli utenti minorenni.
Il caso è stato avviato dal procuratore generale del New Mexico ai sensi dell’Unfair Practices Act statale: Meta avrebbe fuorviato gli utenti sulla sicurezza delle proprie piattaforme per i minori, privilegiando profitto e coinvolgimento rispetto alla tutela dei soggetti più vulnerabili.
Le accuse si concentrano sul design delle funzionalità di raccomandazione algoritmica, sui meccanismi di creazione di dipendenza e sulle funzioni di messaggistica che avrebbero esposto i minori a contenuti dannosi e a soggetti predatori.
La richiesta alla giuria: sanzione di 2 miliardi di dollari a Meta
I pubblici ministeri hanno chiesto ieri alla giuria di imporre sanzioni civili potenzialmente superiori a 2 miliardi di dollari, calcolate moltiplicando la sanzione massima di 5.000 dollari per violazione dolosa per il numero stimato di 208.700 utenti minorenni mensili in New Mexico nel corso di diversi anni.
La giuria ha iniziato le deliberazioni lunedì 23 marzo 2026, dopo aver ascoltato per settimane insegnanti locali, esperti psichiatrici, investigatori statali, dirigenti di Meta e whistleblower che hanno lasciato la società.
La difesa sostiene che Meta fornisce protezioni integrate per gli adolescenti e rimuove i contenuti dannosi, pur riconoscendo che una parte di essi sfugge ai filtri.
L’avvocato Kevin Huff ha ricordato alla giuria che la società ha dichiarato pubblicamente che le proprie misure di sicurezza non sono perfette e che i rischi erano comunicati nei termini di servizio e nelle campagne pubblicitarie.
Perché la tutela dei minori online passa da questo caso pilota
Il processo del New Mexico non è un evento isolato: è la punta di un iceberg.
Più di quaranta stati americani hanno avviato procedimenti analoghi o si sono uniti ad azioni collettive contro Meta e altri giganti dei social media per i danni alla salute mentale dei giovani.
Il caso di Santa Fe è però tra i primissimi ad arrivare effettivamente a processo, il suo esito fungerà da precedente per tutti gli altri.
Il contesto politico-legislativo è cruciale per comprendere perché i procuratori generali statali si siano mossi con tale determinazione.
A livello federale, il KOSA, Kids Online Safety Act, è rimasto bloccato al Congresso tra veti incrociati di natura costituzionale e pressioni delle lobby tecnologiche.
In assenza di una legge federale che disciplini in modo organico le responsabilità delle piattaforme nei confronti dei minori, gli stati hanno deciso di agire in autonomia, adattando strumenti giuridici preesistenti, come le leggi sulla concorrenza sleale e la tutela dei consumatori, a contesti che i loro redattori non avevano immaginato.
La logica del danno aggregato che sorregge la richiesta di sanzioni miliardarie è la stessa già sperimentata nelle cause contro i produttori di oppioidi: si parte da una sanzione per singola violazione e si moltiplica per il numero di utenti interessati.
I tribunali americani si sono dimostrati non uniformi nel valutare questa impostazione, il punto più vulnerabile della tesi accusatoria rimane la dimostrazione del dolo: per applicare il massimo delle sanzioni, la giuria deve concludere che Meta sapesse e tuttavia ingannasse consapevolmente i propri utenti.
I documenti interni di ricerca della società, presentati come evidenza nel processo, rendono arduo sostenere l’ignoranza dei rischi; ma c’è una distanza giuridica significativa tra conoscere un rischio e deliberatamente occultarlo.
Il nodo della Section 230
Un ulteriore elemento di complessità è rappresentato dalla Section 230 del Communications Decency Act, che da trent’anni scherma le piattaforme dalla responsabilità per i contenuti pubblicati dagli utenti.
I procuratori del New Mexico hanno costruito la propria tesi con cura: non si chiede di ritenere Meta responsabile per ciò che gli utenti pubblicano, ma per il modo in cui gli algoritmi amplificano e raccomandano quei contenuti.
Una distinzione sottile ma potenzialmente decisiva, che potrebbe erodere gradualmente uno degli scudi giuridici più potenti dell’industria tecnologica americana.
“Uno su tre adolescenti mostrava un uso problematico della piattaforma. Lo sapevano. Ed era incluso nella ricerca interna che non è mai stata divulgata” (Accusa, requisitoria finale, 23 marzo 2026).
Il fronte europeo della tutela dei minori online
Mentre la giuria del New Mexico delibera, l’Europa segue con attenzione.
Il Digital Services Act (DSA) attribuisce alla Commissione europea il potere di irrogare sanzioni fino al 6% del fatturato globale annuale per violazioni gravi degli obblighi di tutela dei minori online.
Con ricavi 2024 di Meta attestati intorno ai 165 miliardi di dollari, il tetto teorico europeo si avvicinerebbe ai 10 miliardi, cinque volte la richiesta del New Mexico.
I procedimenti europei a carico di Meta per il rispetto delle disposizioni DSA relative ai minori sono in corso, anche se i tempi dell’enforcement comunitario sono strutturalmente più lunghi rispetto a quelli di un processo civile statale americano.
Il DSA, le cui disposizioni per le grandi piattaforme come Meta sono operative dall’agosto 2023 e pienamente in vigore per tutti i servizi in scope dal febbraio 2024, impone alle piattaforme di grandi dimensioni, le cosiddette Very Large Online Platforms (VLOP), obblighi specifici in materia di valutazione dei rischi sistemici per i minori, di adozione di misure di mitigazione e di audit indipendenti.
L’articolo 28 del regolamento europeo stabilisce che le piattaforme accessibili ai giovani debbano garantire un livello elevato di tutela della privacy, sicurezza e protezione.
Non si tratta più solo di moderare i contenuti: si parla di responsabilità da design, la stessa categoria concettuale al centro del processo di Santa Fe. In corso un’indagine analoga sul design TikTok in Europa.
Il confronto tra i due sistemi rivela logiche complementari.
Gli Stati Uniti agiscono attraverso il contenzioso: procuratori generali che trascinano le aziende in aula e ottengono, o sperano di ottenere, verdetti che fungono da deterrente.
L’Europa agisce attraverso la regolazione preventiva: obblighi di compliance ex ante, audit periodici, poteri di ispezione della Commissione.
Nessuno dei due modelli è autosufficiente; la loro convergenza potrebbe produrre la pressione necessaria per un cambiamento strutturale nelle scelte di design delle grandi piattaforme.
Obbligare il cambio di design ha un effetto sistemico, radicale, su come funzionano queste piattaforme. Come influenzano le scelte persone. Come fanno soldi.
Tutela dei minori online e risposta italiana
L’Italia non sta ad assistere passivamente.
Dal 12 novembre 2025, AGCOM ha attivato il sistema di verifica dell’età per l’accesso a contenuti per adulti online, posizionando il paese tra i primi in Europa ad adottare una regolamentazione strutturata in materia.
Il sistema, basato su un meccanismo di doppio anonimato che verifica l’età senza raccogliere dati identificativi, è allineato al DSA e incorpora la sperimentazione dell’applicazione europea di age verification, di cui AGCOM è partner selezionato dalla Commissione.
Sul fronte dei social media più in senso stretto, la delibera AGCOM n. 197/25/CONS del luglio 2025 ha introdotto un Codice di condotta vincolante per gli influencer rilevanti, estendendo loro una responsabilità editoriale assimilabile a quella dei fornitori di servizi media audiovisivi.
Gli influencer con almeno 500.000 follower su una singola piattaforma o un milione di visualizzazioni mensili medie sono soggetti a obblighi specifici, tra cui il divieto di pubblicare contenuti che possano nuocere allo sviluppo fisico o morale dei minori, con sanzioni fino a 600.000 euro per le infrazioni più gravi.
Il limite strutturale di queste misure, però, è visibile: la delibera AGCOM può disciplinare i creator italiani, ma non può imporre direttamente obblighi alle piattaforme con sede all’estero se non attraverso la cooperazione con la Commissione europea nell’ambito del DSA.
Qui il caso del New Mexico assume rilevanza anche per il dibattito italiano: dimostrare che le piattaforme possono essere ritenute responsabili per le proprie scelte algoritmiche, non solo per i contenuti degli utenti, aprirebbe spazi giuridici significativamente più ampi per le autorità europee e nazionali.
Oltre Meta: la responsabilità da design per i minori online
Al di là dell’esito specifico del processo di Santa Fe, che potrebbe concludersi con un verdetto di condanna, con un rigetto, con un ricorso che protrae il contenzioso per anni, il suo contributo più duraturo potrebbe essere di natura concettuale.
Stabilire che la responsabilità delle piattaforme non si limita ai contenuti prodotti dagli utenti, ma si estende alle architetture algoritmiche che determinano quali contenuti vengono amplificati e verso chi, significa ridefinire l’intero perimetro del dibattito regolatorio.
Il design di un social media non è neutro: le scelte su notifiche, raccomandazioni, metriche di engagement e funzioni di messaggistica hanno effetti misurabili e documentati sul comportamento degli utenti, inclusi i minorenni.
Se i tribunali e i regolatori convergeranno nel riconoscere questa responsabilità come giuridicamente azionabile, le piattaforme si troveranno di fronte a un insieme di vincoli radicalmente diverso da quello attuale, non solo in termini di contenuto moderato, ma di prodotto progettato.
Per questo il processo del New Mexico vale la pena di essere seguito con attenzione, anche da chi osserva dall’Italia o da Bruxelles.
Non perché una giuria di Santa Fe possa da sola cambiare le regole del gioco globale.
Ma perché rappresenta uno dei primi momenti in cui quella responsabilità viene concretamente messa alla prova in aula.






