class action usa

Ray-Ban Meta, arma letale per la privacy: esplode il caso



Indirizzo copiato

Class action Usa contro Ray-Ban Meta per violazione privacy. Si è scoperto che un subappaltatore in Kenya faceva vedere i filmati ai lavoratori. Ma la questione è più ampia. Sarà uno dei primi banchi di prova per verificare se le norme UE siano davvero in grado di governare le nuov tecnologie indossabili basate sull’AI

Pubblicato il 9 mar 2026

Tania Orrù

Data Protection, Compliance & Digital Governance Advisor



ray ban meta privacy

Meta è stata citata in giudizio negli Stati Uniti con una class action federale relativa ai suoi Ray-Ban Meta smart glasses dotati di intelligenza artificiale, sviluppati in collaborazione con il gigante dell’occhialeria EssilorLuxottica. Il caso è emerso dopo un’inchiesta della stampa svedese secondo cui lavoratori di un subappaltatore con sede in Kenya sarebbero incaricati di revisionare filmati registrati dagli occhiali degli utenti. La vicenda ha attirato anche l’attenzione dell’Information Commissioner’s Office (ICO) del Regno Unito, che ha avviato verifiche preliminari.

Tra i contenuti visionati vi sarebbero anche immagini sensibili, come nudità, rapporti sessuali e persone riprese mentre utilizzavano il bagno.

I ricorrenti sostengono che Meta abbia violato le norme sulla privacy e le leggi sulla tutela dei consumatori, promuovendo i dispositivi con messaggi pubblicitari incentrati sulla protezione della privacy senza chiarire che i contenuti condivisi con Meta AI potessero essere esaminati da revisori umani nell’ambito del processo di miglioramento del servizio.

Meta, da parte sua, ha dichiarato che tali revisioni possono avvenire quando gli utenti scelgono di condividere contenuti con Meta AI e che l’azienda adotta in ogni caso misure per filtrare i dati e proteggere le informazioni identificative (es. attraverso il blurring dei volti).

La class action statunitense per la privacy nei Ray-Ban Meta


La class action USA, promossa da due acquirenti (Gina Bartone del New Jersey e Mateo Canu, californiano), sostiene che Meta abbia violato le leggi sulla privacy e sulla tutela dei consumatori attraverso pratiche di marketing ingannevoli, presentando gli occhiali come dispositivi “progettati per la privacy” senza chiarire che immagini e interazioni raccolte durante l’uso delle funzionalità di IA possano essere inviate ai server dell’azienda e, in alcuni casi, revisionate da lavoratori esterni incaricati di addestrare i modelli di intelligenza artificiale.

Secondo i ricorrenti, questo sistema di revisione umana non sarebbe stato adeguatamente comunicato agli utenti e renderebbe fuorvianti le promesse di controllo sui dati presenti nella comunicazione commerciale del prodotto.

I ricorrenti chiedono risarcimenti economici e misure correttive sulle modalità di raccolta e utilizzo dei dati. Meta, dal canto suo, sostiene che i contenuti rimangono sul dispositivo dell’utente salvo condivisione volontaria e che l’eventuale revisione da parte di appaltatori avvenga esclusivamente per migliorare i servizi di IA, secondo quanto previsto nelle proprie policy e nei termini di utilizzo.

L’indagine dell’ICO per privacy Ray-Ban Meta

Parallelamente al contenzioso statunitense, il caso ha attirato l’attenzione anche delle autorità di regolazione.

Nel Regno Unito l’Information Commissioner’s Office (ICO) ha avviato verifiche preliminari dopo la pubblicazione dell’inchiesta giornalistica svedese.

Il tema centrale riguarda il rispetto degli obblighi di trasparenza e base giuridica del trattamento previsti dalle normative sulla protezione dei dati, soprattutto quando le informazioni raccolte tramite dispositivi indossabili possono includere immagini e dati personali di soggetti terzi inconsapevoli.

Perché le tecniche di “anonimizzazione” di Meta non bastano a tutela privacy con i Ray-Ban

Tecniche di anonimizzazione come il blurring dei volti o la rimozione di elementi identificativi non garantiscono di per sé una reale protezione della privacy. In condizioni di luce difficili, con angolazioni particolari o quando i volti sono parzialmente coperti, gli algoritmi possono non identificare correttamente le persone presenti nell’immagine, lasciando visibili tratti riconoscibili.

Inoltre, l’identificazione non dipende solo dal volto. Contesto, ambienti domestici, oggetti personali, voce o conversazioni possono rendere una persona riconoscibile anche in assenza di un volto visibile.

Infine, quando immagini o video vengono utilizzati per l’addestramento dei modelli di IA, il dato può essere già stato elaborato prima della fase di anonimizzazione oppure restare incorporato nei dataset di training.

Per questi motivi, secondo molti esperti, tecniche come il blurring rappresentano misure di mitigazione del rischio, ma non vere forme di anonimizzazione.

Il nodo tecnico: l’IA multimodale ha fame di dati non filtrati

C’è poi una riflessione più ampia e necessaria sulla natura delle tecnologie di visione artificiale integrate negli oggetti quotidiani.

Dal punto di vista dell’utente, gli occhiali sono uno strumento per osservare il mondo e ricevere informazioni contestuali; dal punto di vista dell’infrastruttura tecnologica, invece, ogni immagine catturata diventa un potenziale dato da analizzare.

In altre parole, mentre l’utente guarda il mondo attraverso gli occhiali, l’infrastruttura osserva l’utente e il suo ambiente e, questa doppia prospettiva (apparentemente invisibile), trasforma i dispositivi di uso quotidiano in nodi permanenti di raccolta dati.

Al centro c’è la natura stessa dei modelli di intelligenza artificiale multimodale: si tratta disistemi che combinano input provenienti da diverse fonti, quali immagini, video, audio e testo e che per funzionare efficacemente necessitano di enormi quantità di dati reali e contestualizzati; il loro addestramento richiede esempi autentici della complessità del mondo fisico.

Le tecniche di anonimizzazione citate (blurring, rimozione di dettagli sensibili) riducono spesso la qualità dei dati utilizzati per l’addestramento. Dal punto di vista tecnico, un’immagine parzialmente oscurata può risultare meno utile per migliorare la capacità del modello di riconoscere oggetti o situazioni.

In altre parole, esiste una tensione strutturale tra protezione dei dati e accuratezza dei modelli. L’intelligenza artificiale tende a preferire dati più completi e meno filtrati, mentre la regolazione europea richiede minimizzazione, anonimizzazione e limitazione delle finalità. Cioè l’opposto.

Sebbene questo conflitto non sia nuovo, con l’IA integrata negli oggetti quotidiani (occhiali, auricolari, automobili) la questione assume una scala completamente diversa.

Marketing e infrastruttura dei dati

Nella class action si denuncia con forza il profondo squilibrio tra ciò che viene promesso agli utenti da Meta e ciò che accade realmente nell’infrastruttura tecnica dei servizi.

Dall’analisi svedese, emerge che, nei negozi, molti addetti alla vendita erano convinti che i dati raccolti dagli occhiali rimanessero “localmente nell’app”, o che fosse l’utente a decidere se condividerli. Le analisi tecniche condotte successivamente hanno invece mostrato che, per funzionare, l’assistente AI degli occhiali richiede il trasferimento continuo di dati verso l’infrastruttura cloud di Meta.

La conseguenza è che la percezione di controllo dell’utente (elemento centrale nel marketing di Meta sui dispositivi) si scontra con una realtà tecnica molto più complessa, in cui l’elaborazione remota dei dati diventa una condizione necessaria per il funzionamento stesso del servizio, smentendo di fatto la narrativa di controllo sui propri dati riportata da Meta nelle sue campagne. Tra l’altro, nei termini d’uso di Meta AI (come rilevato anche nell’indagine svedese) non viene indicato con chiarezza né quanti dati vengono trattati, né per quanto tempo sono conservati, né chi vi ha accesso (il che pone un serio problema di trasparenza nei confronti degli utenti).

Il lavoro invisibile dell’IA: il proletariato dei dati globale

Emerge poi un elemento spesso trascurato nel dibattito sull’intelligenza artificiale, che riguarda il lavoro umano necessario per far funzionare i sistemi automatizzati.

Il caso degli smart glasses riporta alla luce il ruolo dei cosiddetti data annotators, ovverossia i lavoratori (detti anche “manovali della rivoluzione AI”) incaricati di classificare, filtrare o valutare i contenuti utilizzati per addestrare gli algoritmi. Si tratta di attività che vengono molto spesso esternalizzate in paesi del Sud globale, dove i costi del lavoro sono più bassi.

Secondo quanto riportato dalla stampa, i lavoratori kenioti coinvolti nella revisione dei filmati, avevano il compito di visionare contenuti potenzialmente problematici o sensibili per migliorare le capacità di moderazione e comprensione dei modelli di IA.

Questo fenomeno è stato definito dagli studiosi come colonialismo digitale: le tecnologie più avanzate sviluppate nelle economie occidentali si appoggiano su una catena di lavoro invisibile distribuita a livello globale.

Sebbene l’etica dell’intelligenza artificiale venga spesso discussa ai più alti livelli, nei contesti regolatori europei o nei board delle grandi aziende tecnologiche, la catena produttiva dell’IA attraversa territori con standard di tutela del lavoro molto diversi ed è costruita nei Paesi a basso reddito.

Il meccanismo ricorda quello delle economie coloniali tradizionali, in cui le risorse venivano estratte nelle periferie del sistema economico per essere trasformate e valorizzate nei centri industriali. Nel caso dell’economia digitale, la “materia prima” sono i dati e il lavoro cognitivo necessario per classificarli e interpretarli; il valore finale (modelli di intelligenza artificiale, piattaforme e servizi digitali) viene concentrato nelle grandi imprese tecnologiche dei Paesi più sviluppati.

Il risultato è una frattura tra il discorso pubblico sull’AI ethics e le condizioni concrete in cui viene costruita l’infrastruttura dei dati.

Dietro l’algoritmo: il lavoro umano che non vediamo

I sistemi di intelligenza artificiale vengono spesso descritti come tecnologie capaci di sostituire il lavoro umano, sebbene, in realtà, nella fase di addestramento l’automazione dipende, come detto, da una quantità crescente di lavoro umano nascosto.

La promessa di un’intelligenza artificiale autonoma si regge quindi, almeno in parte, su una forza lavoro che osserva, classifica e interpreta ciò che le macchine non sono ancora in grado di comprendere.

L’IA, anziché eliminare il lavoro umano, lo sposta geograficamente e lo rende meno visibile, collocandolo ai margini dell’economia digitale globale e costruendo in questo modo una filiera produttiva “mista” in cui l’innovazione tecnologica appare immateriale e automatizzata, mentre parte significativa del suo funzionamento continua a dipendere da attività umane frammentate, precarie e spesso invisibili.

Il costo umano dell’addestramento dell’IA

Diversi report giornalistici e studi hanno inoltre documentato come i lavoratori incaricati di addestrare o moderare i sistemi di IA siano esposti quotidianamente a contenuti estremamente disturbanti con conseguenze sulla loro integrità psico-fisica.

Oltre all’indagine svedese, anche un’inchiesta della BBC, ha riportato le dichiarazione dei lavoratori impiegati in Kenya da Meta per classificare dati destinati all’addestramento degli algoritmi, i quali hanno raccontato di dover analizzare per ore testi e immagini che descrivevano violenze, abusi sessuali, suicidi o torture e di dover leggere chat che riportavano spesso crimini o fatti incresciosi.

Alcuni di loro hanno riferito di aver sviluppato sintomi di stress e traumi psicologici dopo mesi di esposizione continuativa a questi contenuti.

Questo elemento introduce un ulteriore paradosso nell’economia dell’intelligenza artificiale: per rendere gli algoritmi più sicuri e capaci di riconoscere contenuti violenti o illegali, è necessario che esseri umani siano esposti in prima persona proprio a quel materiale. L’addestramento delle macchine passa quindi attraverso una forma di lavoro cognitivo che può avere costi emotivi elevati, anch’essi invisibili agli utenti finali.

Il bug del consenso: le notifiche che nessuno vede

Uno degli aspetti più delicati che emergono rispetto ai Ray-Ban Meta (sul quale verte anche l’indagine dell’ICO) riguarda il tema del consenso informato.

Il piccolo LED che si accende quando la videocamera è attiva, in teoria, dovrebbe segnalare alle persone circostanti che la registrazione è in corso.

Il problema è che il consenso tecnologico non coincide necessariamente con il consenso giuridico: anche se un indicatore luminoso può segnalare che la registrazione è attiva, ciò non garantisce che chi viene ripreso comprenda realmente cosa stia accadendo o come i dati verranno utilizzati.

Sebbene i termini di servizio di Meta prevedano che “alcune interazioni” con i sistemi di IA possano essere sottoposte a revisione umana per migliorare il servizio, la linea di confine tra ciò che l’utente sceglie consapevolmente di condividere e ciò che viene raccolto automaticamente appare spesso difficile da individuare.

Nel caso degli smart glasses, l’uso dell’assistente vocale implica necessariamente che immagini, audio e testo vengano elaborati dall’infrastruttura dell’azienda; ciò significa che la partecipazione al sistema di raccolta dei dati non è realmente opzionale perchè incorporata nel funzionamento stesso della tecnologia.

Con i wearable la persona registrata potrebbe non essere consapevole della presenza del dispositivo, oppure potrebbe trovarsi in un contesto (come un bar, un ufficio o un ambiente domestico) in cui la registrazione potrebbe apparire socialmente inaspettata.

Il risultato è una forma di consenso diffuso ma non realmente informato, che mette in discussione i presupposti stessi della normativa sulla protezione dei dati.

Quando l’addestramento dell’IA incontra la vita privata, il problema privacy sugli occhialini AI di Meta

Il contenzioso avviato negli Stati Uniti contro Meta e le indagini dell’autorità UK sono sintomo di una tensione ormai strutturale tra due logiche che definiscono l’economia digitale contemporanea: da un lato il principio della privacy by design, pilastro normativo della regolazione europea; dall’altro la crescente data hunger dei sistemi di intelligenza artificiale generativa.

Secondo quanto riportato dalla stampa, i lavoratori incaricati di esaminare contenuti raccolti dagli occhiali intelligenti di Meta avrebbero avuto accesso a filmati estremamente sensibili, inclusi dati bancari, episodi di nudità, rapporti sessuali e altre situazioni intime registrate (anche incidentalmente) dai dispositivi indossabili, nonché a trascrizioni di conversazioni degli utenti. Il materiale sarebbe stato utilizzato per migliorare i modelli di intelligenza artificiale multimodale integrati nel sistema.

Wearable e raccolta permanente di dati

Con i wearable dotati di IA la raccolta dei dati passa da atto deliberato a processo continuo e quasi invisibile; la tecnologia che promette di assisterci nella vita quotidiana (riconoscendo monumenti, traducendo cartelli, suggerendo informazioni contestuali o fornendo traduzioni simultanee da altre lingue) trasforma, allo stesso tempo, ogni spazio della vita sociale in un potenziale set di addestramento per modelli algoritmici.

Gli occhiali Meta, che hanno registrato un boom di vendite nel 2025 (passando dai 2 milioni di pezzi venduti nel 2023-24, ai 7 milioni nel 2025), mettono ora in evidenza una dinamica già osservata in altri contesti, cioè che quando l’innovazione tecnologica procede più velocemente delle garanzie normative, la tutela dei diritti fondamentali rischia di diventare una variabile negoziabile.

Dal Panopticon allo smart-eye: la sorveglianza diffusa dei wearable

Per comprendere la portata del fenomeno è utile ricorrere a un parallelismo storico.

Il dibattito sulla sorveglianza digitale viene spesso interpretato attraverso la metafora del Panopticon, la struttura carceraria teorizzata da Jeremy Bentham e poi reinterpretata da Michel Foucault come modello di controllo sociale.

Gli smart glasses introducono una dinamica differente, in quanto non esiste più un unico osservatore centrale, poiché l’infrastruttura della sorveglianza è diffusa, essendo distribuita tra milioni di dispositivi indossati dalle persone. Si potrebbe parlare in questo senso di “reverse panopticon”, dal momento che tutti possono osservare e registrare, ma nessuno è realmente protetto.

Inoltre, a differenza dello smartphone, che richiede un gesto esplicito per avviare una registrazione, gli occhiali intelligenti funzionano come sensori permanenti dell’ambiente circostante e la videocamera diventa parte integrante dello sguardo.

La tutela dei dati personali va oltre il comportamento del singolo individuo e dipende dalla presenza di dispositivi intelligenti nello spazio pubblico e privato; così la privacy smette di essere una scelta individuale per diventare una condizione collettiva sempre più fragile.

Essere lasciati soli nell’era degli algoritmi

Negli ultimi anni la privacy è stata progressivamente reinterpretata in chiave proattiva, passando dal diritto a sottrarsi allo sguardo altrui, al potere di gestire e controllare i propri dati, negoziandone l’uso all’interno dell’economia digitale.

L’avvento di tecnologie pervasive come l’IA indossabile sembra oggi riportare il dibattito a una dimensione più elementare e, per certi versi, più radicale. Quando la raccolta dei dati diventa continua, ambientale e spesso invisibile, la “gestione consapevole dei dati” perde gran parte del suo significato ed inizia a riemergere la concezione più antica e difensiva della privacy, cioè il diritto di tenere il sistema di sorveglianza fuori da determinati spazi della propria vita.

Oggi la privacy torna a essere una pretesa di sottrazione, una barriera eretta contro l’infrastruttura digitale prima ancora che una forma di autodeterminazione informativa.

La morte del “fuori campo”: cosa resta dell’intimità

Il cinema utilizza il concetto di fuori campo per indicare ciò che rimane al di fuori dell’inquadratura, che coincide poi con lo spazio dell’immaginazione e della libertà narrativa.

La diffusione di dispositivi dotati di IA multimodale rischia di ridurre drasticamente questo spazio: se ogni oggetto indossabile può potenzialmente registrare e analizzare ciò che accade intorno, il fuori campo tende progressivamente a scomparire.

Ciò pone interrogativi profondi sul concetto stesso di intimità e sul significato di spazio privato quando una videocamera collegata a un’infrastruttura di analisi algoritmica può entrare in qualsiasi ambiente domestico o sociale.

La questione, oltre che la privacy individuale, riguarda anche la dimensione collettiva della vita sociale e la possibilità di vivere momenti non registrati, che è una componente essenziale della libertà personale.

AI Act e responsabilità delle Big Tech

Il caso degli occhiali Meta arriva in un momento particolarmente significativo per il diritto europeo delle tecnologie, vista l’approvazione in UE dell’AI Act, quale primo quadro normativo completo dedicato alla regolazione dell’intelligenza artificiale.

L’AI Act introduce un approccio basato sul rischio in cui i sistemi di IA vengono classificati in diverse categorie, dalle applicazioni a rischio minimo fino a quelle considerate ad alto rischio o vietate.

Gli smart glasses dotati di IA multimodale non rientrerebbero necessariamente nelle categorie più restrittive, ma sollevano una serie di questioni che il regolatore europeo dovrà affrontare a breve e nei prossimi anni.

Una delle possibili evoluzioni riguarda la necessità di estendere la logica della certificazione oltre che al software, anche all’hardware. Così, se un dispositivo indossabile è progettato per raccogliere continuamente dati ambientali, potrebbe essere necessario introdurre requisiti specifici di progettazione, trasparenza e limitazione delle funzionalità.

Il test europeo dell’IA indossabile

Al di là del contenzioso statunitense, la vicenda potrebbe assumere un significato più ampio nel contesto della regolazione europea delle tecnologie digitali.

L’integrazione di sistemi di intelligenza artificiale multimodale in dispositivi indossabili solleva infatti interrogativi che si collocano all’intersezione tra GDPR e AI Act. Da un lato, il regolamento sulla protezione dei dati impone obblighi stringenti di trasparenza, minimizzazione dei dati e limitazione delle finalità, soprattutto quando il trattamento riguarda immagini o informazioni relative a soggetti terzi che non hanno prestato alcun consenso. Dall’altro, l’AI Act introduce requisiti specifici per i sistemi di IA ad alto impatto, inclusi obblighi di documentazione, gestione dei rischi e supervisione umana.

Dispositivi come gli smart glasses rischiano quindi di diventare un caso di frontiera per il diritto europeo, perché combinano raccolta ambientale di dati, addestramento algoritmico e interazione continua con l’utente in un unico oggetto di uso quotidiano. Potrebbero quindi diventare uno dei primi banchi di prova concreti per verificare se l’architettura regolatoria europea sia davvero in grado di governare la nuova generazione di tecnologie indossabili basate sull’IA.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x