l’analisi

Un mercato dati competitivo contro i monopoli dell’IA: strategie per l’Ue



Indirizzo copiato

L’accentramento dei dati nelle mani di poche piattaforme rappresenta oggi uno dei principali rischi per la tenuta delle democrazie. Un’alternativa è possibile: la costruzione di un mercato competitivo dei dati, basato sul diritto degli utenti di riappropriarsi e riutilizzare le proprie informazioni personali

Pubblicato il 24 lug 2025

Vanni Rinaldi

Autore del libro “Intelligenza Artificiale Sociale”



attacco informatico autonomo AI sovrana

Di fronte allo strapotere dei  “tecnodatalisti” negli Usa si fanno strada nuove regole statali per ridare potere agli utenti delle piattaforme e in prospettiva anche a quelli dell’IA attraverso l’opt-out universale. Ma in Europa si può percorrere una strada più efficace con la restituzione agli utenti delle piattaforme di una copia dei dati e la creazione di un vero mercato competitivo dei dati e cosìffavorire la pluralità delle IA. In Europa oltre l’opt-in e l’opt-out va aggiunta la possibilità dell’opt- data return.

Come l’accentramento dei dati mina la democrazia

Recentemente il premio nobel Daron Acemoglu, ha scritto che:  “le piattaforme controllano l’informazione, controllano i dati, decidono cosa vediamo, con chi comunichiamo, monetizzano l’economia dell’attenzione. Quell’accentramento é nemico dell’autogoverno. Questo é uno degli aspetti fondamentali del nuovo ecosistema dei social media che verosimilmente sarà riprodotto e amplificato dall’ecosistema dell’IA…L’IA riguarda i dati, e all’accentramento dei dati, seguirà l’accentramento dell’IA».1)

Le parole del premio Nobel stanno trovando una conferma nelle manovre messe in atto dall’amministrazione Trump nella gestione del programma federale di “reimmigrazione coatta” che sta utilizzando a man bassa i dati posseduti dalle diverse amministrazioni federali per alimentare delle IA, peraltro addestrate e gestite da Palantir la società di Peter Thiel il mentore di Elon Musk e sponsor del vicepresidente J.D.Vance, per dare la caccia agli immigrati, clandestini e non. Le crescenti rivolte contro queste politiche e la immediata escalation repressiva del governo federale dimostrano, laddove ce ne fosse bisogno, che la tecnologia digitale e in particolare l’IA sta diventando lo strumento principe della svolta antidemocratica, tentata dall’amministrazione Trump. Quello a cui stiamo assistendo in diretta in America, è la crescente capacità di un piccolo gruppo di persone di utilizzare la tecnologia che possiedono per imporre la loro visione antidemocratica su come gestire le istituzioni e la società riducendo i diritti dei cittadini.

IA e potere politico: alleanze e conflitti in America

Peraltro questo progetto sta portando ad uno scontro di potere interno al blocco dei Trumpiani legati al movimento Maga e i tecnocapitalisti, che evidentemente non completamente soddisfatti delle politiche trumpiane soprattutto in materia economica e di bilanco, con Elon Musk minacciano addirittura di creare un partito politco autonomo.

Un recente studio pubblicato dall’istituto di ricerche AI NOW 2) che si occupa di come la tecnologia influisce sulla società, ha evidenziato questo crescente concentramento di potere nelle mani di poche società private e di come queste stiano manipolando la narrazione sull’IA a loro esclusivo favore.

Come l’intelligenza artificiale maschera la concentrazione del potere

Secondo il rapporto, il DOGE, il dipartimento sui tagli dell’amministrazione federale messo in piedi da Musk, è parte di una strategia  “per la presa del potere, con la AI che funziona come una cortina fumogena per consolidare il potere esecutivo e rimodellare il governo federale per adattarsi all’agenda ideologica dell’amministrazione Trump e dei suoi sostenitori, alcuni dei quali possiedono le aziende tecnologiche che traggono il massimo beneficio sia dell’adozione federale dell’IA che della svolta verso l’austerità”. Il rapporto indica anche alcune strade agli attivisti e alle organizzazioni della società civile che vogliono opporsi concretamente a questo strapotere.

Verso una resistenza all’espropriazione digitale

La progressiva presa di coscienza dei rischi insiti nell’uso di queste tecnologie anche per la stessa democrazia, sta però favorendo un movimento di resistenza se non di vera e propria opposizione al loro strapotere. Questo movimento tra le altre azioni sembra dirigere finalmente la sua attenzione anche al centro del potere dei “tecnodatalisti”: cioé l’espropriazione e il possesso dei dati digitali degli utenti. Dopo quasi due decenni di impunità da parte delle piattaforme digitali nel sottrarre i dati ai loro utenti sulla base di un asimmetrico scambio con i servizi erogati, e dopo che l’UE ha meritevolmente aperto la strada con la sua normativa, infatti ora anche in America, alcuni Stati come la California stanno cercando di limitare il dominio delle piattaforme digitali e ridare potere agli utenti sui loro dati.

L’opt-out universale: potenzialità e limiti del modello Usa

A partire dall’ ottobre 2024 infatti, ben dodici stati americani concedono alle persone il diritto di rinunciare a concedere i loro dati alle aziende che vendono le loro informazioni personali o elaborano tali dati per la pubblicità mirata. Di queste dodici leggi statali sulla privacy, sette prevedono disposizioni che rendono più facile per le persone rinunciare a determinati usi dei dati personali. Ciò include per esempio il tipo di informazioni personali e pseudonimizzate che vengono regolarmente condivise con i siti web, come le informazioni del browser o le informazioni inviate tramite i cookie.
Fino ad oggi è esistito però un significativo ostacolo pratico nell’attuazione di questi diritti di opt-out: gli utenti che vogliono esercitare il diritto di rinunciare all’uso di queste informazioni per la pubblicità mirata devono infatti individuare e fare clic manualmente sui link di opt-out.

Per rendere più facile l’opt-out, le leggi sulla privacy dei sette stati (California, Colorado, Connecticut, Delaware, Montana, Oregon e Texas) ora obbligano tutte le aziende a tenere conto delle preferenze di opt-out degli individui trasmesse attraverso i cosiddetti meccanismi universali di opt-out (UOOM) per rinunciare alla pubblicità mirata e alle vendite di dati. Gli UOOM hanno un enorme potenziale per responsabilizzare i consumatori semplificando la gestione delle loro informazioni personali.

Come funziona il meccanismo dell’opt-out universale

Questi meccanismi infatti centralizzano il processo di opt-out, consentendo agli utenti di impedire la raccolta dei propri dati senza dover navigare in un labirinto di impostazioni sulla privacy sui siti web. In questo modo, gli UOOM riducono lo sforzo necessario per proteggere la privacy, aumentano il controllo dei consumatori su quali aziende possono accedere alle loro informazioni e consentono agli utenti autonomia e controllo sui propri dati personali.

Gli UOOM si traducono in una differente gamma di strumenti, desktop e mobili, progettati per fornire ai consumatori la possibilità di configurare i loro dispositivi per rinunciare automaticamente alla vendita o alla condivisione delle loro informazioni personali. Questi strumenti trasmettono le preferenze di opt-out dei consumatori utilizzando delle specifiche tecniche, tra cui il sistema del cosiddetto controllo globale sulla privacy (GPC).(3)

I primi effetti giuridici dell’opt-out universale

La California è diventata il primo stato a rendere validi per legge i segnali di opt-out . In particolare, le aziende che non rispettano il controllo globale sulla privacy sui loro siti web possono rischiare di essere perseguite in violazione del California Consumer Privacy Act (CCPA). Questo è stato ad esempio il caso della recente azione esecutiva contro Sephora, un rivenditore online. Nella denuncia, le autorità statali hanno affermato che il sito web di Sephora non era configurato per rilevare o elaborare alcun segnale GPC e, di conseguenza, non è riuscito a rendere operative le preferenze di opt-out degli utenti non rinunciando alla vendita dei loro dati.

Le vulnerabilità del modello opt-out per i consumatori

Però l’utilizzo degli UOOM , sempre secondo Anene e Parham, ha anche delle controindicazioni e potrebbe introdurre nuove vulnerabilità dei consumatori. Una preoccupazione significativa è il potenziale cambiamento nel modo in cui la piattaforma vede il consenso.

Nell’ambito del quadro delle regole “Avviso e Opt-In”, come il regolamento generale sulla protezione dei dati (GDPR) dell’UE, un utente oggi deve fornire il proprio esplicito consenso alla raccolta dei dati prima che qualsiasi dato possa essere condiviso. Richiedere il consenso prima che i dati vengano condivisi crea una presunzione predefinita che i broker di dati non abbiano il diritto di utilizzare i dati dei consumatori a meno che o fino a quando il consumatore non consenta loro di farlo. Anche se la complessità dei documenti per il consenso e la necessità dell’adesione se si vuole ottenere il servizio, hanno dimostrato come questa espressione di volontà da parte dell’utente viene di fautili resa obbligatoria e non trasparente .

Invece, gli UOOM per loro stessa natura creano un quadro generale di “Notifica e Opt-Out”, in cui i consumatori devono agire al contrario e cioé in modo affermativo per ritirare il consenso. In un tale sistema, la presunzione predefinita è che gli utenti che non esercitano l’opt-out abbiano acconsentito a tale raccolta di dati. Quindi questa presunzione di consenso permette ai broker di dati di sfruttare i consumatori meno attenti e consapevoli rendendo più facile aquisire i loro dati se non esercitano esplicitamente l’opt-out.

Rischi di esclusione sociale e servizi essenziali

Un altro effetto indesiderato è l’aumento del controllo che può sorgere per coloro che si oppongono alla raccolta dei dati. Infatti l’opt-out può essere interpretato come un indizio di una qualche anomalia, segnalando che un individuo che rinuncia ha potenzialmente qualcosa da nascondere e attivando controlli più invasivi da parte di differenti autorità o entità private.

In America viene anche segnalata 4) la preoccupazione che alcuni cittadini possano perdere l’accesso ai servizi essenziali o ai contenuti online perché proteggono i loro dati. Le istituzioni governative, gli operatori sanitari e le agenzie di stampa si affidano sempre più a piattaforme di social media, applicazioni mobili e strumenti di intelligenza artificiale che richiedono la raccolta dei dati per utilizzare questi servizi.

I governi locali, ad esempio, si rivolgono abitualmente a X (ex Twitter) e Facebook per diffondere informazioni di emergenza vitali e in tempo reale durante disastri naturali ed eventi meteorologici, come l’uragano Harvey, l’uragano Sandy e l’alluvione della Valle del Red River del 2009. Inoltre, in Nevada, lo stato ha collaborato con Google per creare un sistema di intelligenza artificiale generativo per aiutare a determinare l’esito dei ricorsi di disoccupazione, concedendo allo strumento di intelligenza artificiale di Google l’accesso ai dati personali sensibili dei disoccupati del Nevada, comprese le informazioni fiscali, i numeri di previdenza sociale e “informazioni sulla salute, la famiglia e le finanze di un richiedente”.

Se le piattaforme e le istituzioni costruiscono servizi sulla presunzione che gli utenti condividano i dati, l’opt-out potrebbe rendere i servizi essenziali meno accessibili o efficaci. Una persona che rinuncia alla raccolta dei dati per proteggere la propria privacy potrebbe non essere in grado di accedere a notizie, app sanitarie o servizi governativi che richiedono la condivisione dei dati per servizi personalizzati o controlli di idoneità. In base a un tale sistema, gli individui sarebbero costretti a scegliere tra (a) una mancanza di accesso ai servizi essenziali o (b) l’uso di quel servizio mentre sono sotto costante sorveglianza, sfruttamento e mercificazione dei dati senza alcun modo realistico per proteggersi, minando l’empowerment dei consumatori che l’UOOM intendeva creare.

Opt-out e divario socioeconomico: una nuova disuguaglianza

Infine, gli UOOM, se non attuati strategicamente, hanno il potenziale di aumentare l’esclusione culturale e la disuguaglianza socioeconomica. In un mondo con opt-out globale, le aziende potrebbero adattare i loro modelli di business per richiedere il consenso per accedere ai loro servizi o passare a un modello di “pagamento o consenso”, come Meta ha tentato di fare nell’UE. In base a un modello di “pagamento e consenso”, le aziende potrebbero richiedere ai consumatori di acconsentire alla condivisione dei dati in cambio dell’accesso “gratuito” ai loro servizi, ma consentire a coloro che desiderano rinunciare alla condivisione dei dati la possibilità di pagare per l’accesso per evitare la raccolta dei dati.

Gli individui benestanti ed esperti di tecnologia sarebbero quindi in grado di rinunciare alla raccolta dei dati mantenendo l’accesso a questi servizi o beneficiare di un panorama in cui i dati vengono utilizzati per offrire esperienze personalizzate e su misura senza sacrificare la loro privacy. Tuttavia, coloro che non hanno la capacità di impegnarsi con questi sistemi a causa della mancanza di risorse, dell’accesso tecnologico o dell’alfabetizzazione digitale possono sperimentare un crescente isolamento culturale e sociale.

Una persona che rinuncia alle piattaforme digitali potrebbe essere lasciata fuori da importanti conversazioni, eventi o campagne che si svolgono principalmente online, allargando così il divario nella partecipazione politica o nell’impegno sociale.

Come bilanciare privacy, inclusione e diritti digitali

Per ridurre questo divario emergente sulla privacy digitale,5) i responsabili politici devono adottare un approccio equilibrato che garantisca la protezione della privacy riducendo al minimo il rischio di esacerbare le disuguaglianze esistenti. I meccanismi di opt-out universali sono potenzialmente uno strumento prezioso per i consumatori per controllare i loro dati personali, ma devono essere attentamente implementati, in quanto potrebbero involontariamente approfondire il divario digitale se non abbinati a soluzioni sistemiche più ampie.

Le autorità di regolamentazione dovrebbero, sempre secondo Anene e Parham, imporre che il consenso alla raccolta dei dati sia genuinamente informato e liberamente dato, con le aziende che fanno divulgazioni chiare e trasparenti sulle pratiche dei dati e sulle conseguenze dell’opt-out, assicurando che non ci sia coercizione o manipolazione.

I governi dovrebbero fornire al pubblico diritti alla privacy più forti e introdurre restrizioni più universali sulla raccolta e sull’uso dei dati, come il divieto di

  • abuso dei dati di opt-out degli utenti,
  • discriminazione contro le persone che rinunciano alla raccolta dei dati,
  • attuazione di modelli di “pagamento o consenso” e
  • degrado o la perdita di servizi essenziali per le persone che scelgono di rinunciare alla raccolta dei dati, salvaguardando l’accesso a risorse critiche come i notiziari e i servizi governativi.

Un riferimento europeo per regolare l’equilibrio tra dati e servizi

Un potenziale modello per tale regolamentazione potrebbe essere gli obblighi anti-sterzo di cui all’articolo 5, paragrafo 2, della legge sui mercati digitali (DMA) dell’UE. Ai sensi del DMA (considerando 36/37/38), le piattaforme sono tenute a fornire agli utenti che non acconsentono alla raccolta dei dati servizi “meno personalizzati ma equivalenti” a quelli forniti agli utenti che acconsentono a pubblicità mirate e “senza fare l’uso del servizio della piattaforma principale… subordinatamente al consenso dell’utente finale”.

La proposta europea per un mercato competitivo dei dati

Per fare questo c’è però bisogno di elaborare e sviluppare una versione più “dinamica” e  “partecipata” della privacy che consenta non tanto e non solo la difesa dei propri dati quanto la loro “liberazione “ e circolazione per dare la possibilità di avere delle vere e proprie alternative ai servizi proposti dalle piattaforme monopoliste. Questo in prospettiva è ancora più importante se pensiamo ai processi di accentramento dell’IA ricordati dal premio Nobel Acemoglu e agli evidenti rischi che il monopolio di pochissime aziende su queste tecnologie alimentate dai dati possono provocare, non solo per la tenuta dei sistemi democratici, ma anche per l’accentramento della conoscenza che ne deriva.

A questo proposito un recente report realizzato da un ricercatore del GLAM-E Lab, un’iniziativa congiunta tra il Centre for Science, Culture and the Law dell’Università di Exeter e l’Engelberg Center on Innovation Law & Policy della NYU Law, 6) che lavora con istituzioni culturali, ha segnalato come  “I bot di intelligenza artificiale che raschiano Internet per alimentare di dati le IA stanno  “dragando” i server di biblioteche, archivi, musei e gallerie dove sono disponibili archivi open di qualità”.

In Europa, dopo molti anni di una sorte di dittatura culturale della privacy, si sta facendo strada una visione più proattiva nei confronti dell’utilizzo dei dati. L’Ehds (European Health Data Space) o «spazio europeo dei dati sanitari», istituito dal Regolamento(Ue)2025/327,in vigore dal marzo 2025 sia pure con con tempistiche di applicazione scaglionate nel tempo, che introduce il modello dell’opt-out,al posto dell’opt-in, per il trattamento dei dati sanitari e prevede poi il libero uso di dati sanitari per finalità di ricerca sempre in base all’opt-out.

Tutti segnali che identificano un cambiamento di direzione per facilitare l’utilizzo e la circolazione dei dati come previsto da gran parte delle normative europee a partire dall’art 20 del GDPR,e dal DGA che regolamenta lo scambio dei dati e i soggetti autorizzati e le realtive finalità, pubbliche, private e non profit.

In Europa si potrebbe dunque, grazie alla legislazione attuale, determinare uno scenario differente, più efficace e altrettanto performante per i cittadini europei. Infatti grazie alla base giuridica rappresentata dall’art 20 del GDPR e degli altri regolamenti e direttive, che consentono a tutti di richiedere una copia dei propri dati da qualunque piattaforma detenuti, e di conferirli in base alle regole del DGA a degli  “intermediari” riconosciuti e certificati dalla UE come rispondenti a tutte le regole e principi dei trattati della UE, si potrebbe attivare un ulteriore tipo di scelta per l’utente che consenta il conferimento dei dati per l’ottenimento del servizio ma anche l’automatico conferimento di una copia a uno degli  “intermediari” scelto dall’utente stesso.

Una nuova modalità che si collocherebbe a metà strada tra la scelta secca dell’opt-out o dell’opt- in, finora a disposizione degli utenti: l’opzione di data return (Opt- Data Return) e cioè della concessione dei dati alla piattaforme per l’ottenimento del servizio a fronte della contestuale scelta (richiesta) di restituzione di una copia degli stessi dati.

Questa modalità supererebbe da un lato l’implicito ricatto dell’attuale contratto sinallagmatico  “dati contro servizi”, perché concederebbe, con una sorta di  “concessione” come ipotizzato dalla professoressa Giusella Fionocchiaro nel suo ultimo libro sulle regole dell’IA, l’uso dei dati alla piattaforma per la fornitura del servizio ma riservando contestualmente all’utente la libertà di conferire una copia degli stessi ad un soggetto terzo.

Ed essendo i dati un  “bene non rivale” questo scambio potrebbe essere moltiplicato enne volte, consentendo di creare un vero mercato concorrenziale dei dati e quindi delle IA. Non più quindi il monopolio di poche società al mondo costruito sull’espropriazione dei dati ma una pluralità e una diversità di soggetti in competizione tra di loro, con la possibilità per l’utente di scegliere il soggetto più confacente ai suoi bisogni e anche il più conveniente.

Intermediari dei dati: una nuova libertà per l’utente

Questa scelta tra i diversi  “intermediari dei dati” riconosciuti dalla UE, che già oggi sono più di 20, si potrebbe fare direttamente al momento dell’accesso al servizio, con una semplice tendina a scroll, come già oggi avviene per l’accesso a SPID.

Data return: la terza via tra opt-in e opt-out

Quindi, per i cittadini europei, si aggiungerebbe alla scelta secca tra opt-in e opt-out (che peraltro rimarrebbe sempre possibile) una terza opzione, determinando una possibilità di reale empowerment dell’utente attraverso il ri-utilizzo dei propri Dati, per esempio anche a fini  “altruistici” come previsto dal DGA, e contemporaneamente favorirebbe la pluralità di soggetti sul mercato digitale dei dati e quindi una reale concorrenza che attenuerebbe di molto i rischi di quell’accentramento dei dati a cui faceva riferimento il premio Nobel Acemoglu.

Governance democratica dei dati e nuove forme di cittadinanza digitale

Inoltre la possibilità per il cittadino di rivolgersi a soggetti intermediari diversi, anche con forme proprietarie democratiche, come nel caso delle  “cooperative di dati”, permetterebbe in prospettiva di avere anche reali alternative di governance del mercato dei dati improntate ai principi di democrazia, mutualità e solidarietà, fondamentali per evitare il rischio democratico implicito nel meccanismo di accentramento dei dati e dell’IA.

Si ridarebbe dunque la possibilità all’utente di scegliere, a parità di servizio, tra l’essere suddito o cittadino del nuovo spazio digitale nel quale stiamo rapidamente, e in parte inconsciamente, transitando.

Note

1) Daron Acemoglu; fonte MIT , Shaping the future of work, tratto da Corriere della Sera del 26/5/2025

2) AI-NOW, Artificial Power- 2025 Landscape Report del 3/6/2025

3) 4) e5) Ekene Anene, Amanda Parham; Universal Opt-out mechanism : empowering consumers or créating a new digital divide ?; Tech Policy Press del 22/5/2025

6) Glam- É lab ; Are AI bots knoking cultural heritage offline ?, Michael Weinberg; june 2025

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati