Il provvedimento del Garante privacy su ChatGpt ha suscitato un grande dibattito tra chi ritiene sacrosanto l’intervento di blocco per tutelare i diritti dei cittadini e chi, invece, lo vede come un inutile e formalistico arresto del progresso. In realtà il provvedimento è corretto e va difeso, per ragioni molto pratiche e poco ideologiche.
Le critiche al Garante Privacy
Dopo il provvedimento temporaneo di divieto di trattamento dei dati, OpenAI ha letteralmente sospeso il servizio di ChatGPT in Italia; ma, visto che siamo in Italia, la app è ancora utilizzabile tramite VPN, Tor e diversi tool anche gratuiti come Playground di OpenAi o Poe.com.
Questo dato di fatto ha spinto commentatori illustri a prendere posizione; non ultimo Matteo Salvini, Vice primo ministro e ministro delle infrastrutture.
ChatGPT è il buco nero della privacy, il Garante ha fatto bene: ecco perché
La sua posizione è semplice: è inutile cercare di arrestare il progresso con provvedimenti formalistici.
Altri commentatori – su tutti, Andrea Lisi – sono sostanzialmente d’accordo con questa posizione, a partire dalla pretesa obsolescenza della normativa.
Idem molti rappresentanti di startup e aziende tech che si sentono minacciati nel business.
Altri ancora, autorevolmente (giuristi accademici perlopiù), sostengono a spada tratta l’operato del Garante, perché con questo provvedimento ha applicato una normativa generale e di principio che tutela tutti i cittadini.
Prima di proseguire, però, va chiarito un punto: il provvedimento non blocca l’uso dell’intelligenza artificiale, ma è finalizzato a sanzionare una società che tramite la più evoluta app di AI sta – nella migliore delle ipotesi – aggirando la normativa in matria di trattamento dei dati personali.
Chiarito questo, fermo restando che tutte le opinioni brevemente riportate sopra hanno una seria base per essere sostenute, si può andare oltre spiegando per quali ragioni chi scrive – tanto per cambiare – non è d’accordo con nessuna di queste tesi.
Pizzetti, ChatGpt: senza diritti siamo nudi davanti all’intelligenza artificiale
Perché è giusto arginare la cieca avanzata dell’AI
ChatGPT è un servizio a pagamento, con potenzialità di penetrazione iperpervasiva nei dati degli utenti che la utilizzano.
Dopo aver gridato allo scandalo per l’impiego del coockie paywall, ormai adottato da quasi tutte le testate giornalistiche per monetizzare i contenuti messi in rete, anche gli utenti più sprovveduti dovrebbero aver compreso che i dati personali hanno un valore economico.
Questo valore è tutelato dall’articolo 8 della Carta di Nizza: ognuno ha una serie di diritti collegati al trattamento dei propri dati personali.
Se oggi voglio leggere un articolo e presto il consenso – dando per dato che avrò letto l’informativa, e che la stessa sia adeguata -, domani potrò sempre richiedere che i miei dati vengano rimossi dalla cache esercitando i diritti sanciti dal Regolamento UE 16/679 (GDPR), attuativo dell’articolo 8 della carta di Nizza.
Se domani un concorrente di OpenAI immettesse sul mercato un software più potente e user friendly a minor costo, a condizioni date potrei esercitare il diritto alla portabilità dei miei dati da un’intelligenza artificiale ad un’altra.
Ma se nessuna delle regole di compliance viene rispettata, l’utente vede leso un fascio di diritti economicamente valutabili senza una ragione giuridicamente plausibile.
Che poi OpenAI impieghi i dati – ma è più corretto dire “le conversazioni” – degli utenti per addestrare la propria AI è un effetto collaterale economicamente favorevole per OpenAI derivante proprio dall’utilizzo della app.
I problemi sulle conversazioni sono altri: come vengono conservate? Dove? Che utilizzo può farne OpenAI una volta che le conserva? Che interesse ha l’utente a che le sue conversazioni con la AI vengano conservate ed eventualmente esportate altrove un domani?
Non si può lasciare un valore così importante come ai dati, generati da noi e su di noi, alla mercé di uno sfruttamento pro-profit. Senza quelle tutele, previste da anni dall’ordinamento, tese a riequilibrare i rapporti di forza.
I dati sono un valore per noi e per l’Europa, non possono essere sfruttati come merce pura
Che i dati siano un valore è ormai evidente; che possano anche essere merce è discusso, ma pare vada escluso.
Sono un po’ come il lavoro di ciascuno di noi: è economicamente valutabile, è disponibile, ma ci sono delle tutele inderogabili a presidio della dignità e dell’integrità di ognuno.
- Il provvedimento del Garante tutela questi diritti e si pone a presidio di un ampio fascio di interessi di cittadini e consumatori. E non solo.
- Sono qui tutelati e da tutelare anche i diritti economici anche di aziende europee, per le quali i dati (europei) sono un valore che non può essere sfruttato senza condizioni da azienda extra europee.
Non è un concetto che ci siamo inventati noi: da anni la Commissione Europea parla in modo sempre più circostanziato di sovranità sul dato come condizione di sviluppo economico europeo. C’è una European Data Strategy. Da qui tutte le norme e gli act dal 2016 a oggi, dal Gdpr fino ai Digital Services act e Data act.
Lato OpenAI, tutto questo però si traduce in costi di produzione: server in Europa come TikTok e compliance trasparente.
A differenza di Bytedance, tuttavia, OpenAi dovrebbe sentire meno il costo dell’adeguamento, data la presenza di Microsoft in Europa da anni.
Sul perché non abbia impostato prima una compliance conforme alle regole europee, nulla si può dire; sul data breach del 20 marzo 2023 ogni commento è superfluo.
Resta un punto: per quanto inconsapevole sia il cittadino riguardo ai propri diritti, ci sono organismi deputati a tutelarli: l’Autorità garante per il trattamento dei dati personali è tra questi e nel caso di specie ha operato per il meglio.