protezione dati

Intelligenza artificiale per i diritti dei consumatori e tutela privacy: il sistema Claudette

Per favorire gli usi socialmente utili dell’intelligenza artificiale, e prevenirne i rischi, è importante affiancare alla predisposizione di un’adeguata cornice normativa, etica a giuridica, lo sviluppo di nuove tecnologie, da mettere a disposizione della società civile. Va in questo senso il sistema Claudette: ecco cos’è

29 Gen 2021
Francesca Lagioia

Professoressa a contratto Dipartimento di Scienze Giuridiche, Università di Bologna

Giovanni Sartor

Professore ordinario. Dipartimento di Scienze Giuridiche, Università di Bologna

intelligenza artificiale: Foto di Gerd Altmann da Pixabay

L’uso dei Big Data e delle tecnologie dell’intelligenza artificiale da parte delle grandi imprese private che operano su Internet comporta numerosi rischi per i consumatori, per il diritto della concorrenza e la tutela della privacy.

Numerose e in diversi Paesi le iniziative delle Autorità preposte volte a limitare gli effetti dannosi delle pratiche dei big web per gli individui e la società, così come numerose sono le iniziative adottate volte a prospettare un nuovo quadro etico e normativo dell’IA.

Un esempio in questa direzione è il sistema Claudette «CLAUseDETecTEr», sviluppato nell’ambito di un progetto di ricerca presso l’Istituto Universitario Europeo di Firenze. Claudette mostra come l’intelligenza artificiale possa giocare un ruolo chiave nell’ aiutare la società civile a vigilare sulle pratiche adottate nel mercato, monitorandone la conformità alle leggi, aumentando l’efficienza delle attività di organismi e autorità di controllo, e responsabilizzando al tempo stesso cittadini e consumatori.

Intelligenza artificiale: opportunità e rischi per individui e società

È innegabile, infatti, come le grandi opportunità per lo sviluppo economico, sociale e culturale, la sostenibilità energetica, la salute e la diffusione della conoscenza offerte dall’intelligenza artificiale siano accompagnate  da gravi rischi – tra cui sorveglianza, diseguaglianza, discriminazione, ed esclusione sociale – capaci di compromettere importanti interessi individuali e collettivi.

Digital event
Torna il Cybersecurity 360 Summit strategia nazionale di cybersicurezza. Online, 27 ottobre
Sicurezza
Sicurezza dei dati

In primo luogo, l’interesse alla protezione dei dati, cioè all’uso legittimo e proporzionato dei dati personali. Ciò è difficilmente compatibile con un ambiente online nel quale ogni comportamento è registrato, e le relative informazioni sono utilizzate per estrarre e successivamente elaborare ulteriori conoscenze sugli individui, in modi potenzialmente contrari ai loro interessi.

Il trattamento di dati personali attraverso sistemi di intelligenza artificiale può anche compromettere l’interesse a un trattamento algoritmico equo e corretto, ovvero l’interesse a non essere soggetti a pregiudizi ingiustificati in seguito a elaborazioni automatiche. Attori motivati dal profitto possano approfittare del potere dell’intelligenza artificiale per perseguire interessi economici che, seppure legittimi, possono rivelarsi dannosi per gli individui e la società.

Le imprese commerciali, combinando intelligenza artificiale e dati, possono sottoporre utenti, consumatori e, più in generale, i cittadini ad una sorveglianza pervasiva, limitare le informazioni e le opportunità cui gli stessi hanno accesso, e manipolarne le scelte in direzioni contrastanti con i loro interessi, violando le aspettative fiduciarie riposte in chi controlla i sistemi di IA in questione.[1]

Gli abusi sono incentivati dal fatto che molte imprese di Internet – come per esempio le maggiori piattaforme che ospitano contenuti generati dagli utenti – operano in mercati a due o più lati: i loro servizi principali (ad esempio ricerca, gestione di reti sociali, accesso a contenuti, ecc.) vengono offerti a singoli utenti, ma i ricavi provengono dagli inserzionisti, o da chi sia comunque interessato a influenzare gli utenti. Pertanto, le piattaforme non si limitano a raccogliere le informazioni sugli utenti, per esempio per meglio indirizzare pubblicità personalizzate, ma usano ogni mezzo disponibile per trattenere gli utenti stessi, così da esporli a messaggi pubblicitari o ad altri tentativi di persuasione. Ciò conduce ad una massiva raccolta di dati sugli individui, a danno della privacy, ma anche ad una influenza pervasiva sul loro comportamento, a danno non solo dell’autonomia dei singoli ma anche di interessi collettivi.

Per esempio, le scelte dei consumatori possono essere guidate da piattaforme digitali che rendono certe scelte meno accessibili o dirigono le capacità cognitive dei consumatori verso risultati di cui gli stessi potrebbero pentirsi o verso scelte che non avrebbero adottato se fossero stati meglio informati. I consumatori si trovano infatti in una posizione di debolezza di fronte a persuasori automatici che hanno accesso ad enormi quantità di conoscenza, capaci di dispiegare un illimitato potere computazionale, e conformare il contesto delle azioni e delle informazioni disponibili.

Inoltre, i consumatori hanno un interesse ad una corretta concorrenza algoritmica, vale a dire, a non essere soggetti ad abusi nello sfruttamento di posizioni dominanti sul mercato che risultano dal controllo esclusivo di grandi masse di dati e di tecnologie avanzate. Questi squilibri riguardano direttamente le imprese concorrenti,[2] ma influiscono negativamente anche sui consumatori: le imprese dominanti possono limitare le loro scelte o imporre condizioni sfavorevoli.

I casi WhatsApp e Facebook

Nel 2016, l’Autorità garante della concorrenza e del mercato (AGCM) avviò due istruttorie nei confronti di WhatsApp Inc. La prima (PS10601) era volta ad accertare se e in che misura WhatsApp avesse indotto i propri utenti ad accettare le modifiche apportate ai termini di utilizzo di WhatsApp Messenger e, in particolare, la condivisione con Facebook dei dati personali contenuti nell’account WhatsApp, a fini di profilazione e marketing. In caso di mancata accettazione, WhatsApp prospettava ai propri utenti l’immediata interruzione del servizio. La seconda istruttoria (CV154) era volta ad accertare l’eventuale carattere vessatorio di alcune clausole contenute nel contratto accettato dagli utenti, tra cui le seguenti:

  • esclusione o limitazione di responsabilità,
  • possibilità di interruzione unilaterale e senza preavviso del servizio,
  • possibilità di risoluzione e rescissione unilaterale del contratto (in assenza di un diritto analogo per i consumatori),
  • possibilità di modifica unilaterale dei Termini di utilizzo mediante silenzio assenso, e senza obbligo di adeguata notifica,
  • l’individuazione della legge dello Stato della California quale normativa applicabile al contratto, e la selezione di tribunali statunitensi quali unici fori competenti in caso di controversie,
  • la previsione di un diritto di recedere dagli ordini e di non fornire alcun rimborso agli utenti,
  • e infine la prevalenza della versione inglese del contratto in caso di conflitto con la versione tradotta, in luogo della prevalenza dell’interpretazione più favorevole ai consumatori.

In seguito alla prima istruttoria, l’AGCM irrogò un’importante sanzione pecuniaria nei confronti di WatsAapp Inc., ritenendo che la pratica commerciale consistente nell’indurre gli utenti ad accettare le modifiche apportate ai termini di utilizzo e la condivisione con Facebook dei loro dati personali, a fini di profilazione e marketing, fosse “specificatamente aggressiva”, poiché “mediante indebito condizionamento, idonea a limitare considerevolmente la libertà di scelta o di comportamento del consumatore medio, inducendolo, pertanto, ad assumere una decisione di natura commerciale che non avrebbe altrimenti preso”. Secondo l’AGCM, inoltre, “la circostanza che alla condotta [di WhatsApp] sia applicabile il Codice della privacy, non la esonera dal rispettare le norme in materia di pratiche commerciali scorrette, che rimangono applicabili con riferimento alle specifiche condotte poste in essere dal Professionista, finalizzate all’acquisizione del consenso alla condivisione dei dati personali”.

In seguito alla seconda istruttoria, l’Autorità rilevò invece il carattere vessatorio di numerose clausole contenute nel contratto accettato dagli utenti, comprese quelle sopra elencate.

Sempre nel 2016, dopo aver avviato un procedimento nei confronti di Facebook, l’autorità per la concorrenza tedesca (Bundeskartellamt) irrogò un’elevata sanzione alla società californiana, per aver abusato della propria posizione dominante nelle reti sociali, imponendo ai propri utenti di accettare la gestione unificata dei dati personali raccolti mediante diversi servizi controllati da Facebook stessa, come WhatsApp e Instagram.

Infine, nel 2018, l’Information Commissioner’s Office britannico inflisse una sanzione pecuniaria a Facebook per aver omesso di adottare adeguate misure di protezione dei dati e per mancanza di trasparenza rispetto al loro utilizzo da parte di terzi, violando così il Data Protection Act britannico, in connessione con lo scandalo di Cambridge Analytica.

L’intelligenza artificiale per l’esercizio di poteri compensativi

Una risposta puramente normativa a queste problematiche può rivelarsi insufficiente, poiché un uso unilaterale dell’intelligenza artificiale, da parte dei soli poteri economici e politici, accentua gli squilibri tra quei poteri e la società civile.

Non solo l’individuo isolato, ma anche le organizzazioni sociali, prive di analoghe risorse, si trovano in una crescente posizione di svantaggio, nella quale diventa difficile avvalersi delle tutele giuridiche astrattamente disponibili. Un possibile, seppur parziale, rimedio si può individuare stabilendo un parallelismo tra le dinamiche di potere sottese allo sviluppo dell’intelligenza artificiale e quelle relative alla società industriale e alla società dei consumi di massa. In entrambi i casi, un limite agli eccessi del mercato, cui faceva riferimento Polanyi[3], si trovò in movimenti sociali, quali quello dei lavoratori e dei consumatori. Come osservava il celebre economista Ken Galbraith, per assicurare un’adeguata protezione ai cittadini, non sono sufficienti gli strumenti normativi e la loro attuazione da parte di organi pubblici, ma è altresì necessario l’esercizio di contropoteri o poteri compensativi da parte della società civile[4]. I cittadini e le loro organizzazioni possono individuare abusi, informare il pubblico, promuovere l’applicazione delle norme, ed esercitare forme di pressione collettiva. Per essere efficace, tuttavia, un contropotere deve disporre di mezzi adeguati a quelli a diposizione del potere cui si oppone. Nell’era dell’intelligenza artificiale l’esercizio di un contropotere da parte società civile presuppone che questa sia in grado di avversi dell’intelligenza artificiale[5].

Tali tecnologie possono contribuire all’attuazione delle tutele giuridiche e favorire una cittadinanza attiva, quale essenziale valore democratico. Alcuni esempi di tecnologie che conferiscono potere agli individui sono già presenti, come i sistemi per il blocco della pubblicità o i più tradizionali software antispam, e antifrode.

A tutela dei consumatori, si stanno sviluppando nuovi sistemi per riassumere e combinare recensioni, comparare i prezzi, e consentire ai consumatori stessi di coordinare le proprie azioni. Tali strumenti potrebbero contribuire a nuovi mercati nei quali i consumatori si avvalgano di agenti digitali per negoziare, formare coalizioni, e effettuare scelte di acquisto comuni. Anche i metodi per l’estrazione e l’analisi dei dati possono essere utili alla società civile, ad esempio, per identificare pratiche discriminatorie, in settori quali la concessione del credito, l’assunzione al lavoro, la concessione di benefici sociali[6]. L’apprendimento automatico e le tecnologie per l’elaborazione del linguaggio naturale possono essere altresì utilizzati per identificare casi in cui vengano raccolti dati inutili o eccessivi[7]. Infine, tali tecnologie possono essere usate per l’analisi e la validazione del contenuto di documenti testuali. In particolare, esse possono essere impiegate per individuare contenuti illeciti o omissioni di contenuti obbligatori, per esempio all’interno di contratti conclusi con i consumatori e informative privacy

Il sistema Claudette

Claudette ha come obiettivo l’applicazione di metodi di apprendimento automatico (machine learning) per l’analisi giuridica di contratti online e informative privacy, al fine di identificare e classificare le clausole (potenzialmente) abusive e illegali, contenute in tali documenti[8]. La nascita di Claudette è stata motivata dalla constatazione della divergenza tra le discipline normative, da un lato, e le pratiche commerciali, dall’altro lato, e della necessità di elaborare nuove forme di tutela giuridica, anche grazie all’uso consapevole delle tecnologie più avanzate. Esiste infatti un ampio corpus di norme europee e nazionali in materia di protezione dei consumatori e tutela dei dati personali, e vi sono autorità pubbliche preposte al controllo e all’applicazione della legge, cui si uniscono gli organismi associativi e le iniziative della società civile. Tuttavia, i contratti delle piattaforme online spesso contengono clausole non conformi alla normativa europea sulle clausole abusive nei contratti stipulati con i consumatori[9]. Allo stesso modo, le informative privacy spesso non rispettano i requisiti in materia di informazione e corretto trattamento dei dati stabiliti dal regolamento privacy (GDPR) e delle altre norme in materia. Tale situazione è certamente determinata da molteplici cause, tra cui certamente la moltiplicazione di servizi, e dunque di documenti potenzialmente da controllare, a cui abbiamo assistito nell’ultimo decennio. A ciò si aggiunga che i consumatori raramente leggono i contratti cui viene chiesto loro di aderire[10] e le informative privacy dei servizi che utilizzano. Anche quando lo fanno, spesso, non sono in grado di comprenderne a pieno il significato, negoziarne le clausole e influenzarne il contenuto.

L’analisi dei Termini di Servizio

Claudette è un sistema basato su tecniche di apprendimento automatico, e in particolare sull’apprendimento supervisionato (supervised learning): per imparare a riconoscere una clausola abusiva, è necessario fornire al sistema esempi di clausole giuridicamente lecite e di clausole abusive o inique. Un corpus giuridico, costituito da 100 termini di servizio dei più importanti operatori online (inclusi ad esempio Amazon, eBay, Dropbox, Facebook, Google, Microsoft, Netflix, Spotify, Twitter, Yahoo, YouTube, ecc.), è stato marcato (racchiuso tra etichette che ne denotano la classificazione) da giuristi esperti, e successivamente utilizzato come base di dati per l’addestramento del sistema. Sulla base della Direttiva 93/13/CEE concernente le clausole abusive nei contratti stipulati con i consumatori, sono state identificate 8 categorie di clausole (potenzialmente) abusive. Per ogni categoria è stata definita un’etichetta corrispondente: giurisdizione (<j>), legge applicabile (<law>), limitazione della responsabilità (<ltd>), modifiche unilaterali (<ch>), risoluzione uni- laterale (<ter>), arbitrato (<a>), consenso implicito (<use>), rimozione di contenuti (<cr>).

Le clausole relative a ciascuna categoria sono state distinte in tre diverse classi a seconda della loro qualità giuridica:

  • chiaramente legittime;
  • potenzialmente abusive;
  • chiaramente abusive.

Per ciascuna delle otto categorie di clausole sopra elencate, sono stati definiti criteri per determinare se esse siano legittime, potenzialmente abusive, o chiaramente abusive. Per esempio, le clausole sulla giurisdizione sono state ritenute chiaramente legittime quando garantiscono ai consumatori il diritto di agire in giudizio nel luogo in cui sono residenti. Al contrario, le clausole che stabiliscono la giurisdizione in un luogo diverso dalla residenza del consumatore sono state considerate chiaramente abusive.

Il corpus analizzato, costituito da cento contratti per la fornitura di beni o servizi online, contiene complessivamente 21,063 frasi, di cui l’11.1% (2,346 frasi) sono state marcate come contenenti clausole (potenzialmente) abusive. Le clausole marcate contenute nell’insieme di addestramento indicano al sistema come a certe forme testuali corrispondano certe classificazioni giuridiche, cioè la determinazione della categoria cui appartiene la clausola e la valutazione della sua abusività. Gli algoritmi per l’addestramento «insegnano» al sistema a effettuare determinazioni e valutazioni analoghe a quelle specificate nell’insieme di addestramento: tali algoritmi forniscono al sistema criteri e meccanismi per la classificazione delle clausole. Riguardo alle prestazioni del sistema, gli esperimenti condotti mostrano che Claudette è in grado di identificare un valore medio pari all’80% delle clausole (potenzialmente) abusive.

Un prototipo del sistema è disponibile e liberamente utilizzabile al seguente indirizzo: http://claudette.eui.eu/demo/. L’utente ha la possibilità di inserire un qualsiasi contratto online (in inglese), sottoponendolo all’esame di Claudette. Il sistema include anche un modulo che segnala in modo automatico i cambiamenti nei più importanti contratti online.

Uno sviluppo recente del sistema Claudette, che va nella direzione della spiegabilità dell’intelligenza artificiale, riguarda l’uso di motivazioni giuridiche, vale a dire dell’indicazione delle ragioni per le quali una clausola può essere abusiva[11]. Tali motivazioni sono state elaborate mediante reti di memoria (Memory Network), al fine di potenziare le prestazioni del sistema e garantire un maggiore livello di trasparenza.

Le informative privacy come nuovo ambito applicativo

Un ulteriore ambito di applicazione di CLAUDETTE riguarda l’analisi delle informative privacy, che i titolari del trattamento hanno l’obbligo di fornire agli interessati, in base alle norme del Regolamento generale sulla protezione dei dati personali (GDPR). Per poter valutare la correttezza giuridica delle informative privacy è stato definito uno «standard aureo», articolato lungo tre dimensioni:

  • completezza delle informazioni;
  • conformità sostanziale, e
  • chiarezza espressiva.

Per ciascuna dimensione sono stati distinti due possibili gradi di raggiungimento dello standard:

  • un livello ottimale, nei casi in cui l’informativa soddisfi pienamente i requisiti definiti dal GDPR;
  • un livello subottimale, nei casi in cui l’informativa non soddisfi pienamente tali requisiti.

In particolare, con riferimento alla prima dimensione, ovvero la completezza, l’informativa deve contenere tutte le informazioni richieste dagli articoli 13 e 14 del GDPR come, per esempio, l’identità e i dati di contatto del titolare del trattamento e, ove applicabile, del suo rappresentante; le finalità del trattamento cui sono destinati i dati personali; la base giuridica del trattamento; e le categorie di dati raccolti. Per ogni tipo di informazione richiesta, le clausole corrispondenti sono state classificate come

  • pienamente informative quando tutte le informazioni richieste sono presenti e ben specificate;
  • come insufficientemente informative quando le suddette informazioni sono presenti solo in modo parziale e non pienamente specificate.[12]

Ogni clausola che fornisca tali informazioni è stata contrassegnata con etichette (similmente a quanto fatto per i termini di servizio), che indicano il tipo di informazione fornita e la qualità di tale informazione.

Con riferimento alla seconda dimensione, ovvero la conformità sostanziale, il trattamento dei dati deve essere conforme alle norme e ai principi dettati dal GDPR. Le pratiche commerciali correnti, come evidenziato nel caso relativo a WhatsApp, spesso non rispettano le norme sulla protezione dei dati personali, e in particolare del GDPR. Con riferimento alla conformità sostanziale sono state identificate differenti categorie di clausole, quali ad esempio quelle relative al consenso mediante utilizzo o silenzio-assenso; all’approccio prendere o lasciare, che subordinano l’uso di un servizio al trattamento di dati personali non necessari alla fornitura di quel servizio; trasferimento di dati a parti terze o verso paesi terzi, non appartenenti all’Unione Europea; e pratiche pubblicitarie.

Le clausole relative a ciascuna delle categorie identificate lungo questa dimensione sono state classificate come:

  • legittime se pienamente conformi al dettato normativo;
  • problematiche quando la loro conformità sia dubbia;
  • abusive quando chiaramente difformi.

Lo standard aureo è stato utilizzato per l’analisi e la marcatura delle informative privacy di piattaforme e servizi online, contenute nell’insieme di addestramento del sistema e selezionate sulla base del numero di utenti e in modo da coprire diverse aree di mercato. È opportuno evidenziare come nessuna delle informative analizzate raggiunga il livello ottimale rappresentato dallo standard aureo, con riferimento a ciascuna delle tre dimensioni considerate. Il risultato di tale analisi è disponibile al seguente indirizzo: www.claudette.eu/gdpr/.

Il sistema è stato addestrato nella valutazione delle informative privacy seguendo il modello già impiegato per i contratti online. Anche per le informative privacy si sono sperimentate diverse tecniche per l’apprendimento supervisionato.

I risultati ottenuti con i primi esperimenti sono incoraggianti, pur non raggiungendo i livelli di prestazione ottenuti nell’analisi dei contratti per la fornitura di beni o servizi online. Da un lato, ciò è dovuto al fatto che tali esperimenti hanno riguardato un insieme di addestramento limitato (32 informative privacy). Dall’altro lato, l’analisi automatica delle informative presenta alcune difficoltà aggiuntive rispetto all’analisi dei contratti online.

In primo luogo, è difficile valutare l’adeguatezza dell’informazione fornita considerando singole frasi, poiché spesso un contenuto informativo (es. le condizioni o gli scopi del trattamento) può essere veicolato attraverso più frasi anche non contigue.

In secondo luogo, le informative privacy hanno un contenuto meno standardizzato rispetto ai contratti per i servizi online, data la varietà dei possibili processi di elaborazione delle informazioni personali e dei modi in cui quei processi possono essere decritti.

In terzo luogo, i difetti delle informative privacy non riguardano solo la presenza di contenuti illegittimi, ma anche l’assenza o l’insufficiente specificazione di contenuti obbligatori (ad esempio l’indicazione dell’identità del titolare o dei tipi di informazione trattati). Le tecniche per la classificazione automatica dei documenti finora adottate nel progetto sono finalizzate alla classificazione dei soli contenuti presenti nei documenti.

Per realizzare una compiuta analisi automatica delle informative privacy, sarà necessario quindi sperimentare nuove tecniche, soprattutto quelle per l’identificazione di informazioni mancanti o insufficienti. Tali tecniche potranno risultare utili anche nell’ambito della tutela dei consumatori, in particolare per verificare il rispetto delle norme che stabiliscono obblighi di informazione.

Conclusioni

Per favorire gli usi socialmente utili dell’intelligenza artificiale, e prevenirne i rischi, è importante affiancare alla predisposizione di un’adeguata cornice normativa, etica a giuridica, lo sviluppo di nuove tecnologie, da mettere a disposizione della società civile. La stessa intelligenza artificiale, quindi, può contribuire all’efficacia dei poteri compensativi degli individui e delle loro organizzazioni. Essa può così ridurre gli squilibri di conoscenza e potere – per altro verso accentuati dall’intelligenza artificiale – che caratterizzano i rapporti tra cittadini e poteri economici e politici.

In particolare, il sistema Claudette, applicando metodi di apprendimento automatico per l’individuazione delle clausole abusive nei contratti e nelle informative privacy, può facilitare il controllo sulle stesse da parte dei consumatori, delle loro organizzazioni e delle autorità competenti.

Claudette, richiamando l’attenzione dei consumatori sui contenuti abusivi, da un lato consente scelte più consapevoli, agevola la contestazione delle pratiche abusive, e facilita l’attuazione individuale e collettiva del diritto, dall’altro è potenzialmente in grado di ridurre le pratiche sleali e illegali all’interno del mercato, e di favorire lo sviluppo di modelli di business giuridicamente leciti e più etici. Sebbene lo squilibrio di potere tra consumatori e imprese non verrà del tutto eliminato, l’uso dell’intelligenza artificiale per supportare l’esercizio effettivo di diritti da parte di consumatori e cittadini è sicuramente vantaggioso per i singoli e le loro organizzazioni e può contribuire, al tempo stesso, al migliore funzionamento dei mercati digitali.

_______________________________________________________________________________________

Note e bibliografia

  1. Balkin, J.M. (2017). The three laws of robotics in the age of big data, «Ohio State Journal Law Journal», 78, 5, 1217-1241.
  2. Calvano, E., Calzolari, G., Denicolò, V., Pastorello, S. (2018). Artificial intelligence, algorithmic pricing and collusion, CEPR Discussion paper 13405.
  3. Polanyi, M. (2009 [1966]). The tacit dimension, Chicago, University of Chicago Press.
  4. Galbraith, J.K. (1956 [1952]). American Capitalism: The Concept of Countervailing
  5. Lippi, M,, Contissa, G., Lagioia, F., Micklitz, H.W., Pałka, P., Sartor, G., Torroni, P., (2019), Consumer protection requires artificial intelligence. «Nature Machine Intelligence», 1(4), 168-9.
  6. Ruggeri, S., Pedreschi, D., Turini, F. (2010). Integrating induction and deduction for finding evidence of discrimination, «Artificial Intelligence and Law», 18, 1-43.
  7. Bodó, B., Helberger, N., Irion, K., Zuiderveen Borgesius, F., Moller, J., van de Velde, B., Bol, N., van Es, B., de Vreese, C. (2017). Tackling the algorithmic control crisis-the technical, legal, and ethical challenges of research into algorithmic agents, «Yale JL & Tech.», 19, 133-180.
  8. Lippi, M., P. Palka, G. Contissa, F. Lagioia, H.-W. Micklitz, Y. Panagis, G. Sartor, and P. Torroni (2019). Claudette: an automated detector of potentially unfair clauses in online terms of service, «Artificial Intelligence and Law», 27, 117-139; Contissa, G., Docter, K., Lagioia, F., Lippi, M., Micklitz, H.W., Pałka, P., Sartor, G. and Torroni, P., (2018) CLAUDETTE meets GDPR: Automating the Evaluation of Privacy Policies using Artificial Intelligence. Study Report for the European Consumer Organisation (BEUC).
  9. Direttiva 93/13/CEE concernente le clausole abusive nei contratti stipulati con i consumatori.
  10. Obar, J.A., Oeldorf-Hirsch, A. (2018). The biggest lie on the internet: Ignoring the privacy policies and terms of service policies of social networking services, «Information, Communication & Society», 1-20.
  11. Lagioia, F., Ruggeri, F., Drazewski, K., Lippi, M., Micklitz, H.-W., Sartor, G., Torroni, P. (2019). Deep learning for detecting and explaining unfairness in consumer contracts, «Jurix-2019», Amsterdam, IOS Press.
  12. Contissa, G., Docter, K., Lagioia, F., Lippi, M., Micklitz, H.-W., Palka, P., Sartor, G., Torroni, P. (2018a). Automated processing of privacy policies under the EU general data protection regulation. «Jurix-2018», Amsterdam, IOS, 51-60
WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Legal
Privacy
@RIPRODUZIONE RISERVATA

Speciale PNRR

Tutti
Analisi
PA
Salute digitale
News
Fondi
Formazione
Ecologia
Digital Economy
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Incentivi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Incentivi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articolo 1 di 2