Intelligenza artificiale per i diritti dei consumatori e tutela privacy: il sistema Claudette | Agenda Digitale

protezione dati

Intelligenza artificiale per i diritti dei consumatori e tutela privacy: il sistema Claudette

Per favorire gli usi socialmente utili dell’intelligenza artificiale, e prevenirne i rischi, è importante affiancare alla predisposizione di un’adeguata cornice normativa, etica a giuridica, lo sviluppo di nuove tecnologie, da mettere a disposizione della società civile. Va in questo senso il sistema Claudette: ecco cos’è

29 Gen 2021
Francesca Lagioia

Professoressa a contratto Dipartimento di Scienze Giuridiche, Università di Bologna

Giovanni Sartor

Professore ordinario. Dipartimento di Scienze Giuridiche, Università di Bologna

Foto di Gerd Altmann da Pixabay

L’uso dei Big Data e delle tecnologie dell’intelligenza artificiale da parte delle grandi imprese private che operano su Internet comporta numerosi rischi per i consumatori, per il diritto della concorrenza e la tutela della privacy.

Numerose e in diversi Paesi le iniziative delle Autorità preposte volte a limitare gli effetti dannosi delle pratiche dei big web per gli individui e la società, così come numerose sono le iniziative adottate volte a prospettare un nuovo quadro etico e normativo dell’IA.

Un esempio in questa direzione è il sistema Claudette «CLAUseDETecTEr», sviluppato nell’ambito di un progetto di ricerca presso l’Istituto Universitario Europeo di Firenze. Claudette mostra come l’intelligenza artificiale possa giocare un ruolo chiave nell’ aiutare la società civile a vigilare sulle pratiche adottate nel mercato, monitorandone la conformità alle leggi, aumentando l’efficienza delle attività di organismi e autorità di controllo, e responsabilizzando al tempo stesso cittadini e consumatori.

Intelligenza artificiale: opportunità e rischi per individui e società

È innegabile, infatti, come le grandi opportunità per lo sviluppo economico, sociale e culturale, la sostenibilità energetica, la salute e la diffusione della conoscenza offerte dall’intelligenza artificiale siano accompagnate  da gravi rischi – tra cui sorveglianza, diseguaglianza, discriminazione, ed esclusione sociale – capaci di compromettere importanti interessi individuali e collettivi.

WHITEPAPER
Come si raggiunge una completa sicurezza dell’Internet of Things?
IoT
Sicurezza

In primo luogo, l’interesse alla protezione dei dati, cioè all’uso legittimo e proporzionato dei dati personali. Ciò è difficilmente compatibile con un ambiente online nel quale ogni comportamento è registrato, e le relative informazioni sono utilizzate per estrarre e successivamente elaborare ulteriori conoscenze sugli individui, in modi potenzialmente contrari ai loro interessi.

Il trattamento di dati personali attraverso sistemi di intelligenza artificiale può anche compromettere l’interesse a un trattamento algoritmico equo e corretto, ovvero l’interesse a non essere soggetti a pregiudizi ingiustificati in seguito a elaborazioni automatiche. Attori motivati dal profitto possano approfittare del potere dell’intelligenza artificiale per perseguire interessi economici che, seppure legittimi, possono rivelarsi dannosi per gli individui e la società.

Le imprese commerciali, combinando intelligenza artificiale e dati, possono sottoporre utenti, consumatori e, più in generale, i cittadini ad una sorveglianza pervasiva, limitare le informazioni e le opportunità cui gli stessi hanno accesso, e manipolarne le scelte in direzioni contrastanti con i loro interessi, violando le aspettative fiduciarie riposte in chi controlla i sistemi di IA in questione.[1]

Gli abusi sono incentivati dal fatto che molte imprese di Internet – come per esempio le maggiori piattaforme che ospitano contenuti generati dagli utenti – operano in mercati a due o più lati: i loro servizi principali (ad esempio ricerca, gestione di reti sociali, accesso a contenuti, ecc.) vengono offerti a singoli utenti, ma i ricavi provengono dagli inserzionisti, o da chi sia comunque interessato a influenzare gli utenti. Pertanto, le piattaforme non si limitano a raccogliere le informazioni sugli utenti, per esempio per meglio indirizzare pubblicità personalizzate, ma usano ogni mezzo disponibile per trattenere gli utenti stessi, così da esporli a messaggi pubblicitari o ad altri tentativi di persuasione. Ciò conduce ad una massiva raccolta di dati sugli individui, a danno della privacy, ma anche ad una influenza pervasiva sul loro comportamento, a danno non solo dell’autonomia dei singoli ma anche di interessi collettivi.

Per esempio, le scelte dei consumatori possono essere guidate da piattaforme digitali che rendono certe scelte meno accessibili o dirigono le capacità cognitive dei consumatori verso risultati di cui gli stessi potrebbero pentirsi o verso scelte che non avrebbero adottato se fossero stati meglio informati. I consumatori si trovano infatti in una posizione di debolezza di fronte a persuasori automatici che hanno accesso ad enormi quantità di conoscenza, capaci di dispiegare un illimitato potere computazionale, e conformare il contesto delle azioni e delle informazioni disponibili.

Inoltre, i consumatori hanno un interesse ad una corretta concorrenza algoritmica, vale a dire, a non essere soggetti ad abusi nello sfruttamento di posizioni dominanti sul mercato che risultano dal controllo esclusivo di grandi masse di dati e di tecnologie avanzate. Questi squilibri riguardano direttamente le imprese concorrenti,[2] ma influiscono negativamente anche sui consumatori: le imprese dominanti possono limitare le loro scelte o imporre condizioni sfavorevoli.

I casi WhatsApp e Facebook

Nel 2016, l’Autorità garante della concorrenza e del mercato (AGCM) avviò due istruttorie nei confronti di WhatsApp Inc. La prima (PS10601) era volta ad accertare se e in che misura WhatsApp avesse indotto i propri utenti ad accettare le modifiche apportate ai termini di utilizzo di WhatsApp Messenger e, in particolare, la condivisione con Facebook dei dati personali contenuti nell’account WhatsApp, a fini di profilazione e marketing. In caso di mancata accettazione, WhatsApp prospettava ai propri utenti l’immediata interruzione del servizio. La seconda istruttoria (CV154) era volta ad accertare l’eventuale carattere vessatorio di alcune clausole contenute nel contratto accettato dagli utenti, tra cui le seguenti:

  • esclusione o limitazione di responsabilità,
  • possibilità di interruzione unilaterale e senza preavviso del servizio,
  • possibilità di risoluzione e rescissione unilaterale del contratto (in assenza di un diritto analogo per i consumatori),
  • possibilità di modifica unilaterale dei Termini di utilizzo mediante silenzio assenso, e senza obbligo di adeguata notifica,
  • l’individuazione della legge dello Stato della California quale normativa applicabile al contratto, e la selezione di tribunali statunitensi quali unici fori competenti in caso di controversie,
  • la previsione di un diritto di recedere dagli ordini e di non fornire alcun rimborso agli utenti,
  • e infine la prevalenza della versione inglese del contratto in caso di conflitto con la versione tradotta, in luogo della prevalenza dell’interpretazione più favorevole ai consumatori.

In seguito alla prima istruttoria, l’AGCM irrogò un’importante sanzione pecuniaria nei confronti di WatsAapp Inc., ritenendo che la pratica commerciale consistente nell’indurre gli utenti ad accettare le modifiche apportate ai termini di utilizzo e la condivisione con Facebook dei loro dati personali, a fini di profilazione e marketing, fosse “specificatamente aggressiva”, poiché “mediante indebito condizionamento, idonea a limitare considerevolmente la libertà di scelta o di comportamento del consumatore medio, inducendolo, pertanto, ad assumere una decisione di natura commerciale che non avrebbe altrimenti preso”. Secondo l’AGCM, inoltre, “la circostanza che alla condotta [di WhatsApp] sia applicabile il Codice della privacy, non la esonera dal rispettare le norme in materia di pratiche commerciali scorrette, che rimangono applicabili con riferimento alle specifiche condotte poste in essere dal Professionista, finalizzate all’acquisizione del consenso alla condivisione dei dati personali”.

In seguito alla seconda istruttoria, l’Autorità rilevò invece il carattere vessatorio di numerose clausole contenute nel contratto accettato dagli utenti, comprese quelle sopra elencate.

Sempre nel 2016, dopo aver avviato un procedimento nei confronti di Facebook, l’autorità per la concorrenza tedesca (Bundeskartellamt) irrogò un’elevata sanzione alla società californiana, per aver abusato della propria posizione dominante nelle reti sociali, imponendo ai propri utenti di accettare la gestione unificata dei dati personali raccolti mediante diversi servizi controllati da Facebook stessa, come WhatsApp e Instagram.

Infine, nel 2018, l’Information Commissioner’s Office britannico inflisse una sanzione pecuniaria a Facebook per aver omesso di adottare adeguate misure di protezione dei dati e per mancanza di trasparenza rispetto al loro utilizzo da parte di terzi, violando così il Data Protection Act britannico, in connessione con lo scandalo di Cambridge Analytica.

L’intelligenza artificiale per l’esercizio di poteri compensativi

Una risposta puramente normativa a queste problematiche può rivelarsi insufficiente, poiché un uso unilaterale dell’intelligenza artificiale, da parte dei soli poteri economici e politici, accentua gli squilibri tra quei poteri e la società civile.

Non solo l’individuo isolato, ma anche le organizzazioni sociali, prive di analoghe risorse, si trovano in una crescente posizione di svantaggio, nella quale diventa difficile avvalersi delle tutele giuridiche astrattamente disponibili. Un possibile, seppur parziale, rimedio si può individuare stabilendo un parallelismo tra le dinamiche di potere sottese allo sviluppo dell’intelligenza artificiale e quelle relative alla società industriale e alla società dei consumi di massa. In entrambi i casi, un limite agli eccessi del mercato, cui faceva riferimento Polanyi[3], si trovò in movimenti sociali, quali quello dei lavoratori e dei consumatori. Come osservava il celebre economista Ken Galbraith, per assicurare un’adeguata protezione ai cittadini, non sono sufficienti gli strumenti normativi e la loro attuazione da parte di organi pubblici, ma è altresì necessario l’esercizio di contropoteri o poteri compensativi da parte della società civile[4]. I cittadini e le loro organizzazioni possono individuare abusi, informare il pubblico, promuovere l’applicazione delle norme, ed esercitare forme di pressione collettiva. Per essere efficace, tuttavia, un contropotere deve disporre di mezzi adeguati a quelli a diposizione del potere cui si oppone. Nell’era dell’intelligenza artificiale l’esercizio di un contropotere da parte società civile presuppone che questa sia in grado di avversi dell’intelligenza artificiale[5].

Tali tecnologie possono contribuire all’attuazione delle tutele giuridiche e favorire una cittadinanza attiva, quale essenziale valore democratico. Alcuni esempi di tecnologie che conferiscono potere agli individui sono già presenti, come i sistemi per il blocco della pubblicità o i più tradizionali software antispam, e antifrode.

A tutela dei consumatori, si stanno sviluppando nuovi sistemi per riassumere e combinare recensioni, comparare i prezzi, e consentire ai consumatori stessi di coordinare le proprie azioni. Tali strumenti potrebbero contribuire a nuovi mercati nei quali i consumatori si avvalgano di agenti digitali per negoziare, formare coalizioni, e effettuare scelte di acquisto comuni. Anche i metodi per l’estrazione e l’analisi dei dati possono essere utili alla società civile, ad esempio, per identificare pratiche discriminatorie, in settori quali la concessione del credito, l’assunzione al lavoro, la concessione di benefici sociali[6]. L’apprendimento automatico e le tecnologie per l’elaborazione del linguaggio naturale possono essere altresì utilizzati per identificare casi in cui vengano raccolti dati inutili o eccessivi[7]. Infine, tali tecnologie possono essere usate per l’analisi e la validazione del contenuto di documenti testuali. In particolare, esse possono essere impiegate per individuare contenuti illeciti o omissioni di contenuti obbligatori, per esempio all’interno di contratti conclusi con i consumatori e informative privacy

Il sistema Claudette

Claudette ha come obiettivo l’applicazione di metodi di apprendimento automatico (machine learning) per l’analisi giuridica di contratti online e informative privacy, al fine di identificare e classificare le clausole (potenzialmente) abusive e illegali, contenute in tali documenti[8]. La nascita di Claudette è stata motivata dalla constatazione della divergenza tra le discipline normative, da un lato, e le pratiche commerciali, dall’altro lato, e della necessità di elaborare nuove forme di tutela giuridica, anche grazie all’uso consapevole delle tecnologie più avanzate. Esiste infatti un ampio corpus di norme europee e nazionali in materia di protezione dei consumatori e tutela dei dati personali, e vi sono autorità pubbliche preposte al controllo e all’applicazione della legge, cui si uniscono gli organismi associativi e le iniziative della società civile. Tuttavia, i contratti delle piattaforme online spesso contengono clausole non conformi alla normativa europea sulle clausole abusive nei contratti stipulati con i consumatori[9]. Allo stesso modo, le informative privacy spesso non rispettano i requisiti in materia di informazione e corretto trattamento dei dati stabiliti dal regolamento privacy (GDPR) e delle altre norme in materia. Tale situazione è certamente determinata da molteplici cause, tra cui certamente la moltiplicazione di servizi, e dunque di documenti potenzialmente da controllare, a cui abbiamo assistito nell’ultimo decennio. A ciò si aggiunga che i consumatori raramente leggono i contratti cui viene chiesto loro di aderire[10] e le informative privacy dei servizi che utilizzano. Anche quando lo fanno, spesso, non sono in grado di comprenderne a pieno il significato, negoziarne le clausole e influenzarne il contenuto.

L’analisi dei Termini di Servizio

Claudette è un sistema basato su tecniche di apprendimento automatico, e in particolare sull’apprendimento supervisionato (supervised learning): per imparare a riconoscere una clausola abusiva, è necessario fornire al sistema esempi di clausole giuridicamente lecite e di clausole abusive o inique. Un corpus giuridico, costituito da 100 termini di servizio dei più importanti operatori online (inclusi ad esempio Amazon, eBay, Dropbox, Facebook, Google, Microsoft, Netflix, Spotify, Twitter, Yahoo, YouTube, ecc.), è stato marcato (racchiuso tra etichette che ne denotano la classificazione) da giuristi esperti, e successivamente utilizzato come base di dati per l’addestramento del sistema. Sulla base della Direttiva 93/13/CEE concernente le clausole abusive nei contratti stipulati con i consumatori, sono state identificate 8 categorie di clausole (potenzialmente) abusive. Per ogni categoria è stata definita un’etichetta corrispondente: giurisdizione (<j>), legge applicabile (<law>), limitazione della responsabilità (<ltd>), modifiche unilaterali (<ch>), risoluzione uni- laterale (<ter>), arbitrato (<a>), consenso implicito (<use>), rimozione di contenuti (<cr>).

Le clausole relative a ciascuna categoria sono state distinte in tre diverse classi a seconda della loro qualità giuridica:

  • chiaramente legittime;
  • potenzialmente abusive;
  • chiaramente abusive.

Per ciascuna delle otto categorie di clausole sopra elencate, sono stati definiti criteri per determinare se esse siano legittime, potenzialmente abusive, o chiaramente abusive. Per esempio, le clausole sulla giurisdizione sono state ritenute chiaramente legittime quando garantiscono ai consumatori il diritto di agire in giudizio nel luogo in cui sono residenti. Al contrario, le clausole che stabiliscono la giurisdizione in un luogo diverso dalla residenza del consumatore sono state considerate chiaramente abusive.

Il corpus analizzato, costituito da cento contratti per la fornitura di beni o servizi online, contiene complessivamente 21,063 frasi, di cui l’11.1% (2,346 frasi) sono state marcate come contenenti clausole (potenzialmente) abusive. Le clausole marcate contenute nell’insieme di addestramento indicano al sistema come a certe forme testuali corrispondano certe classificazioni giuridiche, cioè la determinazione della categoria cui appartiene la clausola e la valutazione della sua abusività. Gli algoritmi per l’addestramento «insegnano» al sistema a effettuare determinazioni e valutazioni analoghe a quelle specificate nell’insieme di addestramento: tali algoritmi forniscono al sistema criteri e meccanismi per la classificazione delle clausole. Riguardo alle prestazioni del sistema, gli esperimenti condotti mostrano che Claudette è in grado di identificare un valore medio pari all’80% delle clausole (potenzialmente) abusive.

Un prototipo del sistema è disponibile e liberamente utilizzabile al seguente indirizzo: http://claudette.eui.eu/demo/. L’utente ha la possibilità di inserire un qualsiasi contratto online (in inglese), sottoponendolo all’esame di Claudette. Il sistema include anche un modulo che segnala in modo automatico i cambiamenti nei più importanti contratti online.

Uno sviluppo recente del sistema Claudette, che va nella direzione della spiegabilità dell’intelligenza artificiale, riguarda l’uso di motivazioni giuridiche, vale a dire dell’indicazione delle ragioni per le quali una clausola può essere abusiva[11]. Tali motivazioni sono state elaborate mediante reti di memoria (Memory Network), al fine di potenziare le prestazioni del sistema e garantire un maggiore livello di trasparenza.

Le informative privacy come nuovo ambito applicativo

Un ulteriore ambito di applicazione di CLAUDETTE riguarda l’analisi delle informative privacy, che i titolari del trattamento hanno l’obbligo di fornire agli interessati, in base alle norme del Regolamento generale sulla protezione dei dati personali (GDPR). Per poter valutare la correttezza giuridica delle informative privacy è stato definito uno «standard aureo», articolato lungo tre dimensioni:

  • completezza delle informazioni;
  • conformità sostanziale, e
  • chiarezza espressiva.

Per ciascuna dimensione sono stati distinti due possibili gradi di raggiungimento dello standard:

  • un livello ottimale, nei casi in cui l’informativa soddisfi pienamente i requisiti definiti dal GDPR;
  • un livello subottimale, nei casi in cui l’informativa non soddisfi pienamente tali requisiti.

In particolare, con riferimento alla prima dimensione, ovvero la completezza, l’informativa deve contenere tutte le informazioni richieste dagli articoli 13 e 14 del GDPR come, per esempio, l’identità e i dati di contatto del titolare del trattamento e, ove applicabile, del suo rappresentante; le finalità del trattamento cui sono destinati i dati personali; la base giuridica del trattamento; e le categorie di dati raccolti. Per ogni tipo di informazione richiesta, le clausole corrispondenti sono state classificate come

  • pienamente informative quando tutte le informazioni richieste sono presenti e ben specificate;
  • come insufficientemente informative quando le suddette informazioni sono presenti solo in modo parziale e non pienamente specificate.[12]

Ogni clausola che fornisca tali informazioni è stata contrassegnata con etichette (similmente a quanto fatto per i termini di servizio), che indicano il tipo di informazione fornita e la qualità di tale informazione.

Con riferimento alla seconda dimensione, ovvero la conformità sostanziale, il trattamento dei dati deve essere conforme alle norme e ai principi dettati dal GDPR. Le pratiche commerciali correnti, come evidenziato nel caso relativo a WhatsApp, spesso non rispettano le norme sulla protezione dei dati personali, e in particolare del GDPR. Con riferimento alla conformità sostanziale sono state identificate differenti categorie di clausole, quali ad esempio quelle relative al consenso mediante utilizzo o silenzio-assenso; all’approccio prendere o lasciare, che subordinano l’uso di un servizio al trattamento di dati personali non necessari alla fornitura di quel servizio; trasferimento di dati a parti terze o verso paesi terzi, non appartenenti all’Unione Europea; e pratiche pubblicitarie.

Le clausole relative a ciascuna delle categorie identificate lungo questa dimensione sono state classificate come:

  • legittime se pienamente conformi al dettato normativo;
  • problematiche quando la loro conformità sia dubbia;
  • abusive quando chiaramente difformi.

Lo standard aureo è stato utilizzato per l’analisi e la marcatura delle informative privacy di piattaforme e servizi online, contenute nell’insieme di addestramento del sistema e selezionate sulla base del numero di utenti e in modo da coprire diverse aree di mercato. È opportuno evidenziare come nessuna delle informative analizzate raggiunga il livello ottimale rappresentato dallo standard aureo, con riferimento a ciascuna delle tre dimensioni considerate. Il risultato di tale analisi è disponibile al seguente indirizzo: www.claudette.eu/gdpr/.

Il sistema è stato addestrato nella valutazione delle informative privacy seguendo il modello già impiegato per i contratti online. Anche per le informative privacy si sono sperimentate diverse tecniche per l’apprendimento supervisionato.

I risultati ottenuti con i primi esperimenti sono incoraggianti, pur non raggiungendo i livelli di prestazione ottenuti nell’analisi dei contratti per la fornitura di beni o servizi online. Da un lato, ciò è dovuto al fatto che tali esperimenti hanno riguardato un insieme di addestramento limitato (32 informative privacy). Dall’altro lato, l’analisi automatica delle informative presenta alcune difficoltà aggiuntive rispetto all’analisi dei contratti online.

In primo luogo, è difficile valutare l’adeguatezza dell’informazione fornita considerando singole frasi, poiché spesso un contenuto informativo (es. le condizioni o gli scopi del trattamento) può essere veicolato attraverso più frasi anche non contigue.

In secondo luogo, le informative privacy hanno un contenuto meno standardizzato rispetto ai contratti per i servizi online, data la varietà dei possibili processi di elaborazione delle informazioni personali e dei modi in cui quei processi possono essere decritti.

In terzo luogo, i difetti delle informative privacy non riguardano solo la presenza di contenuti illegittimi, ma anche l’assenza o l’insufficiente specificazione di contenuti obbligatori (ad esempio l’indicazione dell’identità del titolare o dei tipi di informazione trattati). Le tecniche per la classificazione automatica dei documenti finora adottate nel progetto sono finalizzate alla classificazione dei soli contenuti presenti nei documenti.

Per realizzare una compiuta analisi automatica delle informative privacy, sarà necessario quindi sperimentare nuove tecniche, soprattutto quelle per l’identificazione di informazioni mancanti o insufficienti. Tali tecniche potranno risultare utili anche nell’ambito della tutela dei consumatori, in particolare per verificare il rispetto delle norme che stabiliscono obblighi di informazione.

Conclusioni

Per favorire gli usi socialmente utili dell’intelligenza artificiale, e prevenirne i rischi, è importante affiancare alla predisposizione di un’adeguata cornice normativa, etica a giuridica, lo sviluppo di nuove tecnologie, da mettere a disposizione della società civile. La stessa intelligenza artificiale, quindi, può contribuire all’efficacia dei poteri compensativi degli individui e delle loro organizzazioni. Essa può così ridurre gli squilibri di conoscenza e potere – per altro verso accentuati dall’intelligenza artificiale – che caratterizzano i rapporti tra cittadini e poteri economici e politici.

In particolare, il sistema Claudette, applicando metodi di apprendimento automatico per l’individuazione delle clausole abusive nei contratti e nelle informative privacy, può facilitare il controllo sulle stesse da parte dei consumatori, delle loro organizzazioni e delle autorità competenti.

Claudette, richiamando l’attenzione dei consumatori sui contenuti abusivi, da un lato consente scelte più consapevoli, agevola la contestazione delle pratiche abusive, e facilita l’attuazione individuale e collettiva del diritto, dall’altro è potenzialmente in grado di ridurre le pratiche sleali e illegali all’interno del mercato, e di favorire lo sviluppo di modelli di business giuridicamente leciti e più etici. Sebbene lo squilibrio di potere tra consumatori e imprese non verrà del tutto eliminato, l’uso dell’intelligenza artificiale per supportare l’esercizio effettivo di diritti da parte di consumatori e cittadini è sicuramente vantaggioso per i singoli e le loro organizzazioni e può contribuire, al tempo stesso, al migliore funzionamento dei mercati digitali.

_______________________________________________________________________________________

Note e bibliografia

  1. Balkin, J.M. (2017). The three laws of robotics in the age of big data, «Ohio State Journal Law Journal», 78, 5, 1217-1241.
  2. Calvano, E., Calzolari, G., Denicolò, V., Pastorello, S. (2018). Artificial intelligence, algorithmic pricing and collusion, CEPR Discussion paper 13405.
  3. Polanyi, M. (2009 [1966]). The tacit dimension, Chicago, University of Chicago Press.
  4. Galbraith, J.K. (1956 [1952]). American Capitalism: The Concept of Countervailing
  5. Lippi, M,, Contissa, G., Lagioia, F., Micklitz, H.W., Pałka, P., Sartor, G., Torroni, P., (2019), Consumer protection requires artificial intelligence. «Nature Machine Intelligence», 1(4), 168-9.
  6. Ruggeri, S., Pedreschi, D., Turini, F. (2010). Integrating induction and deduction for finding evidence of discrimination, «Artificial Intelligence and Law», 18, 1-43.
  7. Bodó, B., Helberger, N., Irion, K., Zuiderveen Borgesius, F., Moller, J., van de Velde, B., Bol, N., van Es, B., de Vreese, C. (2017). Tackling the algorithmic control crisis-the technical, legal, and ethical challenges of research into algorithmic agents, «Yale JL & Tech.», 19, 133-180.
  8. Lippi, M., P. Palka, G. Contissa, F. Lagioia, H.-W. Micklitz, Y. Panagis, G. Sartor, and P. Torroni (2019). Claudette: an automated detector of potentially unfair clauses in online terms of service, «Artificial Intelligence and Law», 27, 117-139; Contissa, G., Docter, K., Lagioia, F., Lippi, M., Micklitz, H.W., Pałka, P., Sartor, G. and Torroni, P., (2018) CLAUDETTE meets GDPR: Automating the Evaluation of Privacy Policies using Artificial Intelligence. Study Report for the European Consumer Organisation (BEUC).
  9. Direttiva 93/13/CEE concernente le clausole abusive nei contratti stipulati con i consumatori.
  10. Obar, J.A., Oeldorf-Hirsch, A. (2018). The biggest lie on the internet: Ignoring the privacy policies and terms of service policies of social networking services, «Information, Communication & Society», 1-20.
  11. Lagioia, F., Ruggeri, F., Drazewski, K., Lippi, M., Micklitz, H.-W., Sartor, G., Torroni, P. (2019). Deep learning for detecting and explaining unfairness in consumer contracts, «Jurix-2019», Amsterdam, IOS Press.
  12. Contissa, G., Docter, K., Lagioia, F., Lippi, M., Micklitz, H.-W., Palka, P., Sartor, G., Torroni, P. (2018a). Automated processing of privacy policies under the EU general data protection regulation. «Jurix-2018», Amsterdam, IOS, 51-60
WHITEPAPER
Omnicanalità e mobile experience non sono la stessa cosa. Scopri le strategie di mobile marketing
Marketing
Mobility
@RIPRODUZIONE RISERVATA

Articolo 1 di 4