Non esiste oggi un possessore di smartphone che non interagisca quotidianamente con i bot: dai messaggi di testo per le prenotazioni automatiche ferroviarie o aeree, per utilizzare i servizi della propria banca, per accedere a programmi televisivi in diretta o con gli streaming, per consultare le mappe di una città, fino agli assistenti virtuali inseriti nello stesso telefono che accedono alle rubriche, compongono i numeri, trovano le strade, rispondono a quesiti: tutti elementi distintivi e concorrenziali utilizzati dai vari brand.
Assistenza clienti “disumanizzata” e (in)soddisfazione del cliente
Ma l’apporto umano nelle attività di assistenza al cliente nelle fasi della vendita e nelle sue precedenti e successive è sempre più limitato. Alla chiamata ad un qualsiasi servizio alla clientela, sentiamo avviare una chatbot che, attraverso una categorizzazione dei diversi possibili bisogni di assistenza, elenca un menù con una serie di argomenti nei quali dovrà essere il singolo cittadino a riconoscere la sua necessità, salvo poi, a selezione effettuata, sentirsi indirizzare verso uno o più altri sottomenù, per ulteriori specificazioni. Sono sempre più rari i casi (e sempre immancabilmente in coda alla risposta automatica, per chi ha la pazienza di ascoltarla fino alla fine) in cui è previsto un “se vuoi parlare con un operatore…”.
Stessa trafila se si accede ad un assistente virtuale on line: bisogna usare parole chiave, essere sintetici e il più possibile chiari per evitare di sentirsi rispondere “mi dispiace ma non ho capito la tua domanda”. Molte aziende hanno delle vere e proprie chat sui social a servizio dei cittadini e a supporto di determinati prodotti, ma anche lì guai a non capire che il proprio telefonino è in realtà un device e che il proprio malfunzionamento è invece un “semplice” bug. Non senza ricordare che sono ormai presenti chat di supporto tecnico, ma prive del supporto umano, che svolgono attività di “dirottamento” su altri servizi a pagamento (di assistenza o di abbonamento, per esempio), magari forniti da terzi, che sono vere e proprie offerte e conclusioni di nuovi contratti, definiti sulla base di verifiche biometriche, confermati attraverso un codice OTP, o con supporti digitali o con dati precedentemente raccolti, e senza la garanzia che il consumatore abbia veramente capito quali obblighi e responsabilità abbia assunto, se non nel momento in cui riceverà (se e quando riceverà) su supporto cartaceo o digitale, il testo dell’accordo concluso.
Molto, troppo, spesso le aziende presuppongono (errando, come si vedrà dopo) nei cluster di propri clienti la conoscenza di termini tecnici e di problematiche ricorrenti d’ordine generale, nelle quali ricomprendere il proprio “problema particolare” cui si vuole trovare soluzione. Ma, molto più spesso di quanto si pensi, non ci si riesce e si abbandona la chat senza risultati.
La customer satisfaction, richiede oggi, non solo un’ottima infrastruttura tecnica, ma anche un cittadino sufficientemente digitalizzato o, almeno, adeguatamente informato, per riuscire a fornire (e ricevere) un servizio di assistenza efficiente, risolutivo e che lo soddisfi appieno. Appare, quindi, di tutta evidenza la necessità che la digital transformation preveda di incentivare allo stesso modo sia l’offerta che la domanda di servizi digitali alla clientela.
Un articolo del 28 settembre scorso di The Economist significativamente intitolato “Customer service is getting worse—and so are customers”, racconta una contesto analogo a quello qui descritto, riferendo che l’American Customer Satisfaction Index (ACSI), indica che il barometro della soddisfazione della clientela sta scendendo, spegnendo un po’ dell’entusiasmo espresso solo qualche giorno prima dalla multinazionale Gartner, che proclamava le “magnifiche sorti e progressive” del customer care grazie alla prossima rivoluzione indotta dall’avvento dell’ IA.
Le situazioni che abbiamo qui descritto (e che non sono affatto minoritarie) generano insoddisfazione nel cliente che rimane privo di risposta alla sua esigenza e che, nella migliore delle ipotesi, hanno come conseguenza l’abbandono di un brand. Ma esistono altre conseguenze che, in determinate circostanze, hanno una portata ben più grave. La valutazione della prima la lasciamo agli economisti e alle teorie di marketing, mentre proviamo a descrivere le seconde, che sono tutte delle conseguenze d’ordine giuridico e che prevedono sanzioni per la loro violazione.
Il contratto tra professionista e consumatore
Partiamo dalla premessa, tanto ovvia quanto dimenticata, che il rapporto che lega il cliente al fornitore ha sempre natura negoziale è, cioè, un contratto: scritto o verbale, di vendita, di somministrazione, di comodato, di finanziamento, di garanzia, ecc., ma sempre fonte di corrispondenti obblighi e diritti che nascono, anche nel caso in cui il cliente acceda semplicemente ad un servizio d’assistenza, all’interno dell’accordo commerciale o come suoi accessori. E, come in ogni contratto, esiste una fase precontrattuale; una fase di realizzazione dei rispettivi obblighi contrattuali e anche una fase successiva alla conclusione del contratto.
Gli obblighi precontrattuali: i casi di pubblicità ingannevole
La principale fase precontrattuale è la pubblicità, definita, dall’art. 2, lett. a, D.lgs. n. 145/2007, come “qualsiasi forma di messaggio che è diffuso, in qualsiasi modo, nell’esercizio di un’attività commerciale, industriale, artigianale o professionale allo scopo di promuovere il trasferimento di beni mobili o immobili, la prestazione di opere o di servizi oppure la costituzione o il trasferimento di diritti ed obblighi su di essi”. E la successiva lett. b del medesimo articolo, qualifica come “pubblicità ingannevole: qualsiasi pubblicità che in qualunque modo, compresa la sua presentazione è idonea ad indurre in errore le persone fisiche o giuridiche alle quali è rivolta o che essa raggiunge e che, a causa del suo carattere ingannevole, possa pregiudicare il loro comportamento economico ovvero che, per questo motivo, sia idonea a ledere un concorrente”.
Ne consegue, che offrire nella pubblicità l’opera di un customer care a corredo di un prodotto o servizio e questo, in realtà, non fosse in condizione di rispondere/capire/risolvere un’esigenza di una “persona fisica che agisce per scopi estranei all’attività imprenditoriale, commerciale, artigianale o professionale eventualmente svolta” (art.3.1.a D.lgs. 206/2005, cd. Codice del Consumo), integrerebbe un caso di ingannevolezza pubblicitaria. Si noti bene che la legge italiana non prevede affatto che il consumatore medio abbia una preparazione digitale per confrontarsi correttamente in una chatbot e quando ce l’ha, in ragione della sua attività o professione, essa non rileva, con la conseguenza che il professionista che fa affidamento, nei suoi sistemi di customer care, su elevate capacità cognitive e conoscenze tecniche del suo cliente, potrebbe incorrere nuovamente in un’ipotesi di pubblicità ingannevole, sanzionabile dall’Autorità Garante della Concorrenza e del Mercato con l’inibizione all’ulteriore diffusione e/o con l’irrogazione di sanzioni pecuniarie fino ad un massimo di 5 milioni di euro.
Esistono poi, in verità, tante altre ipotesi di pratiche commerciali ingannevoli e/o aggressive, in numerose fattispecie elencate negli articoli da 20 a 26 del Codice del Consumo, ma esse presuppongono comportamenti prevalentemente fraudolenti che prescindono dall’oggetto del presente intervento. Ci limitiamo a segnalare solo l’art. 26.1 lett. c, che fa divieto (sanzionando) di “effettuare ripetute e non richieste sollecitazioni commerciali per telefono, via fax, per posta elettronica o mediante altro mezzo di comunicazione a distanza”, proprio perché, purtroppo, sperimentiamo essere sempre più numerosi i servizi promozionali automatizzati e/o con chatbot, non richiesti.
Conclusione e adempimento del contratto
L’avvento dei sistemi automatizzati e digitali nella conclusione e nell’adempimento dei contratti, sconvolge tutti i tradizionali istituti del diritto civile e, in parte, anche di quelli del diritto penale. I confini della presente esposizione consentono solo di elencare alcuni esempi, partendo dalla considerazione che l’IA sarà sempre più caratterizzata dall’autonomia e dall’auto-apprendimento e sempre più utilizzata nell’ambito degli automated decision systems:
a) il contratto si considera concluso con lo scambio delle volontà e i vizi nella manifestazione del consenso, precisamente codificati nel dolo, nella violenza e nell’errore, comportano l’annullamento del contratto stesso. Fattispecie che mal si adattano ai casi in cui una delle parti è un sistema automatizzato. Quando, ad esempio, l’errore potrà qualificarsi come essenziale e riconoscibile e quale parte vi si potrà appellare?
b) Quale il profilo della responsabilità e a carico di chi, nell’evenienza, affatto remota, che una chatbot di un servizio di assistenza tecnica suggerisca un intervento di ripristino di un terminale attraverso una modifica nella sua configurazione, omettendo però che questo ne modificherà anche l’uso al quale era destinato o comporterà “solo” la perdita dei dati memorizzati?
c) Si potrebbe poi continuare elencando tutta la casistica codicistica legata alla diligenza nella prestazione, alla sua impossibilità sopravvenuta, parametrata, ex art. 1176 Codice civile, alla diligenza “del buon padre di famiglia” e, come tale, difficilmente raffrontabile alla diligenza di un sistema automatizzato o, addirittura, di machine learning o di intelligenza artificiale. Andranno rivalutate tutte le casistiche di accertamento della relazione causale tra il danno e la condotta quando questa non è più umana (almeno da una parte) e il principio d’imputazione obiettiva dell’evento dannoso. Perché anche le macchine -sottolinea Remo Trezza- (“Il contratto nell’era del digitale e dell’intelligenza artificiale” ne “Il diritto dell’economia”, anno 67°, n. 105, 2, 2021, pp. 287-319), come gli uomini, possono provocare dei danni, fisici (si pensi al campo dei robot sanitari) o psichici (si pensi al caso del cyber-bullismo), patrimoniali o non patrimoniali.
d) Si pensi, ancora, ai casi in cui vi è una distinzione di compiti (e responsabilità) tra il professionista e un programmatore che potrebbe anche non far parte dell’organizzazione aziendale del primo (artt. 2043, 2049, 2050 Codice civile).
e) E costituirà inadempimento, l’offerta di garanzia d’assistenza quando la stessa è categorizzata ma omette alcune tipologie o, ancora, la si rappresenta al pubblico con un linguaggio tecnico che non viene correttamente interpretato del cliente? Responsabilità del “professionista digitale” o del cliente non informatizzato? E quale (in)adempimento nel caso in cui il cliente richieda, senza ottenerlo, un servizio non completamente automatizzato ma attraverso un contatto diretto e umano? Emanuela Maio arriva addirittura ad ipotizzare un inadempimento (im)possibile (“The management of contractual non-performance in smart contract” in “Actualidad Jurídica Iberoamericana nº 16, febrero 2022, pp. 1334-1347)
f) V’è da dire che la legislazione nazionale più recente, di derivazione comunitaria, riempie alcuni vuoti lasciati dalle previsioni del Codice civile. Esempio tipico è la previsione contenuta nell’art. 22 del GDPR (Regolamento Generale per la protezione dei dati personali 2016/679), che introduce un bilanciamento tra diritti e obblighi con “il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”; regola mitigata dalla successiva specificazione, che l’ammette quando la decisione “sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento”. Principio utilizzato, per esempio, al di là della tutela dei dati personali, dalla magistratura lavoristica nei casi di decisioni automatizzate sulla mobilità dei lavoratori in contrasto con diritti acquisiti precedentemente, ma nulla ne esclude l’applicabilità nei rapporti con i consumatori.
g) Da ultimi, ma non per ultimi, vanno citati gli interventi comunitari: i numerosi regolamenti e le risoluzioni del Parlamento UE.
In particolare, la Risoluzione del 16 febbraio 2017, recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”.
La Risoluzione del 12 febbraio 2019, recante “Una politica industriale europea globale in materia di robotica e intelligenza artificiale”, in cui “Un’intelligenza artificiale (IA) e una robotica trasparenti e che integrino la dimensione etica racchiudono il potenziale di arricchire le nostre vite e sviluppare ulteriormente le nostre capacità, sia come individui che per il bene comune” (cfr. Considerando lett. A).
La Risoluzione 20 ottobre 2020 che interviene sul dibattito relativo alla trilogia “intelligenza artificiale-diritto-etica” con raccomandazioni inerenti i risvolti etico-giuridici delle nuove tecnologie, tra le quali rientrano a pieno titolo i sistemi di intelligenza artificiale e i sistemi robotici, considerando la necessità di rapportare le variabili algoritmiche con i valori giuridici.
La Risoluzione 20 gennaio 2021 dal titolo “Intelligence artificielle: questions relatives à l’interprétation et l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires et à l’autorité de l’État en dehors du champ d’application de la justice pénale”. Dove il Parlamento europeo ha voluto nuovamente sottolineare, seppure con riferimento ai sistemi militari, che qualsiasi mezzo intelligente deve sempre avere il controllo umano e l’uomo deve essere l’unico responsabile delle azioni elettroniche compiute. E, per finire, il Regolamento 2022/2065 del Parlamento europeo e del Consiglio del 19 ottobre 2022 relativo al mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (regolamento sui servizi digitali) che pone l’obiettivo di stabilire norme armonizzate per un ambiente online sicuro, prevedibile e affidabile che faciliti l’innovazione e in cui i diritti fondamentali sanciti dalla Carta, compreso il principio della protezione dei consumatori, siano tutelati in modo effettivo. Si stabiliscono, in particolare: norme per l’esenzione condizionata dalla responsabilità dei prestatori di servizi intermediari; norme relative a specifici obblighi in materia di dovere di diligenza adattati a determinate categorie di prestatori di servizi intermediari; norme sull’attuazione e sull’esecuzione del regolamento, anche per quanto riguarda la cooperazione e il coordinamento tra le autorità competenti.
Conclusioni
In conclusione, il lettore di queste poche note si sarà forse formato il convincimento che chi scrive è un oppositore delle nuove tecnologie digitali applicate ai sistemi di customer care. Nulla di più errato! Certo, sono sin qui apparse evidenti sia la necessità di avere un controllo umano sull’algoritmo, che la necessità di una rivisitazione del tradizionale strumentario giuridico (compito che, secondo R.Trezza (op.cit.), “spetterà all’homo juridicus, che avrà l’onere di riferirlo all’homo informaticus affinché possa rendere la macchina “eticamente agente”), ma il vero tentativo qui proposto è stato, semmai, quello di rappresentare una situazione nella quale si nota la splendida solitudine nella quale i “professionisti” (definizione ex art.3.1.c Codice del Consumo) sperimentano applicazioni per favorire il rapporto con i clienti, ma senza sentire gli stessi clienti, se non a posteriori.
I clienti, o i consumatori o i cittadini, in qualunque modo li si qualifichino, con le loro rappresentanze regolamentate dalla legge italiana, possono collaborare con l’altra parte del mercato per definire meglio le politiche e i sistemi che li riguardano. Nel mercato digitale, così come in tanti altri nel settore dei servizi, il mondo della domanda e quello dell’offerta devono confrontarsi, ma prima dei contenziosi o degli abbandoni. Si diceva nelle premesse che servono cittadini informati, consapevoli e attivi. L’ulteriore passo dovrà essere quello di rappresentanze di cittadini collaborativi e, soprattutto, proattivi. Quale sarà il primo fornitore di servizi digitali a raccogliere il guanto di sfida dimostrandosi altrettanto aperto e disponibile a coinvolgere nelle proprie scelte il fattore umano, inteso -questa volta- come “il cliente, persona fisica”?
Bibliografia
AA.VV.: “Consumatori, contratti, conflittualità”, (a cura di) C. VACCÀ, Milano, 2000
AA.VV.: “Diritto dei consumatori e nuove tecnologie”, (cura di) F. BOCCHINI, vol. I, Torino, 2003
AA.VV.: “Guida al diritto dei consumatori”, (a cura di) R. PARDOLESI, Camera di commercio, Rieti, 1999
AA.VV.: “I contratti dei consumatori”, (a cura di) GABRIELLI E. e MINERVINI E., Torino, 2005
AA.VV.: “I contratti in generale”, Tomo II, (a cura di) GABRIELLI E., in Trattato dei contratti, diretto da RESCIGNO P., Torino, 1999
AA.VV.: “I diritti dei consumatori e degli utenti”, (a cura di) ALPA G. e LEVI V., Milano, 2001
AMBROSOLI, M.: “La sopravvenienza contrattuale”, Giuffrè, Milano, 2002
CLARICH M. – CARTEI G. (a cura di): Codice delle comunicazioni elettroniche, Milano, 2004
CAMILLETTI, F.: “Profili del problema dell’equilibrio contrattuale”, Giuffrè, Milano,
2004, pp. 167 ss.
CAPOBIANCO, E.: “L’equilibrio economico nei contratti dei consumatori”, in AA.
VV.: Squilibrio e usura dei contratti (a cura di G. Vettori), Giuffrè, Padova, 2002, pp. 377 ss.
CESÀRO, V.M.: “Clausola di rinegoziazione e adeguamento contrattuale”, Esi, Napoli, 2000
CICU, A.: “Gli automi nel diritto privato”, Il Filangieri, Milano, 1901, n. 8º, pp.
561 ss.
CORASANITI G.: “Intelligenza artificiale e diritto: il nuovo ruolo del giurista” in AA.VV. Intelligenza artificiale: il diritto, i diritti, l’etica, Milano Giuffrè, ottobre 2020
CORASANITI G.: “Intelligenza artificiale giuridica: opportunità e rischi” in AA.VV. Dati e algoritmi, Bologna, Il Mulino, 2020
CORASANITI G.: “Il diritto nella società digitale”, Milano, Franco Angeli, 2018
COSTANZA, M.: “Meritevolezza degli interessi ed equilibrio del contratto”, Contr. Impr., 1987, pp. 423 ss.
DELFINI F.: “Blockchain, Smart Contracts e innovazione tecnologica: l’informatica e il diritto dei contratti” in Rivista di diritto privato, n.2 aprile/giugno 2019, pp.167-178
DE NOVA, G.: “Contratto: per una voce”, Riv. dir. priv., 2000, pp. 633 ss.
DI NELLA, L.: “Smart contract, Blockchain e interpretaciòn de los contractos”, Revista critica de derecho privado, 2020, n. 17˚, pp. 191 ss.
DI SABATO, D.: “Gli smart contract: robot che gestiscono il rischio contrattuale”,
in Contr. Impr., 2017, pp. 378 ss.
FINOCCHIARO, G.: “Il contratto nell’era dell’intelligenza artificiale”, Riv.trim.dir.proc.civ., 2018, n. 2º, p. 445.
GALGANO, F.: “Libertà contrattuale e giustizia del contratto”, Contr. Impresa/Eur., 2005, pp. 509 ss.
GALGANO, F.: “Squilibrio contrattuale e malafede del contraente forte”, Contr. Impr., 1999, pp. 939 ss
MAIO E.: “The management of contractual non-performance in smart contract” in “Actualidad Jurídica Iberoamericana nº 16, febrero 2022, pp. 1334-1347
TREZZA R.: “Il contratto nell’era del digitale e dell’intelligenza artificiale” ne “Il diritto dell’economia”, anno 67, n. 105, 2, 2021, pp. 287-319
SITOGRAFIA
https://www.economist.com/business/2023/09/28/customer-service-is-getting-worse-and-so-are-customers
https://www.filodiritto.com/i-contratti-del-consumatore-linee-generali-della-disciplina-normativa