explainable ai

AI nella finanza: senza trasparenza non c’è fiducia



Indirizzo copiato

L’intelligenza artificiale in finanza non basta se resta opaca. L’Explainable AI consente di comprendere scelte e criteri, favorendo trasparenza e responsabilità in ambiti come credito, rischio e assistenza clienti

Pubblicato il 30 ott 2025

Simone Chiappino

Executive Leader | Digital Transformation



tax gap (1) AI gen finanza explainable AI in finanza
AI gen finanza

L’intelligenza artificiale sta trasformando il settore finanziario, ma senza trasparenza rischia di minare fiducia e inclusione.

Dalle decisioni di credito alla customer care, la spiegabilità, o explainability dell’IA, diventa essenziale per garantire conformità, ridurre i rischi e mantenere l’utente al centro.

Tra casi virtuosi (Erica di Bank of America) e sperimentazioni discusse come quelle di Commonwealth Bank o Klarna, emerge che l’AI non basta: deve essere capita.

Il paradosso dell’automazione finanziaria

La rivoluzione digitale che ha investito la finanza non si limita a processi più rapidi o a costi più contenuti. È un cambiamento profondo, che tocca la natura stessa del rapporto tra banche, clienti e tecnologia. L’introduzione di algoritmi sempre più potenti ha consentito di affrontare problemi tradizionalmente complessi — come la valutazione del rischio di credito o la prevenzione delle frodi — con un livello di accuratezza e velocità prima impensabili.

Tuttavia, questo progresso non è privo di ambiguità. Sistemi sempre più automatizzati e l’introduzione di algoritmi intelligenti promettono di ridurre bias cognitivi e asimmetrie informative — ad esempio superando distorsioni tipiche delle valutazioni umane negli investimenti, da sempre affidati a trader ed esperti spesso influenzati da emozioni o dal bias di conferma — ma oggi applicazioni di investimento automatico come i robo-advisor (Betterment, Wealthfront, o in Europa Moneyfarm) possono a loro volta apparire come “scatole nere” che prendono decisioni opache, difficili da comprendere e quindi da accettare. Lo stesso fenomeno si manifesta anche nel rischio di credito, dove modelli sempre più sofisticati sostituiscono le valutazioni discrezionali dei funzionari bancari, riducendo pregiudizi ma creando nuove sfide di trasparenza e fiducia.

È proprio in questo paradosso che si colloca il tema dell’explainable AI (XAI): senza trasparenza, l’innovazione algoritmica rischia di tradursi in un deficit di fiducia e inclusione [1].

Definizione e approccio teorico all’explainable AI

Explainable Artificial Intelligence (XAI) è un insieme di metodi che permettono alle persone di comprendere e controllare i sistemi intelligenti, spiegando le azioni passate, i processi in corso e i passi futuri, nonché rendendo note le informazioni rilevanti su cui si basano tali azioni [2]

Paolo Sironi ha più volte sottolineato come la trasparenza non sia un concetto astratto, ma il criterio operativo che permette alla banca di trasformarsi da mero meccanismo transazionale a fucina di competenze e generazione di valore [3]. Chris Skinner, in una prospettiva simile, ha descritto la banca del futuro come un ecosistema relazionale, capace di integrare tecnologia e prossimità [4]. In questa direzione, l’XAI si configura non come un accessorio tecnico, ma come il cuore stesso dell’umanizzazione della tecnologia finanziaria: la condizione che consente agli algoritmi di dialogare con l’utente e di farsi percepire come strumenti di supporto, non di imposizione.

Strumenti tecnici per l’interpretabilità algoritmica

Il dibattito scientifico ha offerto negli ultimi anni un ventaglio di strumenti per rendere interpretabili i modelli: dalle tecniche di local feature attribution, come SHAP (Shapley Additive Explanations) [5], che distribuisce il contributo delle variabili sulla base di principi cooperativi, fino a metodi come LIME (Local Interpretable Model-agnostic Explanations) [6], che costruisce modelli locali semplificati per spiegare singole decisioni, e agli approcci basati su saliency maps [7], che evidenziano graficamente quali caratteristiche hanno inciso maggiormente sul risultato. Questi strumenti hanno dimostrato di poter affiancare le performance predittive con capacità esplicative: un algoritmo non solo fornisce una classificazione, ma indica anche quali fattori l’hanno determinata.

Ipotizzando che la decisione di credito sia basata sull’analisi di variabili specifiche (feature) — come reddito, rapporto debito/reddito, durata della storia creditizia o livello di esposizione — la Tabella 1 mostra come tre delle tecniche di explainable AI più diffuse (SHAP, LIME e saliency maps) possano restituire trasparenza, ciascuna con un approccio diverso.

Tecnica XAICome funzionaEsempio in finanza (decisione di credito)
SHAP (Shapley Additive Explanations)Scompone la predizione in contributi delle singole feature, ispirandosi alla teoria dei giochi cooperativi.Simula la decisione variando una componente alla volta (es. reddito, durata storia creditizia, rapporto debito/reddito) e mostra graficamente il “peso” di ciascuna nel determinare il rischio.
LIME (Local Interpretable Model-agnostic Explanations)Approssima il modello complesso con un modello locale e semplice (es. regressione lineare) per spiegare una singola decisione.Permette di dire: “Il tuo prestito è stato rifiutato soprattutto per il peso combinato di reddito basso e alta esposizione debitoria”, semplificando l’output del modello black-box.
Saliency maps / gradient methodsEvidenziano visivamente le feature più rilevanti calcolando la sensibilità dell’output rispetto a variazioni degli input.Producono una “mappa di importanza” che mostra quali variabili hanno inciso maggiormente, ad esempio mettendo in evidenza la centralità del rapporto debito/reddito rispetto ad altre.

Tabella 1 Tecniche XAI a confronto nel credit scoring

Dall’embedded all’embodied finance

La trasformazione in atto non riguarda però solo la tecnica, ma anche la forma stessa del servizio finanziario. Come osserva Luciano Floridi, il dato diventa informazione solo quando acquisisce significato [8]. In questa prospettiva, l’embedded finance — che integra pagamenti, prestiti o assicurazioni in contesti digitali apparentemente estranei al settore — è già evoluta verso una nuova fase, quella che possiamo definire embodied finance [9]. Qui i servizi non sono più semplicemente programmati per attivarsi, ma si adattano in modo dinamico al contesto, apprendono dai comportamenti e restituiscono spiegazioni. L’AI incarnata nel servizio diventa così una infrastruttura cognitiva: percepisce, memorizza, apprende, interpreta. Senza capacità esplicativa, questa infrastruttura rischierebbe di restare una mera macchina predittiva; con la spiegabilità, può trasformarsi in un assistente fiduciario.

Tre casi concreti di XAI in finanza

Il primo è quello di Erica, l’assistente virtuale di Bank of America.

Erica, l’assistente che spiega le proprie azioni

Lanciata nel 2018, Erica ha superato i 35 milioni di utenti attivi e gestito miliardi di interazioni. Non si limita a rispondere a richieste, ma spiega le proprie azioni: quando segnala una spesa ricorrente, contestualizza il dato; quando suggerisce di ottimizzare un budget, indica i criteri utilizzati. Questa trasparenza contestuale rappresenta una forma di explainability applicata alla relazione quotidiana: l’algoritmo diventa interprete dei dati, non semplice esecutore. L’esperienza di Erica dimostra che un assistente virtuale non guadagna fiducia solo grazie alla rapidità o alla disponibilità h24, ma soprattutto attraverso la capacità di rendere conto delle proprie raccomandazioni.

Commonwealth Bank e i rischi della predizione opaca

Un secondo esempio è offerto dalla Commonwealth Bank of Australia (CommBank). La banca ha sperimentato sistemi di AI predittiva in ambito credito e pagamenti, suscitando però un acceso dibattito sull’opacità nell’uso dei dati comportamentali. In particolare, l’impiego di algoritmi capaci di anticipare difficoltà di pagamento o variazioni nella capacità di spesa ha sollevato critiche legate al rischio di sorveglianza predittiva. Se da un lato questi strumenti consentono di intervenire in anticipo per prevenire insolvenze, dall’altro la mancanza di spiegazioni comprensibili al cliente ha generato diffidenza. La lezione è chiara: senza una narrazione trasparente del perché un determinato alert o un’offerta personalizzata siano stati generati, la tecnologia può trasformarsi da strumento di prevenzione a fattore di sfiducia.

Klarna e il fallimento del customer care automatizzato

Il terzo caso riguarda Klarna, tra i principali operatori globali del Buy Now Pay Later. La società ha introdotto sistemi di customer care basati su chatbot, sostituendo centinaia di operatori umani. L’operazione, salutata inizialmente come segno di efficienza e modernità, ha incontrato la resistenza degli utenti, che lamentavano risposte standardizzate, poca comprensione dei problemi reali e una percezione di opacità nelle procedure. Di fronte a prestazioni insoddisfacenti, Klarna è stata costretta a rivedere la propria strategia, reintegrando parte del supporto umano. Questo caso evidenzia come l’assenza di spiegabilità — intesa qui come chiarezza sul perché un reclamo viene gestito in un certo modo o su come si articola il processo di risoluzione — possa compromettere la fiducia e perfino il brand.

CasoDescrizionePunto chiave di explainability
Erica (Bank of America)Assistente virtuale con oltre 35 milioni di utenti. Fornisce spiegazioni contestuali su spese e budget.La trasparenza quotidiana rafforza fiducia e percezione di utilità.
CommBank (Australia)AI predittiva su credito e pagamenti, criticata per opacità nell’uso dei dati comportamentali.Senza spiegazioni chiare, l’innovazione può generare diffidenza e percezione di sorveglianza.
Klarna (BNPL)Chatbot per il customer care che hanno sostituito operatori umani, suscitando proteste.Mancanza di chiarezza e risposte opache hanno minato la fiducia, costringendo a reintegrare supporto umano.

Tabella 2 Tre casi di XAI in finanza

Misurare la trasparenza algoritmica

La spiegabilità non è un attributo accessorio, ma una dimensione che può e deve essere misurata. Parlare di metriche di spiegabilità significa tradurre in indicatori concreti ciò che, altrimenti, resterebbe un concetto astratto di trasparenza.

Una prima metrica riguarda la percentuale di decisioni spiegate: quanti output dell’algoritmo sono accompagnati da una motivazione chiara e comprensibile? Non si tratta solo di restituire un “perché tecnico”, ma di offrire all’utente una narrazione che dia senso alla decisione.

Un secondo indicatore è la percentuale di decisioni contestate o riviste: più le spiegazioni sono chiare, meno gli utenti percepiscono arbitrarietà e più accettano l’esito, anche quando negativo.

Accanto a questi dati quantitativi, vi sono metriche qualitative come il Customer Satisfaction Score (CSAT) o il Net Promoter Score (NPS), che misurano la fiducia e la disponibilità a raccomandare il servizio. Se un cliente comprende il criterio con cui un prestito è stato rifiutato, tenderà a giudicare il processo equo anche senza un esito positivo.

Infine, un approccio tecnico può affiancare queste misure esperienziali con indicatori di stabilità delle spiegazioni, ad esempio valutando se le feature più rilevanti identificate da metodi come SHAP o LIME rimangono consistenti nel tempo o variano in modo arbitrario. Stabilità significa coerenza: la stessa situazione deve generare spiegazioni simili, altrimenti la fiducia si erode.

ClasseMetricaSignificatoEsempio in finanza
TecnicheStabilità delle feature (es. SHAP, LIME)Verifica se le variabili considerate rilevanti dal modello restano consistenti nel tempo.Un cliente con stesso profilo ottiene spiegazioni simili oggi e domani; variazioni arbitrarie segnalano opacità.
Coerenza localeControlla che due casi simili abbiano spiegazioni simili.Due richiedenti con reddito e debito simili dovrebbero ricevere motivazioni analoghe per l’esito della pratica.
Esperienziali% decisioni spiegateIndica la quota di output accompagnata da motivazioni comprensibili.Una banca fornisce il dettaglio dei fattori di rischio nel 90% delle pratiche di credito.
% decisioni contestateMisura la percezione di arbitrarietà: più alta è la contestazione, minore è la trasparenza percepita.Riduzione delle dispute sui rifiuti di prestito grazie a spiegazioni più chiare.
CSAT / NPSMisurano soddisfazione e fiducia del cliente verso il processo.Clienti che, pur respinti, giudicano equa la procedura di valutazione del credito.

Tabella 3 Classi di metriche per la spiegabilità dell’AI in finanza

In questa prospettiva, le metriche di spiegabilità diventano lo strumento per trasformare la trasparenza da promessa retorica a impegno operativo, in grado di legare performance algoritmica e fiducia relazionale.

Verso un’intelligenza artificiale comprensibile

In conclusione, l’AI in finanza non deve solo funzionare: deve essere capita. La differenza tra un sistema percepito come alleato e uno vissuto come minaccia risiede nella sua capacità di rendere trasparenti logiche, criteri e limiti. La spiegabilità è il ponte tra accuratezza algoritmica e fiducia relazionale, tra efficienza tecnica e inclusione sociale. Senza, il rischio è che gli algoritmi diventino strumenti di esclusione e diffidenza. Con essa, possono invece incarnare il ruolo di veri e propri assistenti fiduciari, capaci di supportare decisioni, generare valore e rafforzare il legame tra istituzioni finanziarie e clienti. È qui che si gioca il futuro della finanza digitale: non nell’essere più veloce o più economica, ma nel saper spiegare.

Bibliografia

[1] Zuboff, S., The Age of Surveillance Capitalism, PublicAffairs, 2019.
[2] European Data Protection Supervisor, Explainable Artificial Intelligence (XAI) (Tech Dispatch), 2023. https://www.edps.europa.eu/system/files/2023-11/23-11-16_techdispatch_xai_en.pdf
[3] Sironi, P., Banks and Fintech on Platform Economies, Wiley, 2022.
[4] Skinner, C., Intelligent Money: When Money Thinks For You, Marshall Cavendish, 2024.
[5] Demajo, L. M., Vella, V., Dingli, A., “Explainable AI for interpretable credit scoring,” arXiv:2012.03749, 2020. https://arxiv.org/abs/2012.03749
[6] Aljadani, A., Alharthi, B., Farsi, M. A., Balaha, H. M., Badawy, M., & Elhosseini, M. A. (2023). Mathematical modeling and analysis of credit scoring using the LIME explainer: A comprehensive approach. Mathematics, 11(19), 4055. https://doi.org/10.3390/math11194055
[7] Dastile, X., & Celik, T. (2021). Making deep learning-based predictions for credit scoring explainable. IEEE Access, 9, 46485–46495. https://doi.org/10.1109/ACCESS.2021.3068854
[8] Floridi, L., The Philosophy of Information, Oxford University Press, 2011.
[9] Chiappino, S. (2025). Dai contanti ai pagamenti invisibili: l’era dell’embodied finance. Agenda Digitale. https://www.agendadigitale.eu/cittadinanza-digitale/pagamenti-digitali/dai-contanti-ai-pagamenti-invisibili-lera-dellembodied-finance/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati