autonomia cognitiva

Consigli o comandi? Il lato nascosto degli assistenti digitali



Indirizzo copiato

Gli assistenti digitali stanno evolvendo da strumenti di supporto a partner decisionali, integrando modelli predittivi e regole esperte. Questo solleva interrogativi sulla nostra autonomia, sul ruolo della competenza individuale e sulla fiducia riposta in algoritmi sempre più sofisticati

Pubblicato il 9 ott 2025

Chiara Cilardo

Psicologa psicoterapeuta, esperta in psicologia digitale



memoria nei chatbot - affidabilità degli assistenti ai IA e psicanalisi pipeline dati aziendali IA terapia cognitivo comportamentale assistenti digitali; chat control 2.0

Un assistente digitale può suggerire un comportamento non solo perché lo ritiene probabile sulla base delle informazioni raccolte dalle interazioni con l’utente (abitudini, preferenze, comportamenti passati) ma perché conforme a criteri specialistici: può, ad esempio, ricordarci di assumere un farmaco e indicare l’orario migliore per farlo.
Questo è possibile perché non si limita più a prevedere i nostri bisogni sulla base delle informazioni che gli forniamo, ma applica anche protocolli clinici, regole di sicurezza e linee guida professionali.

Assistenti digitali: dalla previsione alla guida attiva nelle decisioni

Sono queste le cosiddette regole esperte: insiemi di istruzioni che traducono l’esperienza e le conoscenze di chi opera nei diversi settori e che, integrati con le funzioni predittive, trasformano l’assistente da semplice promemoria a guida attiva nelle decisioni (Blessing et al., 2024). Il risultato è che le raccomandazioni non sono semplici previsioni probabilistiche, ma indicazioni di valore che riflettono la competenza di un esperto resa operativa.

È anche per questo che molti utenti finiscono per fidarsi ciecamente di tali tecnologie: ciò che percepiscono non è un calcolo algoritmico, ma un consiglio che porta con sé l’autorevolezza implicita della competenza professionale (Aborisade et al., 2024; del Valle & Lara, 2024).

Ma cosa significa affidare ad algoritmi la gestione di porzioni sempre più ampie della nostra attività cognitiva, della nostra capacità di giudizio e, in ultima analisi, della nostra autonomia?

Delegare le decisioni agli assistenti digitali

I primi assistenti digitali servivano a gestire compiti semplici, come fissare appuntamenti o controllare dispositivi domestici. Oggi incidono direttamente sui processi cognitivi, portando molti utenti a delegare non solo la memoria, ma anche parte delle decisioni quotidiane, in un vero e proprio outsourcing cognitivo (Aghaziarati & Rahimi, 2025).

Questo salto avviene quando agli algoritmi predittivi si affiancano regole esperte, capaci di costruire scenari e proporre soluzioni che trasformano la tecnologia da semplice agenda vocale a partner decisionale.
Uno degli aspetti psicologicamente più rilevanti è la capacità di operare in tempo reale: notifiche, suggerimenti contestuali e risposte immediate riducono l’attrito cognitivo e inducono l’accettazione delle soluzioni proposte.

L’integrazione di riconoscimento vocale, linguaggio naturale e machine learning consente infatti risposte rapide e personalizzate, dalla gestione dei calendari al coordinamento di dispositivi connessi (Aborisade, Micheal & Joseph, 2024). Questa velocità riduce l’incertezza che accompagna molte decisioni e allo stesso tempo abitua ad accettare subito ciò che viene suggerito, indebolendo la capacità di valutarlo criticamente. Come osservano Aghaziarati e Rahimi (2025), molti utenti finiscono così per adottare le raccomandazioni senza ulteriori verifiche. La rapidità decisionale aumenta l’efficienza, a costo di ridurre lo spazio della riflessione personale.

Quando predizione e regole esperte orientano le nostre scelte

L’integrazione tra modelli predittivi e regole esperte rappresenta il cuore dell’evoluzione degli assistenti digitali. I primi anticipano bisogni attraverso l’analisi di grandi quantità di dati; le seconde traducono in algoritmi conoscenze professionali, come linee guida cliniche o protocolli tecnici.

Insieme producono raccomandazioni non solo statisticamente attendibili ma anche coerenti con standard specialistici (Aborisade et al., 2024). Se da un lato questa combinazione rafforza l’affidabilità percepita, dall’altro indebolisce la capacità di mettere in discussione i suggerimenti, con un progressivo impoverimento della competenza individuale (Blessing et al., 2024).
Qui entra in gioco il concetto di autonomia personale che si fonda su due dimensioni: competenza, cioè la capacità di gestire e deliberare sulle informazioni, e autenticità, ovvero la coerenza delle scelte con i propri valori (Del Valle & Lara, 2024).

Gli assistenti, soprattutto quando operano con criteri opachi, mettono a rischio entrambe: la competenza si indebolisce se l’utente non conosce i criteri alla base delle raccomandazioni, mentre l’autenticità è minacciata quando preferenze e credenze vengono progressivamente orientate dal sistema, pur apparendo come decisioni personali.

Trasparenza e consapevolezza nelle decisioni guidate dagli algoritmi

Del Valle e Lara (2024) mostrano come le architetture di scelta, ovvero il modo in cui un sistema organizza e presenta le opzioni, possano orientare le decisioni dell’utente senza che questi ne sia del tutto consapevole.

Questo meccanismo è noto come nudge, o “spinta gentile”: un piccolo intervento che non elimina le alternative, ma che le rende più o meno visibili, più o meno facili da scegliere. Applicato agli assistenti digitali, il nudge diventa particolarmente incisivo perché si combina con modelli predittivi in grado di intercettare vulnerabilità cognitive e anticipare preferenze.

Il rischio, in questi casi, non riguarda solo la possibilità di compiere scelte scorrette, ma la perdita di un controllo riflessivo: chi si affida abitualmente a tali spinte smette di interrogarsi sui motivi delle proprie decisioni e sviluppa dipendenza dal supporto esterno, con una progressiva riduzione della propria agency, cioè della capacità di percepirsi come autore delle proprie scelte e di esercitare un controllo attivo sul processo decisionale.

Gli autori propongono il Value Sensitive Design, un approccio che integra valori come autonomia e trasparenza fin dalla progettazione. Rendere chiare le logiche decisionali, permettere all’utente di accedere ai criteri che guidano le raccomandazioni e preservare margini di riflessione personale sono condizioni essenziali per mantenere un equilibrio sostenibile tra efficienza e autonomia.
Ciò che fa davvero la differenza è la capacità dell’utente di riconoscere come e perché riceve una raccomandazione.

Senza adeguata educazione digitale è difficile distinguere se una raccomandazione deriva da un calcolo probabilistico, da una regola esperta o da una loro combinazione, e questa incertezza incide direttamente sulla fiducia e sull’autonomia percepita.

Gli assistenti basati su predizione e regole esperte rappresentano un passo avanti notevole: consentono di affrontare decisioni complesse con rapidità e coerenza con standard professionali. Ma, come osserva Blessing et al. (2024), proprio questa forza può trasformarsi in debolezza se induce un affidamento acritico.

Il progresso si misurerà nella capacità di mantenere l’utente non come destinatario passivo di raccomandazioni, ma come soggetto consapevole e attivo del proprio processo decisionale.

Bibliografia

Aghaziarati, A., & Rahimi, H. (2025). The Future of Digital Assistants: Human Dependence and Behavioral Change. Journal of Foresight and Health Governance, 2(1), 52-61.

Blessing, A. I., Micheal, J., & Joseph, J. (2024). AI-Powered Personal Assistants: Enhancing Daily Life.

del Valle, J. I., & Lara, F. (2024). AI-powered recommender systems and the preservation of personal autonomy. AI & SOCIETY, 39(5), 2479-2491.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati