Proviamo allora a esaminare il potere di “iperpersuasione” dell’IA, ovvero la sua capacità di influenzare azioni e comportamenti degli utenti attraverso strategie personalizzate basate sui dati, che possono condurre in maniera occulta e subliminale al controllo sociale, ideologico o politico sull’individuo, orientandone scelte, decisioni e comportamenti.
Elaborando enormi quantità di dati e adattando i contenuti alle specifiche esigenze degli utenti (microtargeting), l’IA aumenta esponenzialmente il potere di influenza, persuasione e manipolazione delle PT su scala globale. Vengono inoltre esaminate le implicazioni etiche dell’iperpersuasione, analizzando le capacità di rafforzamento delle strategie dei persuasori (ad esempio, gruppi di potere economici o politici) e gli strumenti di controllo e manipolazione digitale degli individui.
Indice degli argomenti
Dalla captologia all’iperpersuasione dell’intelligenza artificiale
Sebbene l’abuso del potere persuasivo dell’IA da parte di attori malevoli comporti rischi significativi per l’individuo e la società, in questo articolo vengono suggerite quattro strategie complementari per mitigarne le conseguenze negative: proteggere la privacy per rafforzare l’autonomia dell’individuo; promuovere la concorrenza pluralistica tra i persuasori in un’ottica positiva per la società; garantire la responsabilità etica degli attori attraverso regolamentazione e allineamento con i valori umani e sociali; promuovere l’alfabetizzazione digitale e il coinvolgimento pubblico, rendendo più trasparenti e individuabili le strategie di persuasione.
Affrontando in modo proattivo le sfide dell’iperpersuasione dell’IA, il suo potere può essere sfruttato per supportare decisioni e comportamenti positivi in ambiti di empowerment dell’individuo (ad esempio, nei settori della didattica, della salute e della medicina), salvaguardando al contempo l’autonomia individuale e promuovendo una società sostenibile e resiliente al cambiamento tecnologico.
L’evoluzione dell’influenza digitale con l’iperpersuasione dell’intelligenza artificiale
L’intelligenza artificiale (IA) sta ormai evolvendo da mero strumento computazionale a potente agente di influenza sociale, trasformando il concetto di “tecnologia persuasiva” (PT) in un concetto più avanzato ma, a tratti, ancora opaco: quello di iperpersuasione (Hypersuasion) (Floridi, 2024).
Le radici di tale trasformazione affondano nella captologia (Captology), un neologismo coniato nel 1997 dallo scienziato comportamentale americano B. J. Fogg, docente alla Stanford University, per descrivere lo studio sistematico dei Computer As Persuasive Technologies (CAPT) (Fogg, 1997; 1998; 2003). Fogg ha definito la captologia come l’intersezione tra tecnologia informatica e persuasione, focalizzata sull’utilizzo di sistemi interattivi per rafforzare, modellare o modificare atteggiamenti, convinzioni e comportamenti, sottolineando l’importanza di mantenere un’agentività umana autonoma, libera da coercizione o inganno (Oinas-Kukkonen & Harjumaa, 2009).
Inizialmente, la captologia è stata vista come un campo di ricerca eticamente orientato, basato sulla cosiddetta “regola d’oro della persuasione”, secondo cui i creatori di una tecnologia persuasiva non dovrebbero mai cercare di convincere gli altri di qualcosa che essi stessi non accetterebbero (Berdichevsky & Neuenschwander, 1999).
La triade funzionale: strumento, medium e attore sociale
Il quadro concettuale fondamentale della captologia, agli inizi della sua introduzione, è una “triade funzionale”, che identifica i tre ruoli persuasivi che un computer può assumere. Questa cornice aiuta a comprendere come l’azione persuasiva possa essere incorporata nel design e nell’interazione, senza ridursi a un semplice messaggio: la tecnologia può infatti facilitare un’azione, modellare un’esperienza o simulare una relazione sociale.
Strumento: semplificazione e auto-monitoraggio
Strumento (Tool): il computer è un dispositivo tecnologico che facilita un’attività (ad esempio, riducendo la complessità o consentendo l’auto-monitoraggio) per rendere un obiettivo più semplice da raggiungere (Shahrom, Kassim, Humaidi, & Zamzuri, 2017). In questa logica, la persuasione è spesso legata alla rimozione degli attriti e all’ottimizzazione dei passaggi: ciò che prima era faticoso diventa più immediato, e la scelta “preferibile” appare più accessibile.
Medium: simulazione ed esperienza
Mezzo (Medium): il computer sfrutta la simulazione per creare esperienze su relazioni di causa-effetto, ambienti o oggetti, inducendo un cambio di atteggiamento o comportamento attraverso l’esperienza virtuale (Fogg, 2003). L’utente non viene soltanto informato, ma “portato dentro” uno scenario che rende più salienti conseguenze, emozioni o incentivi, producendo un effetto persuasivo basato sull’esperienza.
Attore sociale: supporto, norme e modelli
Attore Sociale (Social Actor): il computer è percepito come un’entità vivente autonoma, capace di offrire supporto sociale, fungere da modello di ruolo o sfruttare norme sociali per creare convincimento nell’utente (Atkinson, 2006). Qui il punto centrale è la relazione: l’interfaccia assume tratti sociali (feedback, approvazione, “compagnia”) e può attivare meccanismi di reciprocità, affiliazione e conformità.
Perché l’iperpersuasione dell’intelligenza artificiale supera il nudge
Oggi, con l’avvento dell’IA, la captologia si è evoluta sostituendosi al computer, inteso come mero dispositivo tecnologico: l’IA è al tempo stesso uno strumento, un mezzo e un attore sociale, mentre il computer è relegato al ruolo di interfaccia. Grazie alla sua potenza di calcolo, l’IA non rappresenta un semplice nudge (spinta gentile), ma costituisce un potente apparato di iperpersuasione in grado di agire su scala globale.
L’iperpersuasione rappresenta il potere intensivo e trasformativo dell’IA, capace di influenzare convinzioni, scelte e comportamenti degli utenti attraverso strategie personalizzate guidate dai dati (microtargeting), ovvero una strategia comportamentale in grado di influenzare gradualmente l’ambiente decisionale, spingendo gli utenti ad assumere determinati comportamenti pianificati da un apparato di potere, senza tuttavia percepire una limitazione della propria libertà di scelta.
L’iperpersuasione si configura dunque come una strategia di datificazione dei comportamenti, che sfrutta la capacità dell’IA di elaborare e gestire grandi volumi di dati (big data), identificando correlazioni che sfuggono alla cognizione e alla consapevolezza umana. L’obiettivo è creare profili cognitivi estremamente dettagliati, verso i quali indirizzare contenuti generati su misura, capaci di influenzare scelte, preferenze, atteggiamenti, decisioni e comportamenti individuali, stabilendo un controllo sugli utenti (Burtell & Woodside, 2023; Faraoni, 2023).
Questo potenziamento della capacità di persuasione, reso possibile dall’IA, minaccia di rendere l’individuo più esposto e indifeso, erodendo potenzialmente la sua autonomia e minando la sua libera agentività. Di seguito esamineremo come l’IA sfrutta i principi della captologia e della psicologia comportamentale, trasformandosi in uno strumento di persuasione di massa.
Come l’iperpersuasione rende l’IA un persuasore competitivo
L’IA come strumento di persuasione di massa si fonda su vantaggi strutturali che la rendono, in diversi contesti, un agente persuasivo artificiale superiore all’essere umano. Tali vantaggi non dipendono soltanto dalla rapidità di calcolo, ma dalla combinazione tra raccolta dei dati, adattività e capacità di intervento continuo, che consente strategie dinamiche e personalizzate.
Capacità tecniche e operative
- Capacità tecniche e operative: l’IA può sostenere pazientemente i dialoghi, effettuare un’ottimizzazione individuale basata sui dati, applicare strategie flessibili e diversificate, e intervenire su larga scala e a basso costo, superando i vincoli di tempo e luogo (Huang & Wang, 2023).
Asimmetria di profilo cognitivo
- Asimmetria di profilo cognitivo: l’IA può acquisire costantemente i dati dell’utente, trovare connessioni invisibili o difficilmente rintracciabili e creare un profilo cognitivo così accurato da conoscere abitudini, relazioni e soprattutto processi cognitivi e bias decisionali dell’individuo, sapendo più del soggetto stesso. In questo modo può fornire risposte in linea con preferenze e personalità, quindi facilmente convincenti (Faraoni, 2023).
Targeting del Sistema 1
- Targeting del Sistema 1: sfruttando questa conoscenza profonda dell’utente, l’IA (Sistema 0) può individuare i percorsi per influenzare il Sistema 1 (il “cervello primordiale”, istintivo ed emozionale), basato sui bias cognitivi, in modo occulto e inconsapevole (subliminale), aggirando il controllo razionale dell’individuo (Chiriatti et al., 2024).
Dal nudge all’hypernudge: manipolazione computazionale e dark patterns
L’iperpersuasione sposta il rischio etico dal nudge (inteso come “architettura di scelta” trasparente o semi-trasparente che influenza senza forzare) a una forma più invasiva di influenza: la manipolazione computazionale o Hypernudge (Faraoni, 2023).
L’Hypernudge è reso possibile dalla combinazione di big data e IA e si distingue per la sua capacità di adattare continuamente e in tempo reale l’ambiente di scelta digitale in base al profilo cognitivo dell’utente, perfettamente ricostruito dall’IA. Questo processo è definito “trasparente” non perché sia chiaro all’utente, ma perché è invisibile: l’utente guarda attraverso la tecnologia, non alla tecnologia, e fatica a riconoscere lo schema di una possibile azione persuasoria e il suo disegno strategico.
Questa forma di manipolazione computazionale (compusuasion) utilizza i dark patterns di seconda generazione, nativamente ingannevoli, sfruttando vulnerabilità cognitive come la pigrizia di produttività (tendenza a leggere frettolosamente e seguire i percorsi di minore resistenza) e la fatica decisionale (decision-making fatigue), cioè l’esaurimento causato dal sovraccarico informativo (cognitive overload), che spinge l’utente ad accettare i suggerimenti algoritmici, superando le barriere della consapevolezza critica (Balaž & Predavec, 2017; Gallo, 2024).
L’obiettivo, in questo caso, non è informare o persuadere razionalmente (Sistema 2), ma sfruttare le scorciatoie cognitive del Sistema 1 (euristiche o bias cognitivi), facilmente bypassabili da un agente artificiale in grado di profilare ogni singolo utente e adattare l’azione persuasoria individuale su scala collettiva.
Psicologia delle masse e iperpersuasione
L’IA può essere utilizzata per influenzare non solo il singolo utente, ma intere porzioni della rete a livello globale, richiamando i principi della psicologia delle masse.
Secondo la psicologia delle folle, le masse sono caratterizzate da una riduzione della capacità di pensiero critico e da una maggiore suscettibilità alla suggestione (Le Bon, 2025). In questo stato di moltitudine indifferenziata, le idee vengono trasmesse per contagio, formando una mentalità collettiva e un pensiero comune che possono essere plasmati attraverso la comunicazione simbolica delle immagini e la manipolazione dell’opinione pubblica, inibendo l’agentività autonoma razionale.
Si pensi, ad esempio, all’enorme capacità di persuasione sulle folle esercitata nella Germania nazista attraverso l’operato di Joseph Goebbels, il cui obiettivo era il radicamento dell’ideologia nazionalsocialista nella mente del popolo tedesco e l’asservimento incondizionato di milioni di individui al potere totalitarista del regime. La differenza tra persuasione di massa tradizionale e digitale sta nel differente livello di pressione esercitata sull’obiettivo e nell’utilizzo di media differenti.
Nel primo caso, la pressione dell’azione persuasoria era uniforme, indifferenziata e impersonale, in quanto indirizzata indistintamente alla massa tramite i mass media classici della passata era industriale (Chomsky & Herman, 2014). Nel caso della persuasione digitale, invece, la pressione è targetizzata, selettiva e individualizzata, in quanto l’IA (medium digitale dell’attuale era postindustriale) permette di profilare accuratamente ogni singolo utente: l’azione persuasoria può essere esercitata a livello individuale (microtargeting), pur mantenendo la stessa pressione e gli stessi effetti a livello di massa (macrotargeting).
Questa dinamica permette alle grandi aziende tecnologiche (come Google, Microsoft, Amazon, Facebook, Twitter, etc.) di mantenere un elevato livello di sorveglianza e controllo sugli utenti a livello globale attraverso le proprie architetture digitali, datificando le esistenze degli individui (Zuboff, 2019).
L’IA potenzia e amplifica il meccanismo digitale di persuasione di massa attraverso queste azioni:
- Data mining: estrazione dei dati personali degli utenti, i quali forniscono volontariamente (ossia senza costrizione) le proprie informazioni in cambio di architetture digitali ludiche e piacevoli, permettendo alle corporations tecnologiche di profilarli in un’ottica predittiva e controllarli, plasmando e orientando i loro comportamenti secondo strategie economiche, politiche, ideologiche o di altra natura.
- Filtri algoritmici (Filter Bubbles ed Echo Chambers): l’IA può confinare gli individui in “bolle informative” che restringono l’esposizione a specifici contenuti e opinioni, rafforzando e plasmando le convinzioni esistenti e creando un’impressione di consenso artificiale, pur mantenendo uniformità a livello sistemico.
- Generazione di contenuti di massa persuasivi: l’IA generativa (GenAI) può produrre contenuti (testi, immagini, audio, video) indistinguibili da quelli umani (deepfake), personalizzati e ottimizzati, tali da innescare risposte emotive specifiche, sfruttando i bias cognitivi su vasta scala.
- Asimmetria informativa: l’IA può orientare l’opinione pubblica presentando le informazioni in modo selettivo o asimmetrico, creando una risonanza personale con la narrazione desiderata e minimizzando le prospettive opposte, il tutto sotto l’apparenza di neutralità.
L’iperpersuasione, applicata su scala di massa, è quindi in grado di influenzare trend di mercato, tendenze politiche, ideologie e opinioni pubbliche, creando una crisi di fiducia sociale in cui diventa impossibile distinguere tra realtà e contenuto manipolativo artificiale.
Si vedano, ad esempio, le operazioni di guerra cognitiva e disinformazione messe in atto dalla Russia all’indomani dell’invasione dell’Ucraina, per imporre ai paesi occidentali una narrazione manipolata sulla base di precise strategie informative, allo scopo di alterare l’opinione pubblica degli stati alleati attraverso azioni di persuasione gestite da sistemi di IA, miranti a indebolire la tenuta del consenso.
Effetto di conformità: quando l’IA diventa un “pari” influente
Mentre la captologia si concentrava tradizionalmente sulle interazioni uno-a-uno, ovvero uomo-macchina (Fogg, 1998), l’IA ha la capacità di sfruttare un meccanismo più potente di influenza sociale: l’effetto di conformità o prova sociale (Cialdini, 2022).
Un recente esperimento, condotto presso l’University of Electro-Communications (UEC) di Chofu (Tokyo), ha dimostrato che l’effetto di conformità si manifesta in modo robusto anche quando l’individuo viene persuaso in un dialogo “a tre”, che include un Agente AI (denominato “agente persuasivo” o PA) con il ruolo di “pari” rispetto al partecipante umano.
Il PA viene sottoposto alla stessa operazione di persuasione cui è soggetto l’agente umano ad opera di un terzo attore (un altro agente artificiale o “agente persuasore”): il comportamento di accettazione o resistenza alla persuasione da parte del PA funge da moltiplicatore della persuasione stessa, innescando comportamenti conformi da parte dell’agente umano (Sasaki & Inaba, 2025).
Il potere dell’accettazione del “pari” artificiale
I risultati chiave dello studio sull’induzione dell’effetto di conformità mediato dall’IA hanno dimostrato la portata di questa dinamica:
- Accettazione dell’agente persuasivo: quando il PA ha accettato la persuasione a metà del dialogo, si è verificato un aumento significativo sia della persuasività percepita sia del cambiamento effettivo di atteggiamento nell’agente umano.
- Ruolo dell’icebreaker (rompighiaccio): il massimo cambiamento di atteggiamento è stato raggiunto quando l’accettazione del PA è stata preceduta da una sessione di icebreaking (chat informale per creare un senso di cameratismo o rapport iniziale). Questo suggerisce che l’icebreaker aumenta familiarità e fiducia, attivando la motivazione all’affiliazione che amplifica e radica l’effetto di conformità a un livello più profondo nel partecipante umano.
- Effetto soppressivo: al contrario, la presenza di un agente persuasivo che resisteva alla persuasione (“agente non persuaso” o NPA) ha portato alla soppressione del cambiamento di atteggiamento nei partecipanti umani, risultato inferiore persino alla condizione di controllo (senza PA).
L’analisi linguistica ha confermato che l’accettazione del PA ha agito come un innesco diretto e immediato (trigger), aumentando l’accettazione da parte del partecipante umano, e che la resistenza dell’AI antagonista (NPA) ha innescato espressioni più riservate e scettiche nell’agente umano stesso.
Questo dimostra che il design del comportamento del “pari” artificiale è cruciale: un’IA che si conforma a uno specifico disegno strategico amplifica la persuasione degli agenti umani, mentre un’IA che resiste la sopprime. È dunque possibile esercitare un’azione persuasoria sugli utenti attraverso sistemi di IA percepiti come affidabili e degni di fiducia dagli utenti umani.
Implicazioni nel cambiamento comportamentale positivo
L’efficacia dell’IA è stata dimostrata anche in contesti volti a promuovere comportamenti positivi (come, ad esempio, nel settore della salute e della sanità). Un esempio è il caso del Driving Feedback Avatar (DFA), sviluppato secondo un approccio di Human-Centered Design (Dittrich, 2021).
Il DFA è un’interfaccia visiva in-car che fornisce feedback al conducente sulla sua guida aggressiva, utilizzando un avatar virtuale il cui stato emotivo (che si arrabbia con la guida aggressiva o si rilassa con la guida non aggressiva) media il feedback stesso, operando un convincimento sull’utente umano. Questo sistema ha lo scopo di mitigare la guida aggressiva, che rappresenta un rilevante problema sociale e sanitario.
Nonostante un design etico e centrato sull’uomo (basato su Gamification, feedback emotivo e principi della Persuasive Technology, che mirano a minimizzare la reattanza psicologica attraverso l’ingaggio ludico dell’interfaccia), il DFA ha però mostrato effetti deboli e in parte inattesi sulla guida aggressiva. Questo sottolinea che la captologia etica può aprire la strada a cambiamenti positivi, ma la sua attuazione è complessa e richiede un design estremamente sfumato per superare l’inerzia comportamentale in domini ad alta autonomia e ad elevato rischio.
Rischi per democrazia e libertà nell’iperpersuasione dell’intelligenza artificiale
L’uso dell’IA come strumento di persuasione di massa rappresenta un rischio sistemico per la società, soprattutto per la sua capacità di manipolare il consenso a beneficio dei gruppi industriali che detengono il controllo della tecnologia e dei gruppi di potere che ambiscono al controllo sociale.
La minaccia principale risiede nella capacità dell’IA di depotenziare e inibire il senso critico dell’individuo, abbassando la soglia di vigilanza alla persuasione e compromettendo la sua autonomia decisionale e la sua capacità di compiere scelte in modo autonomo e avveduto. Questa interferenza algoritmica occulta si realizza attraverso l’Hypernudge che, proprio grazie all’IA, opera a un livello di precisione e intensità senza precedenti, aggirando le capacità critiche e razionali dell’individuo e sfruttando le vulnerabilità del Sistema 1.
Il risultato è un inquinamento dell’ecosistema digitale con contenuti sintetici e manipolativi che rendono difficile trovare fonti di informazione affidabili, minando la fiducia nei processi democratici di costruzione del consenso, con rischi per la coesione sociale e la tenuta degli stati. Se l’oggettività della realtà viene meno nel discorso mediatico, gli individui tendono a fare affidamento su scorciatoie mentali e bias cognitivi, esacerbando la polarizzazione e mettendo a dura prova le istituzioni democratiche.
Le preoccupazioni sono state riconosciute e richiamate a livello internazionale da numerose organizzazioni come l’OHCHR, l’UNGA, l’UNESCO e l’OECD. L’uso combinato di IA e Big Data è ritenuto capace di limitare le opzioni degli utenti, influenzando le loro opinioni e persuadendoli a operare scelte non conformi ai loro interessi, ragion per cui è necessario elaborare nuovi schemi di tutela.
La necessità di un “diritto all’autodeterminazione mentale”
La legislazione esistente, focalizzata sulla privacy e sull’autodeterminazione informativa (rispetto della sfera personale e diritto alla non divulgazione di informazioni personali senza consenso), è ormai insufficiente a proteggere gli utenti dalle insidie della persuasione digitale attraverso sistemi di IA. Tali diritti proteggono il pensiero espresso o la non-divulgazione dei dati, ma non proteggono il processo mentale di formazione della scelta e di determinazione del consenso.
Di fronte alle potenzialità delle tecnologie manipolative guidate dall’IA, che possono interferire con la formazione stessa del pensiero, emerge l’esigenza di un nuovo diritto fondamentale e autonomo, esteso all’utilizzo dei sistemi di IA, non ancora formalmente codificato ma richiamato indirettamente da principi costituzionali e leggi che tutelano la libertà personale e l’integrità psicofisica dell’individuo: il diritto all’autodeterminazione mentale.
Questo neuro-diritto esprime la necessità di proteggere l’autonomia e l’integrità mentale dell’utente da operazioni persuasive basate sull’utilizzo dell’IA, garantendo la sovranità dell’individuo sulla propria mente. Esso deve includere esplicitamente il diritto a non essere “hypernudged out” dalla propria autodeterminazione mentale.
Quattro strategie per governare l’iperpersuasione dell’intelligenza artificiale
Di fronte ai crescenti rischi di manipolazione e condizionamento, è fondamentale che l’IA sia diretta, sin dalle fasi di programmazione e addestramento, a un uso etico e positivo. L’IA non è intrinsecamente buona o cattiva, ma è una forza “a doppia carica”, la cui valutazione e le cui conseguenze dipendono dal tipo di obiettivo perseguito e dagli attori che la controllano.
Per garantire che l’IA rimanga una tecnologia neutrale e a vantaggio di tutti, sono necessarie quattro strategie complementari:
- Protezione della privacy e autonomia: rafforzare e salvaguardare la privacy (GDPR e diritto all’autodeterminazione informativa) è un primo passo per limitare la personalizzazione estrema dei contenuti persuasivi resa possibile dall’IA, inibendo i rischi di manipolazione.
- Promozione della competizione pluralistica: poiché è difficile evitare l’Hypersuasion, la soluzione strategica può risiedere nel rendere pluralistico e diversificato il “mercato dell’iperpersuasione”, definito “fabbrica del consenso” da Noam Chomsky (2014) o “capitalismo della sorveglianza” da Shoshana Zuboff (2019). L’esposizione a una varietà di messaggi persuasivi e contrastanti, gestita da competitors con interessi divergenti, permetterebbe all’utente, opportunamente informato e dotato di autonomia critica, di affrontarli e risolverli secondo le proprie valutazioni, riducendo i rischi di un controllo monopolistico da parte di pochi gruppi di potere.
- Accountability e Governance: è imperativo che i sistemi di IA siano soggetti a una rigida regolamentazione e a una verificabilità algoritmica (algorithmic auditability) per garantire trasparenza e allineamento con i valori umani, in linea con l’AI Act.
- AI Literacy e pensiero critico (“profilassi cognitiva”): è cruciale rafforzare la resilienza individuale attraverso programmi avanzati e diffusi di alfabetizzazione digitale su scala globale. La formazione sull’IA, o “profilassi cognitiva”, è la difesa ultima contro i rischi di manipolazione digitale, poiché rafforzerebbe la capacità di pensiero critico e analisi della realtà da parte degli utenti, sottraendoli alle insidie di un mondo virtuale.
Conclusioni
L’intelligenza artificiale ha ridefinito radicalmente il panorama dell’influenza digitale. La captologia di Fogg si è evoluta sino a sfociare nell’iperpersuasione, un fenomeno guidato dai dati che sfrutta le capacità dell’IA di realizzare profiling cognitivi granulari e iperselettivi per raggiungere e manipolare l’individuo nel suo Sistema 1.
Le dinamiche di gruppo, come l’effetto di conformità, non sono più limitate all’interazione umana, ma possono essere amplificate dalla presenza di un “agente persuasore” artificiale, dimostrando il potenziale dell’IA di fungere da “persuasore digitale di massa”, in grado di influenzare a livello collettivo opinione e comportamento degli utenti con una precisione prima inimmaginabile.
Questo potere, pur potendo essere incanalato verso obiettivi positivi e benefici, introduce un rischio esistenziale per i fondamenti della società democratica, soprattutto in vista di un possibile avvento dell’IA generale (AGI), precorrendo i pericoli della singolarità tecnologica e di una superintelligenza artificiale (ASI). La manipolazione computazionale, operata attraverso l’Hypernudge, rischia di minare libertà e autonomia individuale, interferendo con la formazione del pensiero e delle libere scelte dell’utente.
Se l’IA venisse usata da gruppi di potere occulti e senza scrupoli per manipolare il consenso e innescare l’effetto di conformità, ovvero come subdola forma di potere e controllo sociale, la sovranità cognitiva del cittadino sarebbe violata, mettendo in pericolo il tessuto democratico delle società liberali.
Per salvaguardare la libertà individuale e garantire che l’IA rimanga una tecnologia neutrale e a vantaggio di tutti, è necessario un intervento normativo e culturale. L’introduzione di un “diritto all’autodeterminazione mentale”, la promozione di una competizione pluralistica fra i players tecnologici, la regolamentazione normativa e la diffusione di una robusta alfabetizzazione digitale a livello sociale sono misure essenziali per eludere i pericoli della persuasione digitale di massa.
Solo attraverso un’attenta governance digitale, in grado di bilanciare innovazione e protezione dei diritti fondamentali, si potrà evitare che l’IA diventi uno strumento di controllo sociale nelle mani di pochi, assicurando che le sue enormi potenzialità servano l’interesse dell’umanità e non vengano impiegate come strumento di manipolazione degli utenti.
Bibliografia
Atkinson, B. M. C. (2006). Captology: a critical review. Lecture Notes in Computer Science, 171-182. https://doi.org/10.1007/11755494_25.
Balaž, Z., & Predavec, D. (2017). Cognitive Cybernetics vs. Captology. Advances in Science, Technology and Engineering Systems Journal, 2(6), 107-118. https://doi.org/10.25046/aj020614.
Berdichevsky, D., & Neuenschwander, E. (1999). Toward an ethics of persuasive technology. Communications of the ACM, 42(5), 51-58.
Burtell, M., & Woodside, T. (2023). Artificial influence: An analysis of AI-driven persuasion. arXiv preprint arXiv:2303.08721.
Chomsky, N., & Herman, E. S. (2014 [1988]). La fabbrica del consenso. La politica e i mass media. Milano: il Saggiatore.
Chiriatti, M., Ganapini, M., Panai, E., Ubiali, M. & Riva, G. (2024). The case for human–AI interaction as system 0 thinking. Nature Human Behaviour, 8, 1829-1830. https://doi.org/10.1038/s41562-024-01995-5.
Cialdini, R. B. (2022 [1993]). Le armi della persuasione. Milano: Giunti.
Cilardo, C. (2023). Tecnologie persuasive: così influenzano le nostre decisioni. Agenda Digitale (9 agosto). https://www.agendadigitale.eu/cultura-digitale/le-tecnologie-persuasive-cosi-influenzano-le-nostre-decisioni/.
De Vries, P., Oinas-Kukkonen, H., Siemons, L., Beerlage-de Jong, N., & van Gemert-Pijnen, L. (Eds.) (2017). Persuasive Technology – Development and Implementation of Personalized Technologies to Change Attitudes and Behaviors, Lecture Notes in Computer Science. Cham, CH: Springer.
Dehnert, M., & Mongeau, P. A. (2022). Persuasion in the age of artificial intelligence (AI): Theories and complications of AI-based persuasion. Human Communication Research, 48(3), 386-403.
Dittrich, M. (2021). Persuasive Technology to Mitigate Aggressive Driving: A Human-centered Design Approach (dissertation). Universität Würzburg, DE. https://doi.org/10.25972/OPUS-23022.
Faraoni, S. (2023). Persuasive technology and computational manipulation: Hypernudging out of mental self-determination. Frontiers in Artificial Intelligence, 6. https://doi.org/10.3389/frai.2023.1216340.
Floridi, L. (2024). Hypersuasion – On AI’s Persuasive Power and How to Deal With It. Philosophy & Technology, 37(64). https://doi.org/10.1007/s13347-024-00756-6.
Fogg, B. J. (1997). Captology: the study of computers as persuasive technologies. CHI ’97 Extended Abstracts on Human Factors in Computing Systems, Corpus ID: 5838989.https://doi.org/10.1145/1120212.1120301.
Fogg B. J. (1998), Persuasive computers: Perspectives and research directions. CHI ‘98: Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 225-232. https://doi.org/10.1145/274644.274677.
Fogg, B. J. (2003). Persuasive technology: using computers to change what we think and do. Amsterdam-Boston: Morgan Kaufmann.
Gallo, V. (2024). Dark pattern: quali sono e come funzionano le tecniche che manipolano le nostre azioni online. Agenda Digitale (21 giugno). https://www.agendadigitale.eu/sicurezza/privacy/dark-pattern-quali-sono-e-come-funzionano-le-tecniche-che-manipolano-le-nostre-azioni-online/.
Huang, G., & Wang, S. (2023). Is artificial intelligence more persuasive than humans? A meta-analysis. Journal of Communication, 73(6), 552-562.
Le Bon, G. (2025 [1895]). La psicologia delle folle. Torino: Bollati Boringhieri.
Moioli, F. (2025). Persuadere o informare? I problemi della doppia natura dell’IA. Agenda Digitale (12 marzo). https://www.agendadigitale.eu/cultura-digitale/persuadere-o-informare-i-problemi-della-doppia-natura-dellia/.
Nyström, T., & Stibe, A. (2020). When Persuasive Technology Gets Dark?. In M. Themistocleous, M., Papadaki, M. M. Kamal (Eds.) Information Systems. EMCIS 2020. Lecture Notes in Business Information Processing, Vol. 402. Cham, CH: Springer.
Oinas-Kukkonen, H., & Harjumaa, M. (2009). Persuasive Systems Design: Key Issues, Process Model, and System Features. Communications of the Association for Information Systems, 24(28), 485-500.
Orji, R., & Moffatt, K. (2018). Persuasive technology for health and wellness: State-of-the-art and emerging trends. Health Informatics Journal, 24(1), 66-91.
Sasaki, R., & Inaba, M. (2025). When AI Gets Persuaded, Human Follow: Inducing the Conformity Effect in Persuasive Dialogue. arXiv:2510.04229. https://doi.org/10.48550/arXiv.2510.04229.
Shahrom, M., Kassim, E. S., Humaidi, N., & Zamzuri, N. H. (2017). A Captology Study on Behavior Model for Persuasive Ubiquitous Technology. International Journal of Machine Learning and Computing, 7(5), 162-166.
Teti, A. (2011). La captologia: la tecnologia della persuasione in Rete. In PsychoTech. Il punto di non ritorno: la tecnologia che controlla la mente. Milano: Springer. https://doi.org/10.1007/978-88-470-1815-0_8.
Zuboff, S. (2019). Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri. Roma: Luiss University Press.











