Dominati dalla tecnologia: i rischi che corriamo se rinunciamo al controllo delle nostre azioni - Agenda Digitale

persuasione occulta

Dominati dalla tecnologia: i rischi che corriamo se rinunciamo al controllo delle nostre azioni

Lasciandoci dominare dalla tecnologia (e da chi la progetta) rinunciamo inconsciamente al controllo sulle nostre scelte a beneficio della comodità e dell’immediato soddisfacimento di un bisogno. Finche si tratta di lasciar decidere la temperatura del bucato alla lavatrice smart è un conto, ma i rischi che corriamo sono seri

14 Ott 2021
Daria Grimaldi

docente di psicologia sociale delle comunicazioni di massa, Università di Napoli Federico II

Ho una lavatrice intelligente che è più intelligente di me: lei “individua la morbidezza e il peso dei capi per impostare il lavaggio ottimale” mentre io mi barcameno confusa nell’incrociare le indicazioni sulle etichette con le istruzioni sull’interfaccia. Così lascio che comandi lei.

Lo stesso per Google Maps, che ha più talento di me nel portarmi dove devo andare: mi fido ciecamente.

Senza dubbio la tecnologia ha reso la nostra vita più facile, comoda, sicura e potremmo dire anche divertente, considerando i balletti di TikTok e i molti altri contenuti leggeri che produciamo e consumiamo durante le nostre giornate. Manteniamo amicizie su Facebook, cerchiamo lavoro su Linkedin e partner su Tinder e ci facciamo dire dall’IWatch quanta attività dobbiamo fare. [1]

Contro gli algoritmi che ci manipolano, l’educazione psicosociale degli utenti

Per ogni esigenza abbiamo realizzato una App che possa soddisfarla, anzi, in realtà anche per le esigenze che nemmeno sapevamo di avere, se pensiamo alla App Nothing che non fa assolutamente nulla ed è stata scaricata oltre novantamila volte.[2]

Quasi tutto ciò che facciamo coinvolge la tecnologia in un modo o nell’altro e l’incredibile sviluppo degli ultimi anni si basa essenzialmente su due presupposti che sono anche la base della natura umana: il nostro essere animali sociali ed il preferire scorciatoie cognitive che soddisfino la nostra pigrizia mentale.[3] Aspetti basilari, questi, del nostro funzionamento psicosociale che lasciano un ampio margine di azione alle tecnologie.

Il problema si pone se all’aumentare della complessità e performatività delle tecnologie diminuiscono alcune competenze cognitive degli individui e se questo può comportare una perdita di controllo sui propri processi decisionali.

Parola d’ordine: semplificare

Paradossalmente nell’era della complessità, ciò che rende efficace una tecnologia e diffuso il suo uso è proporzionale a quanto riesce a semplificare la vita dell’utente medio, risparmiargli impegno, apprendimento, spostamento, azioni. Più risponde al dominio della semplificazione più ha potenzialità di divenire usata e diffusa.

WHITEPAPER
Cloud Contact Center: scopri come scegliere i giusti KPI e migliorare le performance degli operatori
Big Data
Cloud

A che prezzo? Ormai lo sappiamo, il prezzo siamo noi. Eppure, siamo disposti a rinunciare alla nostra individualità ed alla nostra intimità pur di avere accesso, facile e veloce, a benefici immediati.

L’intera economia si è sviluppata e si sta sviluppando attorno a questo processo: sempre di più i dati sono la moneta di scambio di cui la maggior parte degli utenti non comprende e pondera realmente il valore.

Più noi forniamo dati di ogni tipo, attraverso iscrizioni, cookies, sondaggi e così via, più veniamo targhettizzati ed attraverso la nostra bolla ci viene costruito un mondo su misura, all’interno del quale siamo estremamente manipolabili.

Tecnologie e persuasione

Dal momento che la familiarità e la conoscenza del soggetto sono il prerequisito per la persuasione, la disponibilità di informazioni su noi ci rendono i perfetti bersagli del processo persuasivo che è alla base della progettazione delle tecnologie della comunicazione, dai computer ai social network.

La Caotologia di BJ Fogg ci ha insegnato l’esistenza di tre intenti alla base della persuasione delle tecnologie:

  • uno endogeno, che riguarda l’obiettivo specifico del progettista,
  • uno esogeno, che riguarda gli obiettivi che potremmo definire sociali, relazionali, per cui un soggetto convince un altro all’uso di uno strumento;
  • uno autogeno, per cui i comportamenti indotti dall’uso di uno strumento sono espressione delle esigenze e dei desideri del soggetto stesso.[4]

Il punto essenziale è che a tutti e tre i livelli la manipolazione non viene considerata dagli attori sociali come un problema, nè realmente contemplata nell’ambito del processo di uso ed adozione.

Soprattutto nel caso in cui il soggetto integra nella propria quotidianità una tecnologia spontaneamente – quindi rispondendo a quello che Fogg ha indicato come l’intento autogeno – la dimensione persuasiva della relazione uomo-macchina sarà del tutto oscurata, ma ci si concentrerà sulla soddisfazione immediata e cieca del bisogno, tralasciando gli effetti a lungo termine.

Le strategie di manipolazione dei social network

Facciamo l’esempio dei social network. Quando ci iscriviamo ad un social con l’intendo di restare connessi, in realtà stiamo attivando una serie di processi di cui non siamo pienamente consapevoli. Lo strumento comincerà a studiarci, proponendoci attraverso notifiche insistenti o elementi in evidenza ciò che ritiene più adatto a noi, con l’unico reale intento di trattenerci il più a lungo possibile all’interno della piattaforma, proponendoci un mondo su misura e contenuti (e prodotti) ritagliati sul profilo che gli abbiamo permesso di costruirsi.

Le dinamiche di dipendenza che si innescano sono prodotte da strategie di manipolazione note ai progettisti, meno note agli utenti. Per questi ultimi la gratificazione dei comportamenti immediati, il like dell’amico, il post divertente, l’articolo interessante, sono più importanti ed urgenti delle riflessioni sulle tracce lasciate in rete. Come dice Tristan Harris nell’ormai celebre documentario The Social Dilemma, il social ha i suoi obiettivi e ha i suoi mezzi per perseguirli, usando la stessa psicologia contro gli utenti.[5]

Di fatto, uno dei presupposti dello sviluppo delle tecnologie è senza dubbio l’estrema facilità con cui possiamo utilizzarle: dalla rivoluzione delle interfacce user friendly alle progettazioni sempre più sofisticatamente orientate all’usabilità utente.

Alexa con la sua interfaccia vocale è l’esempio estremo di questa semplificazione: un bimbo di pochi anni può chiedere ed ottenere risposta semplicemente parlando con l’assistente intelligente.

D’altro canto, gli strumenti intelligenti apprendono su di noi potenziando sé stessi ad ogni azione successiva.

Il modello 3-P della progettazione

Alla base di tutto la stretta dipendenza da fattori tecnologici intelligenti (design, prodotti informatici interattivi, web, desktop e altri) comporta che le tecnologie vengano utilizzate per influenzare gli atteggiamenti, le credenze, l’apprendimento e il comportamento delle persone. L’obiettivo è il controllo sull’utente e la conoscenza delle sue motivazioni come base per la manipolazione attraverso il modello 3-P della progettazione, che si impegna ad avere componenti persuasive, permissive e pervasive.[6]

La capacità del cervello umano di apprendere è enorme e creata per attività intellettuali impegnative attraverso l’azione dei due sistemi di ricezione e di pensiero reciprocamente indipendenti: la metà sinistra del cervello che analizza, scrive, legge, parla e riceve logicamente e la metà destra, emotiva e associativa, che utilizza prevalentemente processi intuitivi.

Considerando che le emozioni piacevoli hanno effetti molto positivi sulla motivazione all’apprendimento, così come sulle convinzioni di abilità, l’autoregolazione e l’elaborazione delle informazioni, chi progetta ha pienamente interesse a far leva sui processi emotivi ed intuitivi, inibendo la riflessione a fronte di un aumentando della motivazione.

Perdita di controllo

Nell’era della complessità, in sostanza, sta accadendo che demandiamo la gestione del pensiero complesso alle tecnologie ricavandone una disabitudine al ragionamento ed all’approfondimento che va ad incidere sulla performatività del nostro sistema cognitivo.

Se già siamo avari cognitivi, le nuove abitudini ci portano ad esserlo sempre di più, rendendoci, di contro, assolutamente necessarie quelle che finiscono per essere delle vere e proprie “protesi cognitive”.

“Il medium popolare plasma ciò che vediamo e come lo vediamo” – sostiene Nicholas Carr – e l’inconsapevolezza di questo processo è l’aspetto più critico.[7]

Ci stiamo disabituando a riflettere e ad approfondire, sempre meno propensi al pensiero lineare ed alla cognizione “data driven”, quella basata sull’analisi lenta ed accurata dei fatti, ma ci sentiamo potenzialmente onniscienti, dal momento che Internet è essenzialmente una fonte illimitata di informazioni, accessibili da ovunque in pochi click, attraverso un processo molto più rapido e “schema driven”, quindi basato su dati già impacchetati nella nostra mente.

L’inversione dell’effetto Flynn

Stiamo osservando una inversione dell’effetto Flynn, la teoria secondo la quale gli sviluppi socioculturali del ventesimo secolo, come maggiore accesso all’istruzione e una migliore alimentazione, hanno generato storicamente un aumento del QI medio nel passaggio da una generazione ad un’altra.[8]

Un dato di massima, che andrebbe approfondito per via della complessità del concetto di intelligenza, che però ci fornisce informazioni su una tendenza che riscontriamo su ampia scala nella Rete, dove la grande diffusione dell’analfabetismo funzionale è quotidianamente in mostra nei commenti insensati e nelle acritiche condivisioni di fake news.

Il problema principale è che la riduzione di capacità cognitive sta avvenendo a causa di una serie di processi che, come afferma Flynn, non hanno nulla a che fare con i limiti della nostra mente, ma questo effetto comporterà molto probabilmente un facile sfruttamento dell’intelligenza delle persone.[9]

L’atrofizzazione del pensiero complesso e delle capacità astrattive, la sostituzione del pensiero lineare con quello reticolare vanno collocate nell’ambito del contesto di sovraccarico informativo in cui quotidianamente ci muoviamo.

L’impatto dell’iperstimolazione tecnologica sull’intelligenza emotiva

Un impatto importante, ad esempio, lo viviamo sulla nostra intelligenza emotiva, dal momento che diventiamo letteralmente vittime della fatica decisionale a causa dell’iperstimolazione tecnologica.

L’intelligenza emotiva ha quattro componenti chiave – autogestione, autoconsapevolezza, consapevolezza sociale e gestione delle relazioni – ma l’iperstimolazione a cui siamo sottoposti sta sfidando ciascuna di esse.

La tecnologia può creare stress, sia reale che percepito, andando ad influenzare tutte e quattro le componenti dell’intelligenza emotiva il che potrebbe condurci all’incapacità di pensare o funzionare nella società.

Una delle principali preoccupazioni rispetto a questa tendenza è la mancanza di concentrazione, che non solo riduce l’intelligenza generale, ma influisce sulla nostra capacità di attenerci a compiti complessi e sulla capacità di prendere decisioni affidabili. [10]

La volatilità delle conoscenze è senza dubbio un problema: c’è una pressione universalmente crescente sul fatto che ciò che è importante ora non lo sarà nel giro di pochissimo, il che per altro svalorizza peso e ruolo delle conoscenze.

L’effetto Google o amnesia digitale

Inoltre, la quantità di informazioni disponibile online comporta un diffuso falso senso di competenza; con quello che viene definito l’effetto Google o amnesia digitale, si insinua la convinzione che tutto quello che è rimandabile e trovabile nella rete non vale la pena di essere trattenuto nella mente, giacché può essere recuperato alla bisogna ed utilizzato con la stessa disinvoltura di chi il contenuto lo ha effettivamente approfondito. [11]

Questo non riguarda solo le masse, ma anche gli ambienti accademici, dal momento che gli studenti mostrano abilità e competenze di base in costante deterioramento: “È quasi come se fossero ciechi”, afferma il professor Greg Foley, descrivendo la qualità dei lavori presentati da molti dei suoi studenti universitari. [12]

Conclusioni

Diciamo la verità, non sembra così lontano un futuro di totale collaborazione uomo-macchina, in cui le tecnologie intelligenti prenderanno in autonomia la maggior parte delle decisioni, sostituendosi del tutto agli esseri umani. Uno studio congiunto tra l’Università di Oxford e l’Università di Yale di qualche anno fa ha previsto che tra meno di cinquant’anni l’intelligenza artificiale automatizzerà tutti i compiti umani e nei prossimi centoventi anni tutti i lavori che oggi sono discrezione degli esseri umani, questo avrà considerevoli impatti sociali ed etici.[13] A questo si aggiungano le futuristiche potenzialità annunciate del “metaverso”, l’ecosistema decentralizzato e ibrido, sia digitale che fisico, frutto dell’interconnessione di esperienze, probabilmente in uno spazio 3D. [14]

Il mondo descritto nei romanzi distopici come, ad esempio, Feed di M.T. Andersen non sembra così improbabile.[15]

Senza dubbio va tenuto presente che uno dei presupposti della psicologia sociale sulla natura umana è che le persone hanno il potenziale incredibile di adattamento e di resistenza alle sfide di un mondo in rapido cambiamento.[16]

Si apre, quindi, un divario sempre più grande tra i progressi tecnologici e le capacità umane, rendendo così la persona media sempre meno capace di sfruttare al meglio le risorse a sua disposizione e passiva rispetto ai processi manipolativi che dominano strutturalmente gli strumenti tecnologici che prendono a sostituirsi nelle decisioni quotidiane.[17]

Il rischio è lasciarsi dominare dalla tecnologia (e da chi la progetta) rinunciando senza deciderlo consapevolmente al controllo sulle proprie scelte, a beneficio della comodità e dell’immediato soddisfacimento di un bisogno. Finché si tratta di fare il bucato il problema può far sorridere, ma se il controllo da parte delle tecnologie va ad impattare sulle potenzialità cognitive la difficoltà o l’incapacità di generare un pensiero astratto vanno ad intaccare questioni molto più delicate per l’individuo.

Senza lasciarsi sopraffare dal diffuso senso di tecno-pessimismo che accompagna ogni nuovo grande cambiamento sociale associato all’introduzione di nuove tecnologie e nuovi processi connessi, resta necessaria una riflessione sugli impatti a lungo termine di una perdita di controllo sui propri processi cognitivi.

Centrale è la questione etica e la responsabilità sociale nella progettazione, così come urgente la formazione di una cultura digitale che permetta non solo di usare le tecnologie in modo performante, ma che permetta un’elevata competenza critica relativamente agli effetti di questo uso.

Note

  1. Wardynski DJ, 2019 Is Society Too Dependent on Technology? – 15 Signs That We Are; Le app inutili
  2. 15 app più strane per Android e iPhone, divertenti, inutili, geniali
  3. Cognitive Miser
  4. Fogg BJ (2013) Tecnologie della persuasione, Epogeo
  5. Citato in Tucker kK Persuasive Technology: How Can We Make It More Ethical?
  6. Balaž, Zdenko & Predavec, Davor. (2017). Cognitive Cybernetics vs. Captology. Advances in Science, Technology and Engineering Systems Journal. 2. 107-118. 10.25046/aj020614.
  7. Carr N. (2013), Internet ci rende stupidi?: Come la rete sta cambiando il nostro cervello, Raffaello Cortina Editore
  8. Dockrill 2018, IQ Scores Are Falling in “Worrying” Reversal of 20th Century Intelligence Boom
  9. Flynn, J. R. (2020). Secular changes in intelligence: The “Flynn effect”. In R. J. Sternberg (Ed.), The Cambridge handbook of intelligence (pp. 940–963). Cambridge University Press.
  10. Conoway W., 2020 Technology Is On The Rise, While IQ Is On The Decline
  11. Sparrow B. et al. Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips, Science 333, 776 (2011) DOI: 10.1126/science.1207745
  12. C. 2019. Student literacy levels: ‘It is almost as if they are word blind.’ The Irish Times,Feb., 25th. Retrieved from: https://www.irishtimes.com/news/education/student-literacy-levels-

    it-is-almost-as-if-they-are-word-blind-1.380391

  13. Grace et alii, When Will AI Exceed Human Performance? Evidence from AI Experts, may 2018 https://arxiv.org/pdf/1705.08807.pdf
  14. Ball M., 2021 Framework for the Metaverse
  15. Andersen MT (2018) Feed, Rizzoli
  16. Bandura, A. (1998). Personal and collective efficacy in human adaptation and change. Advances inpsychological science, 1, 51–71.

    Bennett, J.W. (2017). The ecological transition: cultural anthropology and human adaptation.

    London: Routledge

  17. Byrne, D.M.; Oliner, S.D.; Sichel, D.E. (March 2013). Is the Information Technology RevolutionOver? (PDF). Finance and Economics Discussion Series Divisions of Research & Statistics and

    Monetary Affairs Federal Reserve Board. Washington, D.C.: Federal Reserve Board Finance

    and Economics Discussion Series (FEDS).

Tutorial
Primi passi sul Cloud? Scopri i tutorial gratuiti dedicati alle piccole e medie imprese per iniziare
Cloud
Digital Transformation
@RIPRODUZIONE RISERVATA

Articolo 1 di 4