intelligenza artificiale

Se l’AI minaccia la nostra autonomia decisionale: i rischi sociali

I processi decisionali a livello individuale e collettivo sono oggi profondamente condizionati dagli algoritmi, al punto che gli studiosi temono il venir meno di uno dei capisaldi della nostra società: l’autonomia individuale nel prendere decisioni. Esaminiamo gli aspetti decisivi dei processi e dei fenomeni emergenti

17 Dic 2019
Mauro Lombardi

Scienze per l’Economia e l’Impresa, Università di Firenze


Non è un caso che quasi contemporaneamente due riviste statunitensi, The Atlantic e Foreign Affairs, abbiano pubblicato una serie di articoli su temi analoghi, cruciali per il futuro delle nostre società, investite da una dinamica tecno-economica senza precedenti per intensità (continua accelerazione) ed estensione (globale).

La prima (Ottobre 2018) ha posto ad alcune personalità il seguente quesito:”Is Democracy dying?”; la seconda ha invitato altri personaggi ad esprimersi con brevi frasi sull’interrogativo “Does Technology favor Tyranny?”

Prendiamo spunto dai contributi apparsi sulle due riviste, allo scopo di avviare una riflessione su aspetti decisivi dei processi decisionali odierni a livello individuale e collettivo.

La trasformazione dei meccanismi decisionali

Nel suo intervento su The Atlantic lo storico Noah Harari riprende temi fondamentali, trattati nel libro “21 Lezioni per il XXI secolo”, dove mostra come l’Intelligenza Artificiale, in grado di svolgere funzioni cognitive in molti casi meglio di noi umani, sta facendo così tanti progressi da indurre la popolazione a fidarsi dei sistemi algoritmici di Google e degli altri colossi tecnologici nel prendere non solo decisioni inerenti al consumo, ma anche informazioni tradizionalmente raccolte autonomamente. Si è quindi progressivamente avviata una trasformazione dei meccanismi decisionali, per cui anche le scelte concernenti gli studi da effettuare e molte altre, importanti per la nostra stessa vita (lavoro, affetti, emozioni) sono basate su informazioni non più totalmente dipendenti dalla nostra abilità individuale di acquisire ed elaborare conoscenze. Siamo in sostanza, secondo Harari, immersi in dinamiche tecno-economiche tali da cambiare radicalmente la nostra concezione della vita e la visione che abbiamo e la nostra capacità di interazione con il mondo circostante.

Nella visione proposta da Harari rischia di venir meno uno dei capisaldi del capitalismo liberale, cioè l’autonomia individuale nel prendere decisioni, tradizionalmente ancorata al modello mentale secondo cui nel corso della vita gli umani affrontano continuamente sfide, rispetto alle quali sono chiamati ad effettuare scelte dipendenti unicamente dai processi cognitivi ed esperienziali di natura personale. Cosa accade se questi ultimi sono compenetrati agli sviluppi delle info-tecnologie e biotecnologie? La progressiva erosione dell’autonomia individuale e i mutamenti dei meccanismi che presiedono alla presa delle decisioni, aggiungiamo noi, dovrebbero essere al centro della riflessione, tanto più per il fatto che la mente umana si è finora evoluta con una dotazione neuro-cognitiva (configurazione del cervello e della mente) (Leroi-Gourhan 1977; Edelman, 1993, 2004) e un modello antropologico (rapporto uomo-macchina e uomo-Natura) connessi ad un ambiente completamente diverso da quello in cui siamo oggi. Quest’ultimo pone, infatti sfide eco-sistemiche e ambientali a livello globale, unitamente ad uno scenario che, come vedremo tra poco, presenta segnali di forti turbolenze di varia natura.

Prendendo in considerazione la serie di contributi apparsi su Foreign Affairs in risposta alla domanda indicata all’inizio, si vede come una minoranza esigua di esperti (leading generalist) non condivide la tesi che il progresso tecnologico oggi rafforza l’autoritarismo rispetto alla democrazia. Un insieme più consistente di persone ritiene che esso sia neutrale, ma un insieme molto più numeroso è fortemente convinto di una risposta affermativa (come si vede dal sito web indicato precedentemente).

Fattori e meccanismi che possono generare un futuro distopico

Naturalmente non è intento di queste note dirimere le questioni poste in tutti gli interventi. Ci limitiamo a mettere in evidenza alcuni fattori e meccanismi, che possono generare un futuro distopico. Ciò non implica che quest’ultimo sia inevitabile, perché la tesi che sarà sostenuta alla fine è opposta: l’individuazione e l’analisi dei pericoli/rischi incombenti sono necessarie per maturare la consapevolezza e quindi l’elaborazione di strategie per evitare o ridurre gli effetti dannosi.

Pochi studiosi dubitano che siamo entrati in un’epoca con caratteristiche peculiari, che la differenziano in modo significativo dalle precedenti grandi transizioni tecnico-scientifiche e sociali, avvenute nella storia dell’umanità. Come hanno sostenuto Andrew Sheng e Xiao Geng (2017), sembra che ogni secolo abbia la sua “era”: dopo il Rinascimento, chiamato “Era dell’Avventura” (Santillana, 1956) e “Era della scoperta” (i grandi viaggi di Colombo, Marco Polo, Vasco De Gama, Magellano), l’Umanità ha vissuto l’”era della Ragione” (Paine, 2003), seguita dall’Illuminismo. Il XXI secolo è chiamato “era della turbolenza” (Greenspan, 2007) e più recentemente The Global Age and Complexity (Sheng e Cheng, 2017).

Uno degli aspetti dell’era attuale, in qualsiasi modo la si definisca, è indubbiamente il fatto che si sviluppano connessioni, interazioni e interdipendenze multi-scala: dal micro-contesto locale urbano (o sub-urbano) al livello globale. Ciò è reso possibile, come è noto, dalla pervasività delle info-tecnologie, dovuta alla presenza ubiquitaria di dispositivi, che elaborano informazioni indipendentemente dall’intervento umano diretto. È in pieno sviluppo la risposta positiva all’interrogativo posto dall’Atlantic Council nel 2013: “A world Run on Algorithms?”

L’era degli algoritmi, gli effetti sulla capacità di concentrazione

Siamo infatti ormai inseriti in sistemi più o meno complessi di algoritmi, che rilevano gran parte di quello che pensiamo e come agiamo quando siamo in casa, a lavoro, in viaggio. L’algorithmic era, per così dire, si caratterizza per il fatto che genera continuamente flussi informativi e quindi l’intero globo terrestre è immerso in uno spazio immateriale, dove le interazioni tra i vari agenti del mondo reale (individui, imprese, organizzazioni, Istituzioni) si organizzano, compongono forze, esercitano pressioni, evolvono senza sosta. La pervasività di algoritmi e dispositivi che scambiano informazioni è tale per cui ogni nostro atto o pensiero produce effetti oppure è influenzato dal semplice moltiplicarsi di click. Può apparire strano, ma la semplice pressione su un simbolo, che appare su un display, può produrre effetti a cascata globali e attivare una serie di cicli di feedback dagli esiti imprevedibili. Tanto imprevedibili che nemmeno coloro che hanno inventato il meccanismo, apparentemente elementare, sembrano aver compreso all’inizio la sua portata e gli effetti. Quando ne hanno preso coscienza, come vedremo tra poco, hanno adottato misure individuali su cui vale la pena riflettere.

Forse pochi conoscono Justin Rubinstein e Leah Pearlman, due componenti del team che ha inventato il “like” di Facebook (Lewis, 2017). Il primo, ingegnere creatore del primo “like button”, è ora consapevole della capacità di attrazione che esso esercita, della sua forza seduttiva, e ha impiegato più di 10 anni per trovare questo dispositivo, allora definito “meraviglioso”. Ora egli fa parte degli “eretici” della Silicon Valley, che lamentano la cosiddetta traiettoria “attention economy”, ossia l’evoluzione di Internet dominata dalle strategie di marketing molto attrattive. I “dissidenti” della Silicon Valley come Rosenstein, la maggior parte dei quali erano designer, ingegneri e product manager, ora non lavorano più per i Tech-giant e mandano i loro figli nelle scuole di élite della Valley, dove sono proibiti tutti i dispositivi a partire dagli smartphone. D’altronde lo stesso Rosenstein ha modificato il sistema operativo del suo laptop per bloccare Reddit, Snaptchap e si è posto dei limiti nell’uso di Facebook, fino addirittura a prendere la decisione di bloccare (a 34 anni) l’uso dei social media e altre tecnologie che creano dipendenza.

È infatti diventato del tutto consapevole che l’insieme di queste tecnologie può trasformare la capacità di concentrazione umana in una serie di “continue parziali attenzioni”, danneggiando così le abilità cognitive. Convinzioni non dissimili nutre un’altra componente del team creatore di “like”, la product manager Leah Pearlman, la quale è completamente distaccata dal loro prodotto (Facebook) fino al punto da assumere un manager dei social media, che li controlla al posto suo, pur avendoli emendati dai “news feed. Il fatto rilevante è che gli stessi creatori di un meccanismo elementare come il “like” sono del tutto convinti degli effetti deleteri sulla mente umana, anche se al tempo stesso si auto-assolvono con la riflessione che “è comune per gli umani inventare cose nutrendo le migliori intenzioni, che purtroppo generano conseguenza negative inintenzionali”.

È altresì interessante rilevare la peculiarità di comportamenti dei “Guru” della nuova era come Nir Eyal, autore de del libro How to Build Habit-Forming Products, per anni docente alla Stanford Graduate School di “Science of Influencing human behavior” e consulente di imprese californiane high-tech, alle quali ha insegnato i risultati della sua ricerca teorica e applicata. Ha in particolare illustrato il suo modello di processo in 4 step (Hook model) per formare abitudini di consumo. Gli agganci (hook) possono essere trovati virtualmente in ogni esperienza che si è insinuata nella nostra mente, grazie alle tecnologie “che noi usiamo, trasformatesi in compulsioni, se non addirittura in completa dipendenza”, cioè in quelli che gli psicologi cognitivi chiamano “automatic behaving triggered by sitational cues”; things we do with little or non conscious thought” (Eyal, 2014, il cui riferimento scientifico è Bargh, 1994).

Tutto questa determina un enorme numero di distrazioni, che competono per ottenere la nostra attenzione, obiettivo che le imprese perseguono con tecniche e metodologie sempre più sofisticate, tanto che non è inappropriato parlare di vera e propria progettazione del comportamento (behavior design), che lo stesso Eyal definisce un vero e proprio “superpower”. Ad un recente Habit Summit su questi temi, per partecipare al quale bisognava pagare 1700 dollari, Eyal ha spiegato tutto questo e altro, per poi confessare alla fine, tra la sorpresa generale, che per proteggere la propria famiglia dal persuasive design, ha installato a casa sua un timer, il quale limita l’accesso a Internet durante la giornata.

Forse le info-tecnologie diventeranno davvero “le sigarette di questo secolo” (Bogost, 2012), quello che è certo è che l’immaginario pubblico del mondo odierno è dominato dalla dialettica tra pensiero utopico e pensiero distopico, come ben illustra il politologo canadese Gill (2017, 2015, 2012) nella sua analisi della dinamica contraddittoria tra aspettative autoritarie/totalitarie, che sembrano emergere in molti Paesi del mondo, e le potenzialità insite in un orizzonte democratico per affrontare disuguaglianze, solidarietà, sostenibilità sociale e ambientale.

Come si diffonde la misinformation

Tralasciando temi attinenti alla sfera politico-istituzionale, approfondiamo elementi che possono influenzare in senso distopico i processi decisionali umani nella sfera più propriamente personale. Spunti interessanti sono desumibili a questo riguardo da alcuni contributi, che analizzano meccanismi di propagazione di informazioni controllabili scientificamente e incontrollabili (unsubstantiated, conspiracy theories).

È chiaro che nell’universo informativo, di cui abbiamo parlato all’inizio, le fonti di informazione possono essere molteplici e la diffusione delle notizie -più o meno fondate- avviene mediante meccanismi sociopsicologici individuati con strumenti e modelli computazionali (Bessi et al, 2014; Bessi et al, 2015; Del Vicario et al., 2016). Gli studiosi in questione analizzano dati relativi a milioni di utenti di Facebook per valutare le modalità con cui la misinformation, segnalata dal World Economic Forum (WEF) come uno dei rischi globali più significativi (Howell, 2013), influisce sui processi di polarizzazione delle opinioni. Secondo il Report del WEF, in un mondo iperconnesso la diffusione virale di informazioni è esponenziale e può provocare danni notevoli, anche se esse vengono corrette dopo un breve arco di tempo, perché la loro dinamica è simile a quella di un vero e proprio digital wildfire.

La viralità globale di informazioni false o distorte può essere utilizzata a fini politici, impiego denominato “astroturfing”, ed è in uso dalla prima metà del primo decennio di questo secolo negli Usa, ma la sua origine reale è incerta. Può essere ad esempio causata dalla perdita di fiducia o disincanto rispetto alle élites  e alle tesi degli esperti, in un’epoca in cui vi è un libero e istantaneo accesso ad un’informazione globale, alimentata autonomamente (Wikipedia, comunità di persone con interessi condivisi, e così via).

Intenzionalmente o meno, le informazioni false, distorte, incomplete o fuorvianti, non verificabili hanno una potenzialità di diffusione analoga se non superiore a quelle controllabili mediante procedure di validazione tecnico-scientifica. È opportuno allora chiedersi quali sono i meccanismi che presiedono ai processi diffusivi. Le ricerche svolte da Bessi, Del Vicario et al. mettono in evidenza come in rete si creino automaticamente meccanismi di polarizzazione informativa: adesione convinta e comunitaria a tesi contrapposte, l’una controllabile e l’altra non sottoponibile a verifiche. In sostanza, si auto-organizzano comunità di interesse auto-contenute, ancorate a sistemi di credenze condivise e basate su feedback loop, con il risultato apparentemente paradossale che la misinformation si rafforza quando viene contrastata con argomentazioni fondate sul ricorso a procedure razionali di controllo fattuale.

I meccanismi cognitivi alla base delle nuove dinamiche informative

È a questo punto doveroso affrontare un interrogativo: quali sono i meccanismi cognitivi alla base delle dinamiche informative illustrate finora? Cerchiamo di elaborare una prima risposta con l’aiuto di altri studi molto interessanti. Viviamo in un’epoca contraddistinta da un fenomeno peculiare: da un lato arriva alla nostra mente una quantità di informazioni molto rilevante, fino al punto che non è raro il caso di un overload informativo, e dall’altro con un semplice click possiamo non solo selezionare l’accesso e quindi effettuare un parziale assorbimento, ma al tempo stesso anche esprimere scelte razionali o puramente emotive. Una prima conseguenza di questa situazione è la compressione temporale delle decisioni/scelte, mentre si è enormemente ampliato il numero e la varietà dei flussi in arrivo. È pertanto condivisibile la tesi di Tyler Jacobson (2018), secondo cui le nuove tecnologie stanno cambiando il nostro sistema percettivo e le modalità con cui riceviamo e processiamo informazioni. Emergono in particolare due aspetti: la crescita esponenziale dei processi riduce il tempo e l’attenzione che prestiamo a ciascuna fonte alternativa, data la nostra razionalità limitata (alla Herbert Simon), mentre siamo molto spesso indotti al multitasking, cioè poniamo attenzione a molte cose contemporaneamente, perché diversi meccanismi attraggono il nostro interesse. Compressione temporale dell’attenzione e multitasking riducono la propensione a focalizzare temi e questioni su cui riflettere, con il risultato di indebolire la capacità di acquisire e conservare l’informazione. Come spiega Tyler Jacobson, la nostra capacità di memorizzazione è in progressivo affievolimento, dato il ridursi dei processi di trasferimento di conoscenze dalla memoria a breve a quella a medio-lungo termine, perché l’intervallo di tempo durante il quale una persona mantiene fisso un pensiero o un interesse (attention span) è sceso da 12 a 8 secondi. Si tenga presente che l’attention span di un pesciolino rosso è di 9 secondi!

I fenomeni prima indicati e la riduzione del tempo per la memorizzazione incidono quindi negativamente sulle capacità cognitive degli umani, come mostrano le ricerche dell’Università di Austin (Ward et al., 2017) e dell’Università di Aalto (Nauert, 2019) sugli effetti dell’uso di smartphone. Una ulteriore conferma delle conseguenze dell’uso di smartphone e social networks i termini di riduzione progressiva di una risorsa scarsa come l’attenzione collettiva è anche l’esito di ricerche effettuate presso il Max Planck Institute e Università Tecnica di Berlino (Lorenz-Spreen et al., 2019).

WEBINAR
Intelligenza Artificiale, Data Analysis e Image Recognition: i vantaggi concreti per l’azienda
Big Data
Intelligenza Artificiale

Alla luce di quanto è stato scritto finora occorre riflettere su un addizionale elemento decisivo dello scenario tecno-economico odierno: il web ha consentito di sviluppare interazioni e sistemi di interazione sociale a molteplice scala. Tutto ciò ha (per così dire) liberato tendenze psico-sociali a unirsi in comunità auto-contenute, oppure ad ampliare gruppi basati sulla capacità di attrazione esercitata da relazioni di amicizia, che esercitano pressioni evolutive verso la network homophily (Kleinberg, 2013), ovvero ampliamento e selezione dell’appartenenza ad aggregazioni web in base alla similarità di caratteristiche dei membri (Karimi et al., 2018). Gli aspetti indicati sono congruenti con i risultati di indagini relative a milioni di attivi frequentatori di gruppi web (Facebook in Italia e negli Usa, Mocanu et al., 2015; Quattrociocchi et al., 2016), le quali hanno ampiamente rilevato fenomeni di echo-chamber, cioè di polarizzazione dei gruppi auto-contenuti, correlata alla ripetizione amplificata di informazioni trasmesse e recepite a seconda della congruenza tra quelle in arrivo e le credenze e le percezioni individuali. In altri termini, le proprietà che la mente umana tende ad assumere, in conseguenza dei meccanismi finora descritti, spinge invariabilmente verso il cosiddetto bias della conferma.

Come si diffonde il nuovo modello di adattamento mentale

A questo punto appare logico chiedersi come sia possibile il diffondersi di questo tipo di modello di adattamento mentale, le cui radici vanno evidentemente ricercate sul piano del funzionamento delle nostre menti e delle caratteristiche strutturali con cui esse evolvono in relazione all’universo informativo e ai suoi meccanismi attrattori. In breve, è il caso di approfondire aspetti della mente umana messi alla prova dalle peculiari modalità interattive tra i nostri meccanismi cognitivi e quelli di funzionamento del web. Assumiamo a questo fine una promettente linea di analisi derivata dagli studi di Mldodinov (2008, 2012). Attention economy, riduzione della capacità di memoria, indebolimento delle capacità di apprendere e di interpretare le informazioni sono tutti epifenomeni del cervello umano, che ha una precisa caratteristica: il suo funzionamento, secondo la suggestiva analisi di Mlodinov, è basato sulla dinamica di due sistemi che lavorano in parallelo, ma si intrecciano e sovrappongono incessantemente.

Si tratta della componente conscia della mente, che elabora consapevolmente informazioni esperienziali in quantità contenuta, e di quella inconscia, che assorbe quantità molto più rilevanti di informazioni dalla provenienza più varia: visiva, tattile, uditiva, scritta, emozionale.

Esistono alcuni elementi da tenere presenti: in ogni secondo alla nostra mente arriva un volume di informazioni molto superiore alle possibilità computazionali della parte conscia (11 milioni di bit al secondo), secondo il calcolo di Zimmermann, citato in Mlodinov). Esiste dunque una forte disparità tra le due componenti, con la seconda che assorbe comunque automaticamente il resto dei bit, i quali sfuggono alla prima, e lavora per così dire in background.

Come umani, non possiamo fare a meno di catturare le emozioni e le intuizioni in qualsiasi modo manifestate dagli altri, perché si tratta di un’abilità intrinseca al nostro cervello, data la sua evoluzione, per cui non possiamo “spegnerla” (switch off). Per rappresentare la dinamica parte conscia e inconscia ricorre alla metafora di “due sistemi ferroviari con una miriade di linee interconnesse” che si intersecano in vari punti.

Al quadro così descritto bisogna aggiungere che la componente conscia lavora soprattutto nel lobo-prefrontale, che svolge attività fondamentali di categorizzazione percettiva, cioè di sviluppo dell’abilità di elaborare gli stimoli ambientali, classificandoli come base per stabilire modalità di reazione di adattamento, perché la distinzione tra situazioni pericolose e favorevoli è stata ed è essenziale per la sopravvivenza da ogni punto di vista. In assenza del processo di categorizzazione, il puro accumulo di input percettivi sarebbe inutile o dannoso.

Riprendiamo da Mlodinov (2012) l’esempio della mela e della palla di biliardo: la differenza tra cibo e un oggetto funzionale ad attività non alimentare è un prodotto essenziale della categorizzazione, che si basa appunto su polarizzazioni cognitive, a loro volta generate da complesse dinamiche di integrazione mediante matching tra input percettivi e rielaborazione razionali. In definitiva, il comportamento umano, per come si è evoluto, è risultato di una serie infinita di intrecci tra flussi percettivi, rielaborazione consapevole, continue interazioni tra lavoro inconscio e sistematizzazione consapevole. I processi decisionali si basano per un 5% su funzioni cognitive consapevoli e un 95% su meccanismi di attivazione non controllati, fortunatamente, perché sono stati finora fondamentali per i successi evolutivi degli esseri umani.

L’analisi svolta finora induce ad avanzare una precisa ipotesi interpretativa: l’universo informativo e la dinamica delle interazioni web-based hanno innescato due processi complementari:

  • aumento accelerato del divario tra la componente conscia e quella inconscia della mente umana.
  • Affievolimento più o meno accentuato di ingredienti basilari di funzioni essenziali, che presiedono all’elaborazione strategica: attenzione, memoria, apprendimento, capacità di interpretazione.

Ma non tutto è già deciso

Le modalità evolutive dell’universo digitale si fondano dunque su uno squilibrio di fondo a livello individuale, che poi si riverbera a livello collettivo con feedback cumulati, illustrati nelle pagine precedenti. I due processi sono stati innescati da determinati meccanismi che, nell’ipotesi più benevola, erano progettati per stimolare il senso comunitario e sociale degli umani, ma che si stanno trasformando in dispositivi attrattori a livello generale, diventando così potenti leve di influenza dei comportamenti individuali e collettivi. Sembra in particolare che tali leve siano in grado di muovere forze attive a livello subliminale, che sono state essenziali in un ambiente completamente diverso da quello odierno. Per questa via sui processi decisionali umani incombe il rischio che predominino fattori distopici, che indeboliscono appunto il pensiero utopico, una delle molle profonde dello sviluppo della civiltà umana.

Il destino è allora segnato? Tutto è già deciso? Niente affatto, la diffusa consapevolezza dei processi e dei fenomeni che stanno emergendo è fondamentale per orientarsi verso nuove traiettorie, più favorevoli all’umanità del futuro. Cercheremo in un prossimo contributo di proporre degli spunti suggestivi in tal senso con l’aiuto dei contributi di un congruo numero di studiosi di livello internazionale.

_________________________________________________________________

Bibliografia

Bargh J. A., “The Four Horsemen of Automaticity: Awareness, Intention, Efficiency, and Control in Social Cognition.” In Handbook of Social Cognition, Vol. 1: Basic Processes; Vol. 2: Applications (2nd Ed.), edited by R. S. Wyer and T. K. Srull, 1–40. Hillsdale, NJ, England: Lawrence Erlbaum Associates, Inc, 1994.

Bogost I., 2012, The Cigarette of This Century, The Atlantic, June 6, 2012.

Del Vicario M., Bessi A., Zollo F., Petronic F., Scala A., Caldarellia G., Stanley E., Quattrociocchi W., 2016, “he spreading of misinformation online”, PNAS, 119, 3: 555-559.

Edelman G. M., 1993, Sulla Materia della Mente, Adelphi.

Edelman G.M., 2004, Lo straordinario dono fenomenico della coscienza, Einaudi.

Eyal N. (with Ryan Hoover), 2014, How to Build Habit-Forming Products, Copyright by N. Eyal.

Gill S., 2012, editor and contributor, Global Crises and the Crisis of Global Leadership, Cambridge University Press. UK Print Publication: UK November 2011, North America February 2012.

Gill S., 2015, editor and contributor, Critical Perspectives on the Crisis of Global Governance: Reimagining the Future, London & New York: Palgrave Macmillan.

Gill S., 2017, A Dialectic of Utopia/Dystopia in the Public Imagination of the 21st Century, https://www.21global.ucsb.edu/global-e/april-2017/dialectic-utopiadystopia-public-imagination-21st-century

Greenspan A., 2007 The era of turbulence, The Penguin Press

Howell L, 2013, Digital wildfires in a hyperconnected world, WEF Report 2013. Available at reports.weforum.org/global-risks-2013/risk-case-1/digital-wildfires-in-ahyperconnected-world.

Jacobson T., 2017, How Technology affects our Lives, PsychCentral (Wikipedia di esperti di scienze cognitive), https://psychcentral.com/blog/%E2%80%8Bhow-technology-affects-the-way-our-brain-works/

Karimi F., Génois M, Wagner C., Singer P., StrohmaierM, 2018, “Homophily infuences ranking of minorities in social networks”, Nature com, Scientific Reports, 23 July: 1-12.

Kleinberg J. 2013 Analysis of large-scale social and information networks. Philosophic Transactions Royal Society, A 371: 20120378.

Leroi-Gourhan, A., 1977, Il gesto e la parola, vol. I-II, Einaudi

Lewis P., 2017, Our mind can be hijacked:: the tech insiders who fear a smartphone
dystopia, The Guardian, October 6.

Lorenz-Spreen P., Mønsted B.M., Hövel P., Lehmann S., 2019, Accelerating dynamics of collective attention, Nature Communication, 10:1759

Mlodinov L., 2008, The Drunkard’s Walk Pantheo Books

Mlodinov L., 2012, Subliminal. How Your Unconscious Mind Rules Your Behavior, Pantheon Books

Mocanu D., Rossi L., Zhang Q., Karsai M., Quattrociocchi W., 2015, Collective attention in the age of (mis)information, Computers in Human Behavior, Volume 51, Part B, October: 1198-1204.

Nauert R, 2019, Imaging Study Shows Multitasking Reduces Brain Efficiency, Aalto University Blog.

Paine, The Age of Reason, Gutenberg Project

Quattrociocchi W., Scala A., Sunstein C.R., 2016, Echo Chambers on Facebook, Draft.

Santillana G., 1956, The Age of Adventure, The new American Library.

Sheng A., Gheng X., 2017 The Age of Complexity, Project Syndicate, June 12.

Ward A.F., Duke K., Gneezy A., Maarten W., 2017, Brain Drain: The Mere Presence of One’s Own
Smartphone Reduces Available Cognitive Capacity, Journal of Consumer Research, JACR, volume 2, number 2, April.

WHITEPAPER
Scopri qual è il ruolo degli assistenti vocali come abilitatori digitali!
Intelligenza Artificiale
Software

@RIPRODUZIONE RISERVATA

Articoli correlati