Verso un mondo cyber-fisico? Com’è iniziato e cosa sta accadendo | Agenda Digitale

evoluzione di internet

Verso un mondo cyber-fisico? Com’è iniziato e cosa sta accadendo

Cos’è rimasto, nel mondo fisico-cibernetico in cui viviamo, delle idee ispiratrici dei fondatori? Davvero è un mondo immune dalla censura e dal controllo dall’alto? Può essere effettivamente auto-governato? Vediamo come tutto è cominciato e quali sono i rischi più eclatanti che si prefigurano ora

18 Mar 2021
Mauro Lombardi

Università di Firenze, BABEL - Blockchain and Artificial intelligence for Business, Economics and Law

Abstract circuit side male portrait on blue background with copyspace and binary code. Innovation concept. 3D Rendering

Alla fine degli anni ’80 e nei primi anni ’90, internet è una comunità di persone che si scambiano idee e informazioni, raccontano esperienze, si confrontano su questioni, discutono su linee di programmazione dei computer. Due impliciti principi di fondo sono di fatto assunti: autonomia e piena libertà di espressione per gente che vive in pace, libera dalle costrizioni del mondo “fisico” e dalle interferenze delle autorità. In un contesto simile non è sorprendente che sia emersa l’idea-metafora di internet come un place separato dallo spazio reale. Menti creative hanno iniziato a creare identità e case virtuali, storie e frequentazioni, il tutto text-based.

Da questo all’idea di un sistema post-territoriale, con proprie regole e auto-governato, il passo è stato non difficile, grazie a due personaggi creativi.

Il cyberspace come spazio indipendente e libertario vs la realtà prosaica

Il primo, Julian Dibbel, con il gioco-storia virtuale “A Rape in Cyberspace” crea un contesto dinamico, privo dei limiti fisici e dei confini nazionali. Dalle interazioni tra i partecipanti alla “rete immersiva” emerge chiaramente la questione che “il loro mondo non governato non poteva funzionare”. Gradualmente, con un processo lungo e faticoso, si consolida una comunità con proprie regole di condotta, processi decisionali e meccanismi di risoluzione delle dispute.

WHITEPAPER
Quali sono i 4 modi per trasformare e migliorare la pianificazione IT?
Amministrazione/Finanza/Controllo
CIO

Il secondo personaggio è John Perry Barlow – personaggio eccentrico, visionario, coltivatore di bestiame nell’azienda di famiglia nel Wyoming, attivo frequentatore di Internet, che non vede come semplice rete di computer. Nei primi anni ’90 Barlow pubblica una serie di articoli sulla rivista Wired¸ dove parla di una “frontiera elettronica”, chiaramente ispirata a uno dei miti fondanti dell’America e del West: territorio inesplorato, dove le persone si auto-governano secondo regole definite in piena autonomia. I suoi articoli catturano attenzione e un enorme interesse non solo di neofiti ed entusiasti dell’idea di uno spazio libero in cui esprimersi (il cyberspace), ma anche di esperti come Mitch Kapoor (fondatore di Lotus 1-2-3) e John Gilmore, primo programmatore a Sun Microsystems, insieme ai quali Barlow fonda la Electronic Frontier Foundation. Alla EEF aderiscono importanti esponenti delle società della Silicon Valley ed essa diviene il luogo dove si rafforza progressivamente l’idea di Internet come spazio extraterritoriale, da proteggere rispetto al “potere territoriale”, esercitato dal Governo. In questo orizzonte culturale si consolida la convinzione che il famoso primo emendamento[1] garantisca le condizioni per la libertà e l’auto-governo del cyberspace.

Lo scenario si complica nel 1996, quando il Congresso americano pubblica il Communications Decency Act” (CDA), nel quale si introducono divieti di rendere pubblici ai minori di 18 anni materiali osceni e comunque offensivi, nonché l’obbligo di introdurre–da parte di entità commerciali e non- strumenti di controllo preventivo (procedure di screening) per evitare criminal prosecution.

Il “mondo cyber” di cui Barlow è espressione non può non reagire per scongiurare la minaccia. Barlow stesso se ne fa interprete pubblicando, sempre nel 1996, la Declaration of Cyberspace Independence”, indirizzata enfaticamente ai “Governi del Mondo Industriale, esausti giganti di carne e acciaio”: “I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather”. L’EEF e l’American Civil Liberties Union ricorrono contro il CDA alla Corte Suprema, che nel 1997 dichiara il CDA una violazione del Primo Emendamento e tra le motivazioni inserisce l’argomento che “the vast democratic forums of Internet” non sono stati “subject to the type of government supervision and regulation that has attended the broadcasting industry”[2]. D’altronde a motivare la decisione è il fatto che gli strumenti utilizzati[3] “Taken together…constitute a unique medium—known to its users as “cyberspace”—located in no particular geographical location but available to anyone, anywhere in the world, with access to the Internet” (p. 851).[4] Siamo di fronte alla conferma autorevole della natura a-territoriale del cyberspace e delle caratteristiche che lo rendono “unique medium”, dove tutti possono esprimersi: “The electronic world is fundamentally different”, si afferma nella decisione della suprema Corte (p.889).

Ed è effettivamente così agli inizi di Internet, concepita e realizzata da un gruppo di ingegneri con in mente determinate peculiarità:

  • architettura aperta” delle connessioni tra reti di computer.
  • Minimalista” nei requisiti per l’”instradamento” dei pacchetti di dati (dynamic routing) tra le reti[5].
  • Neutrale”, perché attraverso il protocollo TCP/IP (Transmission Control Protocol/Internet Protocol, valido ancora oggi), qualsiasi applicazione può essere progettata e inserita. In pratica, una sorta di linguaggio universale di connessione, che apre spazi di interazione nemmeno immaginabili all’inizio.

L’équipe dei fondatori di Internet, con la leadership del carismatico Vinton Cerf, ha iniziato fin dagli anni ’80 a pensare in merito a come “istituzionalizzare” la loro funzione nell’electronic world che hanno contribuito a creare. Essi, infatti, creano nel 1986 l’Internet Engineering Task Force (IETF), organismo preposto alla fissazione degli standard per il funzionamento di Internet e ispirato ad una peculiare visione di democrazia auto-diretta, quasi anarchica, in quanto sono “the masters of a metaverse” e l’IETF “constitutes a radical social phenomenon” (Borsook, 1995). La loro competenza e il modello fondativo di una rete aperta, basata su regole stabilite bottom-up, configurano una sorta di democrazia deliberativa nel suo farsi[6], il cui funzionamento, nelle parole di John Barlov (2000), è piuttosto semplice: quando c’è un problema e vengono proposte differenti soluzioni, dalla discussione emergono quelle che divengono “the ruling ideas by virtue of their clarity, their precision, their ability to solve the problem with a minimum amount of fuss and bother”. Il consenso è raggiunto sulla base di processi di condivisione socio-tecnica: “the consensus is then institutionalized by the willingness, which is purely voluntary, of different sites to adopt that solution as part of their technology. New solutions win by virtue of adoption, and they don’t get adopted if they’re bad solutions”.

Tutto questo è stato possibile fin quando prevalgono le idee e le motivazioni nella mente dei creatori di Internet e dei primi “gestori tecnici”, o meglio delle living authorities della Rete, come ad esempio Jon Postel, non molto noto ma fondamentale per Internet, in quanto autorità preposta all’assegnazione dei numeri IP (Internet protocol), quindi dei domini (naming)[7].

Clinton e la commercializzazione di Internet

Nel decennio ’90 la realtà cambia però profondamente, secondo direttrici aliene rispetto ai sogni tecno-visionari e libertari dei fondatori. A metà anni ’90 l’attività di naming è nelle mani di una società orientata al profitto, nonostante strenui tentativi di Vint Cerf e dell’IETF di preservare il modello di funzionamento non business oriented, ricorrendo anche ad accordi internazionali. L’esito sfavorevole prevale durante la Presidenza Clinton, quando il suo amico e “Internet policy czar” Iron Magazine (definizione di Goldsmith e Wu, 2006: 40) nel 1998 inizia l’epilogo dell’Internet dei fondatori, per realizzare la fase della “commercializzazione di Internet”, ritenuta da Iron l’innesco di un boom per l’economia USA. Un estremo tentativo di Jon Postel di avviare una sorta divisione di Internet in due parti, l’’una sotto il controllo del Governo americano e l’altra collegata al computer di Postel in California, viene bruscamente bloccato sul nascere da dure minacce di tipo legale, dalle conseguenze imprevedibili. L’universale stima di cui Postel gode non è valsa a nulla.

L’epoca del “programming poetry” e della democrazia deliberativa è finita per sempre. Prevale il più prosaico “make money”. La traiettoria intrapresa diverge anche nelle assunzioni di fondo da quelle prefigurate nella frase conclusiva della Declaration of the Independence of Cyberspace: “We will create a civilization of the Mind in the Cyberspace. May it be more humane and fair than the world your governments have made before”, Davos Switzerland, February 8, 1996.

Il cyberspace si avvia ad essere quello che il creatore di questo termine inserisce nella celebre prima edizione del suo libro (1984): “Cyberspace. A consensual hallucination experienced daily by billions of legitimate operators, in every nation, by children being taught mathematical concepts. A graphic representation of data abstracted from the banks of every computer in the human system” (Gibson, Neuromancer, ed. 2012: 51).

Video: A Declaration of the Independence of Cyberspace by John Perry Barlow

Il cyber-physical world: principali caratteristiche, meccanismi evolutivi basilari

Non è casuale che nei primi anni ’90 siano stati creati gli ingredienti fondamentali della crescita esponenziale dei flussi informativi a livello globale. Al PARC (Palo Alto Research Center) della Rank Xerox Mark Weiser e il suo team (Weiser, 1991, 1993) elaborano nuovi modi di concepire le tecnologie dell’informazione e i dispositivi di information processing immersi nell’ambiente. Non più il desktop model, che comporta l’attenzione umana focalizzata su pc, bensì meccanismi di elaborazione informativa ovunque, in grado di effettuare i loro task come una “calm, silent technology”.

Ubuiquitous computing e l’Ubiquitous connectivity: gli effeti

Nascono così l’Ubuiquitous computing e l’Ubiquitous connectivity, che nel corso degli anni generano effetti dirompenti:

  • enorme espansione delle interazioni tra entità animate e non, con la conseguenza di generare quella che Brian Arthur (2011: 3) ha chiamato “Second Economy”. “Processes in the physical economy are being entered into the digital economy, where they are “speaking to” other processes in the digital economy, in a constant conversation among multiple servers and multiple semi-intelligent nodes that are updating things, querying things, checking things off, readjusting things, and eventually connecting back with processes and humans in the physical economy”.
  • Creazione di una serie di “circuiti virtuosi”, per cui il numero crescente di reti di interazioni tra entità (individuali e collettive), processi e oggetti (naturali e creati dall’uomo) generano una domanda sempre più ampia di potenza computazionale, che a sua volta favorisce le dinamiche interattive multiscala a livello globale. In breve, feedback cumulativi che producono una sfera informativa in continua espansione intorno e all’interno dei processi reali.
  • Incredibile potenziamento della propensione e della capacità degli agenti umani di cercare soluzioni a problemi tecno-produttivi, nonostante le limitazioni cognitive dei singoli, che sono progressivamente in grado di aggregarsi a varia scala nel cercare di comprendere e controllare i fenomeni naturali al fine di aumentare il benessere materiale (Mokyr, 2005).

In questo orizzonte, grazie alle tecnologie dell’informazione, i processi di produzione della conoscenza di sviluppano in uno spazio combinatoriale di idee e campi di ricerca apparentemente senza limiti (Goldsmith e Wu, 2006), popolato da agenti alla ricerca di soluzioni a problemi, che nello scenario odierno tendono ad essere trasversali a tutte le attività socio-economiche (vedi punto 1).

Lo spazio combinatoriale si espande sulla base della scoperta di complementarità, interdipendenze e asimmetrie conoscitive continuamente generate da una frontiera tecnico-scientifica in continuo avanzamento[8]. Le interdipendenze e complementarità, scoperte nelle sequenze di adattamenti e miglioramenti di tecnologie esistenti, oppure nell’evoluzione di nuove idee e modelli innovativi, derivano da deliberate e incessanti attività di ricerca orientate quasi sempre in molteplici direzioni, spesso caratterizzate dalla competizione tra nuove e vecchie tecnologie. Tale competizione tecno-produttiva, non di rado unita alla complessità dei problemi tecnici da risolvere, è di conseguenza alla base dei ritardi con cui le innovazioni sono accettate (Rosenberg, 1972, 1975).

Le considerazioni precedenti acquistano una forza maggiore oggi che nuovi paradigmi tecnico-scientifici e conseguenti innovazioni tecnologiche stanno aprendo spazi di conoscenza tendenzialmente senza limiti. Il sistema CRISPR/Cas9 – che consente l’editing genomico- la genomica dei materiali e l’invenzione sempre nuovi input mediante l’Integrated Computational Materials Engineering, gli sviluppi dell’IA (Deep Learning, Capsule Network, sistemi ibridi di IA), infine l’aumento della potenza computazionale fino alla lotta nel campo dei supercomputer (Simonite, 2018) e per la quantum supremacy (NIST, 2020) da un lato costituiscono potenti meccanismi amplificatori dei flussi informativi a scala globale, dall’altro consentono all’umanità di superare le barriere tra l’esistente e quello che Popper ha definito “the world of propensities”.

Lo spazio della conoscenza si amplia a dismisura

Basti pensare al fatto che modifiche –autonome o programmate- a nanoscala, a livello atomico e subatomico, possono indurre conseguenze globali: pandemie, nuovi materiali in grado di assolvere funzioni per cui non sono stati progettati[9], recupero e riutilizzo di output degradati. Lo spazio della conoscenza, cioè dell’esplorazione di domini cognitivi del tutto o in parte ignoti, si sta dunque ampliando a dismisura e l’umanità ha a disposizione potenti sistemi hardware-software per ridurre il rischio dell’esplosione combinatoriale, cioè di trovarsi di fronte a problemi intrattabili dal punto di vista cognitivo, perché eccedono le nostre capacità. Permane comunque una caratteristica importante del nostro apparato cognitivo, ovvero la necessità di individuare regolarità, configurazioni ordinate (pattern, Barkow et al., 1992, Cap. 1) sotto la spinta dell’esigenza di risolvere problemi.

La mente umana si sforza incessantemente di creare veri e propri “dispositivi di ordinamento”, onde evitare la paralisi comportamentale in ambienti ignoti, caotici, dominati dall’incertezza. La maggiore capacità di elaborare pattern e regolarità può essere considerata “l’essenza del cervello umano (Mattson, 2014) e nella lotta per l’esistenza “Humans evolved to be skilled pattern-seeking creatures” (Shermer, 2003). I nostri cervelli sono basati su sistemi di credenze, ancorate a pattern per i quali non abbiamo un detector, in grado di distinguere quelli reali dagli immaginari. La stessa dinamica non lineare della tecno-scienza, non solo quella della vita ordinaria, è la dimostrazione della dialettica evolutiva tra errori, false credenze e verità confermate di cui è pervasa l’evoluzione umana.

In questo orizzonte, la creazione e lo sviluppo delle tecnologie dell’informazione generano potenti meccanismi amplificatori della capacità di estrapolazione di pattern dalla crescente quantità di dati e informazioni, alimentando quei “sistemi di credenze” così importanti per il funzionamento della nostra mente. L’eccezionale capacità umana di adattamento è stata ed è infatti decisiva nell’evoluzione della specie, perché proprio i belief systems, paradossalmente grazie alla loro ambivalente natura (reali o immaginari), consentono alla mente di apprendere e procedere, tra errori e conferme, come sistema anticipatore degli eventi e dei processi, quindi capace di adottare i comportamenti più congrui[10].

È a questo punto opportuno riflettere su un punto importante: lo sviluppo del cyberspace ha fatto sì che il potenziale tecnico-scientifico accessibile all’umanità sia aumentato a dismisura, fino al punto che non solo si può avere una rappresentazione digitale di processi e prodotti dalla nano-scala alla scala ordinaria e globale, ma è anche possibile introdurre discontinuità nello spazio della conoscenza: è possibile intervenire sul genoma e gli atomi possono essere combinati secondo nuove modalità, in modo da ottenere materiali di cui non si conoscono le proprietà e i possibili impieghi.

Due grandi implicazioni di tutto questo sono le seguenti:

  • si è realizzata una compenetrazione dinamica tra sfera dei processi reali e cyberspace, per cui non è improprio parlare di processi fisico-cibernetici e quindi di un mondo pervaso di cyber-physical systems.
  • L’umanità ha prodotto una svolta in quello che Kauffman ha chiamato “il possibile adiacente”, cioè l’insieme delle direttrici di potenziali esplorazioni raggiungibili entro i limiti dell’esistente conosciuto.

La rappresentazione digitale della realtà in un orizzonte hyperscale, gli sviluppi dell’IA e della potenza computazionale aprono le porte su uno spazio tendenzialmente infinito di possibilità, che vanno oltre il “possibile adiacente”, cosi definito da Johnson (2010:), che riprendere il concetto da Kauffman (2005) e lo applica ai processi innovativi: “The adjacent possible is a kind of shadow future, hovering on the edges of the present state of things, a map of all the ways in which the present can reinvent itself. Yet is it not an infinite space, or a totally open playing field. The number of potential first-order reactions is vast, but it is a finite number, and it excludes most of the forms that now populate the biosphere. What the adjacent possible tells us is that at any moment the world is capable of extraordinary change, but only certain changes can happen”.

Soggetti individuali e collettivi devono oggi misurarsi e agire in un contesto del tutto nuovo, del quale è difficile prefigurare in modo preciso l’evoluzione. Sarebbe sbagliato estrapolare da quanto è accaduto in passato le tendenze per il futuro; ciononostante, lezioni possono essere tratte dal passato stesso, mossi dalla spinta cognitiva, endogena alla nostra mente, verso l’individuazione di pattern, utili per orientarsi in uno scenario tutto da svilupparsi, ma entro il quale bisogna elaborare strategie e agire.

Il cyber-physical world: cosa sta accadendo e cosa potrà accadere

Partiamo da un quesito: cos’è rimasto delle idee ispiratrici dei fondatori tecno-visionari nel mondo fisico-cibernetico in cui viviamo? In altri termini, è un mondo realmente immune dalla censura e dal controllo dall’alto? Può essere effettivamente auto-governato? Dopo aver indicato grandi potenzialità, quali sono i rischi più eclatanti che si prefigurano ora?

La riflessione ha un necessario punto di inizio: siamo passati dal world of the page al world of screen (Carr, 2011: 76). Se negli anni ’90 si è innescato il processo dal desktop model all’ubiqitous-pervasive computing, l’era odierna è caratterizzata dal fatto che il focus dei processi di vita e lavoro è ormai il display di un dispositivo che assorbe funzioni tradizionalmente svolte da telefono, computer, e altri meccanismi di scambio informativo. Prima di approfondire le conseguenze sul funzionamento della nostra mente e in particolare sull’attenzione, vale la pena apprendere una lezione dal passato in base all’analisi di Tim Wu (2010), che mostra come tutte le innovazioni che hanno dato origine all’industria americana (dall’auto a quelle delle telecomunicazioni quali telegrafo, radio, discografia, cinema) abbiano morfologia dinamica molto simile, ovvero “The Cycle”, che consiste in libera competizione all’inizio, con accesso aperto a tutti, per poi avviarsi di una più o meno graduale trasformazione in aree dominate da poche grandi corporations, se non addirittura da una sola.

Il trend ciclico corrisponde alle storie dei magnati (moguls) delle industrie, inizialmente prodighi di enunciazioni entusiastiche verso la libertà e la competizione, ma col passare degli anni e l’accumularsi degli affari sempre si mostrano più orientati verso strategie e pratiche monopolistiche.

Il pattern “from open to closed” sembra caratterizzare anche internet, ma con qualche differenza. In questo caso i nuovi moguls hanno fin dagli esordi espresso mentalità peculiari. Eric Schmidt, il CEO della Google Foundation, ha più volte parlato della “forza morale” di Google, “come se la sua missione fosse salvare il mondo e non fare soldi” (Auletta, 2009: 22), mentre i suoi algoritmi di ottimizzazione della ricerca hanno come fine quello di organizzare al meglio l’informazione per gli utenti. Lo stesso Al Gore, consulente di Google al termine dell’impegno alla Casa Bianca, ha parlato spesso dei “grandi valori” su cui si fonda la società. Larry Page, co-fondatore di Google con Sergey Brin, ha nel 2007 espresso la sua visione del mondo in termini chiari, assimilando la vita umana e il cervello a due sistemi operativi, tutti e due certamente meno complicati dei sistemi operativi di Windows e Linux[11]. L’efficienza algoritmica a beneficio di tutto il mondo è l’imperativo fondamentale.

Per quanto riguarda Facebook, nel terzo capitolo del suo libro John Naughton (2012) mette in luce le peculiari caratteristiche della personalità del suo fondatore Zuckerberg, dando risalto non tanto alle sue qualità eccelse di esperto in computer science, quanto all’intuizione che Internet potesse diventare ambito di concretizzazione della sua visione di fondo: “to curate the world’s social graph”. Al fine di realizzare “il grafo di tutto il mondo” egli ha intuito l’importanza di creare una superba piattaforma software, aperta alle applicazioni aggiuntive di qualsiasi sviluppatore, e ha usufruito del cosiddetto network effect: maggiore il numero dei componenti della rete, più elevata l’attrattiva per ulteriori arrivi, con circuiti di feedback positivi[12].

È piuttosto chiaro il frame totalizzante dei vari personaggi e delle loro entità tecno-economiche: organizzare l’informazione (Google) e il grafo (Facebook) del mondo.

Al di là di tutto questo, però, e di altri aspetti su cui non si soffermiamo per brevità, i nuovi mogul (Naughton, 2012) ottengono vantaggi inusitati da determinati meccanismi di interazione tra le tecnologie del cyber-physical world e le peculiarità della mente e del cervello umano.

Il punto fondamentale è che Internet e il Web dei flussi fisico-digitali costituiscono l’intelaiatura-trama della realtà in quasi tutto il mondo, prendendo impropriamente a prestito dal fisico Deutsch l’espressione The Fabric of Reality. D’altra parte, un’ampia letteratura nel corso degli ultimi decenni ha mostrato che la tecnologia modella la realtà e ovviamente noi stessi per primi, che la creiamo attraverso le nostre conoscenze. Dopo tutto, come afferma nel suo grande libro il computer scientist Joseph Weinzenbaum (1976: 9): “The instruments man uses, after all, extensions of his body. … his instruments become literally part of him, and thus alter the basis of his affective relationship with himself…Western man’s milieu is now pervaded by complex technological extensions of his every functional capacity.”. In sostanza, quindi, la tecnologia intellettuale di produzione, come la definisce Daniel Bell (1999), cioè l’incorporazione negli oggetti della conoscenza umana organizzata in forma di sistemi dinamici di algoritmi, ha conferito alle macchine il linguaggio e la possibilità di dialogare tra loro.

Emerge allora una grande questione. Sulla base di una rilevante mole di studi, Ong (2002, cap. 4) Marianne Wolf (2008) hanno argomentato che il passaggio dall’oralità alla scrittura quale ambito fondamentale di sviluppo e trasmissione della conoscenza “restructures consciousness (Ong) e modifica la struttura e l’evoluzione delle connessioni neurali nel cervello (Wolf). Il passaggio dal world of the page al world of screen, prima indicato, mette in moto potenti forze, in grado di modificare le nostre attività, il nostro modo di pensare, il funzionamento di un sistema complesso come il cervello umano.

La scrittura ha cambiato il nostro spazio mentale di concettualizzazione dei processi reali, grazie al fatto che la pagina scritta –come documentano Ong e Wolf- introduce nuovi meccanismi di elaborazione mentale: riflessione più prolungata e lenta, con un maggiore approfondimento di temi e idee. Il world of screen “reinstrada” continuamente le connessioni neurali nel nostro cervello, frammentando incessantemente il lavoro online, immerso in un universo brulicante di hyperlink. Al tempo stesso esso alimenta processi di crescente interattività, grazie a una miriade di input, organizzati in modo tale da attrarre l’attenzione con benefici materiali e spirituali di varia natura e senso. Interattività, hyperlinking, spazi multimediali di ricerca incentivata di nuove informazioni, meccanismi attrattori di attenzione sono tutti fattori che attraggono e distraggono senza sosta il pensiero umano, intrinsecamente portato, per contro, dall’evoluzione ad avere bisogno di dispositivi ordinatori, come anticipato all’inizio. In sostanza, quindi, “we enter an environment that promotes cursory reading, hurried and distracted thinking, and superficial learning” (Carr, 2011). Di qui derivano secondo Carr, i molti paradossi di Internet, uno dei quali destinato – nel lungo termine- a influire in modo determinante sul nostro modo di pensare: “the Net seizes our attention only to scatter it”. Catturare l’attenzione per disperderla, quindi, incentivando attività di surfing mentale tra una molteplicità di stimoli, in questo modo ostacolando la lettura attenta e profonda, mentre la capacità di concentrazione –alla base di quest’ultima- è messa a dura prova e la ricerca nella foresta del web “non vede alberi, ma solo frammenti e foglie”.

È chiaro che un ambiente siffatto trasforma i processi inferenziali umani, le tradizionali fondamenta dei frame con cui organizziamo il mondo, i processi basilari di raccolta e archiviazione delle informazioni nella memoria a breve termine e la successiva sedimentazione in quella a lungo termine.

Un nuovo e profondo cambiamento dello spazio mentale di concettualizzazione del mondo si sta realizzando, analogamente a quanto accadde nel passaggio dall’oralità alla scrittura. Il tutto avviene, poi, in un mondo dominato da Techno-giants e Moligopoly e con rischi globali elevati, come abbiamo sostenuto in un altro contributo.

Phygital, il super-mondo a rischio crack. Come invertire la rotta

Conclusioni

Nell’odierno cyber-physical world, dove si realizzano feedback cumulativi tra crescenti volumi di informazioni e sviluppi dell’IA, mentre meccanismi e strutture basilari dei processi cognitivi umani si trasformano proprio in relazione ai cambiamenti dello spazio delle interazioni, occorre ripensare profondamente la human literacy[13]. Imperativo fondamentale oggi è quello di evitare che l’estensione degli strumenti creati dall’uomo comporti che lo spazio mentale umano retroceda, mentre potrebbe ampliarsi a dismisura sulla base di una feconda interazione uomo-computer. Molta è la strada da percorrere, pertanto occorre essere consapevoli dei problemi da affrontare e degli strumenti, disponibili e potenziali, da utilizzare. All’uopo è necessario tenere sempre presente la spesso citata, nondimeno fondamentale, frase di Seneca “Nessun vento è favorevole per il marinaio che non sa a quale porto vuol approdare”.

____________________________________________________________________________________________

Bibliografia

Arthur W.B., 2011, The Second Economy, McKinsey Quarterly Review, October.

Auletta K., 2009, Googled: The End of the World as We Know It, Penguin.

Barkow J.H. et al., 1992, The Adapred Mind, Oxford University Press.

Daniel D., 1999. The Coming of Post-Industrial Society, Basic Books

Borsook P., 1995, How Anarchy Works: On location with the masters of the metaverse, the Internet Engineering Task Force, Wired, October 1995

Butz M.V., et al, 2003, Anticipatory Behavior in Adaptive Learning Systems, Springer.

Clark S.C., The Design Philosophy of the DARPA Internet Protocols, 18 ACM SIGCOMM Computer Communication Review No. 4, 106

Froomkin A.M., “Habermas@discourse.net: Toward a Critical Theory of Cyberspace,” 116 Harv. L. Rev. 749 (2003).

Goldsmith J., Wu T., 2006, Who Controls the Internet? Illusions of a Borderless World, Oxford University Press.

Johnson S., 2010, Where Godd Ideas Come from, RiverHead Books

Kauffman S., 2005, Esplorazioni evolutive, Einaudi.

Mattson M., 2014, Superior Pattern Processing is the Essence of the Evolved Human Brain, Fontiers in Neurosciences, 22 August.

Mokyr J (2005) Long-term Economic growth and the history of technology. In: Aghion P, Durlauf S (eds) Handbook of Economic growth. North-Holland. Elsevier, Amsterdam.

Naughton J., 2012, From Gutenberg to Zuckerbeger, Quercus.

NIST, Quantum Supremacy, https://www.nist.gov/topics/physics/introduction-new-quantum-revolution/quantumsupremacy.

Ong W.J., 2002, Orality and Literacy, Routledge.

Page L., 2007, Larry Page, keynote address before AAAS Annual Conference, San
Francisco, February 16, http://news.cnet.com/1606-2_3- 6160334.html.

Popper K. , 1990, A World of Propensities, Thoemmes Press.

Rosen R., 2012 (II ed. Ed. Or. 2003), Anticipatory Systems, Springer.

Rosenberg N., 1963, Technological Change in the Machine Tool Industry, Journal of Economic History, 414-443.

Rosenberg N., 1972, Factors Affecting the Diffusion of Technology, Explorations in Economic History, Volume 10, Issue 1, Autumn, 3-33

Rosenberg N., 1975, Problems in the economist’ conceptualization of technological innovation, History of Political Economy, Vol. 7, No. 41, 456-481.

Shermer M., 2003, How we believe, Freeman.

Simonite T., 2018, The US Again Has the World’s Most Powerful Supercomputer, Wired, June, 8.

Weizenbaum J., 1976, Computer Power and Human Reason. From Judgment to calculation, Freeman & Company.

Wolf M., Proust and the Squid: The Story and the Science of the Reading Brain, Marper.

Wu T., 2010, The Master Switch. The Rise and Fall of Information Empires, Alfred Knopf.

  1. “First Amendment First Amendment Annotated: Congress shall make no law respecting an establishment of religion, or prohibiting the free exercise thereof; or abridging the freedom of speech, or of the press; or the right of the people peaceably to assemble, and to petition the Government for a redress of grievances.”

  2. La decisione contiene un’affermazione importante: “The growth of the Internet has been and continues to be phenomenal. As a matter of constitutional tradition, in the absence of evidence to the contrary, we presume that governmental regulation of the content of speech is more likely to interferewith the free exchange of ideas than to encourage it.” (p. 885).
  3. “But, as presently constituted, those most relevant to this case are electronic mail (e-mail), automatic mailing list services (“mail exploders,” sometimes referred to as “listservs”), “newsgroups,” “chat rooms,” and the “World Wide Web.” All of these methods can be used to transmit text; most can transmit sound, pictures, and moving video images.” (p. 851)
  4. Per un’analisi precisa di tutto il processo genetico di Internet e delle sue implicazioni si veda Goldsmith e Wu (2006).
  5. L’algoritmo minimalista di dynamics routing è frutto dell’intuizione di Will Crowther, fisico e computer scientist, membro del gruppo protagonista dell’avventura di Internet nell’ambito delle strategie del DARPA. Il suo algoritmo è definito “a piece of programming poetry” (Hafney e Lyon, 1996).
  6. Sulla loro visione di una specie di deliberative democracy in action si vedano: Goldsmith e Wu (2006: 24); Gimmler (2001); Froomkin (2003).
  7. Postel è definito the God of Internet dall’Economist: The Economist magazine said, simply, “if the Net does have a God, he is probably Jon Postel.” (BBC News, October 19, 1998, http://news.bbc.co.uk/2/hi/science/nature/196487.stm).
  8. Rosenberg (1963) descrive un grande insieme di problemi “common to the production of a wide range of disparate commodities that industries which were apparently unrelated from the point of view of the nature and uses of the final product became very closely related (technological convergent) on a technological basis” (Rosenberg, 1963: 423).
  9. Si pensi all’insieme ancora aperto di possibili usi del grafene: microprocessori, jeans, masherine anti-Covid e capacità di intercettare nuovi virus e malattie…. Da completare
  10. Per Rosen (2012) la capacità di anticipare è ciò che distingue i sistemi viventi da quelli non-viventi ed è logicamente fondamentale per l’apprendimento e l’adozione di comportamenti anticipatori (Butz et al. 2003).
  11. Il testo del suo speech più precisamente afferma: ““My theory is that, if you look in your own programming, your DNA, it’s about 600 Megabytes compressed… so it’s smaller than any modern operating system. Smaller than Linux, or Windows, or anything like that, your whole operating system. That includes booting up your brain, right, by definition. And so, your program algorithms probably aren’t that complicated, it’s probably more about the overall computation. That’s my guess.” (Page, 2007).
  12. Nel suo libro Naughton analizza molti fattori alla base del successo di Facebook, enfatizzandone sei, tre dei quali sono qui sintetizzati.
  13. Si veda a questo proposito A. Longo, L’impatto sociale dell’intelligenza artificiale accelera: l’importanza dell’”AI Literacy”, 2021.
WHITEPAPER
Omnicanalità e mobile experience non sono la stessa cosa. Scopri le strategie di mobile marketing
Marketing
Mobility
@RIPRODUZIONE RISERVATA

Articolo 1 di 4