Come siamo arrivati a perdere il controllo delle big tech - Agenda Digitale

l'analisi

Come siamo arrivati a perdere il controllo delle big tech

L’evoluzione del web ha assunto forme non previste nemmeno da chi ha elaborato il codice sorgente di Internet, tra fake news, sorveglianza di massa, interferenze nei processi decisionali in campo politico e sociale, centralizzazione della governance dei flussi di informazione. Ma come ci siamo arrivati?

12 Ago 2021
Mauro Lombardi

Università di Firenze, BABEL - Blockchain and Artificial intelligence for Business, Economics and Law

L’8 Febbraio 1996, a latere dell’annuale incontro dal World Economic Forum a Davos, John P. Barlow –visionario, poeta e fondatore dell’Electronic Frontier Foundation- annuncia la “Dichiarazione di Indipendenza del Cyberspace”, il cui inizio è chiaramente enfatico: “Governi del Mondo, stanchi giganti di carne e di acciaio, io vengo dal Cyberspazio, la nuova dimora della Mente. In nome del futuro, chiedo a voi, esseri del passato, di lasciarci soli. Non siete graditi fra di noi. Non avete alcuna sovranità sui luoghi dove ci incontriamo”. La dichiarazione contiene poi una serie di affermazioni sull’assoluta libertà del pensiero in un mondo, dove “non si applicano i vostri concetti legali di proprietà, espressione, identità, movimento e contesto”, perché “noi crediamo che il nostro potere emergerà dall’etica, dal nostro interesse personale illuminato, dal bene comune”. La conclusione è ovviamente ispirata ad un futuro visionario: “Creeremo nel Cyberspazio una civiltà della Mente. Possa essa essere più umana e giusta di quel mondo che i vostri governi hanno costruito finora”.

Tecnologie digitali sempre più pervasive e persuasive: così influenzano la nostra evoluzione

Il mondo delle idee del visionario J.P.Barlow

L’origine di queste idee sono una derivazione di famose enunciazioni di Thomas Jefferson come questa: “ … Ideas should freely spread from one to another over the globe, for the moral and mutual instruction of man, and improvement of his condition, seems to have been peculiarly and benevolently designed by nature, when she made them, like fire, expansible over all space, without lessening their density at any point, and like the air in which we breathe, move, and have our physical being, incapable of confinement or exclusive appropriation. Inventions then cannot, in nature, be a subject of property”.

WEBINAR
18 Novembre 2021 - 12:00
Quali sono le tecnologie più adatte per intervenire sui processi aziendali?
Digital Transformation
Risorse Umane/Organizzazione

Questo brano di una citazione più ampia è all’inizio di un lungo articolo su Wired, in cui Barlow ritiene superato il concetto di diritti di proprietà intellettuale: con l’entrata dell’informazione nel cyberspace, “casa nativa della Mente”, “tutte le precedenti forme di conservazione [proprietà] delle informazioni sono sostituite da un meta-contenitore, ovvero complesse e liquide configurazioni di 0 e 1” (Barlow, 1996).

La visione è stata ulteriormente ampliata in un’intervista del 2000 (Barlow, 2000) in merito alla Governance di Internet, nel corso della quale Barlow espone la sua concezione della Governance come “ordinamento organico alla società”, opposto al Goverment, che invece è “l’ordinamento strutturale della società”. Barlow si basa sull’idea, espressione della cultura della Silicon Valley, che la Governance è qualcosa che nasce dalla necessità di ordinare processi diretti a risolvere problemi in gran parte tecnici, basati sul consenso. Si tratta quindi di un ordine che emerge dal caos della mancanza di soluzioni a problemi, la quale genera competizione tra idee. Da quest’ultima scaturisce l’accordo sulla soluzione migliore. “Più persone mettono sul tavolo vari tipi di problemi e indicano vie per risolverli, più vicini siamo a soluzioni ‘organicamente’ derivate”. La sua teoria è incentrata su qualcosa che egli chiama “”technacy, which is government by idea itself”. Nella tecnarchia, infatti, l’entità che governa non è un’istituzione né un individuo carismatico, bensì “l’idea stessa”. Il consenso si basa sulla volontà di adottare una certa soluzione ad un problema emergente e le idee accettate divengono “ruling ideas by virtue of their clarity, their precision, their ability to solve the problem with a minimum amount of fuss and bother” (ivi). Nella stessa intervista Barlow chiarisce che la tecnarchia è molto diversa dalla tirannia, “la più efficiente risoluzione delle dispute”, e dalla democrazia, anch’essa “un’altra forma di tirannia, quella della maggioranza”. Per contro, il consenso da lui teorizzato è quello che si basa sul “mercato delle idee”, dove “domina l’idea più forte” più che “the strong human being or the structural practice [i.e.] political model of the traditional …….democratic school” (ivi).

La radicata convinzione di questo pioniere dei “diritti digitali”, figura poliedrica e creativa del web, sembra appropriata come punto di partenza per continuare la riflessione su cosa è il web oggi.

Non è intenzione di questo contributo effettuare un’analisi critica a posteriori della rappresentazione del cyberspace appena esposta, bensì mettere in luce processi che si sono innescati nello spazio globale delle idee, dove proprio la dinamica emergente indicata da Barlow ha assunto forme non previste nemmeno da chi ha elaborato il codice sorgente di Internet, cioè l’ingegnere informatico Tim Berners-Lee, che in un’intervista a Vanity Fair dell’Agosto 2018 si è dichiarato “I was devastated” dagli sviluppi di Internet: fake news, sorveglianza di massa, interferenze nei processi decisionali in campo politico e sociale, crescente centralizzazione del potere di governo dei flussi di informazione. Questi temi saranno ripresi successivamente, dopo aver indicato alcune dinamiche endogene alla sfera digitale sovrapposta e permeante i processi fisici.

La configurazione dinamica assunta dal cyberspace è chiaramente molto diversa da quella ipotizzata da Barlow, in conseguenza del grande sviluppo dell’intelligenza artificiale (d’ora in poi IA), attuale protagonista indiscussa di feedback cumulativi con la crescita esponenziale della potenza computazionale.

L’intelligenza artificiale tra aspettative generose e difficoltà reali

Anche l’IA è stata al centro di previsioni ottimistiche e conseguenti ondate di investimenti, denominate “Springs” (anni ’60 e primi anni ‘70), seguite da periodi risultati inferiori alle attese (“Inverni”, anni ‘80), e quindi minori impegni di risorse umane e finanziarie. Dalla fine degli anni ’80 e primi anni ’90, quindi dal 2000 siamo stati in presenza di nuove “Primavere”. Le visioni troppo ottimistiche sono state numerose, ad opera anche di grandi personaggi della storia dell’IA e della teoria dell’informazione. Nel 1960 Herbert Simon afferma che “machines will be capable, within twenty years, of doing any work that a man can do” (The Ford Distinguished Lectures, Volume 3: The New Science of Management Decision. Harper and Brothers, p.38). Nel 1961 Claude Shannon ribadisce: “I confidently expect that within a matter of 10 or 15 years, something will emerge from the laboratory which is not too far from the robot of science fiction fame”.

The Shannon Centennial: 1100100 years of bits

Scenari di tenore analogo sono delineati per l’avvento delle self-driving cars, come illustra Melanie Mitchell (2021), famosa computer scientist americana e allieva di Douglas Hofstadter, Nel 2015 il Guardian annuncia che nel 2020 saremo seduti sul sedile del passeggero. Nel 2016 Business Insider esprime la certezza che nel 2020 saranno in circolazione 10 milioni di self-driving cars, seguito tre anni dopo da Elon Musk, sicuro che “A year from now, we’ll have over a million cars with full self-driving, software…everything” (riportato da Melanie Mitchell). È superfluo ricordare le grandi aspettative generate dall’impiego di “sistemi esperti” nell’industria nel corso del decennio ’80, ma non possiamo trascurare il fatto che un altro grande personaggio dell’IA, Marvin Minsky, ha nel 1967 affermato: “Within a generation, I am convinced, few compartments of intellect will remain outside the machine’s realm-the problems of creating ‘artificial intelligence’ will be substantially solved” [Computation. Finite and Infinite Machines, Prentice-Hall: 2).

I successi dal 2010 in poi del Deep Learning, ovvero reti neurali multistrato con milioni di neuroni artificiali e miliardi di connessioni, hanno alimentato nuove aspettative dopo le performance in campi quali: riconoscimento del linguaggio parlato, traduzioni, identificazione di immagini, vittorie in giochi complessi (scacchi, Jeopardy!, GO), simulazione del ripiegamento delle proteine (protein folding), capacità linguistica (GPT-3 di Open AI).

Alla luce di questi risultati non sorprende che sia iniziata una nuova “primavera”, come si evince da due survey, che hanno coinvolto ricercatori di IA. Della prima, effettuata sulla base di un questionario online da Muller e Bostrom (2016: 568), emerge che gli esperti di sistemi di AI ritengono sia del 50% la probabilità di una IA con capacità analoghe a quelle umane nel 2040-2060 e del 90% nel 2075. Una volta raggiunto il livello dell’intelligenza umana, al salto verso una super-intelligenza entro due anni viene attribuita una probabilità del 10%, che sale al 75% entro trenta anni. Lo scenario di una super-intelligenza viene comunque considerato comunque probabile entro alcune decadi e viene valutato come generatore di conseguenze negative per l’umanità.

Mentre questa prima survey è diretta a stimare le percezioni degli esperti di IA, la seconda (Grace et al. 2018) ha lo scopo di indagare le previsioni di ricercatori che hanno partecipato a una serie di conferenze internazionali. Il tasso risposta al questionario inviato a 1634 persone è stato del 21% (352) e ha prodotto la previsione che l’IA supererà quella umana secondo questa cadenza temporale: traduzione linguistica (2025), scrittura di saggi da high-school (2026), guida di un camion (2027), lavoro nella vendita al dettaglio (2031), scrittura di un besteller (2049) e capacità di lavorare come un chirurgo (2053). È interessante notare che viene attribuita una probabilità del 50% sia al superamento dell’’intelligenza umana da parte dell’IA in tutti i campi entro 45 anni, sia all’automazione completa di tutti i lavori entro 120 anni, con gli esperti asiatici più propensi a prevedere date molto più vicine per il raggiungimento di queste performance.

Melanie Mitchell (2021) contiene un’interessante analisi delle cause del divario tra aspettative e realtà nel caso dell’IA. Pur essendo stata oggetto di critiche, alcune molto dure su Reddit e una meno severa (Electroswing, 2021), le sue osservazioni sono pregnanti e meritano una riflessione. La studiosa individua 4 fallacie presenti nel modo di concepire l’IA.

La prima concerne l’assunzione che esista un continuum tra l’intelligenza, sviluppata in domini di conoscenza ben delimitati (narrow intelligence) e l’intelligenza generale. È la cosiddetta “fallacia del primo step” (Dreyfus, 2012), cioè l’idea che il primo successo ha in sé incorporato gli stadi successivi, il che equivale a pensare come diceva scherzosamente il fratello di Dreyfus (2012: 92): “My brother quipped, ‘‘It was like claiming that the first monkey that climbed a tree was making progress towards landing on the moon.’’ In realtà tanti sono gli ostacoli, gli imprevisti e le complessità da affrontare prima e durante ogni step, anche nel caso si sia intrapreso la traiettoria di ricerca più appropriata. La storia dell’IA dalla conferenza di Dartmouth del 1956, dove John McCarthy ha coniato l’espressione IA, lo dimostra ampiamente, se nel cinquantenario della Conferenza lo stesso McCarthy ha dichiarato “Human-level AI is harder thai it seemed”.

Qui entra in gioco la seconda fallacia indicata da Melanie Mitchell: “Easy things are easy and hard things are hard”. Gli ultimi decenni hanno dimostrato che le funzioni cognitive più impegnative (calcolo logico-matematico, strategie in giochi complessi come gli scacchi e go, traduzione in centinaia di linguaggi) sono raggiungibili dall’IA, ma a tutt’oggi sono molto da difficili da riprodurre le performance che un bambino di 5 anni riesce a ottenere con un non eccessivo impego percettivo, quale il riconoscimento di immagini oppure la classificazione in categorie mentali. Le abilità elementari sono un obiettivo difficile da raggiungere, perché sono basate sulle caratteristiche degli umani, dotati di un sistema multimodale di acquisizione delle informazioni, assunte in larga parte inconsciamente (Mlodinov, 2012). Come sostiene Mitchell (2021: 3), l’IA è più difficile di quanto si pensasse “because we are largely unconscious of the complexity of our own thought processes”. La spiegazione di questo viene da lei proposta riprendendo le parole di Moravec, inventore dell’omonimo paradosso: “Encoded in the large, highly evolved sensory and motor portions of the human brain is a billion years of experience about the nature of the world and how to survive in it. The deliberate process we call reasoning is, I believe, the thinnest veneer of human thought, effective only because it is supported by this much older and much more powerful, though usually unconscious, sensorimotor knowledge. We are all prodigious olympians in perceptual and motor areas, so good that we make the difficult look easy. Abstract thought, though, is a new trick, perhaps less than 100 thousand years old. We have not yet mastered it. It is not all that intrinsically difficult; it just seems so when we do it.” (Moravec, 1988: 15-16).

Questo lungo brano di Moravec introduce alla “terza fallacia” indicata da Mitchell, cioè la “memotecnica illusoria” (wishful mnemonics), che consiste nell’impiego di termini ed espressioni tali da indurre a interpretazioni estensive dei risultati raggiunti. È il caso delle “macchine che apprendono”, mentre il loro “apprendimento” riguarda domini di conoscenze ben delimitati e soprattutto non possiede le caratteristiche dell’apprendimento umano: capacità di generalizzare le conoscenze in altri ambiti, assimilare elementi essenziali di un contesto ad un altro mediante il ricorso a metafore, analogie, sciarade, logica abduttiva (formulazione di ipotesi e non solo di correlazioni per quanto complesse). Su questi temi si sono esercitati grandi studiosi di IA e psicologi cognitivi quali Hofstadter, Holyoak, Lakoff, per citarne solo alcuni. Il fatto è che anche AlphaGo dell’IBM, vincitore nel 2016 del confronto con il più grande campione di tutti i tempi nell’antico gioco cinese GO, il coreano Lee Sedol, dando così origine ad annunci evocativi di un prossimo superamento delle capacità umane, non riesce a esercitare le sue abilità fuori da quel contesto. Come ha messo in evidenza Sokol (2018), AlphaGo è stata allenata e ha una competenza notevole in un gioco, ovvero un mondo con regole ben definite e informazione “perfetta” sulla configurazione fisica (disposizione dei pezzi e valutazione delle sequenze possibili). La complessità di Go consiste nell’elevato numero di scenari ipotizzabili, che richiedono “immaginazione” basata su regole note. La realtà è molto diversa: “Most real-world strategic interactions involve hidden information” (Sokol, 2018) e -aggiungiamo noi- informazione spesso ambigua, confusa, contraddittoria, per interpretare la quale occorre forse quella conoscenza subconscia e multimodale, accumulata dagli umani nel corso dell’evoluzione e della propria vita personale.

La riflessione appena svolta conduce immediatamente alla quarta fallacia, individuata da Melanie Mitchell: “L’intelligenza è tutta nel cervello”. Questa assunzione spinge gli esperti di IA a ritenere di fatto che “scaling up hardware to match the brain will enable human-level intelligence” (Mitchell, 2021: 6). Ciò accomuna sia l’approccio “simbolico” della prima generazione di IA (Newell-Simon) che quello sub-simbolico delle reti neurali “rivoluzionarie” (Rumelhart e-McLelland nel 1987) e delle reti multi-strato del Deep Learning nelle varie versioni. Sembrano non sottrarsi a tale illusione i recenti modelli brain-ispired sia nel software che nel software, i quali trascurano componenti importanti dei processi cognitivi multi-modali, che connotano gli umani e sono al centro di un programma di ricerca, adottato da scienze cognitive, neuroscienze, linguistica e alcuni studiosi dell’AI (Andy Clark, Johnson, Frinston).

Anche una figura autorevole della computer science degli ultimi due decenni, Roger Brooks, esprime dubbi sulla traiettoria intrapresa dall’IA e sulla necessità di comprendere meglio l’intelligenza umana, andando oltre il “computationalism”, superando le attuali “abstraction barriers, where the abstraction barrier is very tightly defined. This is different from what we see in biological systems, where it’s much more adaptive than the strictness that we see.” (Brooks, 2019).

Il talk di Brooks e l’intenso scambio di opinioni con altri eminenti scienziati, che ne è derivato. sono davvero stimolanti per i temi toccati e per una sorta di evidente paradosso: il prevalente modello computazionale nell’A si basa su una metafora con cui si rappresentano i processi reali, ma non è al momento in grado di produrre metafore! I sistemi di intelligenza artificiale non catturano la ricchezza dei significati che è naturale per gli umani nella percezione e nel linguaggio nelle varie forme di ragionamento (Mitchell, 2020).

Anche se appare ancora lungo percorso per arrivare ad un’IA comparabile a quella umana, non si deve trascurare che comunque gli attuali sistemi di software, sempre più potenti, consentono di raggiungere alti livelli di performance nel controllo di flussi di informazione molto complessi. In altri termini, essi sono in grado di rappresentare, gestire e influenzare sistemi interconnessi a livello globale, di cui di fatto costituiscono in un certo senso la linfa vitale.

È allora opportuno cercare di riprendere il tema di cos’è il cyberspace alla luce dei divari segnalati nell’analisi svolta.

Dall’indipendenza auspicata alla dipendenza reale

In contributi precedenti è stato analizzato come il web sia diventato un’area dominata da Techno-Giants (GAFA,Google, Aanazon, Facebook, Apple), che combinano in modo dinamico potenti sistemi di intelligenza artificiale e determinati modelli di business, generando feedback estremamente positivi (in termini di ricavi e profitti). Sembra logico chiedersi: com’è possibile che vi sia un divario così forte tra aspettative e processi reali

Nel rispondere alla domanda partiamo da un punto fondamentale. Nel caso delle tecnologie dell’informazione e del web, come in centinaia di altre innovazioni esaminate da Tenner (1997), le tecnologie inventate hanno quasi sempre realizzazioni molto differenti dell’idea che muove l’innovatore. La fantasia razionale del progettista è ha quasi sempre seguita da “conseguenze inintenzionali”, che fanno assumere all’innovazione funzioni e forme molto diverse da diverse da quelle immaginate, nonostante tutte le convinzioni e la tenacia di chi ha le idee innovative. Ihde (2008) chiama “fallacia del progettista” (designer’s fallacy) il dato ricorrente che le innovazioni evolvono in modo differente da quanto preventivato. La causa di questo è da lui individuata nel fatto che le tecnologie, specie quelle odierne, evolvono all’interno di relazioni complesse tra designers, tecnologie e contesti socio-culturali in cui si collocano. Di fatto “technologies seem potentially to contain multiple uses or trajectories of development”, il cui sviluppo dipende dai pattern che assumono le interazioni sociali, economiche, politico-istituzionali. Le modalità e i meccanismi interattivi sono poi influenzati anche dalle propensioni esplorative a livello individuale-collettivo e dai comportamenti degli utilizzatori delle tecnologie. In definitiva, le relazioni tra progettista e la materialità delle tecnologie, nonché quelle tra i prodotti concreti e gli utenti, sono complesse e multistabili, che praticamente significa questo: evolvono sistemi complessi con una molteplicità di esiti possibili, quindi con alta probabilità di andare incontro a indeterminatezza evolutiva.

Non deve quindi destare grande sorpresa se la California è diventata la “levatrice” di una rivoluzione tecnologica, la cui matrice è sicuramente internazionale, come si evince dal fatto che il primo atterraggio sulla luna è avvenuto grazie all’impiego del primo computer da tavolo, realizzato dal team dell’Ingegner Perotto della Olivetti, da parte della NASA (IEEE Spectrum, The Calculator That Helped Land Men on the Moon). La California è stata ed è un crogiuolo di culture, visioni avveniristiche, esperimenti tecnico-scientifici, immaginazione di nuovi modelli di business legati a innovazioni. In essa si è realizzato il passaggio dalla controcultura degli anni ’60 al cyberspace, come sostengono Turner (2006, From Controculture to Cyberspace, The University Chicago Press) e Florida (2012, The Rise of Creative Class, Revisited, Basic Books).

Lo Stato californiano può essere oggi considerato quartier generale dei Techno-Giants del web, ma è anche territorio con grandi asimmetrie socio-economiche e culturali, come del resto gli USA, che sono l’economia occidentale con il più alto livello di disuguaglianza, come si vede dalla Figura sottostante

Fonte: WID, World Inequality Database,

È accaduto, in forme solo in parte prevedibili, quanto sostenuto da Ihde (2008) e ipotizato da Weizenbaum (1976). Per cecare di comprendere l’evoluzione, partiamo da una delle conseguenze più importanti della creazione del web. Si è creato uno spazio di flussi informativi globali, che hanno consentito l’emergere di strutture interattive a vari livelli. Sulla base di queste si è sviluppata la dinamica di sistemi-auto-organizzati, come è avvenuto in biologia e nei sistemi sociali. “A system is self-organizing if it acquires a spatial, temporal, or functional structure without specific interference from the outside. By ‘specific’ we mean that the structure or functioning is not impressed on the system but that the system is acted upon from the outside in a nonspecific fashion.” (Haken e Portugali, 2017: 1). Analogamente Camazine et al. (2001: 8) sostengono: “Self-organization is a process in which pattern at the global level of a system emerges solely from numerous interactions among the lower-level components of the system.”

La tesi qui sostenuta è che con la nascita del Cyberspace si è creato, al di là delle intenzioni dei numerosi soggetti che ne hanno progettato le componenti fondamentali (da ARPANET a Tim Berners-Lee) un sistema interattivo globale, composto di sotto-sistemi locali a varia scala. È in questo “ambiente post-biologico” che le menti umane hanno trovato il terreno fertile per innescare processi di auto-organizzazione amplificata attraverso le proprie idee e progetti. È così accaduto che un intelligente studente di Harvard (Mark Zuckerberg), dopo aver hackerato le mail di altri studenti e averli coinvolti nel dire cosa pensavano ognuno degli altri, ha negli successivi sviluppato l’idea (e chiesto scusa per evitare una punizione) grazie ad una potente leva, con cui ha potuto agire indisturbato sull’universo informativo in espansione a livello mondiale, cioè particolari sistemi di software e potenza computazionale crescente. Così come ha potuto fare Amazon, che Bezos ha trasformato dal garage di casa sua e dalla libreria iniziale in un leader incontrastato del retail mondiale, dopo Wall Mart, e in fase di ulteriore accelerata crescita (NRF, National Retail Foundation).

L’analisi dei modelli di business dei Techno-Giants può ora arricchirsi di altri elementi di riflessione, esplicativi sia del successo stratosferico dei protagonisti sia del tramonto del sogno dell’”indipendenza del web”.

Mondo fisico-cibernetico: come funzionano i modelli di business e potere in cui siamo immersi

Weizebaum (1976) ha scritto pagine illuminanti sull’enorme cambiamento prodottosi nel XX secolo, quando nell’uso degli strumenti (tools) generati dall’immaginazione umana per interagire con l’ambiente, noi tutti abbiamo trasformato il nostro rapporto con il mondo: abbiamo descritto il nostro mondo con un linguaggio formalizzato, trattabile da una macchina di Turing (computer) e ora vediamo il mondo con l’immagine che esso ci fornisce. Il nucleo fondamentale di questa inversione del rapporto uomo-macchina risiede nella “meccanizzazione della ragione e del linguaggio” (p. 252), nella riduzione della razionalità a computabilità e logica (p. 255). In breve, abbiamo accettato il predominio della razionalità strumentale e della “logicality” (p. 257), che sono seduttivi e provocano assuefazione. La razionalità strumentale significa perseguimento sistematico della massima efficienza, quindi che ottimizzazione sia un imperativo assoluto da seguire sulla base dell’informazione posseduta, priva di limiti. In tale orizzonte teorico e operativo è chiaro che la quantificazione è principio metodologico basilare e la capacità di calcolo in crescita esponenziale è il logico sostituto dell’imperfezione umana. Per questa via, inoltre, i processi deliberativi tendono ad essere assegnati alle macchine e gli umani diventano tendenzialmente componenti sociali da attrarre e indirizzare verso le soluzioni ottimali. Oltre a questo aspetto, c’è da dire che di fatto si identifica razionalità e intelligenza, che sono due cose distinte. Su questo torneremo in futuro, si veda Stanovich (2012).

Siamo di fronte alla nascita e alla diffusione del techno-social enginering, espressione con cui si definiscono “processes where technologies and social forces align and impact how we think, perceive, and act” (Frischman e Selinger, 2008: 4). Ciò sta accadendo nel cyberspace, dove predominano i Techno-Giants, che effettuano già esperimenti di vera e propria ingegneria sociale. Ci riferiamo innanzitutto a quello che viene chiamato gamification¸ ovvero management dei social attraverso una serie di strumenti attrattivi di natura psicologica e monetaria: ricompense di varia natura in base al numero di followers e like, accumulazione di punti in relazione al raggiungimento di certi obiettivi, incentivi per indurre a ricerca maggiori livelli di soddisfazione personale, premi per l’assunzione di certi comportamenti, facilità di entrare in reti di similarità (basate su amicizia, idee condivise, affinità elettive, basta un click), e così via.

Tutto questo è l’esito di precise strategie non occulte. Lo stesso Zuckerberg ha scritto: “To our community. On our journey to connect the world, we often discuss products we’re building and updates on our business. Today I want to focus on the most important question of all: are we building the world we all want? History is the story of how we’ve learned to come together in ever greater numbers – from tribes to cities to nations. At each step, we built social infrastructure like communities, media and governments to empower us to achieve things we couldn’t on our own.”

Non può quindi sorprendere più di tanto che Facebook impieghi sistemi di intelligenza artificiale per anticipare i comportamenti dei consumatori e vendere la pubblicità (Biddle, 2018). Gli imperativi di efficienza e l’ottenimento del massimo possibile di informazione possibile stanno forse spingendo oltre ogni aspettative se Facebook sta sviluppando tecnologie molto lontane dal sogno di Barlow: “Facebook wants to create a device that can read your mind — literally. It’s funding research on brain-machine interfaces that can pick up thoughts directly from your. neurons and translate them into words, the company announced in a blog post last week.” (Sigal S., 2019, Facebook is building tech to read your mind. The ethical implications are staggering, Vox, 5 August).

Conclusioni

Mentre, come al solito, Elon Musk annuncia che una delle sue imprese innovative (Neuralink) sta sviluppando progetti di connessioni fisiche flessibili tra cervello e dispositivi computazionali, per consentire di controllare lo smartphone con il pensiero, è in pieno sviluppo la registrazione di brevetti “brain reading”, cioè neurotecnologie pervasive che permettono di controllare i videogames con le onde cerebrali (BBC, 2017, Surge in US ‘brain-reading’ patents, 7 May).

Se queste sintetiche news non sono sufficienti per ipotizzare che il sogno dell’indipendenza del web si avvia a diventare incubo della dipendenza dal web, un insider della Silicon Valley, ex product manager di Google, Tristan Harris ha reso pubblico il fatto che nella SV gli ingegneri del web stanno lavorando da qualche anno a ciò che si può definire “brain hacking”: sono create app e software che di fatto trasformano lo smartphone in una slot machine: “This is one way to hijack people’s minds and create a habit, to form a habit”. Tecniche di programmazione, chiamate “streaks”, sono incorporate nei dispositiv e “Inadvertently, whether they want to or not, they are shaping the thoughts and feelings and actions of people.” (A. Cooper, 2017, What is ‘brain hacking’? Tech insiders on why you should care, CBS News, 9 April). Il loro obiettivo è make money, ma in questo modo rischiano di lobotomizzare virtualmente gli utenti.

Tutto ciò, e altro che verrà discusso nel prossimo futuro, non deve indurre al pessimismo, bensì alla consapevolezza che siamo una fase di transizione critica nella storia dell’umanità e quindi occorre un sussulto di consapevolezza, ricordando una frase del fisico Haim Harari: “Some prominent scientific gurus are scared by a world controlled by thinking machines. I am not sure that this is a valid fear.I am more concerned about a world led by people, who think like machines, a major emerging trend of our digital society.

Bibliografia

Barlow J.P, 2000, Intervista pubblicata dal The Berkman Center for Internet & Society, Harvard Law of School, [https://cyber.harvard.edu/is99/governance/barlow.html]

Barlow J.P., 1994, The Economy of Ideas. A framework for patents and copyrights in the Digital Age. (Everything you know about intellectual property is wrong) [https://www.wired.com/1994/03/economy-ideas/].

Biddle S., 2018, Facebook is using AI to predict users’ future behavior and selling that data to advertisers, The Intercept, 13 April.

Brooks R.A., 2019, The Cul-de-Sac of the Computational Metaphor, Edge Talk, 13.5.

Camazine C. et al., 2001, Self-organization in Biological Systems. Princeton University Press, Princeton, NJ.

Dreyfus H.L., 2012, A History of First Step Fallacies, Minds & Machines, 22:87–99.

Electroswing (blogger di LESSWRONG), 2021, Review of “Why AI is Harder Than We Think”, 30 April.

ERCIM –European Research Consortium for Informatics and Mathematics, 2021, Brain Inspired Computing.

Frischman B., Selinger E., 2008, Reengineering Humanity, Cambridge University Press.

Grace K., Salvatier J., Dafoe A., Zhang B., Evans O., 2018, When will AI exceed human performance? Evidence from AI experts. Journal of Artificial Intelligence Research, 62:729–754.

Haken H., Portugali J., 2017, Information and Self-organization: A Unifying Approach and Applications, Entropy 2016, 18, 197; doi:10.3390/e18060197.

Ihde D., 2008, The Designer Fallacy and the Technological Imagination. In Peter Kroes, Pieter E. Vermaas, Andrew Light, and Steven A. Moore (eds.), Philosophy and Design: From Engineering to Architecture, Dordrecht, Springer Science & Business Media: 51–59.

Mitchell M., 2020, On Crashing the Barrier of Meaning in AI, AI Magazine, 41(2), 2020, 86–92. https://doi.org/10.1609/aimag.v41i2.5259.

Mitchell M., 2021, Why AI is Harder Than We Think” [arXiv:2104.12871v2 [cs.AI] 28 Apr 2021].

Mlodinov L., 2012, How Your Unconscious Mind Rules Your Behavior, Pantheon Books.

Müller, V.C., Bostrom N., 2016, Future progress in artificial intelligence. A Survey of Expert Opinion, in V. C. Müller (ed.), Fundamental Issues of Artificial Intelligence, Synthese Library; Berlin: Springer, 555-572.

Negoita M.G., Hintea S., 2009, Bio-Inspired Technologies for the Hardware of Adaptive Systems, Springer.

Sokol J. 2018, Why Artificial Intelligence Like AlphaZero Has Trouble With the Real World, Quanta Magazine, 21 February

Stanovich K. E., 2012, On the Distinction Between Rationality and Intelligence: Implications for Understanding Individual Differences in Reasoning. In K. J. Holyoak e K.J. Morrison (eds.), The Oxford Handbook of Thinking and Reasoning, Oxford University Press: 433–455.

Tenner E., 1996, Why Things Bite Back: Technology and the Revenge of Unintended Consequences, Vintage.

Weizenbaum J., 1976, Computer Power and Human Reason. From Judgment to Calculation, Freeman & Company.

WHITEPAPER
Distance Selling: come trasformare il New Normal in una straordinaria opportunità di crescita
@RIPRODUZIONE RISERVATA

Articolo 1 di 4