scenari

Oligopoli dei big data, ci salverà solo una nuova cultura Antitrust

Le culture tradizionali dell’antitrust e le normative nazionali non sono attrezzate a gestire l’intreccio di temi e questioni complesse generate dalle hyperstructures, strutture reticolari, gerarchiche, molto dinamiche e pervasive che possiedono e sfruttano i nostri dati per loro profitto. Un’analisi dei trend evolutivi

02 Ago 2019
Mauro Lombardi

Scienze per l’Economia e l’Impresa, Università di Firenze


L’esistenza di un problema colossale è ormai indiscutibile: pochi giorni or sono la FTC USA (Federal Trade Commission) ha multato Google per l’attività svolta da Youtube nel tracciare i bambini e quindi attrarli nelle scelte di acquisti. Si tratta di violazione di una legge federale a protezione dei minori di 13 anni e la conseguenza sarà una multa miliardaria in dollari, da decidere. Al di là degli aspetti monetari, etici, normativi e politico-istituzionali, è chiaro che vi sono questioni di rilevanza tale da non potersi eludere con escamotages e diversioni culturali, perché la posta in gioco è elevata.

Analizzeremo questi temi, a partire da due punti basilari, per arrivare a comprendere come sia essenziale un riorientamento delle politiche pubbliche e la creazione nuovi strumenti teorici ed applicativi e di originali elaborazioni sul piano culturale, etico, legale, istituzionale.

I due punti essenziali da cui partire

Iniziamo con due punti basilari abbastanza evidenti:

  • l’intero globo terrestre è avvolto da un’infrastruttura di comunicazione, al cui interno flussi crescenti di merci, persone e informazioni sono raggruppati, organizzati e governati secondo varie modalità.
  • La dinamica evolutiva di ogni entità, animata e non, dalla nano-scala a quella planetaria sembra riproducibile sul piano digitale (gemello digitale, datification).

Strutture interattive e meccanismi di organizzazione degli scambi ormai pervadono ogni sfera della vita sociale in processi multi-scala: l’epidemia di Ebola in Congo e quello che accade nelle miniere di Rio Tino in Australia con l’impiego totalizzante di robot ha immediate ripercussioni a più di 10.000 km di distanza. In breve, potenziali e imprevedibili circuiti di feedback tra agenti di tutti i tipi e nazionalità, da un lato, e dall’altro sistemi di algoritmi generano spinte verso una continua evoluzione della conoscenza, facendo sì che la sfera informativa, che pervade e circonda quella reale, interagisca con la seconda e la influenzi. E’ quindi logico che nella infrastruttura informativa si auto-organizzino strutture connettive, cioè ambiti di cooperazione tra unità economiche, per produrre beni e servizi sempre più multi-technology e complessi. Nello scenario di iperconnettività si creano sotto-spazi di coordinamento e al tempo stesso di competizione tra soggetti diversi, che sono necessariamente inseriti in strutture globali.

Le hyperstructures informartive e economico-produttive

Ai due punti basilari, appena indicati, bisogna aggiungere una terza proprietà dell’evoluzione tecno-economica, in accelerazione nell’ultimo ventennio: il formarsi di hyperstructures (Baas, 2009, 2012, 2015) informative ed economico-produttive, cioè strutture reticolari, gerarchiche, molto dinamiche e pervasive, come gli algoritmi di elaborazione delle informazioni creati e diffusi ovunque. In altri termini, le hyperstructures sono la forma emergente di processi di auto-organizzazione, alimentati e sostenuti da feedback in parte spontanei ed in parte innescati o diretti secondo strategie basate su interessi convergenti.

Ciò avviene perché il potere generativo e quello di controllo dei flussi tendono quasi inevitabilmente a fondersi o a non essere divaricati, dal momento che sfera fisica e sfera informativa sono così intrinsecamente connesse e correlate da indurre le strutture connettive a varia scala a formare strutture multi-livello. Queste ultime sono in grado di realizzare meccanismi di alimentazione e controllo di vari domini di attività, entro cui le hyperstructures cercano opportunità di sviluppo. Siamo in un mondo fisico-cibernetico, dove è inevitabile un aumento di dati e informazioni tale da far emergere la necessità di introdurre forme e meccanismi di controllo per raggiungere le proprie finalità di profitto, potere, difesa da potenziali minacce, e così via.

Se a tutto questo aggiungiamo che si sviluppa una sorta di “corsa alle armi” competitiva tra sviluppi tecnico-scientifici, sfruttamento tecno-economico di essi mediante cicli iterati di feedback tra una pluralità di soggetti, si perviene alla conclusione di essere di fronte all’ennesima e pericolosa versione del “mito di Pandora”, la cui curiosità la spinge ad aprire un vaso che doveva contenere un alimento essenziale per l’umanità, ma ne escono anche molti mali del mondo. Fuor di metafora, l’insaziabile curiosità intellettuale, che ha spinto l’umanità a spostare sempre più in là la frontiera della conoscenza fino al punto di trasformarla in sistemi di regole capaci di rendere “vivi” gli oggetti (elaboratori di informazione), ha creato un enorme potenziale tecnico-produttivo, il quale può ritorcersi contro la stessa umanità.

Come distribuire la prosperità

Vediamo come e perché, al fine di chiedersi cosa si può fare, esclusa la possibilità di “far rientrare i mali nel vaso”. Partiamo da un grande paradosso dell’era attuale. Il potenziale tecnico-scientifico e produttivo spinge autorevoli studiosi molto diversi tra loro (Ray Kurzweil, Brian Arthur, Larry Summers, e altri) a ritenere che siamo entrati nell’era della prosperità e il problema è non nel produrla, bensì nel “come distribuirla”. Per contro assistiamo a livello planetario ad asimmetrie di reddito e di accesso a beni essenziali per la vita: non solo nell’Africa sub-sahariana, ma anche nella californiana Los Angeles (si veda il quartiere urbano non collinare “the Jungle”). Questo paradosso-contraddizione è unito a molti altri: vi sarebbero le conoscenze idonee per risolvere molti mali che affliggono l’umanità, in primis la fame, eppure ciò non avviene.

In sostanza, strumenti sviluppati a seguito del progresso della conoscenza umana non sono utilizzati per “liberare l’umanità dal bisogno”, non sono infatti impiegati appieno oppure in senso opposto, cioè per tenerla al di sotto della soglia “biologica”. Pensiamo di nuovo all’universo fisico-cibernetico in cui siamo immersi: tendenzialmente ogni atto o pensiero nell’arco della vita quotidiana è rilevato e memorizzato in qualche forma. Sono dati individuali che, opportunamente aggregati ed elaborati in configurazioni collettive, potrebbero consentire a ciascuno di noi di conoscere meglio se stessi e quindi favorire l’auto-determinazione e la propensione ad interagire proficuamente con l’ambiente di vita. Comunque sia, si tratta di dati e informazioni personali di cui la singola persona è, per così dire, proprietaria naturale.

La differenza tra hyperstructures e global network

Siamo al contrario in un orizzonte distopico, dove dati e informazioni individuali, aggregate e compartimentalizzate, sono oggetto del trattamento algoritmico da parte delle hyperstructures per finalità apparentemente a vantaggio delle persone, in realtà sempre più influenzate da finalità private di profitto-rendita di esse e di global network, mentre si predispongono strumenti per coinvolgere ampie fasce di popolazione, valorizzate sotto l’egida dell’auto-imprenditorialità. La differenza tra hyperstructures e global network non è un vezzo terminologico, bensì l’evidenziazione di differenti funzioni strutturali: le prime costituiscono i motori propulsivi, che permettono ai secondi di ottenere valore sui mercati. Anche qui occorre precisare: il verbo ottenere indica che i secondi acquisiscono valore oppure, per usare un linguaggio diffuso, “mettono a valore” il bene o l’attività che hanno, mentre la generazione del valore risiede nel possesso delle informazioni e del loro management-controllo, inteso nel senso che i dati provenienti dalla spontanea attività dei più vari soggetti e oggetti sono trattati in modo tale da attrarre i consumatori sia su basi collettive che individuali.

Si può anzi sostenere che la categorizzazione delle varie tipologie di domanda di beni e servizi, correlate a caratteristiche personali e comportamentali, permette di “individualizzare” l’offerta attraverso consigli e metodi più o meno subliminali di induzione al consumo. In questo orizzonte le hyperstructures possono esercitare una serie di funzioni di intermediazione o di agente primario, a seconda delle risorse che riescono ad accumulare con gli effetti di scala e di networks, derivanti dal numero di persone attratte. Esempi emblematici dei trend indicati sono Airbnb e Uber, dove i singoli individui (autisti, viaggiatori, proprietari di case) sembrano diventare “auto-imprenditori” e partecipano ai vantaggi delle strutture informative globali.

Come vedremo tra poco, gli stessi GAFAM (acronimo per Google, Amazon, Facebook, Apple, Microsoft) sono in realtà in protagonisti primari. Si comprende allora come sia stato negli ultimi anni possibile il consolidarsi di due processi generali:

Le hyperstructures sono diventate al tempo stesso oligopoli, in quanto competono in alcune aree di attività, e monopoli, perché le pressioni competitive e l’evoluzione tecnico-scientifica le induce ad una peculiare dinamica innovativa, come ha ben illustrato Nicolas Petit (2016), che ha coniato il termine moligopoly per descrivere come i GAFAM competano trasversalmente su più settori di attività e più direttrici di attività (Graf. 1, Petit, 2016): mercato dei capitali e del lavoro ad altissima qualificazione (computer scientist, manager), segmenti di mercato nuovi e di fascia alta e bassa (low end, come il retail). Questa competizione tri-dimensionale è vorticosa: si pensi solo alle risorse destinate ad accaparrarsi i migliori manager ed esperti di intelligenza artificiale.

  • Così facendo, inoltre, le hyperstructures assumono la forma di conglomerate, con una ricerca senza sosta di diversificazione delle attività e di opportunità di profitto, mentre competono contro il “non consumo” (competition against the non-consumption), inventando continuamente nuovi meccanismi di attrazione e di cattura delle varie tipologie di domanda, personalizzate –è il caso di dire- fino all’inverosimile. In definitiva, monopolisti in ristretti set di attività e oligopolisti in progressiva diversificazione. Si pensi ad esempio alle potenziali implicazioni, per i vari mercati in cui decidono di entrare, dei grandi investimenti in Intelligenza Artificiale, robotica, veicoli a guida autonoma.

I trend evolutivi dello scenario competitivo

Cerchiamo allora di enucleare alcuni trend generali, che caratterizzano lo scenario evolutivo di una competizione multi-dimensionale, prendendo in considerazione tre aspetti:

WHITEPAPER
Ricerca IDC: come aggregare i dati per un'analisi ottimale
Big Data
Business Analytics

1) morfologia delle imprese

2) Modelli decisionali degli individui

3) Funzione delle autorità di regolazione

Morfologia delle imprese

Per quanto riguarda il punto 1, in un universo fisico-cibernetico le pressioni competitive spingono a creare incessantemente nuove ramificazioni di business (branching system) sia esplorando nuovi territori di ricerca, sia percorrendo strade già battute da altri, sia inseguendo opportunità di basso profilo, poi amplificate su scala generale con un apparato logistico che combina infrastruttura informativa, intelligenza artificiale, robotica, come nel caso di Amazon e delle modalità di entrare nell’area del retail. Un discorso analogo può essere svolto per gli altri techno-giants del GAFAM, spinti a esplorare ogni spazio e sotto-spazio di business per poi ampliarlo grazie a effetti di network e circuiti di feedback.

Per questa via le hyperstructures, viste come sistemi di ramificazioni variabili, devono investire costantemente ingenti risorse in R&D, che peraltro significa –come mostra Petit- assunzione delle competenze più importanti a livello mondiale (in gergo si chiama acqui-hiring), ma anche fusioni e acquisizioni di altre imprese e di start-up, come è puntualmente avvenuto negli ultimi anni. Basta vedere a tal proposito la sequenza di acquisti diversificati negli anni più recenti da parte di tutte le hyperstructures GAFAM (oltre quelle cinesi newcomers) e la mobilità di esperti prestigiosi (Andrew Ng da Google a Baidu per tutti).

In breve, le hyperstructures ovviamente conservano un core business, ma estendono il territorio di attività in modo sistematico, potendo anche “spiazzare” unità economiche esistenti a livello planetario (si pensi ai piccoli esercizi) con la potenza di fuoco di un arsenale logistico, strategie di targeting personalizzato della domanda, gestione al tempo stesso centralizzata e decentralizzata dei volumi di beni e servizi. Il trend in questione è evidentemente destinato a provocare radicali trasformazioni nei comportamenti dei consumatori e nella regolamentazione dei mercati.

Modelli decisionali degli individui

Per quanto riguarda il punto 2, i consumatori appunto, uno degli aspetti più evidenti, discusso da una letteratura crescente, è quello relativo alla privacy: quantità inimmaginabili di dati riferiti a soggetti sono trasformate in informazioni specifiche e collettive, a loro volta basi gratuite per sviluppare strategie di business orientate grazie a una doppia funzione di leva competitiva. Da un lato ognuno diventa target di politiche attrattive al tempo stesso generali e particolari, in quanto aggregazioni di entità accomunate da preferenze e contemporaneamente individualizzate a seconda delle idiosincrasie personali, definite mediante sistemi di apprendimento statistico, cioè agenti artificiali capaci di particolari processi inferenziali. Dall’altro lato, la capacità di processare informazione consente alle hypertructures di accedere a promettenti nicchie di business sia con inserimenti diretti (attività esplorative proprie), sia acquisendo start-up e micro-realtà in via di consolidamento, sia acqui-hiring competenze elevate sul mercato mondiale della conoscenza.

In questo modo valorizzazione delle innovazioni e accumulazione di enormi risorse si rinforzano a vicenda, mentre strategie e operatività si espandono quasi naturalmente al di là del core business iniziale in quella che Petit chiama “competition against the non-consumption”.

Funzione delle autorità di regolazione

Veniamo così al terzo dei punti indicati. Riprendiamo due temi di fondo appena toccati all’inizio. I dati prodotti incessantemente a livello globale sono gratis e trasformati in denaro mediante strategie mirate di attrazione del “non-consumo”. Ciò è possibile su scala planetaria grazie all’infrastruttura informativa, materiale e immateriale, che in sostanza diviene processo produttivo ininterrotto di output, alimentato da input inesauribile, in continua espansione, a costo zero, anzi talvolta accompagnato da introiti.

Siamo di fronte ad un fenomeno paradossale: l’intera dinamica personale, sociale, economica e culturale è avvolta in una nuvola tecnico-scientifica in grado di orientare le traiettorie evolutive della prima, in base al suo stesso dinamismo. In questo scenario fisico-cibernetico è evidente che vi è un conflitto strutturale tra beni individuali e collettivi, cioè informazioni individuali e aggregate, da un lato e dall’altro l’interesse privato, in quanto risorse così rilevanti sono utilizzate da grandi entità che perseguono finalità non pubbliche, anche se non mancano certo enunciazioni e talvolta comportamenti diretti al benessere collettivo.

Il conflitto segnalato è finora solo latente, anche perché prevale la tendenza all’individualizzazione del modello di consumo dell’informazione, propugnato appunto dalle hyperstructures. Il problema di fondo però rimane e non può essere obliterato per sempre, dal momento che gli enormi flussi di informazione costituiscono un grande potenziale di intelligenza collettiva, nel senso che potrebbero essere impiegati al fine di convogliare risorse intellettuali e materiali verso problemi irrisolti dell’umanità e dell’intero pianeta.

Big data in mano ai privati: le questioni etiche e politiche

La declinazione esclusivamente privatistica dei Big Data, ad esempio, ha limiti intrinseci, sarebbe quindi necessario stimolare un processo di riflessione su iniziative strategiche orientate alla solidarietà, al benessere collettivo, alla risoluzione di problemi globali. In altri termini, anche in relazione ai Big Data, come sta avvenendo per l’Intelligenza Artificiale e la robotica, si pongono basilari questioni etiche e politiche, di cui l’umanità dovrebbe acquisire consapevolezza, perché sono in gioco la libera auto-determinazione nei processi decisionali, il benessere individuale collettivo, il senso stesso del nostro essere “animali sociali”. La portata dirompente di software pervasivi, cioè conoscenza umana trasformata in regole e organizzata in forma di agenti artificiali che apprendono, può modificare profondamente la vita umana dal codice genetico (CRISPR-Cas9, editing del DNA) alle decisioni con effetti su scala globale.

Di chi è la proprietà dei dati?

Si pone dunque con tutta evidenza il problema di trovare forme di coordinamento sociale, cioè sistemi di feedback sottratti all’influenza delle hyperstructures, vere e proprie ecologie auto-organizzate di processi decisionali collettivi. Questi sono temi al centro della riflessione di studiosi come Morozov (2014, 2019), il quale affronta una questione fondamentale (Morozov, 2015): chi e come può utilizzare gli enormi data-base ottenuti dalla rappresentazione digitale (gemello digitale) di tutte le attività umane? Tale quesito non può essere disgiunto da un altro: di chi è la proprietà dei dati? Socialize Data Centres! Sostiene Morozov (2015), un attento e non convenzionale studioso di Internet (The dark side of Internet un suo interessante libro). “Rendiamo disponibili i dati per start-up e data sharing” è, in estrema sintesi, una delle proposte Schonberger e Range (Reinventing capitalism in the Age of Big Data), visione molto ottimistica ampiamente criticata da Morozov (2019).

Emergono dunque grandi questioni non molto presenti nel dibattito politico-culturale e tecnico-scientifico del nostro Paese, mentre a livello internazionale un numero crescente di studiosi produce analisi e avanza proposte, che dovrebbero tener conto dei temi sollevati da Petit (2016, aggiornato al 2018). Lo scenario globale è contraddistinto da quelli che abbiamo chiamato hyperstructures e che nell’analisi di Petit sono “moligopoli”, la cui morfologia, ovvero società conglomerate viste come sistemi che si diramano in varie branche di attività, fa sì che esse siano al tempo stesso entità monopolistiche e oligopolistiche a seconda dell’ambiente di azione. Sorge allora un rilevante numero di problemi, tra i quali evidenziamo soprattutto due. Il primo è che questi veri e propri sistemi tecno-economici hanno strategie, comportamenti e poteri di fatto sovranazionali, questi ultimi evidentemente non formalizzati. Lo iato esistente sul piano legale, istituzionale e fiscale tra la loro sfera d’azione e quelle delle autorità e discipline nazionali, frammentate e talvolta tra loro contraddittorie, genera discrasie, conflitti d’influenza più o meno latenti, disallineamenti tra finalità pubbliche e private (si pensi all’ampio uso delle feritoie fiscali tra paesi).

In questa visione globalizzazione e sovranità nazionale non sono compatibili, come afferma il famoso trilemma di Dani Rodrik (201: incompatibilità tra sovranità, globalizzazione e democrazia). La questione aumenta in complessità se si accetta la tesi di Petit sulla natura moligopolistica delle hyperstructures per un motivo chiaro: si tratta di entità per le quali non sono sufficientemente attrezzate le culture tradizionali dell’anti-trust e le discipline normative a livello nazionale, a meno di violazioni delle leggi federali come nel caso da cui siamo partiti.

Siamo quindi di fronte ad un intreccio di temi e questioni molto complesse, che richiederebbero nuovi strumenti teorici ed applicativi, un riorientamento delle politiche pubbliche e originali elaborazioni sul piano culturale, etico, legale, istituzionale. La realizzazione del potenziale di intelligenza collettiva, latente nella iperconnessione globale e nell’ubiquitous computing, richiede che si sviluppi e consolidi intelligenza distribuita, mentre quella centralizzata in un numero ristretto di entità iperstrutturate può minare alle fondamenta i processi decisionali delle persone e delle società, laddove interessi privati a scala globale schiacciano interessi pubblici a scala locale e planetaria.

Prima inizia una riflessione seria, sistematica, interdisciplinare, meglio è per il benessere individuale e collettivo, in breve per un futuro non distopico dell’umanità.

_______________________________________________________________________________

Bibliografia

Baas N.A., 2009, Hyperstructures Topology And Data, Axiomates, 19:281–295.

Baas, N. A., 2012, On structure and organization: an organizing principle, International Journal of General Systems, vol. 42 (2).

Baas N.A., 2015, On Structure and Organization: An Organizing Principles, International Journal of General Systems 42 (2)

Morozov E., 2015, Socialize The Data Centre!, New Left Review, 91, Jan-Feb

Morozov E., 2016, Silicon Valley: I signori del silicio, Codice Edizioni

Morozov E., 2019, Digital Socialism? The Calculation Debate in the Age of Big Data, 116/117, Mar-Jun

Petit N., 2016 Technology Giants, The “Moligopoly” Hypothesis and Holistic Competition: A Primer, WP, LCII, Liege Competition and Innovation Institute

Rodrik D., 2011, The Globalization Paradox Democracy and the-Future of the World Economy, Norton & Company.

WHITEPAPER
Data Strategy: quali sono le 3 fasi principali del processo di relazione con il cliente?
Big Data
Marketing

@RIPRODUZIONE RISERVATA

Articoli correlati