La teoria della complessità contro lo strapotere delle Big Tech - Agenda Digitale

Il Nobel a Giorgio Parisi

La teoria della complessità contro lo strapotere delle Big Tech

Nel digitale, chi governa gli algoritmi ha un potere smisurato (Big tech docet). Ma in un sistema complesso le gerarchie formali contano poco perché l’indeterminatezza dei risultati comporta la quasi impossibilità che qualcuno controlli il comportamento complessivo del sistema. Ecco perché servono algoritmi open source

10 secondi fa
Enrico D'Elia

Ministero dell'Economia e delle Finanze

Giorgio Parisi ha vinto il Nobel per la fisica “per i suoi contributi innovativi alla nostra comprensione dei sistemi complessi”. La teoria della complessità, però, come vedremo, ha molto da insegnare sul funzionamento del mondo digitale, oltre che di quello reale.

Una esposizione abbastanza semplice di questa teoria e dei suoi principali strumenti analitici è quella di Antonio Lepschy. Spiegata in pochissime parole, la teoria della complessità afferma che, quando sono in gioco parecchi “attori” (siano essi particelle, persone, imprese o masse d’aria), il risultato finale è difficilmente prevedibile e dipende più dalle interazioni tra gli attori che dalle loro caratteristiche individuali.

Giorgio Parisi, una risorsa preziosa che l’Italia non ha saputo sfruttare (ma si può rimediare)

La teoria della complessità, le intuizioni di Aristotele e i fenomeni del digitale

Questa considerazione era stata già anticipata circa 2.500 anni fa da Aristotele, che aveva stigmatizzato l’errore logico che si commette quando si attribuiscono a un oggetto le qualità dei suoi componenti. Il filosofo riteneva questa “fallacia di composizione” un errore talmente grossolano da classificarlo tra quelli dovuti alle ambiguità del linguaggio umano. Invece i dibattiti sono pieni di sciocchezze di questo tipo. Una tipica fallacia di composizione è quella di illudersi che una squadra è la migliore possibile solo perché è formata da campioni: una congettura smentita da tutta la storia del calcio e non solo.

WEBINAR
26 Novembre 2021 -
Telco per l'Italia: come accelerare la trasformazione. Le opportunità di PNRR e Cloud
Digital Transformation
Open Innovation

Keith Morrison (School Leadership and Complexity Theory. Routledge.Taylor & Francis Group. New York, 2002) ha efficacemente riassunto le differenze tra l’approccio tradizionale e quello che tiene conto della complessità. Il primo punto è che, a differenza di quanto si pensa comunemente, alcuni piccoli cambiamenti possono produrre effetti smisurati, mentre certi grandi shock possono lasciare le cose immutate. Ad esempio, l’eruzione di uno sperduto vulcano islandese dal nome impronunciabile ha bloccato per settimane il traffico aereo nel 2010, mentre cambiamenti climatici epocali non hanno spostato di un millimetro la posizione di parecchi paesi sulle emissioni di CO2. Ciò avviene perché in un sistema appena più complicato del normale le relazioni tra fenomeni sono asimmetriche e tutt’altro che proporzionali, tanto che la matematica necessaria a descrivere un sistema complesso è diversa da quella convenzionale e molto spesso non esiste nessuna formula “semplice” per spiegare o prevedere certi fenomeni. Basti pensare al problema, apparentemente semplice, dell’orbita di tre corpi celesti che si attraggono reciprocamente, che non ammette nessuna soluzione analitica generale, ma si risolve solo attraverso simulazioni numeriche.

Stando così le cose, è difficile individuare esattamente le cause dei diversi fenomeni e prevederne gli effetti, tanto che i sistemi reali raramente tendono spontaneamente verso un unico punto di equilibrio, ma evolvono continuamente. Quindi dalle stesse condizioni iniziali possono derivare risultati molto diversi e, in ultima analisi, è difficile, se non impossibile, controllare completamente un sistema complesso. Infine, un sistema di questo tipo può essere compreso solo “olisticamente”, cioè esaminando le relazioni tra le sue parti e non attraverso teorie che spieghino solo il comportamento dei singoli attori.

La teoria della complessità e le intuizioni di Aristotele ci aiutano a comprendere e governare, per quanto possibile, molti fenomeni del mondo reale e di quello digitale. E alcuni risultati sono piuttosto inquietanti. Ad esempio, se si utilizzano macchine sofisticatissime, guidate da sistemi di AI all’avanguardia, non è detto che il sistema in cui operano raggiunga automaticamente risultati migliori nel suo insieme. La cosa più probabile è che chi possiede l’apparato migliore conseguirà dei vantaggi a spese degli altri, ma il risultato complessivo, sia esso il livello della produzione totale oppure l’utilizzo delle risorse, potrebbe non migliorare affatto. Chi progetta l’Industria 4.0 dovrebbe tenerne conto.

I sistemi di navigazione e il caos

Un esempio tipico è quello dei sistemi di navigazione che abbiamo tutti in auto e sugli smartphone. Se ci sono pochi privilegiati con programmi e informazioni migliori, allora è probabile che riusciranno a trovare sempre il percorso migliore in ogni occasione, mentre gli altri resteranno intrappolati nel traffico. Se invece tutti utilizzano le stesse informazioni e gli stessi algoritmi, come accade approssimativamente nella realtà, allora le cose cambiano. I navigatori consiglieranno a ciascuno l’itinerario più veloce, data la posizione degli altri automobilisti in quell’istante…fino a quando tutte le strade saranno intasate esattamente nella stessa misura e quindi il navigatore non troverà alcun vantaggio a percorrerne una piuttosto che l’altra. A quel punto disporre di un sistema sofisticatissimo oppure scegliere l’itinerario a caso, senza neanche ascoltare il bollettino del traffico, non farà alcuna differenza. È più o meno quello che succede sulle strade ad ogni ponte ed “esodo” estivo.

Le cose possono andare ancora peggio se gli automobilisti guidano in modo aggressivo, contendendosi ogni metro, perché allora le risorse (tempo e carburante) dissipate nel conflitto non contribuiscono a rendere più fluido il traffico e anzi possono essere causa di ulteriori rallentamenti. Così comportamenti che, presi singolarmente, sarebbero razionali trasformano in un inferno di inefficienza l’intero ambiente in cui sono adottati. È il caso di certi ingorghi che si creano agli incroci quando nessuno è disposto a cedere il passo agli altri e tutto si blocca. L’economia è piena di casi in cui agenti perfettamente razionali e in competizione tra loro non concludono nulla. Ad esempio, nei mercati finanziari i guadagni di alcuni sono esattamente uguali alle perdite di tutti gli altri, come in qualsiasi casinò (dove in realtà almeno il gestore guadagna sempre), e quindi il risultato finale è sempre lo stesso: un bilancio complessivo sempre in pareggio.

La teoria della complessità e le reciproche influenze

In un sistema complesso, tuttavia, può accadere anche il contrario. Entità individuali assolutamente passive e statiche possono adottare inconsapevolmente comportamenti tali da generare risultati complessivi di eccellenza. Un caso tipico, spesso studiato dalla teoria della complessità, è quello degli stormi di uccelli o di insetti che, pur senza coordinarsi tra loro, eseguono evoluzioni degne delle frecce tricolori adottando un comportamento assolutamente banale, ossia seguire con qualche istante di ritardo i movimenti dei vicini. È proprio questo ritardo, e non le capacità dei singoli volatili, a determinare il risultato complessivo. Nell’inquietante “gioco della vita”, ideato da John Conway negli anni Sessanta, alcune “cellule” formano organismi complessi che evolvono da una generazione all’altra in base a impulsi casuali e a regole banali (una cellula “muore” se non è circondata da abbastanza cellule “vive” oppure se queste sono troppe e quindi la “soffocano”). È probabile che la vita reale sia nata proprio in questo modo, partendo da composti organici piuttosto semplici che si sono combinati tra loro per caso e poi hanno cominciato ad evolversi in base a qualche meccanismo di aggregazione.

La teoria della complessità pone indubbiamente l’accento sulle reciproche influenze piuttosto che sulle qualità individuali, ma ciò non vuol dire affatto che deresponsabilizzi i componenti di un sistema. Infatti rispettare alcune regole che possono migliorare le performance complessive del sistema è una responsabilità che ricade sui singoli individui e non dipende da alcuna legge naturale. Questo significa che governare un sistema di questo tipo richiede prima di tutto la condivisione di un codice di condotta comune. Senza di esso le interazioni si trasformano in caos e scontro, ed entrambi questi scenari comportano una dissipazione di risorse che peggiora la performance complessiva del sistema.

Le conseguenze della teoria della complessità applicata alla rete

Il mondo digitale, consentendo la connessione, e quindi l’interazione, tra moltissimi soggetti quasi in tempo reale, costituisce un tipico sistema complesso, che va quindi analizzato e gestito con strumenti differenti da quelli tradizionali. Difficilmente questi strumenti sono semplici quanto sarebbe desiderabile. Ad esempio, l’oscuramento di alcuni siti e la censura hanno effetti sistemici trascurabili, vista la facilità di creare canali alternativi di comunicazione, a fronte di un vulnus certo alla segretezza delle comunicazioni, alla libertà di espressione e alla neutralità della rete. È come illudersi di frenare il traffico di droga con qualche posto di blocco attorno alle piazze di spaccio, che probabilmente crea difficoltà solo alla circolazione normale, ma non ai criminali, che devono solo spostarsi di qualche isolato.

Un’altra conseguenza della teoria della complessità applicata alla rete deriva direttamente dalla generale difformità tra risultati individuali e complessivi. Tenendo conto di questo fatto, è inefficiente lasciare canali privilegiati di comunicazione a chi può permetterselo, perché in questo modo il volume complessivo di comunicazioni finisce per ridursi, a meno che l’attività di pochi big player riesca a compensare la perdita subita dagli operatori normali, il che è poco plausibile. Infatti, come in altri campi, anche nella rete non si ottiene il migliore risultato complessivo se si consente a ciascuno di ricercare il massimo vantaggio individuale. Invece risulta conveniente la proprietà pubblica delle infrastrutture di comunicazione, con una gestione degli accessi che riduca le disuguaglianze, anche se ciò comporta inevitabilmente dei limiti alla libera iniziativa dei singoli soggetti. Se i metodi da Far West hanno favorito lo sviluppo iniziale della rete e delle tecnologie digitali, ora la teoria della complessità ci suggerisce di imporre delle regole. In caso contrario ci ritroveremo con una rete di comunicazione antiquata e inefficiente come quella ferroviaria creata negli USA proprio ai tempi del Far West senza alcun coordinamento. Non a caso oggi gli USA dispongono di meno di 30 km di binari per 1000 km2, contro i quasi 50 dell’Unione Europea, e di questo solo una minima parte è elettrificata, contro oltre il 70% in Italia e la quasi totalità in paesi come Francia, Svizzera e Spagna.

Una ulteriore lezione per il mondo digitale proveniente dall’analisi dei sistemi complessi è che questi raramente ammettono soluzioni analitiche ai diversi problemi e richiedono piuttosto l’impiego di algoritmi, ovvero di procedure che in un modo o nell’altro portano ad un risultato accettabile, senza tuttavia garantire che questo sia unico e senza motivarlo logicamente. Per comprendere la profonda differenza concettuale tra una soluzione analitica ed una trovata tramite un algoritmo basta pensare alla ricerca delle radici di una equazione di secondo grado.

Applicando la formuletta che tutti abbiamo studiato a scuola si ricavano due valori dell’incognita che rendono nullo il risultato dell’equazione. La formula ci avverte anche se questi valori coincidono tra loro e se sono numeri reali oppure immaginari (ovvero multipli della radice quadrata di -1). Se invece un algoritmo inserisce nell’equazione diversi valori dell’incognita fino a quando il risultato non è abbastanza vicino allo zero, allora la “soluzione” dipende dai valori iniziali e nessun campanello d’allarme ci avverte se ce ne sono altre. Se poi l’algoritmo non trova alcuna soluzione, nessuno ci dice se le radici dell’equazione sono numeri immaginari oppure se i valori iniziali generano solo soluzioni “cicliche” che oscillano tra le due possibili. Ovviamente un algoritmo decente è in grado di trattare in modo corretto problemi semplici come questo, ma solo perché è programmato in modo da tener conto di risultati analitici già noti.

Conclusioni

Gli algoritmi che si usano per risolvere i problemi in un sistema complesso soffrono degli stessi difetti. Ad esempio, i diversi motori di ricerca (sopravvissuti a Google) forniscono indicazioni differenti e tutte ugualmente plausibili. Purtroppo, non è detto che queste procedure siano del tutto neutrali e che invece non favoriscano alcuni soggetti rispetto ad altri, come mostrano Fabrizio Germano e Francesco Sobbrio. Nel mondo digitale, dunque, chi governa gli algoritmi detiene un potere smisurato, come ci hanno insegnato i Big della rete. E questo predominio consente loro perfino di censurare impunemente le opinioni (pur discutibilissime) del capo della nazione più potente del mondo. Ma in un sistema complesso le gerarchie formali contano poco perché, come si è detto, l’indeterminatezza dei risultati comporta la quasi impossibilità che qualcuno controlli realmente il comportamento complessivo del sistema. E questa è una lezione che non vale solo per il mondo digitale. Se si vuole rendere più trasparente ed efficiente il funzionamento di un sistema complesso, gli algoritmi che aiutano a comprenderlo e a gestirlo dovrebbero dunque essere open source, in modo da assicurare il massimo controllo sui risultati. Ma questo è il mondo dei sogni.

(*) Le opinioni espresse in questo articolo sono esclusivamente quelle dell’autore e non coinvolgono in alcun modo le istituzioni in cui opera

@RIPRODUZIONE RISERVATA

Articoli correlati