Rischi esistenziali

Chi ha paura dell’IA cattiva? Ma i deliri allarmistici fanno bene solo alle big tech



Indirizzo copiato

L’attuale campagna di terrore contro le “IA malevole” è solo marketing, ma dietro c’è qualcosa di cui dovremmo preoccuparci davvero e che spiega perché tutti i problemi reali e dimostrati dei modelli linguistici sono perfettamente risolvibili con le leggi esistenti, ma megaricchi del digitale ci chiedono di preoccuparci di rischi immaginari ma a loro uso…

Pubblicato il 22 giu 2023

Walter Vannini

Data Protection Officer autore del podcast DataKnightmare – L'algoritmico è politico (https://www.spreaker.com/show/dataknightmare)



neuro scienze, cervello brain

Io non temo l’Intelligenza Artificiale. Di solito la frase prosegue con “temo la stupidità naturale”, ma non nel mio caso. Quello che temo sono i fondamentalisti digitali. Quando si parla di fondamentalisti, di solito ci si riferisce a quelli islamici, ma Bin Laden non ha mai avuto le risorse in mano di cui possono disporre gli zelòti della tecnologia.

Io sono convinto che il mondo del tech, e della cosiddetta Intelligenza Artificiale in particolare sia in mano a una ideologia estremistica di tipo religioso.

I pericoli dell’IA non sono quelli che ci raccontano

Partiamo dai fondamentali. Leggo un sondaggio secondo cui la maggioranza degli intervistati teme che l’umanità possa essere spazzata via da un’Intelligenza Artificiale fuori controllo. La cosa non mi sorprende. Da quando tutti sono impazziti per chatGPT, quelle che erano le manie dei pochi insider sono diventate psicosi di massa. E la colpa non è del pubblico, sia chiaro. Se in nemmeno sei mesi prima arriva Elon Musk a dire che la IA è un pericolo esistenziale per l’umanità, poi c’è la lettera collettiva degli studiosi terrorizzati, poi Eliezer Yudkowski va sul Time a dire che il blocco della ricerca va garantito anche a costo di bombardare i data center canaglia, poi Geoffrey Hinton si dimette da Google per poter, a suo dire, meglio suonare l’allarme e alla fine Sam Altman, il CEO di openAI e padre di chatGPT, depone davanti al Senato statunitense implorando un argine de iure ai pericoli “esistenziali” delle IA, il pubblico può solo concludere che sta succedendo qualcosa di assolutamente unico e pericoloso, e preoccuparsi di conseguenza.

Mi permetto di dissentire. Quello che sta succedendo non è per niente unico, e i pericoli che rappresenta non sono quelli che ci raccontano.

ChatGPT: tre modi per sgonfiare la bolla

Quello cui siamo veramente di fronte è una massiccia campagna di propaganda a uso e consumo di Big Tech e delle sue visioni, quelle sì, millenaristiche. Se volete che sgonfiamo un po’ la bolla, continuate a leggere.

Primo, non stiamo assistendo a nulla di assolutamente unico e mai visto prima. Le tecnologie di chatGPT (e a tutti i modelli linguistici) sono le cosiddette reti neurali e sono in giro da oltre trent’anni. La differenza la fa la spaventosa potenza di calcolo di cui disponiamo oggi, e grazie alla quale, per esempio, un banale smartphone con un’app gratuita può fare fotoritocco come dieci anni fa nemmeno un vero grafico con Photoshop e una workstation da migliaia di euro. Un cambiamento quantitativo, non qualitativo.

Secondo, anche con tutta questa la potenza di calcolo che BigTech mette in campo, le reti neurali non sono nemmeno vicine a quella “simulazione del cervello” per la quale vengono propagandate. Quello che vediamo sono delle applicazioni di generazione testuale, generazione di immagini e in generale di interfacce in linguaggio naturale. Un po’ meglio di Alexa e Siri, se dio vuole, ma niente di sostanzialmente diverso.

Terzo, nonostante ci si ostini a chiamarle “intelligenze artificiali”, ci troviamo di fronte a software le cui capacità sono esclusivamente mimetiche. Quando chatGPT genera del testo, non fa altro che seguire regole di tipo statistico. ChatGPT non risponde a una domanda ma genera, sulla base della enorme mole di informazioni sui è stato addestrato, la sequenza di parole più probabile come continuazione della domanda. Questo spiega perché chatGPT e tutti i modelli linguistici siano strutturalmente incapaci di distinguere il vero dal falso, e possano con la stessa facilità sfornare verità, falsità, o pure invenzioni, sempre presentandole come la verità rivelata perché questo è lo stile per cui sono stati programmati. Generatori di stronzate, nell’accezione di Frankfurt. Ostinarsi, come fanno gli zeloti del tech, a dire che chatGPT e compagnia sono “intelligenti” o almeno presentano “scintille di Intelligenza Artificiale Generale” significa sostenere che un camaleonte diventa verde perché si trasforma in una foglia.

LLM, Nessun pericolo esistenziale

Questo non vuol dire che i modelli linguistici non possano avere applicazioni utili; vuol dire, più banalmente, che non rappresentano nessun “pericolo esistenziale” e che porteranno i cambiamenti radicali che ci vengono sbandierati davanti al naso.

L’avanzata degli allarmisti a gettone

Hinton, per prendere il nome più autorevole fra gli allarmisti pro domo sua, è quello che 7 anni fa sosteneva che le università dovessero chiudere le facoltà di radiologia perché nel giro di 5 anni le IA avrebbero sostituito i radiologi. Sette anni dopo, le facoltà di radiologia sono ancora tutte lì, la scarsità di radiologi è ancora una realtà, e i software di “intelligenza artificiale” sono solo un altro strumento di ausilio alla radiodiagnostica, che non è nemmeno lontanamente automatizzata, nemmeno un pochino. Di macchine a guida autonoma non parlo nemmeno, per pietà. Ricordate l’altr’anno quanto entusiasmo per la fuffa del metaverso? Ricordate la Blockchain?

Ricordate una decina d’anni fa, quando comparvero Alexa e Siri e all’improvviso diventò molto avanti piazzarsi in casa un microfono? All’epoca la parola d’ordine era “assistente digitale”. Tutti hanno imparato che quell’assistente digitale è meglio tenerlo spento la maggior parte del tempo, e quando dobbiamo chiedergli qualcosa è meglio che parliamo molto semplice. Sì, riesce a comprendere alcune istruzioni in italiano parlato chiaro e senza inflessioni, ma non si avvicina nemmeno lontanamente al livello di comprensione di una colf uzbeka sorda. Quindi Alexa e Siri sono inutili? No, semplicemente non sono la fine del mondo come lo conosciamo. Era solo marketing. Ed è marketing anche l’attuale campagna di terrore contro le “intelligenze artificiali malevole”. Ma dietro il marketing c’è qualcosa di cui dovremmo preoccuparci davvero.

Era solo marketing

Partiamo dal marketing. Innanzitutto, ventilare l’ipotesi di una “intelligenza artificiale” è ciò che si chiama un frame, un artificio retorico molto noto ai propagandisti grazie al quale si delimitano linguisticamente i contorni di un problema. Parlare di “intelligenza artificiale” dà per dimostrata l’idea che quello di cui stiamo parlando siano in qualche modo “intelligenze” e non soltanto, per esempio, del normalissimo software pieno di bachi come qualsiasi altro. Peraltro, parlare di “intelligenza” ha l’effetto di rendere legittima e perfino doverosa la tendenza umana ad antropomorfizzare, che invece è una distorsione cognitiva, in quest’ambito, cruciale.

Ripetiamo insieme: “vero” e “falso” sono concetti che non hanno senso per un modello linguistico

Secondo, una volta dato per scontato che stiamo parlando di “intelligenze”, è palese che non possiamo occuparcene con le leggi esistenti, ma dovremo inventarne di nuove. Questo è particolarmente dannoso perché invece ci sono già moltissime leggi applicabili a (e violate da) queste “IA”. Rinunciare a servirci di queste leggi è sbagliato (che ne è del principio per il quale la legge è uguale per tutti?) e dannoso (perché i danni sociali nello sviluppo e nell’uso delle IA sono tangibili). Se ci fate caso, tutti i preoccupatissimi tecnocrati si fanno in quattro a chiedere la creazione di leggi ad hoc (sulle quali avranno voce in capitolo) e di agenzie di controllo (i cui parametri operativi vogliono contribuire a definire), ma sono sorprendentemente silenziosi quando si tratta di assumersi qualsiasi responsabilità secondo le leggi esistenti. Ben vengano leggi nuove per problemi nuovi, ma non dimentichiamoci dei problemi che già esistono.

I modelli linguistici vengono addestrati con la più massiccia violazione del copyright che si sia mai vista, eppure ci si chiede di far finta di niente. I modelli linguistici vengono venduti come sistemi oracolari che “rispondono” alle domande, ma le risposte sono vere o completamente inventate in modo del tutto casuale; come dico sempre, non è vero che un modello linguistico “può occasionalmente fornire risposte non veritiere” (come recita il caveat di chatGPT): semplicemente, “vero” e “falso” sono concetti che non hanno senso per un modello linguistico. E che ne è delle leggi contro la pubblicità ingannevole? I modelli linguistici hanno palesi problemi di sessismo e razzismo, generazione di contenuti violenti o pericolosi, possono produrre disinformazione su vasta scala. Agiscono in modo totalmente opaco, la loro affidabilità per qualasiasi compito è una pura ipotesi e la fase di test è stata affidata direttamente al pubblico ma… il problema di cui dobbiamo preoccuparci è che possano sterminare l’umanità. Io mi sento un po’ preso in giro.

Una propaganda che fa il gioco delle Big Tech

Terzo, spostando l’attenzione su ipotetici rischi “esistenziali” che sono in tutto e per tutto pura fantascienza, si ottengono tre effetti utili per Big Tech e i suoi zeloti:

  • primo effetto, cementare l’oligopolio di Big Tech: limitando il discorso ai modelli linguistici si esclude qualsiasi altro settore di ricerca alternativo;
  • secondo effetto, attrarre ulteriori capitali: se questa tecnologia è così pericolosa, deve essere molto efficace; per questo le aziende che la producono devono essere veramente speciali, molto più avanti di chiunque; è in quella tecnologia che si deve investire, è con quelle aziende che si devono creare partnership invece di dissipare risorse altrove;
  • terzo effetto, assegnare un ruolo politico a quelle stesse aziende che hanno individuato questi pericoli e che, quindi, sono anche in grado di prevenirli; occorre quindi che lo Stato le aiuti, con leggi che diano loro un indirizzo e magari sostegni finanziari che le aiutino ad affrontare i problemi “troppo grandi” che hanno generato. Senza escludere magari di compensare i mancati introiti derivanti dalla loro buona condotta contro i cinesi cattivi che di certo non si fanno tante remore.

L’altrusimo efficace e alter ideologie per I megaricchi del tech

Dietro il marketing, però, c’è di più. Da dove arriva questa fissazione ossessiva sui “pericoli esistenziali”? Deriva da un culto molto diffuso fra i megaricchi del tech, noto a seconda delle varianti come “lungotermismo” o “Altruismo Efficace”. L’Altruismo Efficace è una corrente di pensiero secondo la quale non basta fare del bene, ma occorre concentrarsi su ciò che produce il massimo bene. Una variante moderna dell’utilitarismo, l’Altruismo Efficace spinge i propri adepti ad accumulare ingenti quantità di danaro in modo da poter “massimizzare” i risultati positivi delle proprie azioni.

Se fin qui questa ideologia per ricchi non sembra particolarmente preoccupante, lo diventa nel momento in cui si porta l’assunto di base alla sua logica conclusione: che le sole cause di cui sia davvero necessario occuparsi siano quelle che comportano un pericolo esistenziale, un rischio effettivo di estinzione per la specie umana. Per esempio, il cambiamento climatico non è considerato un problema di cui sia necessario occuparsi, perché una ragionevole percentuale di esseri umani (casualmente nei paesi più ricchi) sopravviverà sempre a qualsiasi catastrofe climatica. Lo stesso vale per una guerra nucleare, ed ecco che ora la fissazione dei riccastri del tech per ville-fortezza in Nuova Zelanda (Bezos di Amazon, Peter Thiel di Palantir) o alle Hawaii (Zuckerberg) cade sotto tutt’altra luce).

No, i problemi in grado di massimizzare i risultati positivi sono quelli che riguardano il futuro della specie. In particolare (e qui l’Altruismo Efficace prende a piene mani dalle fissazioni nerd dei suoi principali adepti) la Colonizzazione del sistema solare, prima e dell’intera Galassia, poi. Secondo le allucinazioni degli Altruisti Efficaci, l’umanità ha un “destino manifesto” come colonizzatrice dell’intera Galassia.

Il lungotermismo

Il lungotermismo, riassunto in poche parole, dice che il solo problema di cui valga la pena occuparsi è la sopravvivenza a lungo termine della civiltà umana. Lungo termine non vuole dire cento o duecento anni, ma milioni o miliardi di anni. Il lungotermismo si prende letteralmente in parola: il “lungo termine” è il tempo rimanente all’universo prima della morte termica, un periodo su cui non c’è un consenso scientifico, ma che possiamo genericamente considerare nell’ordine delle migliaia di miliardi di anni.

Un lungotermista parte dalla constatazione (puramente ipotetica ma ovviamente promossa come verità rivelata) che nel corso della vita dell’Universo, se la civiltà umana si espanderà nella Galassia, potranno vivere almeno esseri umani. 1. Diecimila 2. miliardi 3. di miliardi 4. di miliardi 5. di miliardi 6. di miliardi di persone. E questa è una delle stime più conservative.

Un numero così enorme rende del tutto insignificante non solo i sette miliardi di persone vive oggi sul pianeta, ma anche quei pochi altri miliardi vissuti dal primo Homo Sapiens Sapiens.

Per un lungotermista, il compito storico dell’umanità è permettere che l’umanità si sviluppi fino a realizzare questo potenziale cosmico.

Qualche notiziola di contesto.

I colonizzatori galattici e il nuovo suprematismo bianco

Nel corso dei prossimi circa cento milioni di anni ci sono forti probabilità che la Terra venga colpita da un asteroide delle dimensioni di quello che causò l’estinzione dei dinosauri, e che qualsiasi forma di civiltà sul pianeta venga spazzata via.

Per un lungotermista, è imperativo che l’umanità diventi una civiltà multiplanetaria, colonizzando e terraformando Marte, e probabilmente alcune delle più promettenti lune di Giove e Saturno.

Fra cinque miliardi di anni la stella che conosciamo come Sole esaurirà l’idrogeno e comincerà a fondere elio. Questo la trasformerà in una gigante rossa, il cui diametro si estenderà fino a ingoiare Mercurio e Venere, e come minimo facendo evaporare gli oceani e spazzando via l’atmosfera terrestre. A quel punto Marte probabilmente verrebbe ridotto a un tizzone.

Per un lungotermista, questo implica che l’umanità non possa limitarsi al Sistema Solare, ma debba direttamente porsi come obiettivo la colonizzazione della Galassia. Come obiettivo intermedio, è necessario che l’umanità prenda il controllo diretto del proprio percorso evolutivo, sopperendo alle limitazioni della selezione naturale, e introducendo con la propria tecnologia quelle mutazioni genetiche necessarie alla realizzazione di progetti che devono estendersi per millenni: prolungamento della longevità, aumento delle prestazioni fisiche, miglioramento del metabolismo, probabilmente la capacità di entrare in letargo per lunghi periodi e naturalmente, almeno per coloro che dovranno assumersi la responsabilità di condurre l’umanità verso la realizzazione del proprio potenziale, facoltà cognitive amplificate.

Le cifre in ballo, sia in termini temporali che di numero di esseri umani coinvolti, sono tali che qualunque evento non sia direttamente una minaccia di tipo esistenziale per la specie è un evento trascurabile.

Questo significa che nell’ottica lungotermista, non tutti i problemi che noi persone normali potremmo chiamare planetari sono degni di attenzione.

Per esempio, per un lungotermista il cambiamento climatico, o un conflitto nucleare, non sono grandi problemi. Anche se dovessero causare la morte del 80% della popolazione mondiale, l’esistenza della specie non verrebbe messa in discussione, abbiamo le tecnologie e le risorse per garantire la sopravvivenza di una ragionevole porzione della popolazione anche in quei frangenti.

Naturalmente quando si parla di popolazione occorre cominciare a fare dei distinguo. Nell’ottica lungotermista gli abitanti del nord tecnologicamente sviluppato, per esempio, hanno maggiore accesso e quindi maggiore possibilità di mettere a frutto le competenze tecnico-scientifiche per garantire che l’umanità non esca dal cammino verso la realizzazione del proprio potenziale. Suona un po’ come suprematismo bianco? Mâitre à penser del lungotermismo come Nick Bostrom sono dichiaratamente convinti del fatto che alcune “razze” siano superiori alle altre e di tutto l’apparato pseudoscientifico dietro a quest’idea, a partire da quella pratica pseudosicentifica nota come QI (Quoziente Intellettivo).

Perciò, quando si parla di sopravvivere al cambiamento climatico o a un conflitto nucleare, è importante distinguere chi sopravvive. Per questo motivo i lungotermisti sono molto attenti ad acquistare enormi appezzamenti di terreni in zone remote del pianeta, e ad attrezzarli per poter garantire la sopravvivenza propria, delle proprie famiglie, e dei propri servi, pardon delle persone che possono garantire il funzionamento dei servizi della comunità e, naturalmente, difenderla.

Certo, chi non avrà i mezzi per creare queste comunità o la fortuna di lavorarci, non se la passerà altrettanto bene. Ma come dicevamo prima, qualsiasi numero di individui viventi sacrificati è insignificante rispetto ai 10 alla cinquantesima esseri umani che l’umanità potrà vantare realizzando il proprio potenziale cosmico.

A completare il quadro, già preoccupante, c’è l’indicazione di chi abbia titolo per assumere la guida della specie verso questo “destino manifesto”: con sorpresa di assolutamente nessuno, non i governi, o le organizzazioni sovranazionali che hanno problemi immediati e tangibili a cui rispondere, no. Saranno gli unici che hanno il tempo e i mezzi (i lungotermisti dicono la visione) per dedicarsi a problemi sulla scala dell’intera specie umana, disinteressandosi di qualsiasi problema presente e tangibile: i megaricchi del tech.

Allucinazioni millenaristiche, disdegno per i destini del Sud del mondo e di chi non abbracci l’idea di “spazio vitale” della specie umana, eugenetica tesa alla creazione di una razza superiore, in primis per i Grandi Condottieri. Non sentite un certo tanfo nazistoide?

Il Sistema di pensiero (nazistoide) dietro le presunte minacce esistenziali dell’IA

Se tutto questo vi sembra solo un’americanata per ricchi annoiati, tenete presente che Jeff Bezos, Elon Musk, Mark Zuckerberg, Sam Altman, Bill Gates e moltissime altre figure di spicco nel settore tech (casualmente tutti ricchi e annoiati) sono seguaci di questo vero e proprio culto che ha una presa fortissima per alcuni motivi:

  • promette sfide (per quanto immaginarie) all’altezza dei loro mezzi, blandendo degli ego, quelli sì, di dimensioni planetarie,
  • offre un comodo incentivo per continuare ad accumulare ricchezza e potere, e mantenerne saldamente il controllo
  • ammanta di un’aura di filantropia quelli che sono investimenti privati
  • giustifica, con l’enormità degli obiettivi, la necessità di supporto da parte delle autorità statali, nella migliore tradizione di consolidamento degli oligopoli, socializzazione dei costi e privatizzazione del profitto
  • come ogni culto che si rispetti, permette di stigmatizzare e marginalizzare gli oppositori: gente che non ha abbastanza visione, che è mossa dall’invidia o che non condivide il progetto supremo di salvezza eterna degli Eletti.

Quando i vari “guru dell’Intelligenza Artificiale” parlano di minacce esistenziali, dietro c’è questo sistema di pensiero.

Tutti i problemi reali e dimostrati dei modelli linguistici, come la perpetuazione di stereotipi, lo sganciamento delle capacità linguistiche da qualsiasi vincolo di realtà, i bias contro minoranze già marginalizzate, la generazione di contenuti razzisti, sessisti, violenti, o “semplicemente” falsi, l’inquinamento del nostro spazio informativo con un diluvio di contenuti come minimo dubbi ma apparentemente autorevoli (con corollario di citazioni inventate), sono perfettamente risolvibili con le leggi esistenti, ma i signori delle IA ci chiedono di fare finta di niente. Invece, ci chiedono di preoccuparci di problemi, immaginari ma a loro uso e consumo (“mio dio, la IA ci ucciderà tutti. E ora scusate, devo tornare a lavorarci.”), che peraltro sparirebbero se questi signori semplicemente smettessero di fare ciò che fanno. Se una attività è pericolosa, la prima cosa da fare è smettere, no? Invece non solo vogliono continuare, ma vogliono farlo con l’esplicita approvazione (e supporto) dello Stato alla loro autoassegnata missione trascendentale, perché per poterci salvare dalle IA devono prima costruirle.

Conclusioni

Come sempre nella Storia, un culto avvantaggia soprattutto i propri sacerdoti.

Sarebbe interessante avventurarsi in un’analisi non solo delle aberrazioni logiche ma anche psichiche di questi folgorati sulla via del computer che non si limitano a pretendere di “fare il lavoro di Dio” come qualsiasi estremista religioso, ma sembrano proprio interessati a produrre un dio a proprio uso e consumo.

Per questa volta ci limitiamo a spogliarli di ogni pretesa trascendente o messianica, e a vederli per chi sono veramente: uomini d’affari non più giovani che, pur di consolidare il proprio potere e rimanere rilevanti, non esitano ad abbracciare un culto fin troppo apertamente nazistoide.

Se fosse tutto solo una copertura per portare acqua al proprio mulino, allora riderei per non piangere: gente che in trent’anni non ha saputo fare un sistema operativo decente, che promette da dieci anni “entro due anni auto a guida completamente automatica”, che parla di Intelligenza Artificiale di fronte a generatori automatici di testo, che si autocandida nientemeno che a guardiani e salvatori della specie è solo patetica, se non patologica.

Ma questi inutilmente megaricchi sono disposti perfino ad appoggiarsi a un’ideologia nazistoide per garantirsi rilevanza e potere ad æternum, e allora sono i primi a dover lasciare il pianeta. E non intendo su una nave stellare.

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2