Fino al mese scorso Geoffrey Hinton, pioniere a livello mondiale delle reti neurali, insignito del Premio Turing in compagnia di Yann LeCun e Yoshua Bengio, era rimasto estraneo al coro di critiche che invocavano un altolà allo sviluppo di intelligenza artificiale generativa, paventando imprevisti risultati pericolosi. L’attrattiva delle nuove tecnologie è irresistibile, e d’altronde si sa che “se non lo faccio io, lo farà qualcun altro”.
Ma ora, dopo più di un decennio di vertiginose innovazioni al servizio di Google, Hinton ha preferito mollare il lavoro proprio per essere più libero di parlare dei pericoli della AI. Si noti che Bengio è il più famoso firmatario della nota lettera sulla necessità di rallentare lo sviluppo dell’AI.
Negli ultimi anni i progressi sono stati tanto imprevedibilmente travolgenti, in una competizione inarrestabile, da fare temere di perderne presto il controllo. Si può scoprire chi sta fabbricando una bomba atomica, ma non si può sapere chi sta sviluppando segretamente una tecnologia di AI, l’unica soluzione sarebbe un accordo globale ai massimi livelli che limitino la concorrenza con regole e controlli.
I rischi dell’AI
Il gesto di Hinton conferma che controlli pervasivi dei cittadini, computer che si scrivono i programmi e li lanciano autonomamente, robot soldati, non fanno parte solo degli incubi di persone sprovvedute e impressionabili.
Ma, anche prima di arrivare a tali eccessi, per esempio un fotografo potrebbe chiedersi se sarà ancora proteggibile il diritto d’autore dei suoi scatti, giacché le AI grafiche potranno fare incetta di particolari di fotografie pubblicate per sfruttarli nella creazione di immagini, magari per diffondere un falso.
E non è difficile immaginare analoghe preoccupazioni insorgenti in campo musicale, cinematografico, giornalistico (vedi a questo proposito la deprecata falsa intervista a Michael Schumacher). Chiunque di noi può chiedersi se potremo proteggerci da videotelefonate artefatte a scopo di truffa e altri falsi malevoli.
Tre pericoli chiave
In sintesi sono tre i principali rischi dell’AI secondo gli esperti.
- Breve periodo: disinformazione di massa, con intenti malevoli (di attori anche di stati sovrani) o non volontari (perché questi modelli per cui funzionano sono inclini a inventare cose).
- Medio periodo: distruzione di lavoro e forza salariale per l’elevata ampiezza e velocità di sostituzione di funzioni lavorative umano.
- Lungo periodo: perdita di controllo, rischio esistenziale. L’AI che causa problemi su ampia scala (finanza, armamenti automatizzati…) perché va fuori controllo e/o esegue compiti non allineata ai nostri valori e fuori dal nostro governo.
Giusto quindi che le autorità si chiedano quali nuove regole inventare, per tentare di tenere sotto controllo i flussi dei dati ceduti e il loro utilizzo da parte di AI. Su questo come su analoghi argomenti l’impostazione della UE si differenzia da quella americana e britannica, orientandosi verso un controllo più o meno stringente secondo i diversi usi della AI. Ovviamente ogni regola imposta rischia di legare le mani al progresso, e magari di svantaggiare gli operatori di un paese rispetto alla concorrenza d’oltremare; dobbiamo abituarci a inventare normative sempre nuove, calibrando vantaggi e rischi, consci che l’operato di una rete neurale – se fuori controllo – può essere tutt’altro che innocuo, per esempio in un’applicazione medica, o alla guida di un’automobile o di una centrale elettrica.
E anche nei confronti di chi riveste in Europa ruoli decisionali , come ha recentemente detto Emilia Garito, membro del Consiglio Europeo per l’Innovazione, al festival carrarese “Con-vivere”, si deve tenere conto dei tempi di assorbimento, di digestione, delle nuove tecnologie. Anzi, secondo Garito se i tempi di trasformazione tecnologica fossero tali da essere assorbibili dalla competenza e dalla conoscenza di chi poi deve fare le leggi, potremmo vivere una trasformazione tecnologica che si chiama progresso.
In queste settimane la Camera dei Deputati ha iniziato un ciclo di audizioni per raccogliere informazioni per regolamentare gli algoritmi. Il primo contributo
è stato quello di Paolo Benanti, che nella sua approfondita esposizione in chiave etica ha detto fra l’altro: “Oggi noi siamo invasi da sistemi che hanno grandissime capacità, grandissimi parametri, grandissima velocità, ma questa grandissima velocità non è detto che sia in grado di corrispondere a una finezza o a una vera conoscenza.” Osservazione che può richiamare la necessità della diffusione di una autentica Cultura Digitale.
“Cultura digitale”, insegnarla a scuola e formare gli insegnanti: ecco perché è una priorità
Assistenti, e rapporti, non umani
Ma come dobbiamo aspettarci che cambieranno le nostre giornate? Per esempio, con le funzioni di AI che Alphabet sta preparando da mesi, possiamo aspettarci funzioni da “copilota” che velocizzino tutti i lavori con la suite di Google. Se il chatbot GPT collaudato fino a ieri è solo un saggio generico, che cosa potrà fare una AI addestrata da me sulle mie particolari esigenze? Diventerà un assistente ideale, sempre a portata di voce, che conosce bene i miei dati, i miei fatti e le mie esigenze? Una segretaria ideale, un po’ schiava e un po’ mamma, che conosce bene le mie manìe? E che scrive le email per me?
Ma a chi le scriverà? Ricordiamo il caso della email di risposta automatica “Sono assente. Potrò leggere la vosta email il giorno …” che venne ricevuta da un utente il quale aveva a sua volta inserito un’analoga risposta automatica. Al ritorno dalle vacanze, i due interlocutori scoprirono che i rispettivi server avevano continuato a rimbalzarsi risposte automatiche ringraziandosi e avvertendosi a vicenda.
Qualcosa di analogo potrebbe avvenire con le nuove funzionalità: saremo tentati di delegare sempre più, non controlleremo più le bozze delle nostre email prima di mandarle, e magari il destinatario le farà leggere dal suo assistente.
Per anni numerose aziende si sono illuse di fornire ai clienti un servizio pseudo-umano di risposte robotizzate. Finora il risultato è stato deludente, con chatbot del tipo “Ciao sono Anna, chiedi a me”, con la penosa illusione di lusingare il cliente dando un nome di fantasia a un chatbot inetto, quasi mai migliore di una FAQ. Oramai però non ci chiediamo quasi mai se a scriverci è stato un umano o un bot, sempre pronto ad parteciparci i suoi sentimenti (“sono lieto di comunicarle…”, “ci dispiace, ma…”). Un rischio è quindi che le AI de-umanizzino ulteriormente le nostre relazioni infiltrandosi nelle comunicazioni in qualità di media ormai scontati, accettati, pervasivi, “trasparenti”, ma nell’accezione informatica della parola, cioè non visibili.
E’ un timore certamente preconizzato nel passato, ma a differenza del passato vengono alla luce i considerevoli difetti della AI. Innanzitutto il vizio che ci si illudeva di eliminare con il ricorso ai mezzi informatici: il pregiudizio, con tutti i “bias” discussi in questi anni. Ma, più in generale, il sapere dei chatbot, se sfruttato, per pigrizia, per generare e pubblicare nuovi testi, rischierà di rientrare nel ciclo di produzione dei grandi modelli testuali, diffondendo sempre più opinioni, pregiudizi, atteggiamenti confacenti a un conformismo globale. E il fatto che le grosse risorse dell’AI appartengano al solito oligopolio d’oltreoceano non può che accentuare le preoccupazioni qui “alla periferia dell’impero”.
Tutte le storie dell’AI marcano come pietra miliare la sfida in cui, nell’ottobre 2015, il programma AlphaGo sconfisse il campione mondiale.
Presto le macchine faranno tutto da sole: siamo davvero vicini alla singolarità tecnologica?
del gioco Go.
Ma chi fa il tifo per la nostra specie può segnare il febbraio 2023 come data di una gustosa rivincita: la sconfitta della AI ad opera di un discreto giocatore di go, Kellin Pelrine. La vittoria di Pelrine è in realtà una vittoria di Pirro, peraltro preparata con l’ausilio di risorse informatiche. Ci conferma però che addestramento automatico e risorse anche enormi non sostituiscono la capacità umana di generalizzare e di affrontare i problemi con un pensiero creativo laterale.
E comunque, anche se volessimo rappresentare l’AI come mostro che si ribella al suo creatore, forse non ci verrebbe da evocare Golem o Frankenstein perché non provengono dalla nostra cultura nazionale e popolare. Semmai, nel tentativo di pronunciare “GPT”, ci uscirebbe dalla bocca “Geppetto”, e ci verrebbe in mente la sua creatura ribelle che tutti conosciamo fin da bambini:
“Quando Geppetto ebbe finito di fargli i piedi, sentì arrivarsi un calcio sulla punta del naso.
– Me lo merito! – disse allora fra sé. – Dovevo pensarci prima! Ormai è tardi!”