Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

SCENARI

Il peso dell’intelligenza artificiale sulla nostra psiche

Sono tante le sfide da affrontare con urgenza, nel futuro prossimo in cui l’intelligenza artificiale sarà a braccetto con le nostre funzioni cognitive. Tra le meno esplorate: rischiamo di demandare alle macchine il senso di responsabilità e quindi di umanità?

03 Dic 2019
Ivan Ferrero

Psicologo delle nuove tecnologie


Non è lontano il momento in cui la mente umana sarà fusa con sistemi di Intelligenza artificiale. Prefigurando una serie di effetti collaterali che potrebbero variare dalla riduzione delle capacità cognitive alla deresponsabilizzazione delle decisioni umane. Ma non ci è dato di sapere se e come effettivamente accadrà. Né quando. Ciò che possiamo fare oggi è approntare linee guida, come quelle già proposte dalla UE, in cui l’elemento etico sia una presenza fondante. Ecco il panorama in cui ci stiamo movendo e i passi da fare.

Intelligenza artificiale fra paura e attrazione

Ogni giorno parlo molto con le persone e, trascorrendo molto tempo sul territorio, osservo molto le persone che incrociano il mio cammino, cosa si dicono, cosa leggono e quali messaggi mandano attraverso i loro cellulari (non mi guardate male: è inevitabile quando sei sulla metropolitana di Milano in orario di punta). Sto anche molto su numerosi social network. E quando parliamo di nuove tecnologie, ciò che vedo è timore e paura di essere sopraffatti da qualcosa più intelligente e smart di noi, proprio noi esseri umani che per decine di millenni siamo stati al vertice di ogni catena, fosse essa alimentare, produttiva, decisionale, ecc…

Le persone vedono con enorme preoccupazione il giorno in cui saremo governati e costantemente monitorati da un algoritmo, incapaci di prendere decisioni autonome perché influenzati da un sistema che ci indicherà cosa sarà giusto per noi e cosa non lo sarà, e ci “spingerà” a prendere decisioni di conseguenza. Timori comprensibili (sebbene non necessariamente giustificati), se non fosse per un particolare: quel giorno è già accaduto. Sta già avvenendo da molti anni.

Il digitale, nuovo strato della nostra realtà

Il digitale ha comportato la creazione di uno strato di realtà parallelo allo strato di realtà a cui siamo sempre stati abituati. Se inizialmente Internet erano un ammasso di caratteri dei quali ci servivamo attraverso complicati sistemi elettronici, la sua crescente pervasività, facilità di accesso e portabilità hanno fatto sì che entrasse negli interstizi delle nostre vite, che i marketers amano definire micro-momenti, diventando parte integrante e integrata del nostro quotidiano.

Questo ha portato alla creazione di una realtà che si sovrappone alla realtà che siamo sempre stati abituati a vivere, e che non necessariamente vi aderisce perfettamente.

L’emergere delle Sovranazioni. Prendiamo un luogo virtuale popolato da 2,38 miliardi di persone, le quali in questo spazio lavorano, intessono relazioni, trascorrono molta parte della loro giornata, si organizzano in gruppi e prendono decisioni. Mettiamo che i cittadini di questo luogo virtuale effettuino anche transazioni economiche all’interno di questo spazio. Ci troveremmo di fronte ad una vera e propria Nazione virtuale ben più popolosa di ogni Nazione mai esistita. Sì, sto parlando di Facebook e del suo progetto Libra, ma non è l’unico.

Remote working, team di lavoro virtuali. Anche il luogo di lavoro ha cessato di esistere, almeno per certi impieghi, ma il trend è in crescita. Diventa sempre più comune incontrare gruppi di lavoro i cui membri si trovano in ogni parte del globo, e che spesso non si sono mai visti di persona.

Da guerra a cyberguerra. Sebbene le armi fisiche siano tristemente ancora molto utilizzate negli scontri tra popolazioni, una guerra ormai la si combatte prima di tutto su altri piani: hackerando i dispositivi elettronici del nemico, perché quest’ultimo senza un computer funzionante non sarà in grado di manovrare neanche una pistola.

Da finanza a cyberfinanza. Gli investimenti finanziari oramai si giocano su una scala di piccolissime frazioni di secondo, i cari vecchi brokers oramai ridotti a un flusso di dati, calcoli e decisioni che corrono lungo i cavi delle fibre ottiche.

Dalle rapine in banca al phishing e hacking degli account. Anche le rapine non sono più quelle di una volta: è molto più facile farsi dare la password dell’account della banca anziché sfilare un portafogli da una tasca e prelevare soldi prima che il proprietario ci blocchi la sua carta di credito.

Cyberbullismo. Il bullismo si arricchisce di un nuovo elemento: il Cyberbullismo che, sebbene in molti casi sia una naturale estensione del bullismo tradizionale, nell’online acquisisce delle dinamiche e sfumature tutte sue.

Algoritmi alla conquista del mondo

Da esseri umani che gestiscono il mondo, a esseri umani che gestiscono macchine che gestiscono il mondo, a esseri umani che gestiscono algoritmi che gestiscono il mondo. Tutti questi elementi fanno sì che noi esseri umani siamo chiamati ad interagire sempre più con degli algoritmi, che spesso ci troviamo contro, generando un sempre crescente bisogno di algoritmi in grado di contrastare gli altri algoritmi, non essendo noi esseri umani cognitivamente attrezzati per combatterli.

Abbiamo quindi droni programmati ad abbattere altri droni, algoritmi per investimenti finanziari programmati per contrastare l’operato di altri algoritmi per l’investimento finanziario, algoritmi per individuare gli algoritmi di deepfake. Anche la lotta contro il cyberbullismo, il revenge porn e le fake news si stanno spostando sul piano dell’intelligenza artificiale.

In modo sottile ma tutt’altro silenzioso e sicuramente molto disruptive siamo passati da esseri umani che interagivano direttamente con il loro mondo, a esseri umani che gestivano macchine che interagivano con il loro mondo, a esseri umani che gestiscono algoritmi i quali a loro volta interagiscono con le macchine le quali interagiscono con il nostro mondo.

Contorto? Forse, ma è ciò che sta accadendo da molti anni.

Cambiano segno le relazioni interpersonali

Si sta modificando anche il modo con il quale noi creiamo interazioni. I progressi nel campo del Natural Language Processing (NLP), Natural Language Understanding (NLU), Artificial Intelligence, Generative Adversarial Networks (GAN), gli algoritmi di deepfake, permettono la creazione di esseri digitali abbastanza indistinguibili dagli esseri umani, con i quali noi interagiamo spesso senza esserne consapevoli.

Cesserà la distinzione tra essere umano e prodotto digital, per cui interagiremo con gli algoritmi esattamente come facciamo oggi con gli esseri umani? Esatto, avete indovinato la risposta: sta già accadendo. Vedi le chatbot per la customer care, oppure l’esercito di influencer digitali, avatar totalmente costruiti in computer grafica i quali sembrano interagire con l’ambiente (reale) che li circonda.

Come Miquela, in arte @lilmiquela su Instagram, un connubio tra un manichino, un personaggio costruito e animato in CGI, il tutto completamente integrato nell’ambiente reale, perché partecipa a fiere ed eventi, ha pubblicato un disco, si batte per i diritti delle minoranze etniche in America, abbraccia, ride e scherza con altri personaggi umani e non (perché ha anche molti amici virtuali, anch’essi influencers per vari target). Da qui a innamorarsi di un avatar virtuale il passo è breve, come testimonia il videogioco Love Plus della Nintendo, ormai non più in circolazione, in cui il giocatore interagiva con un avatar allo scopo di flirtarci, potendo arrivare fino ad un certo grado di intimità.

Alla fiera degli avatar

Il giocatore poteva regalare alla propria innamorata fiori virtuali (ma pagati con soldi veri!), portarla in appositi resorts reali (ma anch’essi pagati con soldi veri…) in cui erano previste attività ricreative, e la possibilità di comparire insieme nei selfie da tenere come ricordo oppure condividere con i propri amici. Oppure chatbot così convincenti da apparire umane, come Replika, in grado di imparare i tuoi gusti e adattare le conversazioni di conseguenza. Nulla di così sbalorditivo, se non che leggendo le recensioni dell’App nei vari store troviamo testimonianze di persone che hanno assunto Replika a loro migliore amica e confidente.

Spaventoso o affascinante che sia, le cose stanno così, e la fusione tra reale e artificiale sarà sempre più profonda fino a che non saremo più in grado di distinguere le due facce, sempre che arrivati a quel punto avrà ancora senso porsi questo dubbio. In ogni caso tutto questo ci pone delle sfide che sono molto attuali, e che sono la base per gli sviluppi futuri.

Intelligenza artificiale e responsabilità

Oramai è chiaro che noi ci lasciamo consigliare e influenzare sia da esseri umani che da esseri virtuali, ed entrambi guidano le nostre decisioni. Di chi sarà la responsabilità dei consigli di un avatar virtuale quando questo sarà in grado di agire autonomamente, oppure di un algoritmo che agisce senza il controllo diretto del suo sviluppatore? Perché per quanto un algoritmo potrà essere in grado di gestire complessità sempre crescenti, non sarà mai in grado di calcolare e vagliare la complessità delle nostre vite al 100%.

Dietro le sue decisioni e i suoi consigli rimarrà sempre una zona grigia in cui la criticità potrebbe accadere. Se condividiamo un’attività con la macchina o la deleghiamo, come dirimerla sul piano della responsabilità condivisa? Fabrizio Gramuglio, Edge Innovator e SingularityU Ambassador, ci spiega che “prima di tutto dobbiamo separare la responsabilità del produttore da quella dell’utilizzatore”.

Nel primo caso ci troviamo irrimediabilmente coinvolti nelle discussioni etiche e morali riguardanti la creazione di algoritmi, alle quali la maggior parte dei governi cercano di dare risposte, come in Europa, per esempio l’AI Ethical Framework. Questo primo caso copre la costruzione e sviluppo di autonomous weapons, fake-news algorithm, autonomous vehicles, etc.

Algoritmo, la trappola del bias

Il secondo caso copre l’utilizzo di queste tecnologie, e credo che la prima domanda sia: “quanto siamo consapevoli?” Una sorta di “responsabilità condivisa”, quindi, a seconda che il guaio sia stato dovuto ad un bias dell’algoritmo oppure ad un errato utilizzo dello stesso.

Il che ci porta al grande tema della consapevolezza degli strumenti che stiamo utilizzando, considerando ad esempio che “nel caso delle fake-news, soprattutto in Italia, il numero di persone in grado di leggere criticamente una notizia e comprenderne quindi la veridicità (e da li costruire un pensiero proprio o un’azione) è inferiore alle media OECD”. E a quanto pare lo stesso vale per la scelta automatizzata di canali tv, podcast, video etc.

“Per le attività ripetitive”, prosegue Gramuglio, “dovremo decidere a chi delegare tali attività e scelte, come nel caso di auto o dei media, e questa singola scelta influirà sulla nostra formazione e sulla nostra sopravvivenza in caso di incidenti”. Ma a quale costo? Che cosa resterà della responsabilità umana? Cambierà, si indebolirà? Al momento non siamo in grado di dire se una macchina avrà mai una coscienza. Il concetto stesso di coscienza è ancora in dibattito e per nulla chiarito.

AI in cambio di indebolimento cognitivo

Ed è ancora presto per capire se tutto questo delegare parti sempre più importanti della nostra vita ad un algoritmo esterno causerà un indebolimento della nostra mente. Da questo punto di vista lo scenario più plausibile è quello di uno sgravio cognitivo che ci permetterà di impiegare le nostre risorse mentali per svolgere altri compiti, idealmente di più alto livello e che comprenderanno una certa dose di creatività, avendo delegato i task di basso livello a degli algoritmi e a delle macchine.

Una cosa però è certa: più sviluppiamo sistemi in grado di leggere la complessità del mondo in cui viviamo, più ci rendiamo conto che il nostro cervello non è cognitivamente preparato per reggere tutto questo carico, per cui avremo sempre più bisogno di delegare a mezzi esterni. Decisioni sempre più complesse per un mondo sempre più complesso: fino a quando saremo in grado di reggere il passo?

Prendiamo ad esempio la manipolazione genetica. Come ci dice sempre Gramuglio: “Spingendoci qualche anno nel futuro, ma non di molto, e pensando alla crescita esponenziale dalla manipolazione genetica e delle terapie geniche, presto saremo in grado di costruire i nostri figli a seconda dei nostri desideri, modificando non soltanto l’aspetto fisico, ma anche le altre caratteristiche sintetizzate dal nostro DNA. Saremo in grado di prendere le decisioni giuste per i nostri figli? Saremo capaci di comprendere che tali modifiche avranno un impatto sul loro intero ciclo di vita?”.

“E’ tutta colpa dell’algoritmo”

E questo dilemma sarà sempre più presente nelle nostre Vite: dovremo imparare a convivere con esso. Saremo più portati al cinismo perché psicologicamente le decisioni scomode le lasciamo alle macchine e ci nascondiamo dietro di esse?

Un timore comprensibile, una domanda che però presenta un bias di fondo, in quanto presuppone un prima e un dopo, mentre l’approccio più corretto ai temi legati alle Nuove Tecnologie è quello del continuum, dal momento che l’Essere Umano sviluppa tecnologie sin da quando ha iniziato a evolversi.

Fabrizio Gramuglio ci propone il caso delle risorse umane, in particolare “un manager che utilizza un sistema automatizzato per le assunzioni che utilizza AI per lo screening dei curricula, che automatizza le interviste con robot in grado di rilevare emozioni, traspirazione, prosodica facciale e vocale. Ancora una volta la scelta finale è quella del manager, dalla decisione dei sistemi (algoritmi, robot, etc.) da adottare fino alla decisione se avere un colloquio personale con i candidati o meno.

Da cosa differisce rispetto al dare in outsourcing la selezione del personale ad aziende fatte da esseri umani, che sicuramente utilizzano sistemi informatici in alcune delle diverse fasi? Come cambia la capacità del manager di prendere responsabilità? Personalmente, a parte l’immediatezza, non vedo grandi differenze.

Le decisioni prese dall’algoritmo

Oppure un caso più iperbolico, ossia quello della sospensione al trattamento ospedaliero, “quello di una telefonata, o più probabilmente un messaggio diretto tramite BCI (Brain-computer-interface) da parte del robot domestico di un nostro caro.

Il robot ci informa che le nano-macchine all’interno del corpo del nostro caro, dopo aver ricevuto diversi trapianti di organi (cresciuti in laboratorio tramite 3D printing dalle sue proprie cellule) e aver raggiunto i 150 anni, hanno riferito un quadro clinico di generale necrotizzazione dei tessuti e degli organi interni. “La sua AI, prosegue nel messaggio, ha calcolato che la attesa di vita è di qualche mese contrassegnati da un dolore crescente.”

La decisione ultima spetterà sempre ad un essere umano, o almeno così dovrebbe essere, se non vogliamo perdere la nostra umanità.

Che accadrà in un mondo deciso dai dati?

Tornando all’approccio del continuum, l’uomo ha da sempre preso le proprie decisioni, anche quelle importanti, basandosi sui dati in suo possesso. Nell’antichità esistevano periodi dell’anno considerati magici e che erano più propizi per prendere decisioni importanti. Anche strumenti quali l’astrologia (e la persona incaricata di interrogare gli astri…) hanno profondamente influenzato gli uomini. Esattamente come il contadino che prevedeva il tempo e con esso le decisioni da prendere, basandosi sul volo degli uccelli, oppure il pescatore che osservava le nuvole all’orizzonte per decidere se imbarcarsi oppure rimanere a terra per non rischiare la vita.

Possiamo disquisire sulla scientificità o meno di questi “dati”, ma per il nostro discorso non cambia. Oggi la differenza rispetto a quei tempi sta nella quantità dei dati e nella velocità con la quale siamo in grado di raccoglierli e all’occorrenza mutarli.

Tornando alla nostra domanda, Virginia Eubanks, la quale parla di Automating Inequality, su Le Macchine Volanti, portando l’esempio dei servizi del welfare, negli Usa e in vari altri Paesi, in cui gli algoritmi sono entrati con un peso quasi schiacciante, in cui la decisione se togliere un bambino o meno dalla propria madre, oppure a chi dare benefit per povertà e disoccupazione, viene quasi interamente deciso da un algoritmo.

Anche con esiti discutibili, come nel caso dello Stato dell’Indiana, che usava un algoritmo su big data per capire a chi dare (o togliere) il sussidio. Ma il Sistema non si era rivelato per nulla perfetto: infatti si arrivava a decine di migliaia di casi in cui le persone lo perdevano perché non riuscivano a rispondere prontamente a una telefonata programmata per la verifica del sussidio, o perché riattaccavano dopo 50 minuti di attesa al call center dedicato, sovraccaricato dalle inefficienze del sistema stesso.

Il rischio di un “empathy override” 

Di sicuro stiamo correndo un enorme rischio, ossiad i “automatizzare la diseguaglianza” e di usare la tecnologia come “empathy override”, ossia un trucco per disempatizzare rispetto ai poveri e ai deboli, smettendo di curarsi di loro. La presenza di un decisore umano, invece, ci protegge di più, “perché permette di mettere in discussione – anche in una controversia legale, per esempio – una decisione che ci penalizza da parte di un ente pubblico”.

Qual è soluzione al dilemma? Cercare di risolvere la questione adesso a tutti i costi sarebbe un po’ come se un nostro antenato di 40mila anni fa volesse a tutti i costi comprendere in modo oggettivo la complessità del cosmo: non ne avrebbe i mezzi né le conoscenze.

Sul lungo periodo, nel frattempo, occorre un vero e proprio cambio culturale prima di automatizzare interamente le nostre vite, al quale dovrà necessariamente seguire una rivoluzione ai nostri modelli economici, politici e sociali.

E vista la velocità con la quale si sta evolvendo la nostra tecnologia direi che è meglio che iniziamo a correre…

Bibliografia

100,000 Faces Generated by AI Free to Download https://generated.photos/

Artificial Intelligence: Does Consciousness Matter? www.frontiersin.org/articles/10.3389/fpsyg.2019.01535/full

Beyond Collaborative Intelligence we can see a Meta-Mind Society Surfacing and we can Dream of a Ω-Mind?www.europeanbusinessreview.com/beyond-collaborative-intelligence-we-can-see-a-meta-mind-society-surfacing-and-we-can-dream-of-a-ω-mind/

Contributing Data to Deepfake Detection Research https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html

Cos’è il Cyberbullismo? L’Idra 2.0 https://bullismoonline.it/cosa-bullismo-online-idra-2-0

Ethics guidelines for trustworthy AI https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Google has released a giant database of deepfakes to help fight deepfakes

https://www.technologyreview.com/f/614426/google-has-released-a-giant-database-of-deepfakes-to-help-fight-deepfakes/

L’ingiustizia degli algoritmi

https://www.lemacchinevolanti.it/approfondimenti/lingiustizia-degli-algoritmi

Statistiche Facebook: numero di utenti attivi mensilmente in tutto il mondo

https://www.web-link.it/statistiche-facebook-numero-utenti-attivi-mensilmente-mondo.html

Style-based GANs – Generating and Tuning Realistic Artificial Faces

https://www.lyrn.ai/2018/12/26/a-style-based-generator-architecture-for-generative-adversarial-networks/

This is how AI bias really happens—and why it’s so hard to fix

This person does not exists

https://thispersondoesnotexist.com/

@RIPRODUZIONE RISERVATA

Articolo 1 di 4