Il tumultuoso sviluppo dell’intelligenza artificiale, in particolare di quella generativa, ha ampliato la platea di coloro che possono usarla direttamente e di coloro che ne subiranno le conseguenze.
Tutto ciò ha fatto sorgere numerose domande sulle finalità, sui rischi e sui vantaggi dell’intelligenza artificiale, domande alle quali non possono rispondere solo gli scienziati e gli ingegneri informatici ma che chiamano in campo discipline attrezzate per svolgere un’analisi sociale, economica ma anche filosofica.
Questo articolo affronta il tema dell’etica dei sistemi basati sull’intelligenza artificiale, offrendo alcuni spunti al dibattito in corso.
Etica: una definizione filosofica
Come scrive Adriano Fabris, professore di Filosofia morale all’Università di Pisa, nella storia della filosofia il termine “etica” è ambiguo, perché riferito a due concetti, strettamente collegati tra loro.
Il primo, e probabilmente quello più conosciuto e usato nell’accezione corrente, indica «il contesto, l’insieme dei valori che fanno da riferimento per le azioni che quotidianamente compiamo». In questo contesto l’etica, che deriva filologicamente dalla parola greca “ethos”, è legata agli usi e ai costumi, sia collettivi che individuali, ma anche alla parola latina “mos, moris”, da cui proviene l’altro termine italiano “morale”.
Il secondo concetto, più complesso e sfumato, collega l’etica a una «riflessione e, eventualmente, una messa in questione dei criteri e dei principî consolidati nel sentire comune». In questo caso, Fabris fa notare che «non si parla più di “etica” nel senso della descrizione di come una comunità si regola a questo mondo, ma se ne parla riferendosi a quei punti di riferimento normativi che prescrivono un determinato comportamento anche se esso è contrario alle abitudini consolidate».
Etica dell’intelligenza artificiale
Luciano Floridi, professore di Filosofia ed etica all’Università di Oxford e di Sociologia della cultura e della comunicazione all’Università di Bologna, è un profondo conoscitore dell’etica dell’intelligenza artificiale. Dobbiamo a Floridi numerose intuizioni, spesso in grande anticipo rispetto ai fenomeni analizzati, e un importante contributo internazionale in questo campo.
La macchine come “agenti morali autonomi”
La sua tesi di fondo è che «l’intelligenza artificiale costituisce un divorzio senza precedenti tra l’intelligenza e la capacità di agire», un divorzio «tra la capacità di portare a termine compiti o risolvere problemi con successo in vista di un dato obiettivo e il bisogno di essere intelligenti per farlo». Si tratta di un superamento della visione della tecnologia come supporto alle attività umane, svolte da macchine potenti, precise, instancabili. Dotate della capacità di ragionare, di svolgere le loro attività in maniera indipendente e, a volte autonoma, le macchine si sono elevate al rango di “agenti morali autonomi”, capaci di operare senza un diretto controllo umano.
Tutto ciò è stato reso possibile dall’intelligenza artificiale, nelle sue innumerevoli forme e specializzazioni, dalle enormi quantità di dati disponibili per le fasi di addestramento, dalle quasi infinite capacità di calcolo disponibili, anche se a costi rilevanti. Il ragionamento etico diventa quindi irrinunciabile, per dare un senso a questo nuovo ruolo della tecnologia. In parole molto semplici si tratta di capire, e poi stabilire, quali sono gli usi legittimi di quelli che possiamo chiamare “sistemi basati sull’intelligenza artificiale” (in inglese AIBS, un acronimo per Artificial Intelligence Based System), affinché siano preservati i valori e i principî propri della convivenza umana.
Integrare valori e i principi della convivenza umana nei sistemi AI
Ma si tratta anche di capire se e come sia possibile instillare tali valori e principî “all’interno” degli AIBS, affinché le loro azioni siano “intrinsecamente” rispettose proprio ed esattamente di tali valori e principî.
Il primo approccio, uso etico degli AIBS, trova una concreta operatività non tanto nei numerosi codici etici sviluppati da entità nazionali, professionali, scientifiche e anche religiose, ma soprattutto nell’azione normativa dei governi. L’etica si trasforma faticosamente in diritto e, in questa veste, assume un carattere ordinamentale forte di un potere interdittivo e prescrittivo. Una lunga lista di interventi nei confronti delle big tech, con sanzioni a volte economicamente rilevanti, ha dimostrato l’efficacia dell’approccio giuridico. Un’efficacia che però spesso arriva troppo tardi, quando i danni alla società sono stati già fatti in maniera irrevocabile. Un esempio, facile da citare ma di grande rilievo, sono i sistemi di raccomandazione attivi nei social digitali, capaci di rinchiudere e isolare ampie fasce della popolazione in “bolle digitali”, camere d’eco al cui interno rimbalzano messaggi sovranisti, razziali, sessisti e peggio ancora.
Il secondo approccio, invece, tira in campo il tema della coscienza umana, intesa come duplice interazione tra la consapevolezza nei confronti di sé e del mondo circostante e l’etica, insieme di valori e principî nell’accezione indicata da Fabris. Affronta diffusamente il tema della coscienza Anil Seth, professore di Neuroscienze cognitive e computazionali all’Università del Sussex, che studia come questa particolare capacità umana possa emergere dall’attività neuronale del cervello. Secondo Seth, infatti, uno degli aspetti più sconvolgenti del mistero della coscienza è la natura del sé: «la coscienza sarebbe possibile senza autocoscienza, e se lo fosse sarebbe ancora così importante?». Il collegamento tra la coscienza e l’intelligenza è uno dei temi affrontati da Seth, che ritiene che la seconda possa aumentare a dismisura senza che, però, emerga necessariamente la prima.
Rome Call for AI Ethics
L’impegno etico di papa Francesco nei confronti della tecnologia, e dell’intelligenza artificiale in particolare, è stato e continua a essere molto forte e convinto. Un’ampia rassegna delle sue iniziative e dei suoi messaggi è documentata da Vincenzo Paglia, presidente della Pontificia Accademia per la Vita, nel suo ultimo saggio. Monsignor Paglia racconta di una telefonata ricevuta nel marzo del 2019 da Brad Smith, presidente di Microsoft, conclusa con l’invito a un incontro da tenersi a Roma pochi mesi dopo, a luglio. Durante l’incontro Smith descrive la Microsoft come un’azienda che impiega, in California, «50.000 ingegneri, tutti ingegneri, solo ingegneri». Paglia riporta le parole di Smith, quando accoratamente afferma che «se la ricerca continua senza regole noi corriamo il rischio di creare, anche senza volerlo, dei “mostri”» con conseguenze inimmaginabili. Non solo, continua Smith, «perché il vero problema è che come ingegneri noi non riusciamo a capire quale sia il limite tra la macchina e l’uomo».
Da questo incontro è nata l’idea di un manifesto, il Rome Call for AI Ethics, che potesse offrire indicazioni più precise su come operare in modo etico nell’ambito dell’intelligenza artificiale, proponendo cinque principî: trasparenza, inclusione, responsabilità, imparzialità, affidabilità.
Il manifesto affronta i principî in tre ambiti:
- l’etica, intesa come «l’impegno per la realizzazione di condizioni di vita, sia sociale sia personale, che permettano tanto ai gruppi quanto ai singoli membri di adoperarsi per raggiungere possibilmente la piena soddisfazione di sé»;
- la formazione, come «impegno educativo che sviluppi curricula specifici e interdisciplinari tra discipline umanistiche, scientifiche e tecniche, e sappia farsi carico della formazione delle nuove generazioni»;
- il diritto, perché «lo sviluppo dell’intelligenza artificiale a servizio dell’umanità e del pianeta deve tradursi in norme e principî che tutelino le persone, specialmente i deboli e gli ultimi, e gli ambienti naturali». Il manifesto è stato firmato a Roma il 28 febbraio 2020 da Brad Smith, presidente di Microsoft, John Kelly III, vicepresidente esecutivo Ibm, Qu Dongyu, direttore generale della Fao, Paola Pisano, ministro per l’innovazione tecnologica e la digitalizzazione dell’epoca, oltre che da Vincenzo Paglia, in rappresentanza della Santa Sede.
Il Regolamento europeo per l’intelligenza artificiale
Il 1° agosto 2024 è entrato in vigore l’AI Act il Regolamento europeo sull’intelligenza artificiale, il primo al mondo pensato per garantire che questa tecnologia sia sviluppata e utilizzata nell’Unione Europea nel rispetto dei diritti fondamentali dei cittadini europei. Il regolamento, basato su un approccio incentrato sulla sicurezza, individua quattro livelli di rischio per i sistemi di intelligenza artificiale: rischio minimo, che comprende la maggior parte dei sistemi attuali, non soggetti a obblighi a causa del loro minimo impatto nei confronti dei diritti e della sicurezza dei cittadini; rischio limitato, che comprende, ad esempio, i chatbot che devono comunicare chiaramente agli utenti che stanno interagendo con una macchina soprattutto quando sono utilizzati per la categorizzazione biometrica o il riconoscimento delle emozioni; rischio elevato, che comprende i sistemi tenuti a rispettare requisiti rigorosi, tra cui attenuazione dei rischi, elevata qualità dei set di dati di addestramento, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza; rischio inaccettabile, che comprende i sistemi considerati una chiara ed esplicita minaccia per i diritti fondamentali delle persone e che, pertanto, sono assolutamente vietati.
Il percorso di attuazione dell’AI Act
Ampiamente analizzato e commentato in varie sedi accademiche, a titolo di esempio si veda il contributo di Claudio Novelli, il regolamento dovrà seguire un lungo e articolato percorso di attuazione: entro il 2 agosto 2025 gli Stati membri dovranno designare le autorità nazionali competenti, incaricate di vigilare sull’applicazione delle norme per i sistemi di intelligenza artificiale e di svolgere attività di vigilanza del mercato; entro il 2 agosto 2026 la maggior parte delle norme del regolamento saranno applicabili, anche se solo i sistemi di IA che presentano un rischio inaccettabile saranno soggetti al regolamento già dopo sei mesi, mentre le norme per i modelli per finalità generali saranno applicabili dopo dodici mesi.
Il collegamento tra il regolamento europeo e i principî etici, come quelli indicati dal manifesto di Roma, è evidente già nella sua prima “considerazione”: «Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale (sistemi di IA) nell’Unione, in conformità dei valori dell’Unione, promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea («Carta»), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell’Unione, nonché promuovere l’innovazione». Si tratterà di vedere se questi principî etici saranno una mera enunciazione teorica o se troveranno nel prossimo futuro una completa ed efficace attuazione giuridica.
Un caso di scuola: il test di Frank Chapman Sharp
Nel 1898, Frank Chapman Sharp, professore di Psicologia all’università dell’Illinois, pubblicò un articolo che descriveva un test formato da dieci domande, somministrato a 152 studenti delle classi di psicologia della sua università, 57 femmine e 95 maschi, con un’età media di circa 21 anni. Nessuno di loro aveva effettuato in precedenza studi di etica, né aveva trattato questi temi in altri insegnamenti. Per rispondere alle domande agli studenti non fu permesso di consultarsi con altre persone e vennero invitati a spiegare le ragioni delle loro risposte con pienezza e completezza.
Per incoraggiare la massima sincerità, gli studenti ebbero la garanzia del totale anonimato e, per non essere influenzati da fattori esterni, non furono messi a conoscenza delle ragioni della somministrazione del test. Sharp progettò questo test perché riteneva che «i pensatori avessero fallito a raggiungere conclusioni che richiedevano un consenso universale, soprattutto perché avevano basato le loro descrizioni e le successive spiegazioni principalmente, se non interamente, su dati forniti dalla loro stessa coscienza» e sentì la necessità di raccogliere descrizioni e spiegazioni in maniera oggettiva, effettuando appunto un test randomizzato e anonimizzato.
Ciò che ci interessa, però, è una particolare domanda presente nel test: «in un piccolo villaggio occidentale, un manovratore stava per azionare lo scambio per deviare un treno espresso in arrivo quando vide il suo piccolo figlio, il suo unico bambino, giocare sui binari. Doveva scegliere tra la vita del bambino e quella dei passeggeri. Cosa avrebbe dovuto fare?» Si tratta di un classico dilemma in cui una persona deve prendere una decisione che mette a repentaglio la vita di altre persone. L’aspetto etico del dilemma è chiaramente percepibile e, in questo particolare caso, è relativo alla valutazione (soggettiva) dell’importanza della vita di un bambino (un figlio) rispetto a quella di persone sconosciute.
Il dilemma di Foot
Molto tempo dopo, Philippa Foot, professoressa di Filosofia del Somerville College di Oxford, pubblicò un articolo in cui affrontava il tema dell’aborto: «uno dei motivi per cui la maggior parte di noi si sente perplessa riguardo al problema dell’aborto è che vogliamo, e non vogliamo, concedere al bambino non ancora nato i diritti che appartengono agli adulti e ai bambini». Foot voleva studiare ciò che accade nell’animo umano quando deve affrontare e decidere in situazioni di conflitto interiore: «senza dubbio questa è la fonte più profonda del nostro dilemma, ma non è l’unica. Siamo anche confusi riguardo alla questione generale di ciò che possiamo e non possiamo fare quando gli interessi degli esseri umani sono in conflitto». Per affrontare questo tema, Foot fece riferimento alla “dottrina del doppio effetto”, basata su una «distinzione tra ciò che un uomo prevede come risultato della sua azione volontaria e ciò che, in senso stretto, intende. Intende nel senso più stretto sia quelle cose che mira come fini sia quelle che mira come mezzi per i suoi fini». Nel caso dell’aborto, ad esempio, Foot mise a confronto la salvezza della madre verso la salvezza del feto, nei casi particolari in cui non è possibile salvarle entrambi.
Ancora una volta, ciò che ci interessa non sono le sue riflessioni sull’aborto ma un particolare dilemma citato in una lista di esempi di conflitto etico: «per rendere il parallelo il più vicino possibile, si può supporre che egli sia il conducente di un tram fuori controllo che può solo deviare da un binario stretto a un altro; cinque uomini stanno lavorando su un binario e un uomo sull’altro; chiunque si trovi sul binario in cui entra il tram è destinato a essere ucciso». Il contesto ferroviario, già usato da Sharp, si ripresenta in una forma leggermente diversa e più incisiva. A differenza del manovratore, infatti, il conducente del tram non ha alcun legame affettivo con le persone coinvolte dalla sua decisione.
Il “Trolley problem”
Il dilemma di Foot venne ripreso qualche anno dopo da Judith Jarvis Thompson, una filosofa e scrittrice statunitense, in un articolo che, per la prima volta, lo definì come il “Trolley problem”: «uccidere e lasciar morire, infatti, è una bella e spiacevole difficoltà: perché il conducente può deviare il tram per salvare cinque persone, mentre il chirurgo non può prelevare gli organi da una persona sana per salvare cinque persone in fin di vita? Mi piace chiamare questo il problema del carrello, in onore dell’esempio di Philippa Foot». Da allora il problema del carrello è diventato il tipico esempio da citare quando si parla di veicoli autonomi, per evidenziare una ben precisa situazione in cui un AIBS potrebbe trovarsi in difficoltà per prendere una decisione. Non sarebbe possibile, infatti, prevedere a priori e programmare in tal senso l’AIBS, stabilendo quale azione prendere, perché tale decisione sarebbe problematica anche per un umano.
Intelligenza artificiale e coscienza: l’etica “by design”
Abbiamo visto che l’etica entra pesantemente nel dibattito relativo alla realizzazione e all’uso dell’intelligenza artificiale. Mentre è stata dimostrata, con tutte le cautele del caso, la possibilità che i valori e i principî etici ispirino la scrittura e l’adozione di norme giuridiche, è ancora un problema aperto la progettazione e la realizzazione di AIBS che adottino e rispettino “internamente” tali valori e principî. Non è solo un aspetto tecnico ma, come abbiamo visto con il problema del carrello, è qualcosa che ha a che fare con l’intrinseca difficoltà di prendere decisioni in situazioni estreme. Tale difficoltà è ulteriormente acuita dal fatto che queste decisioni non sono “sentite” dall’AIBS, perché un tale sistema non sarebbe capace di provare empatia per chi è affetto dalle sue decisioni. Un AIBS, infatti, non ha una coscienza umana, non ha la capacità di provare “fisicamente” l’effetto delle sue azioni. Opera in una realtà virtuale che rappresenta un mondo a cui non appartiene.
In attesa di AIBS coscienti, o forse sperando che ciò non accada, è necessario procedere “approssimando” il comportamento etico degli AIBS, progettandoli con un duplice obiettivo: da una parte il loro uso non deve indure rischi inaccettabili per gli umani (e per l’ambiente), dall’altra tali sistemi devono essere progettati affinché i principî etici siano cablati internamente e non controllati a posteriori. Si tratta della cosiddetta “ethics by design”, discussa e argomentata da Veluwenkamp e van den Hoven.
Ringraziamenti
L’autore desidera riconoscere il supporto del progetto Europeo EIC Pathfinder EMERGE (GA N. 101070918).
Bibliografia
Cervantes, J.A, et al., (2019), Moral Agents: A Survey of the Current Status, Science and Engineering Ethics, 26:501–532.
Fabris, A. (2021), Etica e ambiguità. Una filosofia della coerenza, Morcelliana, Brescia.
Floridi, L. (2022), The Ethics of Artificial Intelligence. Principles, Challenges, and Opportunities, Oxford University Press. Versione italiana: Floridi, L. (2022), Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Raffaello Cortina Editore.
Foot, P. (1967), The Problem of Abortion and the Doctrine of the Double, Oxford Review 5:5-15.
Novelli, C. (2024), L’Artificial Intelligence Act Europeo: Alcune questioni di implementazione, Federalismi.it.
Paglia, V. (2024), L’algoritmo della vita. Etica e intelligenza artificiale, Edizioni Piemme.
Seth, A. (2021), Being You, A New Science of Consciousness, Faber & Faber. Versione italiana: Seth, A. (2023), Come il cervello crea la nostra coscienza, Raffaello Cortina Editore.
Sharp, F.C. (1898), An Objective Study of Some Moral Judgments, The American Journal of Psychology, 9(2):198-234.
Thompson, J.J. (1976), Killing, Letting Die, and the Trolley Problem, The Monist, 59(2):204-217.
Veluwenkamp, H., van den Hoven, J. (2023) Design for values and conceptual engineering, Ethics and Information Technology, 25(1).