Dopo le recenti Linee guida in materia di intelligenza artificiale adottate con il Decreto N. DCCII della Pontificia Commissione per lo Stato della Città del Vaticano, a stretto giro è stata pubblicata, seguendo la cornice regolatoria tracciata da Papa Francesco nel discorso pronunciato durante la sessione G7 sull’IA, la nota “Antiqua et nova”.
Si tratta di un documento redatto dal Dicastero per la Dottrina della Fede e del Dicastero per la Cultura e l’Educazione, a riprova del rilevante fermento culturale volto a orientare il dibattito generale verso un percorso di riflessione attenta ed equilibrata che, nell’ambito di un originale attivismo assunto dalla Santa Sede in materia, si traduce nella realizzazione di interessanti iniziative dall’indubbio pregio contenutistico.
Il rapporto tra intelligenza artificiale e umana
Il menzionato testo esprime, infatti, significativi spunti di approfondimento sul “rapporto tra intelligenza artificiale e intelligenza umana”, in ragione delle profonde argomentazioni ivi formalizzate mediante un’analisi particolareggiata di questioni antropologiche ed etiche che offrono preziose considerazioni sul tema.
Così come precisato da Papa Francesco in occasione del meeting del G7 sull’intelligenza artificiale, la nota “Antiqua et nova” ribadisce l’opportunità di assumere un approccio aperto, ancorché cauto, nei confronti dell’intelligenza artificiale, prendendo, dunque, in considerazione “le odierne sfide e opportunità poste dal sapere scientifico e tecnologico” per promuovere “un uso responsabile della razionalità e della capacità tecnica a servizio del mondo creato” (cfr. punto 1).
Un approccio umano-centrico all’intelligenza artificiale
In altre parole, lungi dal demonizzare il lato oscuro delle tecnologie, pur senza al contempo mitizzare i benefici dell’innovazione digitale, come posizione mediana, il documento, nelle sue considerazioni introduttive, sottolinea la centralità della dimensione umano-centrica da salvaguardare in qualsivoglia processo tecnico sviluppato grazie al dono dell’intelligenza umana, costituente “un aspetto essenziale della creazione degli esseri umani a immagine di Dio”, da cui discende lo sviluppo di abilità e creatività in grado di assolvere alla missione salvifica di migliorare la società, rendendola più equa e inclusiva.
Rischi e implicazioni dell’IA secondo il Vaticano
Invero, poiché, come peculiare specificità dell’attuale evoluzione tecnologica riscontrabile nella concreta prassi, emerge la capacità dell’intelligenza artificiale “di imitare l’intelligenza umana che l’ha progettata”, la nota “Antiqua et nova” evidenzia il rischio di possibili implicazioni negative sulla generale stabilità della società complessivamente considerata, al punto da alimentare comprensibili timori e preoccupazioni di fronte agli aspetti problematici configurabili a causa del graduale perfezionamento algoritmico di cui sono dotati simili sofisticati sistemi, suscettibili di cagionare potenziali pregiudizi di notevole lesività.
Principi per uno sviluppo etico dell’intelligenza artificiale
In tale prospettiva, tenuto conto dello scenario delineato, l’ambito di intervento definito dal documento “Antiqua et nova” identifica un nucleo di riflessioni antropologiche ed etiche rivolte alla generalità delle persone: i destinatari delle raccomandazioni formalizzate, infatti, non sono soltanto gli operatori qualificati che, nell’esercizio di variegate funzioni educative (clericali e/o laiche), assumono “un ruolo attivo all’interno del dibattito generale su questi temi”, ma tutta l’opinione pubblica, nella più ampia accezione di collettività intesa in senso lato e omnicomprensivo, con l’invito di approfondire una riflessione consapevole sullo sviluppo tecnologico odierno, nell’ottica di “contribuire positivamente a un discernimento nei confronti dell’IA” (cfr., punto 5).
L’evoluzione del concetto di “intelligenza”
Seguendo un raffinato ragionamento argomentativo, sotto il profilo terminologico, il documento ricostruisce l’evoluzione del concetto di “intelligenza” riferibile alle nuove tecnologie emergenti e all’essere umano, mediante la ricognizione delle principali fonti di inquadramento desumibili dalla tradizione filosofica e teologica della Chiesa.
Con particolare riferimento all’implementazione dei sistemi di intelligenza artificiale, nel corso del tempo si è registrato un graduale perfezionamento algoritmico che ha consentito di progettare la sperimentazione di applicazioni sempre più sofisticate in apprendimento automatico per la realizzazione di compiti complessi, ben oltre le semplici iniziali funzioni applicative dalla limitata portata tecnica, al punto da incentivare un generalizzato ricorso all’IA persino paventando la progressiva sostituzione degli esseri umani in molti settori, come inevitabile conseguenza provocata dal pervasivo annunciato avvento dell’AGI (Artificial General Intelligence, AGI) in grado di svolgere qualsiasi compito realizzabile dalle persone.
L‘intelligenza umana e le sue dimensioni uniche
Tuttavia, al di là di ogni possibile proiezione futuristica sulle prospettive evolutive dell’intelligenza artificiale, pur ammettendosi, sia pure per ora soltanto in via teorica, un simile performante sviluppo tecnologico, secondo la nota “Antiqua et nova” occorre in ogni caso superare l’eccessiva semplificazione di ritenere digitalmente riproducibile, in via esclusivamente meccanica, tutto ciò che l’intelligenza umana è in grado di realizzare, alla luce delle profonde differenze epistemologiche enucleabili sul concetto di “intelligenza” a seconda dell’ambito di riferimento in cui tale termine viene utilizzato.
In particolare, il documento precisa che “per quanto attiene all’essere umano, l’intelligenza è infatti una facoltà relativa alla persona nella sua integralità, mentre, nel contesto dell’IA, è intesa in senso funzionale, spesso presupponendo che le attività caratteristiche della mente umana possano essere scomposte in passaggi digitalizzati, in modo che anche le macchine possano replicarli” (cfr., punto 10). Invero, qualsivoglia sistema di IA, pur quanto risulti sofisticato, non riuscirà mai a esprimere “l’esperienza umana in tutta la sua ampiezza, che comprende sia le capacità di astrazione che le emozioni, la creatività, il senso estetico, morale e religioso, né abbraccia tutta la varietà delle manifestazioni di cui è capace la mente umana” (cfr. punto 11).
L’essenza peculiare dell’intelligenza umana secondo Antiqua et Nova
Al riguardo, l’essenza peculiare dell’intelligenza umana viene individuata nella coesistenza di 2 prerogative complementari indicate dal pensiero classico nei processi cognitivi di “ragione” (ratio) e “intelletto” (intellectus), da cui discende la capacità di comprendere le sfumature della realtà ben oltre i limitati dati empirici della semplice esperienza sensoriale per saper argomentare sulle ragioni sottese all’accadimento degli eventi verso la costante ricerca della verità mediante l’elaborazione di un ragionamento discorsivo e analitico di giudizio (cfr. punti 14, 15 e 21). L’essere umano è, altresì, dotato, secondo la concezione religiosa evidenziata dalla nota “Antiqua et nova”, di un’ulteriore dimensione spirituale che estende la capacità dell’intelletto verso un orizzonte di “trascendenza” (cfr. punti 16 e 17), in grado di orientare la sfera della relazionalità come manifestazione naturale dell’intelligenza che, entrando “in comunione con gli altri”, sfocia in comportamenti di solidarietà, dialogo e collaborazione interpersonale (cfr. punto 18).
In altre parole, l’intelligenza umana comprende, in una connotazione integrata di simbiotica unicità, la dimensione spirituale, cognitiva, incarnata e relazionale (cfr. punto 26), che si manifesta con modalità multiformi anche nella realizzazione di attività ingegnose, intuizioni creative e opere artistiche espressive di tali sfumature, ben oltre la “semplice acquisizione di fatti” o la “capacità di eseguire certi compiti specifici” (cfr. punto 29).
I limiti dell’intelligenza artificiale a fronte di quella umana
Per tale ragione, è possibile, dunque, cogliere i limiti dell’intelligenza artificiale, pur ammettendosi la capacità di imitare alcuni tratti del ragionamento umano grazie alla sua potenza di calcolo: “l’IA opera soltanto eseguendo compiti, raggiungendo obiettivi o prendendo decisioni basate su dati quantitativi e sulla logica computazionale” (cfr. punto 30), rimanendo, così, “confinata in un ambito logico-matematico, il quale le impone alcune limitazioni intrinseche”, che impediscono di replicare, in chiave tecnologica, gli stimoli sensoriali, le risposte emotive, nonché le interazioni sociali tipiche delle esperienze vissute dagli esseri umani come fattori irripetibili di apprendimento evolutivo acquisito dinamicamente nel corso del tempo durante il proprio percorso di crescita individuale (cfr. punto 31).
Alla luce dei tratti distinti tra intelligenza artificiale e intelligenza umana, avallare un approccio esasperato di “tecno-entusiasmo” volto a esaltare i sistemi di IA sino a ipotizzarne una pedissequa equivalenza con i processi cognitivi delle persone potrebbe determinare un preoccupante cambio di paradigma socio-culturale (cd. “paradigma tecnocratico”; cfr. punto 54) sul modo di configurare l’ecosistema esistente (cfr. punto 33). Sussiste, cioè, “il rischio di cedere a una visione funzionalista, secondo la quale le persone sono valutate in base ai lavori che possono svolgere. Tuttavia, il valore di una persona non dipende dal possesso di singolari abilità, dai risultati cognitivi e tecnologici o dal successo individuale, bensì dalla sua intrinseca dignità fondata sull’essere creata a immagine di Dio” (cfr. punto 34).
La necessità della definizione condivisa di principi universali
Poiché “l’IA non dovrebbe essere vista come una forma artificiale dell’intelligenza, ma come uno dei suoi prodotti” (cfr. punto 35), la nota “Antiqua et nova” sottolinea l’importanza dell’etica come irrinunciabile prerogativa dell’approccio umano-centrico per orientare lo sviluppo sicuro, stabile e sostenibile dei sistemi di intelligenza artificiale mediante la definizione condivisa di principi universali fondati sul rispetto inderogabile della dignità e sul perseguimento del bene comune, senza disattendere i vincoli morali insiti al modello di responsabilità imputabile alla persona nell’utilizzo di qualsivoglia applicazione tecnologica “intelligenza” (cfr. punto 39), con l’intento di supervisionarne lo sviluppo operativo evitando la progettazione di pregiudizi algoritmici in grado di provocare distorsioni applicative, discriminazioni e diseguaglianze sociali, a maggior ragione tenuto conto dell’enorme potere economico detenuto da poche aziende operanti nel settore ITC.
Etica e responsabilità morale nell’uso dell’IA
Il richiamo al senso condiviso di responsabilità morale così teorizzato è rivolto non solo a coloro che, a vario titolo, “sviluppano, producono, gestiscono e supervisionano” i sistemi di IA, ma, altresì, ai legislatori (preposti al compito istituzionale di adeguare le normative vigenti in materia a tutela delle persone) e agli utenti finali, cui è indirizzato lo specifico monito di evitare di “diventare eccessivamente dipendenti dall’IA […] accrescendo il già alto grado di subalternità alla tecnologia che caratterizza la società contemporanea” (cfr. punto 46).
Questioni pratiche sul possibile impatto applicativo dell’IA
Sulla scorta della cornice generale così delineata, all’interno del V paragrafo del documento vengono affrontate una serie di specifiche questioni pratiche sul possibile impatto applicativo dell’IA, enucleando taluni esemplificativi orientamenti volti a promuovere l’uso affidabile e sostenibile dell’intelligenza artificiale.
Ad esempio, le implicazioni empiriche dell’IA che riguardano la società evidenziano, al netto degli indiscutibili benefici offerti per il possibile miglioramento generale degli standard esistenti, un incremento esponenziale di diseguaglianze, che potrebbero essere oltremodo accentuate dall’IA “per protrarre situazioni di marginalizzazione e discriminazione, per creare nuove forme di povertà, per allargare il divario digitale” (cfr. punto 52), cui si aggiunge l’ulteriore rischio di manipolazioni invasive dell’opinione pubblica e del processo democratico (cfr. punto 53), nonché le peculiari insidie provocate all’autenticità delle relazioni umane soggette a un “dannoso isolamento” che amplifica l’emarginazione sociale (cfr. punto 58), soprattutto se si tratta di categorie particolarmente vulnerabili. In questo senso, il punto 60 della nota “Antiqua et nova” precisa che “l’antropomorfizzazione dell’IA pone particolari problemi per la crescita dei bambini, i quali possono sentirsi incoraggiati a sviluppare schemi di interazione che intendono le relazioni umane in modo utilitaristico, così come avviene con i chatbot”, riducendo il livello di empatia nella sfera relazionale e nella stabilità dei legami affettivi.
Il rapporto tra IA, economia e lavoro
Per quanto riguarda il rapporto tra IA, economia e lavoro, tra i principali rischi paventati, si rileva il pericolo di una progressiva dequalificazione professionale dei lavoratori, esposti ad una massiva sorveglianza automatizzata, nonché resi esecutori di funzioni ripetitive (cfr. punto 67), degradando, così, le persone a meri “ingranaggi di una macchina” (cfr. punto 70).
Nell’ambito del settore sanitario sono individuate preoccupanti risvolti applicativi dei sistemi di intelligenza artificiale, in grado di impoverire la relazione umana che si instaura tra medico e paziente, laddove le applicazioni fosse sviluppate con l’intento di sostituire interamente le attività umane degli operatori sanitari, accentuando la sofferenza della malattia e il senso di solitudine ivi generato (cfr. punto 73), con ulteriori ripercussioni negative a discapito della dignità e in violazione del consenso informato (cfr. punto 74).
IA e il rischio disinformazione
Tra le maggiori criticità provocate dai sistemi di intelligenza artificiale è indicato, infine, il rischio di amplificare la polarizzazione di informazioni false o distorte, minando la fiducia della collettività e la stabilità degli assetti sociali esistenti (cfr. punto 88), cui si aggiunge la lesione del diritto alla privacy (cfr. punto 90), nonché i potenziali danni connessi ai risvolti bellici dell’IA (cfr. punto 99).
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.