L’appello

L’appello degli esperti al Papa: “Basta IA senza regole, serve etica”



Indirizzo copiato

I massimi esperti mondiali di intelligenza artificiale si sono riuniti in Vaticano per lanciare un appello: serve un approccio etico allo sviluppo tecnologico, con regole internazionali e controllo umano sui sistemi di IA

Pubblicato il 25 set 2025

don Andrea Ciucci

Pontificia Accademia per la Vita



AI ACT obblighi intelligenza artificiale etica

Il dibattito sull’intelligenza artificiale etica ha raggiunto un punto di svolta con l’appello lanciato dai massimi esperti mondiali durante il World Meeting on Fraternity in Vaticano. Un documento che segna il passaggio da una fase di sviluppo incontrollato a una di responsabilità condivisa.

L’appello dei grandi esperti mondiali

Dal 10 al 13 settembre scorso, in occasione del World meeting on Fraternity promosso in Vaticano, si sono radunati a Roma alcuni delle figure mondiali più importanti nella ricerca scientifica sull’intelligenza artificiale (IA).

Al termine dell’evento, e di un lungo lavoro di preparazione svoltosi nelle settimane precedenti, questo gruppo ha divulgato un appello rivolto a Papa Leone XIV, a tutti i leader globali, a tutte le persone di buona volontà. La lista delle firmatari è obiettivamente impressionante: dai premi Nobel Geoffrey Hinton e Giorgio Parisi a leader tecnologici, studiosi, opinion leader, provenienti da vari paesi e con background culturali e religiosi differenti come Yoshua Bengio, Max Tegmark, Stuart Russell, Abeba Birhane, Nnenna Nwakanma, Alex Weibel, Jimena Sofía Viveros Álvarez, Antal Kuthy, Lorena Jaume-Palasi, Valerie Pisano, Cornelius Boersch, Will.i.am, Paolo Benanti, Ernesto Belisario, Marco Trombetti, Yuval Harari, Riccardo Luna.

L’appello merita di essere conosciuto e impone almeno due riflessioni.

I rischi attuali e futuri dell’intelligenza artificiale

Il documento apre con una presa di coscienza: “Le scelte che facciamo oggi sull’IA plasmeranno profondamente il mondo che lasceremo alle generazioni future. L’IA sta già causando danni significativi, ampliando le disuguaglianze, concentrando il potere nelle mani di pochi e danneggiando l’ambiente”.

I firmatari fanno riferimento alla rapidità dello sviluppo di questo campo, frutto anche degli ingenti investimenti, che stanno portando allo sviluppo di IA agenti capaci di superare in alcuni campi l’intelligenza umana, ciò che qualcuno chiama superintelligenza. Ricordano poi le molte opportunità offerte da queste tecnologie e i non pochi gravi rischi: “perdita di posti di lavoro, la riduzione delle libertà individuali, le guerre di potere, la disinformazione, la manipolazione, la sorveglianza di massa, i danni ambientali e le minacce al genere umano”.

Gli undici principi per un’IA responsabile

A fronte di questa situazione, e qui sta una delle questioni interessanti posti dal documento, questo gruppo propone anzitutto alcuni principi con cui continuare la ricerca e lo sviluppo dell’IA:

  • Custodia della vita e della dignità umana.
  • L’IA è uno strumento che deve rimanere sotto il controllo umano.
  • Solo gli esseri umani hanno una responsabilità morale e legale e quindi i sistemi di IA non possono essere titolari di diritti.
  • Ai sistemi di IA non deve mai essere consentito di prendere decisioni di vita o di morte, specialmente in ambito militare.
  • Gli sviluppatori devono progettare l’IA mettendo al centro sicurezza, trasparenza ed etica.
  • I governi, le aziende e chiunque altro non devono utilizzare l’IA come arma per qualsiasi tipo di dominio, guerre, aggressioni, coercizione, manipolazione, social scoring o sorveglianza di massa.
  • L’IA dovrebbe essere progettata e valutata in modo indipendente per evitare effetti involontari e catastrofici sugli esseri umani e sulla società.
  • I benefici dell’IA non devono essere monopolizzati.
  • Nessuna svalutazione umana: L’IA deve far prosperare gli esseri umani, senza creare svalutazione alcuna dell’umano.
  • L’uso dell’IA non deve mettere in pericolo il nostro pianeta e gli ecosistemi.
  • Nessuna concorrenza globale irresponsabile tra aziende e paesi verso un’IA sempre più potente.

Le richieste concrete per la governance globale

Sulla base di questi principi i firmatari chiedono anzitutto “una leadership lungimirante da parte di tutti i settori della società, un trattato internazionale vincolante che stabilisca limiti invalicabili, un’istituzione di controllo indipendente con poteri effettivi, […] l’istituzione di standard etici e giuridici universali”. Sottolineano infine temi quali la consapevolezza, la tutela dei più vulnerabili, la veridicità e l’inclusività dei sistemi, anche il diritto degli esseri umani a vivere anche senza l’IA.

Questo il documento, che chiude invocando l’orizzonte del bene comune e la destinazione delle macchine a servire gli interessi dell’umanità.

La scelta della responsabilità contro l’approccio proibizionista

La prima, e decisiva considerazione riguarda la scelta di questi personaggi, obiettivamente preoccupati per l’inimmaginabile sviluppo di ciò che hanno contribuito a creare e per le modalità dell’attuale gestione del fenomeno a livello globale. Le due interviste rilasciate da Bengio e Hinton in quei giorni sul Corriere evidenziano con particolare forza tale preoccupazione.

Ebbene, la scelta di queste persone non è quella di chiedere una moratoria, di fermare tutto, di bloccare e vietare. Non chiedono cioè, né suggeriscono, di fare ciò che il sentire comune non di rado invoca a fronte di un giudizio negativo e spaventato (talvolta apocalittico) che genera una perplessità grave che scivola in un rifiuto, spesso più teorico che pratico. I massimi esperti dell’IA reagiscono invece alle gravi preoccupazioni invocando e impegnandosi in prima persona in una ricerca che si assuma la responsabilità di produrre una tecnologia a servizio dell’uomo. La questione decisiva non è smettere di realizzare IA ma di farla bene.

Verso una responsabilità condivisa dell’umanità

Al contempo, ed è la seconda osservazione, i sottoscrittori intuiscono che questo fenomeno è così ampio e trasversale che tale responsabilità non può essere gestita e posta solo sulla ricerca scientifica. L’IA fatta bene per il bene sarà frutto solo di un comune impegno condiviso con tutti i soggetti della società umana: scienziati, leader aziendali, leader religiosi, rappresentanti della comunità e politici, anche i singoli cittadini.

C’è da augurarsi che l’autorevolezza di queste voci concluda una stagione segnata da uno sterile approccio di stampo apocalittico e apra quella di un serio e irrimandabile lavoro di costruzione condivisa dell’umanità che vogliamo per il prossimo futuro.

Il primo frutto dell’IA è quello di obbligarci, in un tempo di crisi delle istituzioni sovrannazionali e di una visione globale dell’umanità, a tornare a sedere attorno allo stesso tavolo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati