la convergenza

Virtù o regole? La sfida etica dell’IA contemporanea



Indirizzo copiato

L’evoluzione dell’intelligenza artificiale trova un’analogia sorprendente nell’evoluzione dell’etica, da approcci normativi a pratiche contestuali fondate sull’esperienza

Pubblicato il 20 ago 2025

Mario De Caro

Università Roma Tre, Tufts University



IA etica (1) etica dell’intelligenza artificiale

La riflessione sull’etica dell’intelligenza artificiale si è intensificata negli ultimi anni, spinta dalle trasformazioni radicali nei paradigmi tecnologici e morali. Se la progettazione etica delle tecnologie è ormai un tema consolidato, resta aperta la questione del tipo di etica più adatta ai sistemi artificiali: universale e prescrittiva o situata e flessibile?

La progettazione etica e i limiti dell’approccio simbolico

Da qualche tempo si discute con crescente intensità di ethical design, ovvero della progettazione di tecnologie, interfacce e servizi digitali che rispettino i diritti degli utenti, ne tutelino l’autonomia e promuovano il bene comune.

Tuttavia, mentre il dibattito sui fini etici da perseguire attraverso tali progetti è molto vivace, si riflette assai meno su una questione connessa, ma non meno importante: ossia il genere di etica che dovrebbe essere implementata nei sistemi artificiali per realizzare quei fini.

In questo senso, è possibile rilevare una significativa analogia tra l’evoluzione dell’intelligenza artificiale e quella dell’etica negli ultimi decenni. La cosiddetta intelligenza artificiale classica – nota anche come GOFAI (“Good Old-Fashioned Artificial Intelligence”) – si fondava sulla manipolazione simbolica secondo regole fisse, in un processo top-down analogo al ragionamento deduttivo proprio della logica e della matematica.

Questo approccio garantiva rigore, coerenza formale e trasparenza e risultava efficace in contesti ben strutturati, come il problem solving logico e i giochi formali. Nondimeno, si è rivelato poco adatto ad affrontare compiti più complessi, come il linguaggio naturale o la percezione visiva, dove ambiguità e imprevedibilità rendono difficile l’applicazione di schemi generali rigidi.

Il paradigma statistico e la trasformazione dell’intelligenza artificiale

A partire dagli anni Ottanta – e con crescente centralità negli ultimi anni – si è affermata dunque una nuova generazione di intelligenza artificiale, definibile come post-simbolica (di cui l’intelligenza artificiale generativa è l’esempio più noto), che si fonda su reti neurali e modelli statistici. Questi sistemi non si basano su regole esplicite, ma apprendono dai dati mediante deep learning, riconoscendo schemi ricorrenti e costruendo rappresentazioni contestuali.

I Large Language Models (LLM) – come ChatGPT, Gemini, DeepSeek, Claude e altri – esemplificano questo paradigma radicalmente diverso rispetto alla GOFAI tradizionale. Mentre l’intelligenza artificiale simbolica si fondava su processi di ragionamento deduttivo e regole logiche esplicite, i modelli linguistici di grandi dimensioni operano attraverso meccanismi di previsione statistico-probabilistica del linguaggio naturale.

Questi sistemi non seguono catene logiche predefinite, ma generano testi attraverso un’elaborazione bottom-up che emerge dall’analisi e dall’apprendimento di pattern linguistici contenuti in enormi corpus di dati testuali. Il loro funzionamento si basa sulla capacità di identificare relazioni statistiche complesse tra parole, frasi e concetti, permettendo di produrre risposte coerenti e contestualmente appropriate senza ricorrere a regole simboliche esplicite.

Potenzialità e criticità dell’intelligenza artificiale generativa

I vantaggi di questo nuovo paradigma dell’intelligenza artificiale sono evidenti: flessibilità, capacità adattiva e una sorprendente creatività. Non mancano però le criticità, in particolare l’opacità, la limitata spiegabilità (il ben noto problema della explainability) e i cosiddetti fenomeni di “allucinazione” – che però appaiono in progressiva riduzione man mano che questi modelli vengono perfezionati.

L’evoluzione dell’etica tra universalismo e contesto

Un’evoluzione analoga ha caratterizzato anche il campo dell’etica. Per secoli ha prevalso una concezione generalista, secondo la quale le azioni devono essere giudicate alla luce di principi universali da applicare sistematicamente ai singoli casi.

L’utilitarismo e l’etica deontologica kantiana sono esempi emblematici di questo approccio top-down. Il primo valuta le azioni in base alla loro capacità di massimizzare l’utilità collettiva; il secondo ne giudica la moralità in funzione della loro conformità alla legge morale razionale e universale, incarnata nell’imperativo categorico.

Entrambi i modelli offrono coerenza teorica e chiarezza normativa, e sono in linea di principio facilmente formalizzabili. Tuttavia, tendono a trascurare la complessità dell’agire morale concreto, fatto di relazioni, contesti, dilemmi e sfumature che spesso sfuggono all’applicazione meccanica di regole generali.

L’etica delle virtù come modello situato e pratico

Negli ultimi decenni, si è dunque assistito a una riscoperta dell’etica delle virtù, una tradizione antica – che risale a Platone e Aristotele – a lungo marginalizzata dal razionalismo moderno. L’etica delle virtù non parte da principi astratti, ma si fonda sulla formazione del carattere e sull’esercizio della phronesis, la saggezza pratica che consente di orientarsi nelle situazioni reali. In questa prospettiva, la moralità non dipende dall’applicazione automatica di norme, ma dal discernimento situato, dalla sensibilità al contesto e dalla capacità di riconoscere ciò che è moralmente rilevante in ogni circostanza.

Dire sempre la verità, ad esempio, è generalmente una virtù; ma in alcune situazioni mentire può essere giustificato per evitare un male maggiore – come quando si nasconde una persona perseguitata e si viene interrogati sulla sua presenza. La virtù, quindi, non è una regola fissa, ma un equilibrio dinamico che tiene conto delle condizioni concrete in cui si agisce.

In questo senso, l’etica delle virtù è intrinsecamente bottom-up: elabora orientamenti morali a partire dai casi concreti, anziché applicare norme astratte. Più specificamente, essa non si chiede anzitutto cosa sia giusto in termini generali, ma come un individuo virtuoso riesca a cogliere e valutare adeguatamente le situazioni morali.

La moralità non consiste tanto nel seguire regole predefinite, quanto nel coltivare capacità pratiche come discernimento, empatia, equilibrio e saggezza. La bontà di un’azione dipende dalle caratteristiche specifiche della situazione e dalla capacità del soggetto di comprendere ciò che, in quel contesto, conta davvero dal punto di vista etico (cfr. De Caro et al. 2025).

Etica situata e apprendimento morale esperienziale

Questa impostazione riconosce che non esiste un algoritmo morale valido per ogni circostanza. Un’azione può essere giusta in un contesto e sbagliata in un altro, anche se esteriormente identica. È cruciale, soprattutto, la formazione del carattere e la maturazione del giudizio morale, più che la semplice conoscenza di regole da applicare.

Tuttavia, l’etica delle virtù presenta anche dei rischi: l’assenza di criteri rigidi può sfociare nell’arbitrarietà, nell’incoerenza o nel relativismo morale. Anche in questo caso, però, il ragionamento procede dal basso: non si parte da norme generali, ma dall’analisi di situazioni specifiche. Nell’IA si tratta di inferenze statistiche e induttive; nell’etica, di saggezza situata e giudizio contestuale.

La convergenza tra etica contestuale e IA post-simbolica

La corrispondenza tra i metodi dell’IA post-simbolica e l’etica delle virtù è, dunque, sorprendente. Così come l’intelligenza artificiale generativa apprende dai dati senza affidarsi a regole prestabilite, anche l’etica delle virtù costruisce il giudizio morale attraverso l’esperienza e la capacità di cogliere ciò che è significativo nei contesti specifici.

Verso un’etica dell’intelligenza artificiale flessibile e situata

Il parallelismo tra l’evoluzione dell’IA e quella dell’etica appare quindi strutturale e profondo. L’approccio simbolico e quello generalista condividono la struttura deduttiva e l’impostazione top-down: garantiscono rigore, trasparenza e chiarezza, ma si rivelano spesso rigidi e scarsamente adattabili.

Al contrario, i sistemi post-simbolici e le etiche contestuali operano in modo bottom-up: sono più flessibili, sensibili alla complessità del reale e capaci di adattarsi a contesti mutevoli. Anch’essi, però, presentano fragilità: l’IA post-simbolica è spesso opaca e difficilmente spiegabile, mentre le etiche contestuali rischiano la dispersione dei criteri condivisi.

Questo parallelismo suggerisce che, così come l’IA ha abbandonato il primato delle regole formali generali in favore di un apprendimento situato, anche l’etica contemporanea tende a cercare modelli più aderenti alla concretezza della vita. Da qui nasce una domanda cruciale: è possibile – e auspicabile – progettare sistemi artificiali capaci di incorporare una forma di etica delle virtù?

Queste domande aprono interrogativi affascinanti e in gran parte ancora inesplorati. Ma un dato già oggi appare evidente: le affinità tra IA post-simbolica ed etica contestualista non sono casuali. Esse riflettono un mutamento più profondo nel nostro modo di concepire il sapere, l’intelligenza e la moralità – non più fondati sull’applicazione rigida di regole astratte, ma sulla capacità di muoversi nella complessità, apprendere dall’esperienza e rispondere in modo sensibile, riflessivo e situato alle sfide del mondo concreto (per approfondire questi temi, cfr. De Caro – Giovanola 2025).

Bibliografia

De Caro, M. et al. (2025), Virtue monism. Practical wisdom as cross-situational ethical expertise, “Medicine and Philosophy”, 50, 2, pp. 80-92.

De Caro, M. – Giovanola, B. Intelligenze. Etica e politica dell’IA, Il Mulino, Bologna 2025.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati