l’approfondimento

Etica dell’IA: perché il vero problema non è la macchina



Indirizzo copiato

L’IA non è un soggetto morale ma un insieme di modelli matematico-statistici che producono effetti concreti nel mondo. Dai veicoli autonomi ai LLM fino ai bias algoritmici, il nodo etico riguarda le scelte umane di progettazione, regolazione e impiego responsabile

Pubblicato il 2 apr 2026

Riccardo Gentilucci

Ministero delle Infrastrutture e dei Trasporti – Ufficio di Coordinamento del Dipartimento per le Infrastrutture e le Reti di Trasporto Sapienza Università di Roma – Dipartimento di Ingegneria Civile, Edile e Ambientale



ai ethics (1) etica dell'ai
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’Intelligenza Artificiale è spesso ammantata da un’aura quasi mistica e solleva interrogativi etici come se si trattasse di un’entità autonoma.

Etica dell’IA tra demistificazione e responsabilità umana

In realtà, l’IA moderna consiste principalmente in modelli matematico-statistici e algoritmi informatici. Il presente lavoro demistifica tale tecnologia partendo dai suoi fondamenti matematici, sostenendo che parlare di etica dell’IA in senso stretto risulti fuorviante, dal momento che i sistemi di IA non possiedono intenzionalità o coscienza, ma eseguono elaborazioni computazionali. Dopo una panoramica tecnica, l’analisi si concentra su due casi emblematici: i veicoli a guida autonoma nel settore dei trasporti e i modelli linguistici di grandi dimensioni (LLM).

Per i veicoli autonomi viene descritto il funzionamento matematico degli algoritmi, discutendo le modalità di integrazione di principi etici nelle decisioni di guida [1]. Successivamente, si esamina l’illusione epistemica generata dai LLM – ovvero la parvenza di conoscenza derivante da risposte testuali convincenti ma prive di garanzie fattuali – ponendo l’interrogativo se abbia senso attribuire categorie etiche a strumenti di natura puramente statistica [2]. In conclusione, si argomenta che il terreno più concreto per un dibattito etico sull’IA riguardi i pregiudizi algoritmici (bias) presenti nei dati e nei modelli.

Viene illustrato come, da un punto di vista matematico, risulti impossibile garantire l’assenza totale di bias in un modello predittivo senza sacrificare specifiche metriche di equità [3]. Questo limite strutturale pone sfide significative per la pubblica amministrazione, spaziando dall’impiego dell’IA nei processi decisionali pubblici fino alla necessità di adeguamenti normativi, in primis l’AI Act europeo, e di competenze tecniche per la mitigazione dei bias. L’etica dell’IA, pertanto, non va intesa come la moralità di macchine intelligenti in sé, bensì come un insieme di scelte progettuali, regolamentari e di utilizzo responsabile da parte degli esseri umani che le sviluppano e le impiegano.
Il dibattito sull’etica dell’IA risulta oggi estremamente vivace, alimentato dai rapidi progressi tecnologici e dalla crescente adozione di tali sistemi in ambiti critici quali sanità, trasporti e pubblica amministrazione. Frequenti sono le discussioni relative ad algoritmi discriminatori, a veicoli autonomi chiamati a “scegliere” chi salvare in caso di incidente, o ad assistenti virtuali che diffondono disinformazione. Tuttavia, molte di queste narrazioni tendono a conferire all’IA una sorta di agency (capacità d’azione autonoma), quasi si trattasse di un soggetto morale.

Fondamenti dell’analisi e struttura del lavoro

Un obiettivo chiave del presente lavoro consiste nel demistificare tale concezione, mostrando come, allo stato attuale, un sistema di IA non rappresenti una mente cosciente né un agente morale, bensì un complesso artefatto matematico e computazionale. L’IA odierna, in particolare quella basata sull’apprendimento automatico (machine learning), opera tramite algoritmi che eseguono operazioni di calcolo simbolico o statistico su vasti insiemi di dati. Parlare di etica dell’IA in senso stretto rischia pertanto di essere improprio, poiché un modello matematico non possiede intenzioni o valori etici intrinseci.

La dimensione etica subentra, piuttosto, attraverso l’uso che viene fatto di queste tecnologie, le scelte progettuali degli sviluppatori, la qualità dei dati impiegati per l’addestramento e gli impatti che simili sistemi generano sul tessuto sociale.

Per chiarire questa prospettiva, l’analisi delineerà innanzitutto i fondamenti matematici dell’IA, fornendo anche alcune formalizzazioni per illustrarne i meccanismi interni. Successivamente, verranno approfonditi due ambiti applicativi emblematici in cui l’etica dell’IA è ampiamente dibattuta: i sistemi di guida autonoma nel settore dei trasporti e i LLM, ovvero i modelli generativi di linguaggio naturale. In ciascun ambito, verrà esaminato sia il funzionamento sia le implicazioni etiche e gli interrogativi emergenti. Infine, nella sezione di discussione, si affronterà il tema trasversale dei pregiudizi algoritmici, terreno sul quale risulta più sensato radicare il discorso etico. Verrà illustrato perché, da un punto di vista matematico, un modello predittivo completamente privo di bias rappresenti un’utopia [4] e quali conseguenze pratiche ciò comporti quando tali modelli vengono adottati nella pubblica amministrazione. Il lavoro si concluderà proponendo una riflessione su come gestire responsabilmente questi strumenti matematico-statistici: dalla necessità di una progettazione human-centered e di una chiara regolamentazione, fino all’importanza di accrescere la trasparenza, la supervisione umana, nonché le competenze e lo spirito critico di chi interagisce con l’IA [2].

Demistificare l’etica dell’IA attraverso i fondamenti matematici

Per inquadrare correttamente l’etica dell’IA, risulta essenziale comprenderne innanzitutto la natura. Sebbene espressioni quali rete neurale profonda o algoritmo di apprendimento possano apparire opache, alla loro base risiedono concetti matematici consolidati (algebra lineare, analisi matematica, calcolo delle probabilità) applicati in modo innovativo e su larga scala.

In sintesi, un sistema di IA si configura come un modello matematico che elabora dei dati in ingresso (input) per restituire un risultato (output), venendo costantemente ottimizzato per l’esecuzione di uno specifico compito. Ad esempio, un classificatore automatico progettato per distinguere i messaggi di posta indesiderata da quelli legittimi funziona come una complessa equazione. I dati in ingresso rappresentano le caratteristiche del messaggio, come la frequenza di determinati lemmi o la presenza di collegamenti ipertestuali, mentre il risultato finale costituisce una stima, quale la probabilità che l’e-mail sia effettivamente spam.

Durante la fase di addestramento (training), l’algoritmo impara a calibrare i propri meccanismi interni, definiti parametri, con l’obiettivo di ridurre al minimo il margine di errore rispetto a un vasto archivio di esempi forniti. Questo principio di apprendimento si traduce in un continuo processo di ottimizzazione: il sistema confronta le proprie previsioni con il dato reale e calcola uno scarto, misurato attraverso una specifica metrica nota come funzione di perdita. Per correggere tale scarto, vengono impiegati metodi matematici, come la cosiddetta discesa del gradiente, che aggiornano in modo iterativo e graduale i parametri del modello per minimizzare l’errore a ogni passaggio. Pur nella sua essenzialità concettuale, questa dinamica cattura il nucleo fondante di gran parte del machine learning: il progressivo aggiustamento dei parametri di un algoritmo affinché quest’ultimo impari a replicare fedelmente il comportamento desiderato.

Come i modelli generano testo e previsioni

Un elemento cruciale risiede nel fatto che tali sistemi non comprendono il mondo secondo i paradigmi cognitivi umani, ma si limitano a manipolare simboli o valori numerici seguendo rigide regole matematiche, operando su regolarità statistiche piuttosto che su rappresentazioni del mondo reale. I moderni LLM, come le architetture basate su transformer, costituiscono vaste collezioni di matrici di pesi apprese dai dati di addestramento.

Durante la fase di utilizzo, nota come inferenza, essi eseguono in sequenza trasformazioni lineari e non per convertire i dati in ingresso in testo generato. Ogni frase prodotta rappresenta il risultato di un calcolo di probabilità condizionata: fornito un contesto di parole precedenti, il modello stima la distribuzione di probabilità del frammento di testo successivo, definito token, procedendo alla sua estrazione. Tale selezione può avvenire optando per il token con la probabilità più elevata, oppure attraverso tecniche di campionamento stocastico per modulare la variabilità semantica.

Epistemia e illusione di comprensione

Da un punto di vista formale, è possibile concettualizzare il vocabolario a disposizione della macchina come un insieme finito di stati discreti. In questo schema, il sistema definisce una misura di probabilità sui possibili stati successivi in funzione dello stato attuale, ovvero dell’intero contesto testuale analizzato. In termini più intuitivi, il testo viene generato un token alla volta, simulando una navigazione all’interno di un enorme grafo probabilistico direzionale e pesato. All’interno di tale struttura spaziale, ogni nodo rappresenta una parola o una frazione di essa, mentre gli archi direzionali conducono alle possibili continuazioni, recando dei pesi statistici derivati dalle frequenze linguistiche assimilate durante l’apprendimento [5].

Non c’è alcuna magia o comprensione semantica profonda in questo: ciò che sembra un ragionamento è in realtà un completamento di schemi linguistici appresi statisticamente. I LLM non sono agenti epistemici ma sistemi di completamento stocastico, interpretabili come passeggiate stocastiche su grafi diretti e pesati ad alta dimensionalità, piuttosto che come entità che formano concetti o credenze sul mondo. Un recente studio condotto da un team di ricerca guidato da Walter Quattrociocchi, docente dell’università La Sapienza di Roma, definisce il termine “Epistemia” [5] [6] per indicare la condizione in cui la plausibilità linguistica sostituisce la valutazione epistemica: l’utente sperimenta l’impressione di sapere perché riceve una risposta fluente e convincente, senza che vi sia un processo interno di verifica, gestione dell’incertezza o giustificazione.

Tale constatazione evidenzia uno snodo cruciale: un modello di IA non possiede intenzionalità, volontà o coscienza, limitandosi a eseguire elaborazioni computazionali sui dati in ingresso. Attribuire a tali sistemi un’eticità o una moralità intrinseca risulta, pertanto, un’operazione concettualmente impropria. Un algoritmo non decide volontariamente di discriminare o di produrre asserzioni mendaci; eventuali derive in tal senso riflettono unicamente i pattern presenti nei dati di addestramento o le regole di ottimizzazione fornite in fase di sviluppo. In quest’ottica, l’etica dell’IA deve essere declinata come l’insieme delle responsabilità etiche umane nella progettazione, nello sviluppo e nell’impiego di queste tecnologie, piuttosto che come la moralità di un’entità autonoma. Le sezioni successive del testo manterranno questa prospettiva, procedendo all’esame di casi applicativi concreti in cui emergono rilevanti dilemmi etici legati all’adozione dell’IA.

Veicoli a guida autonoma: algoritmi matematici e dilemmi etici

Un ambito in cui il dibattito sull’etica dell’IA risulta particolarmente acceso è quello dei veicoli autonomi. Tali sistemi incarnano fisicamente l’IA nel mondo reale, trovandosi a dover assumere decisioni in frazioni di secondo con potenziali ricadute dirette sulla sicurezza stradale e sulla vita umana. Da un punto di vista ingegneristico, un’automobile a guida autonoma si configura come un complesso ecosistema di sensori, algoritmi e attuatori che cooperano per sostituire le funzioni del conducente umano. In termini di architettura di sistema, l’intelligenza del veicolo si articola in tre macro-moduli fondamentali: percezione, pianificazione e decisione, e controllo [7]:

I moduli che regolano la guida autonoma

  • Percezione: rappresenta il sistema di visione artificiale e fusione sensoriale incaricato di elaborare i dati grezzi provenienti dalla strumentazione di bordo (telecamere, lidar, radar, sistemi di posizionamento) al fine di costruire una mappa dettagliata dell’ambiente circostante. In questa fase, l’IA assume tipicamente la forma di reti neurali convolutive o modelli avanzati di riconoscimento visivo, addestrati per identificare oggetti, delimitazioni di corsia, pedoni e segnaletica stradale. Dal punto di vista matematico, si tratta di algoritmi di riconoscimento di pattern che traducono matrici di pixel o nuvole di punti tridimensionali in etichette semantiche, segnalando ad esempio la presenza di un pedone in attraversamento a una determinata distanza. Tali modelli richiedono un addestramento su vasti archivi di scenari stradali per garantire capacità di generalizzazione in condizioni ambientali eterogenee, quali variazioni di illuminazione o intemperie, mantenendo requisiti stringenti di accuratezza e rapidità.
  • Pianificazione e decisione: acquisito lo stato dell’ambiente dal modulo di percezione e stabilita una destinazione, il veicolo deve calcolare una traiettoria ottimale e assumere decisioni, come stabilire il momento opportuno per una svolta, arrestare la marcia per consentire l’attraversamento di un pedone o impostare una manovra per evitare un ostacolo improvviso. Questo sottosistema integra frequentemente tecniche di pianificazione del percorso, quali algoritmi di ricerca su grafi o metodi di campionamento stocastico, con modelli predittivi volti ad anticipare le azioni degli altri utenti della strada. A livello matematico, la pianificazione viene formulata come un problema di ottimizzazione dinamica: l’obiettivo è minimizzare una funzione di costo che valuta il tempo di percorrenza e il consumo energetico, penalizzando al contempo, in modo severo, la pericolosità della traiettoria calcolata in base alla distanza dagli ostacoli e all’intensità delle accelerazioni, il tutto nel rispetto dei vincoli dinamici del veicolo. In condizioni ordinarie, tali algoritmi generano traiettorie sicure ed efficienti, scevre da dilemmi morali, limitandosi a minimizzare il rischio di collisione in ottemperanza alle norme del Codice della Strada.
  • Controllo: costituisce il livello operativo più basso, preposto a tradurre la traiettoria pianificata in comandi fisici diretti agli attuatori del veicolo, come acceleratore, sterzo e sistema frenante. L’elemento cardine in questo stadio è la teoria del controllo: vengono impiegati algoritmi, quali i controllori PID o i sistemi di controllo predittivo basato (Model Predictive Control), che garantiscono l’esatta aderenza della vettura alla traiettoria stabilita, compensando eventuali disturbi esterni o errori di stima. Pur essendo di vitale importanza per la sicurezza globale del mezzo, questo livello presenta implicazioni etiche marginali, risultando concettualmente assimilabile ai riflessi motori involontari di un guidatore umano.

Come l’etica dell’IA viene tradotta nei veicoli autonomi

I dilemmi etici maggiormente dibattuti emergono proprio negli scenari limite gestiti dal modulo di pianificazione, concettualmente assimilabili al classico dilemma del carrello (trolley problem) applicato all’ambito automobilistico. Si tratta di situazioni critiche in cui un sinistro risulta inevitabile e il sistema computazionale è chiamato a selezionare tra due esiti parimenti nefasti, come, ad esempio, l’opzione di deviare la traiettoria investendo un motociclista oppure collidere frontalmente contro un mezzo pesante. Sebbene l’evidenza statistica indichi come tali frangenti estremi si verifichino con frequenza assai ridotta, la comunità scientifica, in sinergia con gli enti regolatori, ha profuso un notevole sforzo teorico per definire principi operativi applicabili alla guida autonoma.

A titolo esemplificativo, nel 2017 la Commissione Etica tedesca sui veicoli autonomi e connessi ha stabilito in modo pionieristico l’inammissibilità di qualsiasi discriminazione fondata su attributi personali: in caso di incidente inevitabile, il veicolo non è autorizzato a parametrizzare le proprie decisioni in base all’età, al genere o allo status delle potenziali vittime.

Secondo tale impostazione, l’unico criterio algoritmico accettabile risulta essere la minimizzazione oggettiva del danno complessivo [8]. Analogamente, a livello comunitario, un gruppo di esperti nominato dalla Commissione Europea ha pubblicato un documento contenente venti raccomandazioni specifiche, volto a fornire linee guida rigorose per l’incorporazione strutturale di considerazioni etiche all’interno dei sistemi di guida autonoma [9].

I cinque principi etici computazionali

Per comprendere come l’etica possa essere matematizzata in tale contesto, risulta utile esaminare un recente studio pubblicato su Nature Machine Intelligence [1]. La ricerca ha illustrato un approccio ingegneristico per l’implementazione di un algoritmo etico di pianificazione della traiettoria capace di combinare molteplici principi morali. Nello specifico, tale algoritmo non si limita a valutare le traiettorie unicamente in base alla sicurezza globale, ma ricerca un’equa distribuzione del rischio tra tutti gli utenti della strada. Il modello integra cinque principi etici computazionali:

  • Minimizzazione del rischio totale: volto a ridurre quanto più possibile la probabilità e la gravità dei danni, seguendo un criterio utilitaristico generale.
  • Priorità al più svantaggiato: concepito per tutelare maggiormente i soggetti che si trovano nella situazione di maggior pericolo, ispirandosi al principio filosofico del worst-off.
  • Eguaglianza di trattamento: finalizzato a evitare distinzioni arbitrarie tra le persone, impedendo, ad esempio, di privilegiare in modo sistematico la sicurezza dei passeggeri rispetto a quella dei pedoni.
  • Responsabilità: volto a ponderare le colpe derivanti da eventuali violazioni normative. Qualora un altro utente commetta un’infrazione causando una situazione di pericolo, l’algoritmo tende ad assegnare a quest’ultimo la quota maggiore del rischio conseguente, coerentemente con l’assunto per cui chi genera il pericolo debba, nei limiti del possibile, subirne le conseguenze.
  • Rischio massimo accettabile: preposto a fissare una soglia di rischio invalicabile per qualsiasi individuo, anche qualora il suo superamento comportasse una riduzione del rischio medio complessivo, riflettendo così un principio di natura deontologica.

Funzioni di costo multi-obiettivo e distribuzione del rischio

Questo approccio ibrido, testato in molteplici scenari di simulazione, ha dimostrato come l’algoritmo sia in grado di selezionare manovre che, pur non potendo sempre evitare l’incidente, distribuiscono il rischio in maniera più equa e allineata a tali principi. Si evince, pertanto, come l’etica venga tradotta in pesi e vincoli all’interno di una complessa funzione di costo multi-obiettivo: il veicolo valuta matematicamente diverse traiettorie possibili e seleziona quella che ottimizza il compromesso tra i criteri imposti. Questa dinamica rappresenta una chiara concretizzazione di come gli strumenti matematici possano recepire e implementare preferenze etiche predefinite dall’essere umano.

Etica dell’IA tra sicurezza, trasparenza e bias

Occorre tuttavia sottolineare come, allo stato attuale, la maggior parte delle sperimentazioni sui veicoli autonomi miri prioritariamente a prevenire in senso assoluto il verificarsi di incidenti, piuttosto che a dirimere dilemmi morali in scenari di collisione inevitabile. L’etica pratica nella progettazione di tali sistemi abbraccia, peraltro, ulteriori dimensioni: la trasparenza dei processi decisionali (la cosiddetta explainability degli algoritmi in sede di accertamento post-sinistro), l’attribuzione della responsabilità legale (ovvero l’imputabilità qualora il sistema cagioni un danno) e le valutazioni di equità nell’accesso a tali tecnologie, affinché l’incremento della sicurezza stradale costituisca un beneficio collettivo e non un privilegio economico.

Una sfida ingegneristica di rilievo consiste nell’evitare l’introduzione di bias discriminatori. Qualora, a titolo esemplificativo, un algoritmo di visione artificiale venisse addestrato prevalentemente su immagini di pedoni adulti, quest’ultimo potrebbe manifestare carenze nel riconoscimento di bambini o di persone con disabilità motorie, concretizzando il rischio etico di penalizzare le categorie più vulnerabili.

La mitigazione di tale criticità richiede l’impiego di dataset altamente diversificati e procedure di validazione rigorose. Un ulteriore aspetto, sovente sottostimato, riguarda l’interazione dinamica con gli esseri umani: pedoni e conducenti tradizionali interpretano e anticipano costantemente il comportamento del veicolo autonomo. Un algoritmo eccessivamente conservativo, esitante in prossimità di un incrocio, o viceversa troppo aggressivo nell’esecuzione di un cambio di corsia, rischia di innescare reazioni umane imprevedibili e potenzialmente pericolose. L’etica della progettazione impone, di conseguenza, la ricerca di un delicato equilibrio, capace di garantire i massimi standard di sicurezza senza ingenerare confusione o sfiducia negli utenti della strada.

In sintesi, l’analisi dei veicoli a guida autonoma conferma come l’IA si configuri essenzialmente come un complesso di algoritmi deterministici o statistici, operanti secondo stringenti regole matematiche di percezione e azione.

Qualsiasi declinazione etica, dalla risoluzione di dilemmi morali alla gerarchizzazione delle tutele, deve essere codificata esplicitamente dai progettisti sotto forma di parametri, pesi e vincoli. Non sussiste alcun fattore etico emergente e intrinseco alla macchina, al di fuori di quanto deliberatamente stabilito a monte. Parlare di etica del veicolo autonomo equivale, in via definitiva, a esaminare l’etica dei soggetti incaricati di programmare i criteri decisionali e le modalità con cui tali criteri vengono implementati, testati e sottoposti a supervisione.

LLM ed Epistemia: modelli linguistici, illusione di conoscenza ed etica

I LLM costituiscono l’attuale frontiera dell’IA generativa, trovando innumerevoli applicazioni, quali chatbot avanzati, assistenti virtuali e sistemi di generazione testuale in molteplici domini. In virtù della loro capacità di sostenere conversazioni fluide e di fornire risposte a un vasto spettro di interrogativi, i LLM pongono sfide etiche peculiari, nettamente distinte da quelle relative ai veicoli autonomi. In questo specifico ambito non risulta in gioco la salvaguardia fisica immediata della vita umana, bensì emergono questioni critiche di natura epistemica legate alla veridicità delle informazioni, alla proliferazione della disinformazione, al plagio e all’impiego di un linguaggio potenzialmente lesivo.

Transformer, self-attention e previsione del token successivo

Sotto il profilo matematico e architetturale, un LLM si configura tipicamente come una rete neurale profonda basata sull’architettura transformer, dotata di parametri computazionali nell’ordine delle centinaia di miliardi. Tale modello viene addestrato su moli sterminate di testi (libri, articoli, siti web) e apprende a stimare la probabilità condizionata della parola successiva, fornito un determinato contesto di parole precedenti.

La forma matematica di tale predizione si traduce in una distribuzione di probabilità calcolata per ogni singolo token del vocabolario a disposizione. Questa complessa distribuzione viene generata attraverso molteplici strati di pesi sinaptici, rappresentati da matrici, e funzioni di attivazione non lineari, integrati da meccanismi di attenzione (self-attention) che consentono al modello di attribuire una rilevanza differenziata alle diverse porzioni del contesto analizzato. Il processo di addestramento consiste nella regolazione iterativa di tali parametri affinché la probabilità assegnata alle sequenze di parole presenti nel bacino di dati originario venga massimizzata, minimizzando la cosiddetta perdita di entropia incrociata. In altri termini, un LLM si limita a interiorizzare le regolarità statistiche di un immenso dataset linguistico.

Allucinazioni e assenza di una nozione interna di verità

Un aspetto dirimente risiede nel fatto che, durante l’addestramento, al sistema non viene fornita alcuna nozione esplicita di verità o falsità in merito alle asserzioni processate: il modello assimila indistintamente frasi corrette e affermazioni errate, a condizione che entrambe figurino nel corpus testuale di riferimento. Esso non costruisce un modello logico o causale del mondo reale, bensì un mero modello delle correlazioni linguistiche.

Ne consegue che un LLM generico risulta strutturalmente privo della consapevolezza relativa alla veridicità di quanto generato: formulerà con pari fluidità e disinvoltura sia fatti inconfutabili sia inesattezze macroscopiche, purché tali esiti si conformino ai pattern statistici appresi. Tale dinamica ingegneristica conduce al fenomeno comunemente noto come allucinazione: un LLM può generare dettagli inesistenti ostentando un tono di assoluta sicurezza, arrivando a citare fonti bibliografiche fittizie o a fornire spiegazioni del tutto errate, seppur grammaticalmente e sintatticamente ineccepibili.

Epistemia come pseudo-conoscenza convincente

Come anticipato, questa tendenza a produrre risposte fluenti e plausibili, pur in assenza di un reale fondamento fattuale, è alla base di ciò che i ricercatori hanno definito Epistemia, ovvero l’illusione cognitiva di conoscere qualcosa solo perché un’IA lo esprime in modo convincente. A differenza del concetto classico di episteme (conoscenza certa e giustificata), in questo contesto si assiste a una dinamica opposta: una pseudo-conoscenza che l’utente accetta passivamente poiché formulata con ostentata sicurezza da un sistema percepito come autorevole [10].

Studi recenti, tra cui le ricerche guidate dal Professor Walter Quattrociocchi, hanno analizzato in profondità questa fenomenologia, evidenziando come i LLM non siano progettati per garantire la veridicità, ma per ottimizzare la coerenza statistica rispetto agli usi linguistici appresi. In altri termini, tali modelli non generano risposte vere, ma simulazioni linguisticamente plausibili, con l’obiettivo di produrre testi che suonino bene indipendentemente dalla correttezza del contenuto. Di conseguenza, l’utente ingenuo può facilmente convincersi di aver acquisito una conoscenza fondata, mentre ha ricevuto soltanto un assemblaggio statisticamente coerente di frasi. L’Epistemia si configura, pertanto, come un fenomeno emergente cruciale: pur nascendo da un’architettura matematica, esso sposta il fulcro del problema etico dal comportamento dell’algoritmo alla psicologia dell’utente, che tende a fidarsi eccessivamente della macchina. La sfida posta dalla tecnologia sposta dunque il focus sull’essere umano e sulle sue responsabilità, rendendo imprescindibile l’innalzamento delle competenze e la coltivazione dello spirito critico.

Strumenti, allineamento e responsabilità nell’etica dell’IA

Viene spontaneo chiedersi, giunti a questo punto, se abbia senso parlare di etica di un LLM. Seguendo l’impostazione delineata, attribuire un’etica intrinseca al modello risulta inappropriato: esso è sprovvisto di intenzioni morali o della benché minima comprensione di ciò che elabora. Tuttavia, i comportamenti in uscita del sistema assumono una profonda rilevanza etica, potendo cagionare danni concreti nel mondo reale. Fenomeni quali la generazione di linguaggio d’odio, la diffusione di disinformazione, la violazione della privacy tramite l’esposizione di dati sensibili presenti nel training set, o persino la facilitazione di attività illecite, costituiscono criticità oggettive che sollevano urgenti questioni regolatorie. La responsabilità morale primaria ricade, ancora una volta, su chi sviluppa e utilizza tali strumenti.

RLHF, filtri di contenuto e limiti dell’allineamento

Per mitigare i rischi, i creatori di questi modelli implementano tipicamente misure di allineamento ai valori umani, quali l’addestramento tramite apprendimento per rinforzo basato sul feedback umano (Reinforcement Learning from Human Feedback, RLHF).

Dal punto di vista matematico, tale tecnica incorpora nel modello un ulteriore obiettivo da ottimizzare – oltre alla plausibilità linguistica – rappresentato da una funzione di ricompensa che codifica le preferenze umane in merito a ciò che risulta appropriato. Questo meccanismo, unito ai filtri di contenuto applicati a valle per inibire determinate parole o concetti, mira a confinare lo strumento statistico entro binari etici definiti da specifiche policy umane.

Il rischio opposto: censura, rigidità e parzialità

Nonostante tali sforzi ingegneristici, non sussiste alcuna garanzia che un LLM sottoposto ad allineamento non produca mai output problematici. La complessità intrinseca del modello fa sì che possa sempre emergere un caso limite o una richiesta ingegnosa, in grado di eludere i controlli di sicurezza. Inoltre, si profila un rischio speculare: l’imposizione di un allineamento eccessivamente rigido potrebbe introdurre dinamiche di censura o la distorsione sistematica delle informazioni.

Nel tentativo di evitare qualunque affermazione controversa, il modello rischia infatti di risultare inutilizzabile per la trattazione di tematiche delicate o di subire accuse di parzialità politica. Si delinea, pertanto, un delicato bilanciamento tra la libertà d’espressione del modello, necessaria per garantirne utilità e potenziale creativo, e l’imprescindibile esigenza di sicurezza e aderenza ai princìpi etici.

LLM come strumento epistemico da verificare criticamente

Un concetto utile per inquadrare il ruolo dell’etica in questo contesto è quello di strumento epistemico. La letteratura suggerisce di considerare i LLM non come agenti in grado di testimoniare la verità, sebbene si esprimano in prima persona, bensì come strumenti assimilabili a un motore di ricerca o a un’enciclopedia: fonti di informazioni grezze da interpretare criticamente. Sottoponendo a un LLM un quesito fattuale, la risposta non va considerata infallibile solo in virtù della sua correttezza formale; essa rappresenta piuttosto un suggerimento da verificare, al pari di un dato reperito su un’enciclopedia libera on-line.

In effetti, considerando un LLM quale amplificatore statistico della conoscenza umana pregressa, racchiusa nel dataset di addestramento, l’etica risiede nel contesto d’uso: un utente formato è consapevole della fallibilità del sistema e ne utilizza l’output come punto di partenza, non come verità garantita. Di converso, un uso acritico rappresenta un fallimento etico nell’utilizzo.

In sintesi, i modelli linguistici pongono una sfida di alfabetizzazione digitale: risulta necessario educare gli utenti e i decisori a comprenderne la natura, riconoscendo che la fluidità di linguaggio non implica attendibilità epistemica. Un modello linguistico è strutturalmente disaccoppiato dalla verità: può formulare asserzioni corrette, ma anche inventare con disinvoltura, poiché privo della consapevolezza di non sapere [11]. Un LLM non è orientato alla verità: genera testo seguendo schemi statistici, indifferente all’effettiva correttezza del risultato.

L’errore sistemico consisterebbe nel trattarlo alla stregua di un oracolo affidabile. Piuttosto, esso va inteso come uno strumento utile a scandagliare la conoscenza umana esistente, il quale richiede costantemente l’interpretazione e il giudizio critico umano. In termini di etica applicata, ciò significa che la responsabilità ultima resta in capo alle persone: qualora un LLM fornisca un output da cui scaturisca un danno, risulta privo di senso logico incolpare moralmente l’algoritmo. Occorre, piuttosto, interrogarsi sulle responsabilità di chi lo ha posizionato in quel ruolo operativo senza predisporre adeguate avvertenze o controlli strutturali.

Bias algoritmici e impossibilità matematica dell’etica dell’IA perfetta


L’analisi fin qui condotta ha argomentato come l’IA debba essere considerata alla stregua di uno strumento matematico-statistico, sprovvisto di qualsivoglia intenzionalità morale intrinseca. Di conseguenza, l’etica dell’IA coincide essenzialmente con l’etica umana associata alla progettazione e all’impiego di tali sistemi. Tuttavia, sussiste un ambito in cui risulta pertinente parlare di IA etica in senso più specifico: quello relativo ai bias algoritmici e all’equità nelle decisioni automatizzate.

Nel momento in cui un sistema di IA viene impiegato per assumere decisioni aventi un impatto diretto sulla vita degli individui – quali la selezione di candidati per un impiego, l’erogazione di linee di credito, la definizione delle priorità di intervento sanitario o la sorveglianza di potenziali attività criminali – diviene cruciale domandarsi se tale sistema garantisca un trattamento equo o se, viceversa, tenda a riprodurre e amplificare pregiudizi discriminatori.

In questi scenari, l’agente decisionale immediato è costituito dalla macchina, sebbene i criteri operativi siano stati definiti a monte dall’essere umano. Pertanto, la valutazione etica di tale operato richiede l’analisi rigorosa di specifiche proprietà matematiche del modello predittivo, come, ad esempio, l’eventuale disparità nei tassi di errore statistico registrata tra differenti gruppi demografici.

La ricerca sull’Algorithmic Fairness (equità algoritmica) ha evidenziato negli ultimi anni risultati apparentemente controintuitivi: esistono veri e propri teoremi di impossibilità che dimostrano l’irrealizzabilità di una parità perfetta di trattamento qualora si applichino criteri matematici multipli e simultanei.

In particolare, un risultato fondamentale della letteratura di settore [3] [4] [12] dimostra come un modello predittivo imperfetto non possa soddisfare contemporaneamente diverse nozioni statistiche di equità di gruppo, a meno che i gruppi di riferimento non presentino identici tassi di prevalenza di base (base rates). In altri termini, ogni scelta di definizione di fairness comporta inevitabili trade-off: l’ottimizzazione di una specifica metrica determina strutturalmente il peggioramento di un’altra. Ciò significa che, da un punto di vista strettamente matematico, non esiste un modello predittivo perfettamente equo sotto tutti i parametri in modo simultaneo.

Sotto il profilo etico e normativo, pertanto, risulta impossibile postulare l’esistenza della macchina imparziale in senso assoluto; emerge piuttosto l’ineludibile necessità di stabilire, in sede progettuale e politica, quale nozione di equità privilegiare in un determinato contesto, accettando inevitabili compromessi sulle metriche alternative.

Etica dell’IA nella pubblica amministrazione

Tale scenario comporta implicazioni di primaria importanza per la pubblica amministrazione e i decisori politici. Da un lato, si registra una forte spinta verso l’adozione di sistemi di IA per incrementare l’efficienza e l’oggettività dei processi decisionali pubblici, quali la selezione dei candidati nei concorsi, l’individuazione di frodi nel sistema di welfare o la gestione del traffico urbano. Dall’altro, le istituzioni hanno il dovere di garantire che simili architetture non introducano nuove iniquità né esacerbino quelle preesistenti. Il paradosso intrinseco risiede nella frequente percezione dell’IA quale strumento idoneo a sradicare il pregiudizio umano, in virtù della presunta neutralità dell’algoritmo. Nella realtà operativa, tuttavia, un modello predittivo rischia di amplificare le distorsioni insite nei dati di addestramento, ammantandole di una patina di obiettività scientifica [13] (fenomeno noto in letteratura come mathwashing [14]) che ne rende estremamente complessa l’identificazione. A titolo esemplificativo, qualora un algoritmo venga addestrato su serie storiche caratterizzate da discriminazioni sistematiche verso uno specifico gruppo demografico, in assenza di opportuni correttivi esso tenderà a perpetuare il medesimo bias nelle nuove determinazioni, presentandolo tuttavia come l’esito di un calcolo matematico inoppugnabile.

Risulta dunque imprescindibile, per qualsiasi ente pubblico che intenda avvalersi dell’IA, l’adozione di rigorose misure di controllo, trasparenza e accountability. In primo luogo, emerge la necessità di valutare i modelli predittivi in una fase antecedente al loro rilascio operativo (deployment) attraverso specifici audit algoritmici. Tali procedure consentono di testare le prestazioni del sistema in modo disaggregato per i diversi gruppi demografici, ricercando eventuali segnali di impatto differenziale (disparate impact). Qualora dovessero emergere disparità statisticamente rilevanti, si pone l’esigenza di stabilire se e attraverso quali modalità intervenire, ricorrendo a tecniche di bias mitigation quali il bilanciamento del dataset originario, l’imposizione di vincoli matematici di equità in fase di addestramento o la post-elaborazione dei risultati decisionali. È fondamentale sottolineare come ciascuna di queste opzioni tecniche rifletta in ultima istanza uno specifico sistema di valori: correggere un algoritmo per garantire la medesima percentuale di esiti positivi tra gruppi differenti potrebbe, per contro, inficiare l’accuratezza complessiva del modello o comportare un trattamento differenziato a livello individuale. Tale dinamica configura un dilemma etico del tutto assimilabile a quelli tradizionali, sebbene traslato e codificato all’interno di rigorosi parametri matematici.

Etica dell’IA, supervisione umana e automation bias

Un ulteriore aspetto di stringente attualità riguarda la necessità della presenza umana nei processi decisionali per ragioni etiche e legali, concetto noto come human-in-the-loop o, secondo la terminologia adottata nel recente AI Act europeo, human oversight (supervisione umana). L’assunto di base prevede che un funzionario umano supervisioni o convalidi la decisione suggerita dall’IA, al fine di scongiurare errori macroscopici o palesi iniquità. Sebbene tale prassi risulti formalmente ineccepibile e raccomandabile, la letteratura scientifica evidenzia una criticità strutturale: il cosiddetto automation bias. Studi interdisciplinari condotti nei campi della psicologia e del diritto hanno rilevato come gli individui, posti di fronte a output o raccomandazioni algoritmiche, tendano frequentemente a riporvi un’eccessiva fiducia, persino in presenza di evidenti segnali di anomalia o errore [15].

Nella prassi operativa, l’operatore umano rischia di ridursi a un mero esecutore passivo, affidandosi acriticamente all’automazione piuttosto che esercitare un reale controllo di garanzia. Tale dinamica risulta particolarmente critica poiché vanifica lo scopo stesso dell’oversight umano: come osservato da alcuni ricercatori, gli ordinamenti giuridici e amministrativi fanno affidamento sul giudizio umano per assicurare equità e qualità procedurale, ma tale tutela decade strutturalmente nel momento in cui subentra l’automation bias.

L’effetto finale rischia di configurarsi come un paradosso istituzionale: il mantenimento di una presenza umana puramente formale all’interno del ciclo decisionale maschera, di fatto, un ritorno a un’automazione totale, rendendo tuttavia il processo meno trasparente e intellettualmente onesto. Tale evidenza suggerisce che l’introduzione dell’IA all’interno della pubblica amministrazione non possa esaurirsi in una mera adozione tecnologica, ma richieda un profondo mutamento culturale e formativo per gli operatori. Risulta imperativo fornire gli strumenti critici per non delegare ciecamente il giudizio alla macchina, educando il personale a interrogarne costantemente i risultati e a impiegarli come supporto decisionale, rifuggendo l’illusione di trovarsi di fronte a un verdetto assoluto e inappellabile.

Etica dell’IA, AI Act e contestabilità delle decisioni

Sotto il profilo normativo, l’Unione Europea ha affrontato tali sfide attraverso il recente AI Act (Regolamento UE 2024/1689), prima legislazione orizzontale in materia di IA. Tale impianto normativo classifica i sistemi di IA in base al livello di rischio: le applicazioni impiegate in contesti a potenziale impatto sui diritti fondamentali, quali l’occupazione, l’accesso al credito, la sorveglianza e la sanità, sono considerate ad alto rischio e assoggettate a requisiti stringenti. Tra questi figurano la trasparenza, la tracciabilità, la gestione del rischio e il rigoroso monitoraggio umano. È inoltre previsto, per specifiche categorie di deployer, l’obbligo di effettuare valutazioni d’impatto sui diritti fondamentali (FRIA) prima della prima messa in uso del sistema ad alto rischio, come pubbliche amministrazioni e privati che erogano servizi pubblici. Questo inquadramento regolatorio conferma la tesi di fondo dell’analisi: l’etica dell’IA si configura essenzialmente come una questione di governance. Non si tratta, in definitiva, di insegnare la morale ai calcolatori, bensì di stabilire regole e salvaguardie affinché l’impiego dell’automazione nei processi decisionali risulti coerente con i valori etici e giuridici condivisi.

Un’ulteriore considerazione di natura sistemica riguarda l’accountability: qualora un sistema di IA incorra in errore o cagioni un danno, ad esempio negando ingiustamente l’erogazione di un servizio, emerge la necessità di garantire strumenti di rimedio e di attribuzione delle responsabilità. Sotto il profilo etico e giuridico, l’equità implica il diritto inalienabile di contestare le decisioni automatizzate avverse. L’impiego di algoritmi opachi (le cosiddette black box) ostacola gravemente tale diritto, dal momento che sovente né il cittadino né il funzionario preposto conoscono le esatte dinamiche logico-matematiche che hanno condotto la macchina a una determinata conclusione. In tale scenario si inserisce il concetto di explainability, che impone lo sviluppo di metodologie matematiche capaci di rendere intellegibili le decisioni prodotte da modelli complessi, quali le reti neurali profonde. L’etica applicata richiede pertanto trasparenza e contestabilità, princìpi che devono necessariamente tradursi in soluzioni tecniche e procedurali adeguate.

Sintesi finale sull’etica dell’IA

A conclusione della presente trattazione, appare doveroso ribadire come l’IA costituisca un mero strumento tecnologico, la cui responsabilità etica ricade integralmente sugli esseri umani. Demistificare l’IA, inquadrandola come un complesso di modelli matematici, non equivale a negare la rilevanza dell’etica, bensì a collocare quest’ultima nella sua corretta dimensione. Risulta privo di fondamento logico accanirsi contro un algoritmo come se possedesse tratti di malvagità o virtù intrinseche; ha senso, al contrario, interrogarsi se i soggetti incaricati del suo sviluppo e del suo impiego abbiano rigorosamente integrato i valori etici pertinenti.

Come illustrato nell’analisi, in domini applicativi quali i veicoli a guida autonoma risulta possibile integrare esplicitamente specifici criteri morali, come l’equa distribuzione del rischio, all’interno delle formule matematiche di decisione. Per quanto concerne i LLM, il dibattito etico si focalizza sulla garanzia di un utilizzo corretto e sulla mitigazione degli abusi, contrastando il fenomeno dell’epistemia attraverso un’adeguata educazione all’uso critico e implementando rigorosi filtri di sicurezza. Sul fronte dei bias algoritmici, infine, l’etica dell’IA impone la piena consapevolezza dei limiti matematici strutturali: poiché nessun modello predittivo può risultare perfettamente equo in senso assoluto, emerge la necessità di operare scelte trasparenti in merito ai compromessi di equità da adottare. Tale processo dovrebbe auspicabilmente aprirsi al coinvolgimento della società civile, promuovendo una vera e propria democratizzazione degli obiettivi di fairness.

Etica dell’IA come responsabilità umana

In conclusione, anziché discorrere astrattamente di etica dell’IA come se si trattasse di una proprietà emergente delle macchine, risulta concettualmente più corretto parlare di etica nell’IA: ossia l’insieme di principi e pratiche etiche che vengono incorporati nel ciclo di vita di questi strumenti. Tale processo abbraccia l’intera filiera: dalla progettazione (impiego di dataset non discriminatori, algoritmi interpretabili e principi di sicurezza by design), all’implementazione (fasi di test, validazioni e certificazioni), fino all’utilizzo finale (formazione degli utenti e definizione di responsabilità). Una società che si affida all’IA è chiamata a investire non soltanto nello sviluppo tecnologico, ma anche in una diffusa alfabetizzazione sul funzionamento intrinseco di tali architetture.

Solo comprendendo a fondo i meccanismi probabilistici che governano i LLM e gli altri sistemi automatizzati, riconoscendone i punti di forza e le debolezze strutturali e mantenendo costantemente vigile il senso critico, diviene possibile sfruttare i benefici dell’innovazione minimizzandone i rischi etici. In ultima analisi, la sfida etica posta dalla tecnologia rimanda alla dimensione puramente umana – ovvero alle responsabilità in capo a progettisti, decisori e utilizzatori – piuttosto che a fantomatiche colpe o meriti attribuibili alle macchine.

Bibliografia

[1] M. Geisslinger, F. Poszler, e M. Lienkamp, «An ethical trajectory planning algorithm for autonomous vehicles», Nat Mach Intell, vol. 5, fasc. 2, pp. 137–144, feb. 2023, doi: 10.1038/s42256-022-00607-z.

[2] E. Loru et al., «The simulation of judgment in LLMs», Proceedings of the National Academy of Sciences, vol. 122, fasc. 42, p. e2518443122, ott. 2025, doi: 10.1073/pnas.2518443122.

[3] O. Sahlgren, «What’s Impossible about Algorithmic Fairness?», Philos. Technol., vol. 37, fasc. 4, p. 124, ott. 2024, doi: 10.1007/s13347-024-00814-z.

[4] A. Chouldechova, «Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments», Big Data, vol. 5, fasc. 2, pp. 153–163, giu. 2017, doi: 10.1089/big.2016.0047.

[5] W. Quattrociocchi, V. Capraro, e M. Perc, «Epistemological Fault Lines Between Human and Artificial Intelligence», 22 dicembre 2025, PsyArXiv: c5gh8_v1. doi: 10.31234/osf.io/c5gh8_v1.

[6] L. Zorloni, «Ci stiamo ammalando di epistemia, l’illusione di sapere cose solo perché l’AI le scrive bene», Wired Italia. https://www.wired.it/article/epistemia-illusione-conoscenza-chatbot/

[7] S. D. Pendleton et al., «Perception, Planning, Control, and Coordination for Autonomous Vehicles», Machines, vol. 5, fasc. 1, feb. 2017, doi: 10.3390/machines5010006.

[8] Federal Ministry of Transport and Digital Infrastructure, «Ethics Commission Automated and Connected Driving», 2017. https://www.bmv.de/SharedDocs/EN/publications/report-ethics-commission-automated-and-connected-driving.pdf?__blob=publicationFile

[9] Horizon 2020 Commission Expert Group to advise on specific ethical issues raised by driverless mobility, «Ethics of Connected and Automated Vehicles Recommendations on road safety, privacy, fairness, explainability and responsibility», https://op.europa.eu/o/opportal-service/download-handler?identifier=89624e2c-f98c-11ea-b44f-01aa75ed71a1&format=pdf&language=en&productionSystem=cellar&part=

[10] F. D’Andrea, «Perchè epistemia dovrebbe essere la parola dell’anno», MagIA. https://magia.news/perche-epistemia-dovrebbe-essere-parola-dell-anno/

[11] M. McFadden, «The Epistemic Stakes of Large Language Models | Institute for Experiential AI», The Institute for Experiential AI Northeastern University. https://ai.northeastern.edu/news/the-stakes-of-llms

[12] J. Kleinberg, S. Mullainathan, e M. Raghavan, «Inherent Trade-Offs in the Fair Determination of Risk Scores», 17 novembre 2016, arXiv: arXiv:1609.05807. doi: 10.48550/arXiv.1609.05807.

[13] H. Mateen, «Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy: Cathy O’Neil. Broadway Books, 2016. 268 Pages», Berkeley Journal of Employment and Labor Law, vol. 39, fasc. 1, pp. 285–292, 2018.

[14] «mathwashing», Wiktionary, the free dictionary. 18 ottobre 2025. https://en.wiktionary.org/w/index.php?title=mathwashing&oldid=87478739

[15] H. Ruschemeier e L. J. Hondrich, «Automation bias in public administration – an interdisciplinary perspective from law and psychology», Government Information Quarterly, vol. 41, fasc. 3, p. 101953, set. 2024, doi: 10.1016/j.giq.2024.101953.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x