trasporti

IA nei trasporti: rischi etici, regole e tutele da conoscere



Indirizzo copiato

L’adozione di sistemi autonomi e di intelligenza artificiale nei trasporti impone di ripensare sicurezza, privacy, equità e responsabilità. Il contributo analizza il bilanciamento tra innovazione tecnologica, tutela dei diritti fondamentali e controllo umano significativo lungo l’intero ciclo di vita dei sistemi di mobilità intelligente

Pubblicato il 3 dic 2025

Riccardo Gentilucci

Ministero delle Infrastrutture e dei Trasporti – Ufficio di Coordinamento del Dipartimento per le Infrastrutture e le Reti di Trasporto Sapienza Università di Roma – Dipartimento di Ingegneria Civile, Edile e Ambientale



mobilità smart (1)

L’introduzione di sistemi autonomi nel settore dei trasporti solleva, oltre a questioni giuridiche e tecniche, profondi interrogativi etici. Tali tecnologie incidono su valori fondamentali quali la vita e l’incolumità dei cittadini, la protezione dei dati, l’uguaglianza nell’accesso ai servizi, la giustizia sociale, la sostenibilità ambientale e la fiducia collettiva nella tecnologia [1] [2].

Il presente contributo analizza i principali profili etici connessi all’impiego dell’intelligenza artificiale (AI) nei trasporti, con particolare attenzione al bilanciamento tra innovazione tecnologica e tutela dei diritti fondamentali.

Tre sono gli assi critici trattati: la sicurezza e il principio di non maleficenza; la protezione dei dati personali e la privacy; l’equità e la trasparenza nei processi decisionali algoritmici, includendo il ruolo imprescindibile del controllo umano significativo sulle tecnologie.

Intelligenza artificiale nei trasporti: sicurezza e principio di non maleficenza

Sicurezza e principio di non maleficenza. Un primo imperativo etico è garantire che il progresso tecnologico non avvenga a discapito dei diritti e delle libertà fondamentali delle persone. Nel contesto dei trasporti, ciò significa anzitutto che l’introduzione di veicoli autonomi, sistemi intelligenti di traffico o strumenti predittivi di manutenzione non comprometta la sicurezza di passeggeri e cittadini, anzi la migliori.

Il diritto alla vita e all’integrità fisica impone di minimizzare il rischio di incidenti causati da AI: pertanto, moralmente prima ancora che giuridicamente, è doveroso sottoporre le tecnologie a test rigorosi prima della loro implementazione e sospenderne l’uso qualora emergano incertezze circa la loro affidabilità. Durante le Paralimpiadi di Tokyo del 2021 la Toyota ha sospeso immediatamente i suoi shuttle autonomi e-Palette dopo che uno di essi aveva investito (a bassa velocità) un pedone con disabilità visiva, a riprova dell’enfasi posta sulla sicurezza rispetto alla sperimentazione tecnologica [3].

La sperimentazione su strada condotta da Uber senza adeguati controlli di sicurezza ha portato a un incidente mortale nel 2018, evidenziando le conseguenze tragiche di un approccio troppo disinvolto verso il rischio [4]. Il principio etico di non maleficenza (cd. primum non nocere) applicato ai trasporti impone dunque che l’introduzione di sistemi automatizzati non aumenti il pericolo di incidenti o danni, bensì lo riduca.

In termini pratici, finché un veicolo a guida autonoma non dimostrerà di raggiungere – e possibilmente superare – i livelli medi di sicurezza della guida umana, la sua circolazione in assenza di supervisione umana resta eticamente problematica, anche alla luce delle difficoltà oggettive nel definire e quantificare tali standard comparativi [5] [6]. Va tuttavia considerato che la stragrande maggioranza degli incidenti stradali è tuttora riconducibile all’errore umano.

Secondo uno studio della National Highway Traffic Safety Administration (NHTSA), tra il 94% e il 96% degli incidenti è causato, direttamente o indirettamente, da comportamenti umani [7]. Inoltre, analisi recenti su flotte rider-only indicano in contesti urbani riduzioni dell’ordine dell’80–90% nei tassi di incidente rispetto a benchmark umani, seppur con variazioni sensibili per città e tipologia di sinistro [8]. Ciò implica che l’AI possiede il potenziale per prevenire un numero significativo di collisioni, eliminando o riducendo drasticamente l’incidenza del fattore umano.

Di conseguenza, parte della dottrina e della comunità scientifica sostiene che, una volta raggiunte prestazioni almeno equivalenti a quelle umane, la diffusione dei sistemi autonomi debba configurarsi come un vero e proprio imperativo etico, in quanto suscettibile di salvare vite umane. Resta tuttavia aperto il dibattito circa la soglia di sicurezza comparativa da conseguire, nella necessaria ponderazione tra il principio di precauzione e la tutela delle vite che la tecnologia potrebbe preservare.

Dilemmi di incidente inevitabile e trolley problem

L’etica impone non solo di minimizzare il rischio di incidenti, ma anche di affrontare i dilemmi morali connessi a scenari di incidente inevitabile. In particolare, la programmazione dei veicoli autonomi in tali contesti solleva interrogativi circa le priorità da assegnare alla salvaguardia degli occupanti del veicolo rispetto a quella di soggetti esterni, come i pedoni.

La letteratura accademica ha discusso diffusamente questa problematica, spesso riferendosi a varianti del trolley problem, ipotizzando che le case produttrici possano essere incentivate a privilegiare la protezione degli occupanti, per ragioni commerciali legate alla fidelizzazione dei clienti e all’ampliamento del mercato. Tuttavia, tali ipotesi restano speculative, poiché le evidenze empiriche disponibili non confermano l’esistenza di una sistematica preferenza algoritmica per la tutela degli occupanti a scapito dei pedoni [9].

In ogni caso, va ricordato che l’etica non è una scienza esatta e dunque non fornisce risposte univoche e definitive: l’assenza di un consenso morale consolidato su come i sistemi debbano operare in scenari tragici rende imprescindibile un approccio prudente e trasparente da parte di progettisti e autorità regolatorie, oltre che della società nel suo complesso.

La Moral Machine e il contratto sociale della circolazione

Un caso emblematico è rappresentato dal progetto Moral Machine, sviluppato dal Massachusetts Institute of Technology (MIT), che ha esplorato i dilemmi etici associati alla decisione automatizzata nei veicoli autonomi. La piattaforma online, sviluppata nel 2016, ha sottoposto a milioni di partecipanti di tutto il mondo scenari ipotetici di incidenti inevitabili, nei quali l’algoritmo di guida doveva scegliere tra diverse azioni moralmente controverse (ad esempio, salvare il maggior numero di persone o privilegiare determinate categorie, come bambini o pedoni).

Lo studio, pubblicato su Nature nel 2018 e basato su oltre 40 milioni di decisioni provenienti da 233 Paesi, ha rivelato l’esistenza di tendenze morali globali – quali la preferenza per salvare più vite e per tutelare i soggetti più giovani – ma anche marcate differenze culturali tra regioni del mondo [10]. Queste divergenze dimostrano l’assenza di criteri etici universalmente condivisi e la conseguente difficoltà di definire standard morali oggettivi per la programmazione dei veicoli autonomi.

Di fronte a tale incertezza etica, parte della dottrina propone di fare riferimento al contratto sociale già vigente nella circolazione stradale, ossia all’insieme di norme giuridiche, consuetudini e prassi di guida sviluppatesi in oltre un secolo di esperienza collettiva. In questa prospettiva, i veicoli autonomi dovrebbero attenersi rigorosamente al codice della strada, discostandosene solo nei casi in cui ciò risulti strettamente necessario per evitare una collisione, in modo analogo a quanto ci si attende da un conducente umano diligente.

Tale approccio consentirebbe, almeno in parte, di superare il cosiddetto trolley problem, traducendo i dilemmi morali in regole operative coerenti con i principi del diritto positivo e della sicurezza pubblica [11]. Questo approccio, recentemente promosso nell’ambito di collaborazioni tra mondo accademico e industria, mira a evitare la necessità di programmare deliberazioni “etiche” esplicite – come la scelta intenzionale di sacrificare una vita a favore di un’altra – ancorando invece il comportamento dell’AI a norme giuridiche ed etiche già consolidate e socialmente legittimate.

In tal modo, l’adozione di standard di condotta derivati dal diritto potrebbe contribuire a rafforzare la fiducia collettiva nei confronti dei veicoli autonomi e a favorirne un’accettazione sociale più ampia.

Oltre i casi estremi: etica del rischio quotidiano

Infine, parte della letteratura invita a ridimensionare il peso euristico dei dilemmi trolley, spostando l’attenzione dai casi estremi all’etica del rischio quotidiano (percezione, interazione con utenti vulnerabili, allocazione equa del rischio nello spazio urbano), ove si giocano gli impatti reali della guida automatizzata.

In questa direzione, contributi recenti propongono di considerare l’etica del rischio come problema continuo di allocazione statistica del medesimo tra categorie di utenti (in particolare gli utenti vulnerabili), più che come scelta binaria in scenari estremi. Tale impostazione è stata argomentata sia in chiave teorica ed empirica sia come agenda di ricerca applicata per l’ingegneria dei comportamenti di marcia dei veicoli autonomi [12].

Come accennato, operativamente, una linea oggi discussa in dottrina e nella policy consiste nell’ancorare il comportamento dei veicoli a guida autonoma a regole positive formalizzate in formato machine-readable (una sorta di “digital highway code”), facendo conformare l’algoritmo al codice della strada salvo deroghe strettamente necessarie per evitare il danno [13].

Privacy e protezione dei dati nei sistemi di mobilità intelligente

Un ulteriore diritto fondamentale coinvolto è la privacy e la protezione dei dati personali. I moderni sistemi di trasporto generano ed elaborano vasti volumi di dati personali, talvolta anche sensibili (si pensi ai dati sulla geolocalizzazione degli spostamenti, alle registrazioni video dalle telecamere di bordo, o alle informazioni biometriche dei conducenti).

L’etica richiede di rispettare la sfera privata degli individui, evitando sorveglianze eccessive o non necessarie. Va dunque trovata una soglia di equilibrio: si dovrebbero preferire tecnologie meno invasive, implementando tecniche di anonimizzazione e solidi accorgimenti di sicurezza (come la limitazione dei tempi di conservazione dei dati) per mitigare l’impatto sui diritti e ridurre al minimo le minacce alla privacy [1].

Sul piano giuridico, ciò corrisponde ai principi di minimizzazione e di limitazione della conservazione (art. 5, par. 1, lett. c–e, GDPR), nonché all’obbligo che, per impostazione predefinita, siano trattati solo i dati necessari (aspetti riconducibili al data protection by default e, più in generale, al principio di data protection by design di cui all’art. 25 GDPR).

Privacy by design, proporzionalità e AI ad alto rischio

Il principio di proporzionalità deve guidare tali scelte: la raccolta di dati personali nel contesto dei trasporti va limitata a ciò che è strettamente funzionale a obiettivi legittimi, quali sicurezza ed efficienza. Nei casi in cui i trattamenti presentino un alto rischio (come il monitoraggio sistematico su larga scala di aree pubbliche o l’impiego di tecnologie innovative), è richiesta una Data Protection Impact Assessment (art. 35 GDPR).

In analogia, quando i sistemi di AI rientrano in quelli ad alto rischio dell’AI Act – come i componenti di sicurezza per la gestione del traffico stradale – si applicano obblighi ulteriori: governance dei dati, logging degli eventi, human oversight nonché requisiti di accuratezza, robustezza e cybersecurity [14].

Oltre alla tutela normativa – come la conformità al GDPR e all’AI Act in Europa – è essenziale considerare anche le percezioni sociali legate all’uso dell’AI. La diffusione pervasiva di sensori, telecamere e infrastrutture connesse nei sistemi intelligenti di mobilità urbana solleva infatti timori crescenti di sorveglianza costante e di potenziali abusi nell’utilizzo delle informazioni raccolte.

Sorveglianza, cybersicurezza e fiducia del pubblico

Gli AI-driven traffic management systems rappresentano una tecnologia chiave per la modernizzazione delle infrastrutture urbane, con indubbi vantaggi in termini di sicurezza ed efficienza: la riduzione della congestione grazie all’ottimizzazione in tempo reale dei semafori, il miglioramento della sicurezza stradale tramite l’identificazione preventiva dei punti a rischio, la priorità ai mezzi di soccorso e il conseguente abbattimento delle emissioni dovuto alla fluidificazione del traffico.

Tuttavia, tali benefici si accompagnano a rilevanti criticità: il rischio di sorveglianza pervasiva e di violazioni della privacy, la vulnerabilità dei sistemi a cyberattacchi e fughe di dati, la scarsa trasparenza sugli algoritmi di gestione e la possibilità di bias sistemici che penalizzino determinati territori o categorie di utenti [15].

Evidenze di policy mostrano inoltre che le preoccupazioni del pubblico possono incidere sulle scelte: alcuni progetti di smart traffic lights sono stati ridimensionati o sospesi per timori di tracciamento e scarsa trasparenza sul trattamento dei dati [16]. Per questo, garantire la trasparenza sulle modalità di utilizzo dei dati, predisporre robuste misure di cybersicurezza e rendere tracciabili i processi decisionali dell’AI costituisce una condizione indispensabile per preservare la fiducia del pubblico nell’innovazione tecnologica.

A tal proposito, la normazione UNECE impone ai costruttori un Cyber Security Management System lungo il ciclo di vita del veicolo e di avere un sistema per gli aggiornamenti software conforme, anche per quelli installati a distanza via rete (over-the-air) [17]. Inoltre, le Linee guida EDPB per veicoli connessi raccomandano, ove possibile, il trattamento locale dei dati (on-board), in attuazione dei principi di privacy by design e by default; quelle sulla videosorveglianza richiedono necessità e minimizzazione del trattamento, trasparenza e periodi di conservazione definiti, con la predisposizione di misure tecniche e organizzative adeguate [15].

Data protection come prerequisito della mobilità intelligente

La protezione dei dati personali nei sistemi di trasporto intelligenti non rappresenta soltanto un obbligo di conformità normativa, ma un prerequisito strutturale per l’affidabilità tecnica, la legittimità giuridica e la sostenibilità sociale dell’innovazione. In tale prospettiva, il quadro delineato dal GDPR – in particolare i principi di data protection by design and by default e quelli di minimizzazione, proporzionalità e limitazione della conservazione – impone una revisione delle architetture di sistema, orientandole verso modelli di progettazione privacy-preserving [18].

Sul piano tecnico, ciò implica l’adozione di soluzioni decentralizzate per il trattamento dei dati (on-board o edge computing), l’impiego di tecniche di anonimizzazione e pseudonimizzazione, la definizione di protocolli di sicurezza end-to-end e la predisposizione di meccanismi di logging e auditing.

Tali misure devono integrarsi con le prescrizioni dell’AI Act per i sistemi ad alto rischio, che richiedono una governance dei dati solida, un controllo umano significativo (meaningful human oversight) – principio che funge da presidio tecnico per la tutela della privacy e della sicurezza, ma che, come si vedrà nel paragrafo successivo, assume una valenza etica e progettuale più profonda – e un monitoraggio continuo dell’accuratezza, della robustezza e della cybersicurezza degli algoritmi.

Solo una progettazione sistemica che unisca principi giuridici, requisiti ingegneristici e garanzie organizzative può assicurare che la mobilità intelligente evolva secondo criteri di trasparenza, sicurezza e accountability, evitando derive di sorveglianza o vulnerabilità infrastrutturali. In questa prospettiva, la data protection si configura non come vincolo esterno, ma come componente integrata del ciclo di vita dei sistemi di AI applicati ai trasporti, condizione essenziale per una trasformazione digitale sostenibile, resiliente e socialmente accettabile.

Controllo umano significativo e catene di responsabilità

Un ulteriore profilo etico cruciale concerne il rapporto tra esseri umani e macchine nelle decisioni critiche per la sicurezza. Il concetto di meaningful human control (controllo umano significativo) si fonda su un imperativo al tempo stesso etico e funzionale: mantenere un operatore umano consapevole, informato e in grado di intervenire efficacemente sui sistemi automatizzati.

Sebbene l’automazione possa contribuire a ridurre l’incidenza dell’errore umano, è necessario definire con precisione i limiti dell’autonomia algoritmica, adottando un modello di responsabilità condivisa e di complementarità funzionale tra umano e AI [19]. La gestione del rischio derivante dalle interazioni uomo-AI richiede dunque un approccio etico integrato, che tenga conto di molteplici dimensioni.

Dalla progettazione accurata dei sistemi alla consapevolezza situazionale degli operatori; dal bilanciamento del carico cognitivo per evitare eccessi di complessità, alla costruzione di un adeguato livello di fiducia reciproca; fino alla piena comprensibilità del funzionamento dell’algoritmo (spiegabilità delle decisioni automatizzate).

Solo un’integrazione coerente di questi elementi può garantire sistemi di AI affidabili, sicuri e socialmente accettabili. A tal fine, è essenziale che i sistemi siano concepiti per minimizzare i rischi operativi e morali, attraverso una progettazione responsabile, una comunicazione trasparente tra uomo e macchina e una gestione dinamica della fiducia.

È inoltre essenziale chiarire ruoli e responsabilità: il controllo umano deve essere effettivo e non meramente simbolico, per evitare situazioni in cui l’operatore divenga il capro espiatorio degli errori dell’AI pur senza disporre degli strumenti o del tempo necessari per prevenirli — la cosiddetta moral crumple zone, secondo la definizione di Elish [20].

Human oversight tra pratica e norme

Esperienze nel settore automobilistico e aeronautico mostrano che un’eccessiva automazione, senza adeguati meccanismi di supervisione, può portare a cali di attenzione e a reazioni tardive in caso di emergenza. Per questo, i progettisti devono calibrare con attenzione il grado di autonomia del sistema e le modalità con cui il controllo passa all’umano in situazioni critiche – come nel caso dei veicoli a guida autonoma di livello 3, in cui, secondo la classificazione SAE, occorre assicurarsi che il conducente disponga di tempo e informazioni sufficienti per riprendere il controllo in sicurezza.

Il concetto di meaningful human control trova eco anche a livello normativo. L’AI Act europeo, all’articolo 14, introduce infatti l’obbligo di human oversight, già citato precedentemente, prescrivendo che i sistemi di AI ad alto rischio – categoria in cui rientrano molti impieghi nel settore dei trasporti – siano progettati in modo da garantire un adeguato controllo umano, prevedendo che gli operatori debbano comprendere e, se necessario, interrompere il funzionamento del sistema per prevenire o mitigare rischi per la salute, la sicurezza o i diritti fondamentali.

Pur condividendo la medesima finalità di garantire la centralità dell’essere umano nel processo decisionale automatizzato, l’human oversight rappresenta un requisito giuridico e operativo, volto a disciplinare la supervisione effettiva dei sistemi ad alto rischio, mentre il meaningful human control costituisce la sua declinazione etico-progettuale, orientata alla responsabilità morale, alla consapevolezza situazionale e alla tracciabilità delle scelte umane all’interno del ciclo decisionale dell’AI [21].

In altri termini, il primo definisce come la supervisione debba essere esercitata nel rispetto dei vincoli normativi, il secondo indica perché tale controllo debba essere significativo, informato e realmente efficace, traducendo i principi etici in requisiti di progettazione e governance del sistema.

In linea con tale impostazione, la recente normativa italiana sull’AI ribadisce il principio del controllo umano effettivo nelle decisioni automatizzate di rilievo pubblico: l’art. 14 della legge nazionale in materia di AI (L. n. 132 del 23 settembre 2025) stabilisce che i sistemi di AI possano essere utilizzati, nelle pubbliche amministrazioni, esclusivamente come strumenti di supporto decisionale, richiedendo che la decisione finale preveda sempre l’intervento di una persona fisica in grado di controllare, validare o modificare l’esito algoritmico, la quale, peraltro, resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’AI.

In altre parole, l’AI non deve mai sostituirsi completamente al decisore umano, in coerenza con un modello “antropocentrico” che tuteli la dignità e la responsabilità personale. L’adesione a principi etici fondamentali – quali il rispetto della dignità umana, la tutela della riservatezza, la giustizia e la prevenzione di bias discriminatori – è inoltre indispensabile per preservare la legittimità giuridica e sociale dell’innovazione tecnologica [22].

Il caso Tesla Autopilot e il ruolo della formazione

Non va dimenticato che la fiducia collettiva verso i sistemi di AI si costruisce anche attraverso la trasparenza e la prova della loro affidabilità nel tempo: casi di malfunzionamenti o uso improprio possono minare la credibilità dell’intero settore.

Il sistema di assistenza alla guida Autopilot di Tesla è stato oggetto di un intenso scrutinio pubblico e regolatorio, in particolare per i dubbi sui suoi limiti operativi e sulle reali capacità di automazione, emersi dopo vari incidenti riconducibili a un eccesso di fiducia dei conducenti nelle funzioni automatizzate. Le indagini condotte hanno evidenziato come la progettazione originaria del sistema non garantisse un adeguato coinvolgimento del conducente e consentisse l’utilizzo al di fuori del proprio operational design domain, con conseguente rischio di overreliance e ridotta prontezza d’intervento umano [23].

Tali episodi hanno influito negativamente sulla percezione collettiva della sicurezza dei veicoli a guida autonoma, alimentando diffidenza verso l’affidabilità dell’AI applicata alla mobilità. Per evitare che analoghi problemi di fiducia e sicurezza si ripresentino in qualunque ambito di interazione tra esseri umani e sistemi intelligenti, i progettisti e gli operatori dovrebbero comunicare in modo trasparente e inequivocabile le caratteristiche, le condizioni operative e i limiti dei sistemi basati su AI, prevenendo interpretazioni fuorvianti e aspettative irrealistiche da parte degli utenti.

Parallelamente, l’educazione e la formazione degli utilizzatori – che si tratti di conducenti, tecnici di manutenzione o operatori di rete – assumono un ruolo decisivo nel garantire un human-in-the-loop effettivo, in cui l’intervento umano rimanga parte integrante e consapevole del processo decisionale automatizzato.

In un’ottica più ampia, appare necessario rafforzare i protocolli di valutazione e test dei sistemi automatizzati, includendo scenari realistici e variabili operative complesse, nonché valutare sistematicamente le limitazioni e i rischi di uso improprio dei diversi livelli di autonomia. Occorre inoltre sviluppare standard di prestazione per i meccanismi di supervisione e monitoraggio umano, in collaborazione con organismi di normazione tecnica, e renderne obbligatoria l’adozione, così da minimizzare la disattenzione, ovvero la automation complacency, e l’eccessiva fiducia nei processi automatizzati.

A tali misure tecniche devono affiancarsi politiche pubbliche e aziendali orientate alla sicurezza operativa e alla prevenzione degli errori sistemici, anche mediante la regolamentazione dell’interazione uomo–macchina e l’introduzione di funzioni di controllo e allerta dinamiche. Insieme al potenziamento dei programmi di formazione e aggiornamento, tali interventi costituiscono condizioni essenziali per assicurare un controllo umano realmente significativo, fondato su progettazione responsabile, regolazione proattiva e accountability condivisa.

Come evidenziato dal NTSB [24], tali raccomandazioni riflettono la necessità di un approccio sistemico che combini progettazione responsabile, regolazione proattiva e formazione continua, così da preservare un controllo umano significativo e ridurre i rischi di dipendenza eccessiva dall’automazione. Solo in tal modo sarà possibile garantire un equilibrio sostenibile tra innovazione tecnologica, sicurezza operativa e fiducia pubblica nella mobilità intelligente.

Equità, non discriminazione e intelligenza artificiale nei trasporti

Il tema della non discriminazione è parimenti centrale. Gli algoritmi, se non adeguatamente controllati, possono infatti incorporare o amplificare bias preesistenti nei dati utilizzati per l’addestramento, generando effetti distorsivi nelle decisioni automatizzate.

Nel settore dei trasporti, ciò può tradursi in una sottostima dei bisogni infrastrutturali di aree marginali, o nella riduzione dei servizi in territori a bassa redditività, penalizzando soggetti economicamente svantaggiati. L’auspicio è, invece, che le applicazioni di AI possano contribuire a migliorare l’accessibilità, l’equità, l’affidabilità e la sostenibilità dei servizi di mobilità per le fasce storicamente emarginate della popolazione [25].

Tuttavia, le implementazioni attualmente prevalenti tendono a privilegiare obiettivi di efficienza operativa, concentrandosi sull’ottimizzazione dei sistemi di assistenza alla guida, sulla riduzione della congestione e sull’automazione delle valutazioni infrastrutturali [26], trascurando spesso le implicazioni etiche di tali scelte. Di conseguenza, il rischio di discriminazione nell’ambito dello sviluppo e della messa in opera dei sistemi di AI si configura come un problema concreto [27].

In assenza di una rappresentazione adeguata dei bisogni di specifici gruppi nei dati utilizzati per l’addestramento, i sistemi di supporto alle decisioni possono generare politiche e strategie che ne ignorano le esigenze, consolidando o persino aggravando le disuguaglianze esistenti.

Bias nei dati e impatti sulla mobilità

Studi recenti confermano la fondatezza di queste preoccupazioni: un’analisi su larga scala dei servizi di ride-hailing (come Uber, Lyft e Via) nell’area di Chicago ha evidenziato che gli algoritmi di determinazione dinamica delle tariffe tendono a far pagare di più ad alcune categorie di utenti rispetto ad altre a parità di percorso, con disparità correlate a fattori socio-demografici come etnia, età e livello di reddito delle diverse zone [28].

Allo stesso modo, algoritmi di pianificazione del traffico o del trasporto pubblico potrebbero privilegiare, anche involontariamente, i quartieri più frequentati o facoltosi, se addestrati su dati che riflettono uno status quo di investimenti maggiori in quelle aree. Un esempio emblematico è il rischio di data bias nella pianificazione urbana: se i sistemi si basano solo su dati di utilizzo – come volumi di traffico o segnalazioni di problemi inviate via app dai cittadini – c’è il pericolo di trascurare le esigenze di chi ha minore capacità di segnalare o minor accesso tecnologico.

In letteratura si sottolinea come diversi tipi di bias possano intaccare la qualità e l’equità degli algoritmi nei trasporti, dal sampling bias (dati di addestramento non rappresentativi di tutta la popolazione, come sovra-rappresentazione di utenti con smartphone) al geographical bias (dati concentrati su certe regioni), fino al demographic bias (sottorappresentazione di determinate fasce d’età o genere).

Differenze di genere, percezione del rischio e dataset

Le evidenze empiriche mostrano che molte donne adottano schemi di mobilità differenti per ragioni di sicurezza personale, selezionando percorsi e fasce orarie diversi rispetto agli uomini. Se i sistemi di routing e pianificazione del viaggio non incorporano tali eterogeneità comportamentali, rischiano di generare soluzioni sub-ottimali per una parte dell’utenza, con effetti di minore adozione o resistenza tecnologica e, in ultima analisi, di inequità nell’accesso ai servizi di trasporto.

In altri termini, dataset e modelli sbilanciati verso un solo gruppo non soddisfano adeguatamente i bisogni degli altri; per questo la progettazione deve includere variabili legate alla percezione del rischio e alla sicurezza percepita lungo i percorsi, così da garantire esiti utili all’intera collettività [2].

Algorithmic governance, AIA e fairness metrics

La garanzia di equità nei sistemi di AI applicati ai trasporti richiede l’adozione di un approccio di algorithmic governance orientato alla prevenzione dei bias lungo l’intero ciclo di vita del sistema. In tale contesto, la mitigazione della discriminazione non può essere affidata unicamente alla fase di addestramento dei modelli, ma deve essere integrata in processi continuativi di auditing, monitoraggio e bias detection.

Strumenti come gli Algorithmic Impact Assessments (AIA), già previsti nella Directive on Automated Decision-Making del Governo del Canada [29], possono costituire un modello utile per valutare preventivamente le conseguenze distributive delle decisioni automatizzate e introdurre misure correttive, analogamente alle Data Protection Impact Assessments del GDPR.

Particolare attenzione deve essere riservata alla provenienza dei dati e alla diversità dei dataset, poiché la rappresentatività e la tracciabilità delle fonti costituiscono una condizione essenziale per evitare distorsioni sistemiche e garantire modelli predittivi equi e affidabili.

Inoltre, il concetto di fairness nei sistemi di AI comprende le dimensioni di uguaglianza ed equità, e affronta questioni quali i bias e le discriminazioni dannose. Tuttavia, gli standard di equità possono risultare complessi da definire, poiché la percezione di ciò che è “equo” varia tra culture, contesti sociali e ambiti applicativi.

Come sottolinea il NIST nell’AI Risk Management Framework [30], la mitigazione dei bias non coincide necessariamente con la piena equità: un sistema che produca previsioni bilanciate tra gruppi demografici può comunque risultare inaccessibile a persone con disabilità, amplificare il divario digitale o rafforzare disuguaglianze strutturali preesistenti.

Il NIST individua tre principali categorie di bias che devono essere identificate e gestite lungo l’intero ciclo di vita dei sistemi di AI: bias sistemico, radicato nelle pratiche organizzative, nei processi decisionali e nelle strutture sociali in cui l’AI è sviluppata o utilizzata; bias computazionale e statistico, derivante da campioni non rappresentativi o da errori sistematici nei dati e negli algoritmi; bias cognitivo-umano, legato alle modalità con cui progettisti, operatori o utenti percepiscono e interpretano le informazioni generate dal sistema o ne comprendono le finalità.

Queste forme di bias possono manifestarsi anche in assenza di intenzionalità discriminatoria e tendono a radicarsi nei sistemi automatizzati che influenzano decisioni di rilievo sociale. Sebbene il bias non sia di per sé un fenomeno sempre negativo, l’AI può amplificarne la portata e la velocità, generando impatti su individui, gruppi e comunità.

In tale prospettiva, il NIST collega strettamente la gestione del bias ai principi di trasparenza e di equità sociale, richiamando l’esigenza di un approccio sociotecnico che integri dimensioni tecniche, organizzative e umane nella progettazione e nel monitoraggio dei sistemi di AI. Dal punto di vista operativo, l’adozione di metriche di fairness [31] consente di verificare in modo trasparente il rispetto dei principi di giustizia algoritmica, promuovendo un equilibrio tra accuratezza tecnica e neutralità sociale.

Le pubbliche amministrazioni e gli operatori del settore dei trasporti dovrebbero inoltre prevedere meccanismi di audit indipendenti e processi di human review delle decisioni automatizzate che incidono su diritti o servizi essenziali, in linea con i principi di accountability ed explainability sanciti dal quadro europeo.

Equità come requisito di legittimità e inclusione

In questa prospettiva, l’equità non è solo un obiettivo etico, ma un requisito funzionale di legittimità giuridica e sostenibilità sociale dell’innovazione tecnologica nei trasporti. Del resto, una mancata attenzione ai profili etici e di equità potrebbe dunque condurre, anche inavvertitamente, a un peggioramento delle disparità sociali [32].

L’etica dell’AI impone di monitorare attentamente i potenziali effetti discriminatori delle tecnologie digitali e di introdurre adeguati correttivi in grado di garantire equità. In coerenza con i principi di giustizia distributiva e di inclusione sociale, è essenziale assicurare che i benefici dell’innovazione tecnologica nel settore dei trasporti siano equamente distribuiti, evitando l’ampliamento di divari socioeconomici esistenti.

I servizi di mobilità autonoma dovrebbero essere progettati per essere fruibili anche da persone anziane o con disabilità, come esplicitamente previsto dalla legge italiana in materia di AI. Analogamente, gli algoritmi di pianificazione infrastrutturale non dovrebbero limitarsi a criteri di efficienza economica, ma incorporare il rispetto del diritto fondamentale alla mobilità per tutti i cittadini.

Ciò può richiedere interventi specifici, come la ponderazione dei modelli di AI con dati aggiuntivi relativi a comunità svantaggiate o la previsione di vincoli normativi che impongano il rispetto di determinati standard minimi di servizio – ad esempio la copertura del trasporto pubblico – indipendentemente dalla redditività economica immediata.

In questa prospettiva, l’adozione di principi analoghi a quelli che regolano gli Obblighi di Servizio Pubblico (OSP) nel diritto dei trasporti potrebbe costituire un riferimento utile: così come gli OSP garantiscono l’accesso equo e continuo ai servizi di mobilità per tutti i cittadini, anche i sistemi di AI dovrebbero essere progettati per assicurare inclusività, rappresentatività e tutela dell’interesse generale, evitando che la logica di mercato prevalga su quella sociale.

Etica, governance e sostenibilità dell’intelligenza artificiale nei trasporti

In conclusione, il bilanciamento tra innovazione tecnologica e tutela dei diritti fondamentali richiede una vigilanza costante, fondata non solo su strumenti giuridici, ma anche su solide basi etiche e metodologiche. Ogni progetto che preveda l’impiego di sistemi di AI dovrebbe essere accompagnato da una valutazione etica preventiva, rigorosa e strutturata, analoga per impostazione alle valutazioni di impatto ambientale o di sicurezza.

Tale valutazione dovrebbe includere i principi di non maleficenza, dignità umana, autonomia individuale, giustizia distributiva, responsabilità e inclusività, al fine di garantire che lo sviluppo e l’implementazione dell’AI siano compatibili con il rispetto dei diritti umani e orientati al bene comune.

Sul piano epistemologico, l’etica dell’AI non può essere confinata a un dominio astratto di riflessione morale, ma deve costituire una metodologia operativa di progetto. L’integrazione di principi etici nella fase di design – secondo l’approccio ethics-by-design – consente di tradurre valori fondamentali in specifiche tecniche, metriche di performance e requisiti di governance [33].

Ciò implica la collaborazione strutturata tra ingegneri, giuristi, esperti di dominio e rappresentanti della società civile, in un contesto realmente interdisciplinare. Sebbene i legislatori abbiano iniziato a recepire tali istanze – come dimostrato dall’enfasi posta nella legge italiana in materia di AI sui diritti fondamentali, la non discriminazione e l’approccio human-centric – la concreta attuazione dipenderà dalle scelte tecniche e organizzative adottate da sviluppatori e amministrazioni.

In tal senso, l’adozione di procedure come le valutazioni di impatto algoritmico (algorithmic impact assessments) e le ethics impact assessments, condotte con il coinvolgimento degli stakeholder e integrate nei processi di AI lifecycle management, rappresenta un passaggio cruciale per identificare in anticipo possibili criticità e mitigarle prima del dispiegamento su larga scala.

Sul piano della governance, la futura attuazione dell’AI Act richiederà che le amministrazioni pubbliche e gli operatori del settore trasporti istituiscano veri e propri AI Governance Frameworks, dotati di funzioni di audit indipendente, comitati etici interdisciplinari e procedure trasparenti di human oversight.

L’etica, in questo senso, non si limita a prescrivere comportamenti, ma definisce un ecosistema di fiducia, necessario affinché l’innovazione sia socialmente accettabile. La fiducia non nasce dalla perfezione tecnica, ma dalla responsabilità condivisa e dalla capacità di rendere spiegabili, correggibili e verificabili le decisioni algoritmiche.

Parallelamente, l’evoluzione verso un’AI sostenibile richiede una valutazione complessiva degli impatti ambientali, sociali ed economici connessi al ciclo di vita delle tecnologie digitali. Nel settore dei trasporti, l’AI può contribuire in modo significativo alla riduzione delle emissioni e all’ottimizzazione dei consumi energetici, ma la sua implementazione comporta anche costi ambientali rilevanti, legati al fabbisogno computazionale, alla produzione e allo smaltimento delle infrastrutture hardware e alla concentrazione delle risorse informative in pochi soggetti globali.

Il principio di sostenibilità deve pertanto essere interpretato in senso ampio, includendo non solo la mitigazione dell’impatto ambientale, ma anche la promozione dell’equità intergenerazionale, della giustizia sociale e della resilienza di tali sistemi. In tal modo, la sostenibilità dell’AI diventa parte integrante della sua affidabilità, imponendo modelli di sviluppo tecnologico compatibili con la transizione ecologica, la tutela dei diritti e la distribuzione equa dei benefici apportati dall’innovazione.

Un’etica ben calibrata non costituisce un ostacolo all’innovazione, ma al contrario ne è condizione necessaria di legittimità e successo. Va riconosciuto, infatti, che il dibattito sull’etica dell’AI rischia talvolta di essere enfatizzato in modo sproporzionato o di tradursi in oneri burocratici eccessivi.

È necessario evitare sia allarmismi infondati sia forme di ethics washing, concentrandosi invece su interventi mirati e basati sull’evidenza. La sfida non è tanto introdurre nuove regole, quanto garantire la loro effettiva implementazione in processi trasparenti e verificabili.

In tale prospettiva, è opportuno ricordare che i sistemi di AI non possiedono alcuna “intenzionalità morale” intrinseca: essi sono, nella loro essenza, strumenti matematici fondati su principi di statistica, algebra lineare e calcolo delle probabilità, progettati per individuare correlazioni e ottimizzare funzioni obiettivo.

Parlare di etica dell’AI ha senso solo in relazione alle scelte umane che guidano la progettazione, l’addestramento e l’impiego di tali modelli — non alle macchine in sé. Confondere la dimensione algoritmica con quella etica rischia di spostare il focus dal vero nodo critico: la responsabilità progettuale e decisionale degli esseri umani che definiscono i dati, gli obiettivi e i criteri di valutazione del sistema.

Pertanto, un apparato di regole troppo oneroso potrebbe finire per frenare l’innovazione senza apportare reali benefici sul piano dei diritti [34]. Al contrario, un approccio snello ma fermo sui principi – con regole chiare, proporzionate e aggiornabili al progresso tecnologico – può garantire uno sviluppo sostenibile dell’AI nei trasporti, massimizzandone i benefici e riducendone i rischi.

Solo un’AI concepita nel rispetto della dignità, dell’autonomia e dei diritti fondamentali della persona potrà ottenere una piena accettazione sociale e realizzare il proprio potenziale trasformativo in modo autenticamente sostenibile, equo e orientato al bene comune.

In questa prospettiva, l’etica dell’AI può essere intesa come fondamento sostanziale della regolazione. L’AI Act dell’Unione Europea ne sancisce la centralità, riconoscendo, nel considerando (6), che il rispetto dei diritti fondamentali costituisce una condizione imprescindibile per la fiducia e l’accettazione sociale dei sistemi di AI.

Tale impostazione si salda con i principi personalistici e solidaristici dell’art. 2 della Costituzione italiana, che riconosce la persona come titolare di diritti inviolabili e, al contempo, come soggetto di doveri di solidarietà verso la collettività. Applicare questi principi all’AI significa concepire la tecnologia non come fine, ma come strumento al servizio dell’uomo, capace di accrescere il benessere comune nel rispetto della dignità, dell’autonomia e dell’uguaglianza sostanziale di tutti.

A livello internazionale, l’UNESCO, nella Recommendation on the Ethics of Artificial Intelligence [35], individua nella tutela dei diritti umani e della dignità il fondamento dell’intera architettura etica dell’AI. La Raccomandazione si basa sulla promozione di principi fondamentali quali trasparenza, equità, responsabilità e sostenibilità, ribadendo al contempo l’importanza imprescindibile della supervisione umana sui sistemi di intelligenza artificiale.

Parallelamente, l’OCSE [36] sottolinea la necessità che i sistemi di AI siano equi, trasparenti, solidi, sicuri e responsabili, introducendo il concetto di AI affidabile (trustworthy AI) come condizione essenziale per la legittimità democratica dell’innovazione tecnologica. Secondo i OECD AI Principles (2019), i sistemi di intelligenza artificiale dovrebbero essere progettati in modo da rispettare lo Stato di diritto, i diritti umani, i valori democratici e la diversità, assicurando una gestione responsabile del rischio lungo tutto il ciclo di vita del sistema.

L’OCSE evidenzia inoltre l’importanza di promuovere trasparenza e tracciabilità nei processi decisionali automatizzati, favorendo la possibilità di audit indipendenti e di intervento umano nei casi in cui l’AI incida su diritti fondamentali o su decisioni di rilievo pubblico. Anche l’IEEE, con la serie Ethically Aligned Design, ha contribuito a tradurre i valori etici in specifiche tecniche e di progetto, rafforzando il principio di ethics-by-design come prassi ingegneristica e non solo deontologica [37].

In ultima analisi, l’etica dell’AI non è soltanto una disciplina di confine tra filosofia e diritto, ma una componente strutturale della governance pubblica e privata. Essa orienta le scelte strategiche, guida la progettazione responsabile, favorisce la formazione professionale e rafforza la fiducia dei cittadini nelle istituzioni e nelle tecnologie.

Il suo scopo non è moralizzare l’innovazione, ma renderla sostenibile, trasformando l’AI da fattore di rischio potenziale a leva di progresso collettivo. Solo un approccio etico integrato – che unisca norme giuridiche, principi di design responsabile e una consapevolezza diffusa tra cittadini, imprese e pubbliche amministrazioni – potrà consentire all’AI nei trasporti – e non solo – di evolvere come infrastruttura di fiducia e non di sorveglianza, come strumento di equità e non di esclusione.

In tal senso, l’etica non costituisce il limite dell’innovazione, ma la sua condizione di sviluppo.

Bibliografia

[1] A. M. Shamsan Saleh, IJACSA, vol. 15, fasc. 3, pp. 340–355, 2024.

[2] Intertraffic, «How AI can Learn Human Biases – and Why it Matters for Traffic Management | Intertraffic», 2024. Disponibile su: https://www.intertraffic.com/news/ai-data-biases-traffic-management

[3] S. Shivdas e T. Kelly, «Toyota halts all self-driving e-Palette vehicles after Olympic village accident», Reuters, 28 agosto 2021. Disponibile su: https://www.reuters.com/business/autos-transportation/toyota-halts-all-self-driving-e-pallete-vehicles-after-olympic-village-accident-2021-08-27/

[4] M. Harris, «NTSB Investigation Into Deadly Uber Self-Driving Car Crash Reveals Lax Attitude Toward Safety», 2019. Disponibile su: https://spectrum.ieee.org/ntsb-investigation-into-deadly-uber-selfdriving-car-crash-reveals-lax-attitude-toward-safety

[5] M. A. Nees, «Safer than the average human driver (who is less safe than me)? Examining a popular safety benchmark for self-driving cars», Journal of Safety Research, vol. 69, pp. 61–68, giu. 2019, doi: 10.1016/j.jsr.2019.02.002.

[6] Directorate-General for Research and Innovation (European Commission), Ethics of connected and automated vehicles: recommendations on road safety, privacy, fairness, explainability and responsibility. Publications Office of the European Union, 2020. Disponibile su: https://data.europa.eu/doi/10.2777/035239

[7] R. Rosasco, «What Percentage of Car Accidents Are Caused by Human Error?», Caroselli, Beachler & Coleman, L.L.C., 22 settembre 2021. Disponibile su: https://www.cbmclaw.com/what-percentage-of-car-accidents-are-caused-by-human-error/

[8] K. D. Kusano, J. M. Scanlon, Y.-H. Chen, T. L. McMurry, T. Gode, e T. Victor, «Comparison of Waymo Rider-Only crash rates by crash type to human benchmarks at 56.7 million miles», Traffic Injury Prevention, vol. 0, fasc. 0, pp. 1–13, doi: 10.1080/15389588.2025.2499887.

[9] Y. Wiseman e I. Grinberg, «The Trolley Problem Version of Autonomous Vehicles», The Open Transportation Journal, vol. 12, pp. 105–113, gen. 2018, doi: 10.2174/18744478018120100105.

[10] E. Awad et al., «The Moral Machine experiment», Nature, vol. 563, fasc. 7729, pp. 59–64, nov. 2018, doi: 10.1038/s41586-018-0637-6.

[11] HAI, «Designing Ethical Self-Driving Cars | Stanford HAI», 2023. Disponibile su: https://hai.stanford.edu/news/designing-ethical-self-driving-cars

[12] S. Krügel e M. Uhl, «The risk ethics of autonomous vehicles: an empirical approach», Sci Rep, vol. 14, fasc. 1, p. 960, gen. 2024, doi: 10.1038/s41598-024-51313-2.

[13] G. V. Alves e M. Schwammberger, «Towards a Digital Highway Code using Formal Modelling and Verification of Timed Automata», Electron. Proc. Theor. Comput. Sci., vol. 371, pp. 77–85, set. 2022, doi: 10.4204/EPTCS.371.6.

[14] Future of Life Institute, «High-level summary of the AI Act | EU Artificial Intelligence Act». Disponibile su: https://artificialintelligenceact.eu/high-level-summary/

[15] O. Bezrukov, «AI in Transportation: Ethical Balance between Safety and Privacy», Techstack company, 28 maggio 2025. Disponibile su: https://tech-stack.com/blog/ai-in-transportation/

[16] A. Woodward, «Amsterdam’s smart traffic lights scrapped», Euro Weekly News, 6 gennaio 2025. Disponibile su: https://euroweeklynews.com/2025/01/06/amsterdam-scraps-smart-traffic-lights-amid-hacking-fears/

[17] UNECE, Agreement concerning the Adoption of Harmonized Technical United Nations Regulations for Wheeled Vehicles, Equipment and Parts which can be Fitted and/or be Used on Wheeled Vehicles and the Conditions for Reciprocal Recognition of Approvals Granted on the | UNECE, 2022. Disponibile su: https://unece.org/transport/documents/2022/06/standards/agreement-concerning-adoption-harmonized-technical-united

[18] ScienceDirect Topics, «Privacy Preserving – an overview». Disponibile su: https://www.sciencedirect.com/topics/computer-science/privacy-preserving

[19] L. Cavalcante Siebert et al., «Meaningful human control: actionable properties for AI system development», AI Ethics, vol. 3, fasc. 1, pp. 241–255, feb. 2023, doi: 10.1007/s43681-022-00167-3.

[20] M. C. Elish, «Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction», Engaging Science, Technology, and Society, vol. 5, pp. 40–60, mar. 2019, doi: 10.17351/ests2019.260.

[21] L. Methnani, A. Aler Tubella, V. Dignum, e A. Theodorou, «Let Me Take Over: Variable Autonomy for Meaningful Human Control», Front. Artif. Intell., vol. 4, set. 2021, doi: 10.3389/frai.2021.737072.

[22] C. Yang, M. Gu, e K. Albitar, «Government in the digital age: Exploring the impact of digital transformation on governmental efficiency», Technological Forecasting and Social Change, vol. 208, p. 123722, nov. 2024, doi: 10.1016/j.techfore.2024.123722.

[23] NTSB, «Collision Between a Sport Utility Vehicle Operating With Partial Driving Automation and a Crash Attenuator, Mountain View, California, March 23, 2018», 2020.

[24] «Safety Recommendations». Disponibile su: https://www.ntsb.gov/investigations/Pages/safety-recommendations.aspx?utm_source=chatgpt.com

[25] M. Vasudevan et al., «Identifying Real-World Transportation Applications Using Artificial Intelligence (AI): Summary of Potential Application of AI in Transportation», FHWA-JPO-20-787, lug. 2020. Disponibile su: https://rosap.ntl.bts.gov/view/dot/50651

[26] L. S. Iyer, «AI enabled applications towards intelligent transportation», Transportation Engineering, vol. 5, p. 100083, set. 2021, doi: 10.1016/j.treng.2021.100083.

[27] T. Yigitcanlar, K. C. Desouza, L. Butler, e F. Roozkhosh, «Contributions and Risks of Artificial Intelligence (AI) in Building Smarter Cities: Insights from a Systematic Review of the Literature», Energies, vol. 13, fasc. 6, Art. fasc. 6, gen. 2020, doi: 10.3390/en13061473.

[28] «Researchers find racial discrimination in ‘dynamic pricing’ algorithms used by Uber, Lyft, and others», Institute for Data, Democracy & Politics (IDDP) | Columbian College of Arts & Sciences, 2020. Disponibile su: https://iddp.gwu.edu/researchers-find-racial-discrimination-dynamic-pricing-algorithms-used-uber-lyft-and-others

[29] T. B. of C. Secretariat, Directive on Automated Decision-Making, 2 luglio 2024. Disponibile su: https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592

[30] E. Tabassi, «Artificial Intelligence Risk Management Framework (AI RMF 1.0)», National Institute of Standards and Technology (U.S.), Gaithersburg, MD, NIST AI 100-1, gen. 2023. doi: 10.6028/NIST.AI.100-1.

[31] «Fairlearn». Disponibile su: https://fairlearn.org

[32] T. W. Sanchez, Y. Qian, e X. Yan, «AI Applications in Transportation and Equity: A Survey of U.S. Transportation Professionals», Future Transportation, vol. 4, fasc. 4, Art. fasc. 4, dic. 2024, doi: 10.3390/futuretransp4040056.

[33] European Commission, «Ethics By Design and Ethics of Use Approaches for Artificial Intelligence». 2021. Disponibile su: https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/horizon/guidance/ethics-by-design-and-ethics-of-use-approaches-for-artificial-intelligence_he_en.pdf

[34] «IA nella PA: così la legge italiana blinda il controllo umano», Agenda Digitale. Disponibile su: https://www.agendadigitale.eu/cittadinanza-digitale/ia-nella-pa-cosi-la-legge-italiana-blinda-il-controllo-umano/

[35] UNESCO, «Recommendation on the Ethics of Artificial Intelligence | UNESCO». 2021. Disponibile su: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence

[36] OECD, «AI Principles». 2019. Disponibile su: https://www.oecd.org/en/topics/ai-principles.html

[37] R. Chatila e J. C. Havens, «The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems», in Robotics and Well-Being, vol. 95, M. I. Aldinhas Ferreira, J. Silva Sequeira, G. Singh Virk, M. O. Tokhi, e E. E. Kadar, A c. di, in Intelligent Systems, Control and Automation: Science and Engineering, vol. 95. , Cham: Springer International Publishing, 2019, pp. 11–16. doi: 10.1007/978-3-030-12524-0_2.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x