Le auto a guida autonoma rappresentano una rivoluzione tecnologica che va oltre la semplice automazione del trasporto. La vera sfida non è solo far guidare una macchina senza intervento umano, ma programmarla per prendere decisioni etiche che riflettano i nostri valori morali più profondi.
Indice degli argomenti
La ricerca sulla sensibilità sociale delle auto a guida autonoma
Secondo un recente studio[1], le auto a guida autonoma, “addestrate” a reagire in modo più simile agli esseri umani di fronte al pericolo, causerebbero meno feriti e decessi durante gli incidenti stradali. Utenti vulnerabili della strada, come ciclisti, pedoni e motociclisti, hanno beneficiato e beneficiano maggiormente, in termini di incolumità fisica, quando le auto a guida autonoma hanno iniziato a essere dotate di “sensibilità sociale” per valutare l’impatto collettivo di molteplici pericoli. Lo studio evidenzia i crescenti sforzi per bilanciare l’efficienza operativa dei veicoli a guida autonoma con la necessità di ridurre al minimo i danni in caso di collisione.
La ricerca arriva in un momento in cui aziende tecnologiche di primo piano come Tesla, Waymo (Google) e Zoox (Amazon) spingono per l’introduzione su larga scala (dentro e fuori gli Stati Uniti) dei veicoli a guida autonoma dotati di una gamma di sensori e software automatizzati per guidare senza l’intervento umano. I colossi del settore devono addestrare questi veicoli a rispondere istantaneamente a “dilemmi del mondo reale”, come decidere con cosa scontrarsi se una collisione diventa inevitabile.
Il dilemma del carrello nell’era dell’IA e delle auto a guida autonoma
Uno dei dilemmi etici più noti in questo ambito è il cosiddetto “dilemma del carrello” (o “trolley problem”), una situazione ipotetica in cui un veicolo deve scegliere tra due opzioni moralmente difficili, come deviare e colpire una persona per salvare cinque altre, o non agire e lasciare che le cinque persone vengano investite. Questo tipo di scelta morale, che ha radici nella filosofia[2], è diventato centrale nel dibattito sulla programmazione delle auto a guida autonoma.
Come dovrebbe essere programmata un’auto di questo tipo per decidere chi salvare in uno scenario in cui il danno è inevitabile? Il dilemma sottolinea la complessità di affidare decisioni di vita o di morte a un’Intelligenza Artificiale, spingendo i ricercatori a cercare approcci che vadano oltre regole rigide, integrando invece principi comportamentali umani e sensibilità etica[3].
Perché le auto a guida autonoma evitano programmazioni morali
I sistemi attuali si limitano a evitare collisioni secondo criteri tecnici, come frenare alla massima potenza o sterzare verso aree libere (non occupate), senza ponderare il valore delle vite coinvolte. Nessuna casa automobilistica oggi dichiara di implementare logiche morali comparate tra vite umane. Tra i motivi per cui non vengono programmati dilemmi morali vi sono: l’imprevedibilità delle situazioni, che vede scenari spesso troppo rapidi per calcoli etici complessi; rischi legali enormi, poiché decidere che un’auto possa sacrificare il conducente per salvare altri aprirebbe responsabilità civili e penali di non poco conto; norme etiche e culturali divergenti, con diversi studi che hanno mostrato come diverse culture hanno risposte opposte su chi salvare; priorità alla protezione del passeggero, con le aziende che, per motivi commerciali e legali, tendono a programmare i veicoli per massimizzare la protezione degli occupanti del veicolo.
Strategie aziendali: Tesla, Waymo e Zoox a confronto
Le già citate aziende nel settore della guida autonoma affrontano il dilemma del carrello in modi distinti, riflettendo le loro filosofie aziendali e approcci tecnologici.
- Tesla. Il colosso di Elon Musk adotta un approccio pragmatico, focalizzandosi sull’implementazione pratica della guida autonoma attraverso il suo sistema “Full Self-Driving” (FSD). L’azienda di Austin, Texas, raccoglie dati reali da milioni di veicoli per migliorare continuamente le capacità decisionali del sistema. Elon Musk ha dichiarato che Tesla sta progettando veicoli robo-taxi senza volante né pedali, puntando su un’architettura completamente autonoma. Tuttavia, la società non ha pubblicamente delineato una strategia specifica per affrontare il dilemma del carrello.
- Waymo. La sussidiaria di Alphabet (Google) adotta un approccio più metodico e orientato alla sicurezza. L’azienda di Mountain View (California) ha sviluppato un servizio di robo-taxi che opera in ambienti controllati, come Phoenix (Arizona) e San Francisco (California), e ha accumulato milioni di chilometri di guida autonoma senza incidenti mortali. Waymo ha collaborato con enti regolatori a stelle e strisce per allineare le decisioni etiche dei suoi veicoli alle leggi locali (statali/federali USA), enfatizzando l’importanza della sicurezza e della conformità normativa.
- Zoox. L’azienda di casa Amazon, con sede a Foster City (California), si distingue per il suo design innovativo di veicoli completamente autonomi, privi di volante e pedali. Zoox si concentra sulla creazione di un ecosistema di mobilità urbana completamente autonomo, ma non ha reso pubbliche informazioni dettagliate su come affronta dilemmi morali complessi come il dilemma del carrello.
Approcci diversi alle auto a guida autonoma per un futuro condiviso
In sintesi, mentre Tesla si concentra sull’implementazione pratica e sull’innovazione tecnologica, Waymo adotta un approccio più cauto e regolamentato, mentre Zoox esplora nuove possibilità nel design dei veicoli autonomi. Tuttavia, tutte queste aziende devono affrontare la sfida di integrare considerazioni etiche nei loro sistemi di guida autonoma, un aspetto che richiede un equilibrio tra tecnologia, regolamentazione e valori morali condivisi.
Sensibilità sociale basata su neuroscienze comportamentali
Il tema dell’etica con le auto a guida autonoma sta attirando sempre più l’attenzione pubblica, poiché l’uso crescente di questi veicoli offre la prospettiva di eliminare problemi tipici dei conducenti umani, come errori di valutazione delle distanze e stanchezza. Secondo gli autori dello studio, guidati dal prof. Hongliang Lu della Hong Kong University of Science and Technology, i metodi comportamentali umani potrebbero fornire una struttura efficace affinché le auto a guida autonoma affrontino le sfide etiche che il futuro (o il prossimo presente) riserva loro. Secondo i ricercatori, basandoci sulla preoccupazione sociale e su una codifica cognitiva verosimilmente umana, permettiamo ai veicoli a guida autonoma di mostrare sensibilità sociale nel processo decisionale etico, sensibilità che può aiutare tali veicoli a integrarsi meglio nell’ambiente in cui operano.
La “sensibilità sociale” include l’attenzione (simile a quella dei conducenti umani) verso la vulnerabilità di determinati utenti della strada e la capacità di giudicare chi rischia di subire danni più gravi in caso di incidente. I ricercatori si sono basati su prove neuro-scientifiche e comportamentali secondo cui gli esseri umani si orientano utilizzando una “mappa cognitiva” per interpretare il mondo e adattarsi di conseguenza.
Risultati sperimentali con Ethicalplanner
Le istruzioni fornite alle auto a guida autonoma si sono basate su un concetto noto come “successor representation”, che codifica le previsioni su come i diversi elementi di un ambiente interagiranno nel tempo e nello spazio. Gli scienziati hanno testato il loro modello integrandolo in EthicalPlanner, un sistema utilizzato dai veicoli a guida autonoma per prendere decisioni che tengano conto di diversi fattori di rischio.
Hanno modellato duemila scenari di riferimento, misurando il rischio totale di ciascuno di loro in base alla probabilità di collisione e alla gravità potenziale dei danni per le persone coinvolte. È emerso che l’uso del loro modello, ispirato al comportamento umano con EthicalPlanner, ha ridotto i rischi complessivi per tutte le parti del 26,3%, e del 22,9% per gli utenti vulnerabili, rispetto all’uso del solo EthicalPlanner. Negli scenari di collisione, tutti gli utenti della strada hanno subito il 17,6% di danni in meno, con una riduzione che ha raggiunto il 51,7% per gli utenti vulnerabili. Mentre gli occupanti del veicolo a guida autonoma hanno beneficiato di un calo dell’8,3% nei danni subiti.
Verso un’etica europea dei veicoli autonomi
Un gruppo indipendente di esperti consultati dalla Commissione Europea ha chiesto che i veicoli autonomi siano programmati per garantire una “equa distribuzione del rischio e la protezione dei diritti fondamentali, inclusi quelli degli utenti vulnerabili”[4].
Le auto a guida autonoma stanno rapidamente passando dal regno della fantascienza alle strade delle nostre città.
Ma il loro vero impatto non si misurerà solo in chilometri percorsi senza incidenti, bensì nella loro capacità di prendere decisioni che riflettano i nostri valori più profondi. Integrare l’etica e la “sensibilità sociale” nella tecnologia non è un dettaglio tecnico, ma una necessità umana. Perché un’auto che guida da sola, ma non sa distinguere chi ha più bisogno di protezione, non sarà mai davvero intelligente. Il futuro della mobilità non è solo autonomo: è anche morale. E, forse, proprio per questo, più umano di quanto immaginiamo.
Note
[1] Empowering safer socially sensitive autonomous vehicles using human-plausible cognitive encoding. PNAS. https://www.pnas.org/doi/abs/10.1073/pnas.2401626122#supplementary-materials
[2] Per approfondimenti: Cervelli e carrelli: formalizzare la moralità nelle auto a guida autonoma. Rivista internazionale di Filosofia e Psicologia. https://www.rifp.it/ojs/index.php/rifp/article/download/rifp.2019.0006/911
[3] Per approfondimenti, un recente studio: Self-Driving Cars, Trolley Problems, and the Value of Human Life: An Argument Against Abstracting Human Characteristics. De Gruyter Brill. https://www.degruyterbrill.com/document/doi/10.1515/opphil-2025-0071/html?srsltid=AfmBOoq2k5xmgfX-QTn-VKukHPyvv1Kj7SmVWsxeL5NmI5GhupeirHNe
[4] Autonomous cars with ‘social sensitivity’ cut threat to road users, study finds. Financial Times. https://www.ft.com/content/4eac53c6-85f6-4fe2-8d9c-2e4503473e69