Intelligenza artificiale ed etica: due parole che sembrano infiammare l’universo digitale ogni volta che vengono menzionate. In tutto il mondo, in ogni evento o forum sull’IA, sono la spina dorsale dei dibattiti più appassionati.
Ma c’è una riflessione che mi viene naturale fare: ogni volta che ascolto queste discussioni estremamente importanti, non posso evitare di notare come stiamo impostando il metro etico per l’IA più in alto di quanto abbiamo mai fatto per noi stessi, gli esseri umani.
Esempi pratici di un paradosso
Cerchiamo di disvelare questo paradosso con alcuni esempi concreti.
Auto a guida autonoma
Ci si aspetta che i veicoli autonomi funzionino in modo impeccabile e gestiscano qualsiasi situazione che si presenti sulla strada. È comune sentire sfide relative alle auto a guida autonoma per scenari altamente teorici e a volte quasi “filosofici”. In contrasto, gli autisti umani commettono errori che causano più di 1,35 milioni di morti all’anno e fino a 50 milioni di feriti all’anno, di solito attribuiti a errori umani, la maggior parte dei quali sarebbe evitata con veicoli autonomi.
IA nella selezione del personale
Alcuni sistemi di IA sono stati utilizzati per esaminare le domande di lavoro, ma ci sono state preoccupazioni riguardo a possibili pregiudizi in questi sistemi. Lo standard qui è che il sistema di IA non dovrebbe mostrare alcun pregiudizio, mentre si accetta generalmente che i reclutatori umani, nonostante gli sforzi per essere imparziali, possano comunque avere pregiudizi inconsci.
IA nella sanità
I sistemi di IA utilizzati nella sanità, come quelli utilizzati per la diagnosi o le raccomandazioni di trattamento, sono soggetti a standard estremamente elevati. Ci si aspetta che forniscano risultati precisi e sempre affidabili ogni volta che vengono utilizzati. I medici umani, pur mantenendo elevati standard professionali, possono occasionalmente commettere errori, nonostante i loro migliori sforzi, essendo umani.
IA nella giustizia penale
I sistemi di IA utilizzati per la valutazione del rischio nella giustizia penale dovrebbero essere imparziali e precisi nelle loro previsioni. Non dovrebbero etichettare ingiustamente una persona come ad alto rischio a causa della sua razza, dello stato socioeconomico o di altri fattori irrilevanti. I giudici umani, d’altro canto, potrebbero avere il loro giudizio influenzato dai loro pregiudizi personali, anche inconsciamente e con le loro migliori intenzioni.
Chatbot e salute mentale
I chatbot come Woebot, utilizzati per il supporto alla salute mentale, sono soggetti a elevati standard di privacy ed efficacia. Devono gestire le informazioni sensibili correttamente e fornire supporto in modo responsabile e utile. Gli amici umani e confidenti, pur dovendo essere rispettosi e di sostegno, a volte non vengono sottoposti agli stessi standard professionali o legali.
Questi esempi non significano che noi umani siamo esentati da scivoloni etici; piuttosto, illustrano che spesso ci aspettiamo che i sistemi di IA rispettino standard etici eccezionalmente elevati, spesso molto più alti rispetto a quelli che abbiamo stabilito per noi, sperando che l’IA non si ribelli a questa “discriminazione” contro di essa!
Perché per l’IA servono standard etici più alti
Detto questo, parlando seriamente, sostengo completamente la necessità di avere standard etici più alti per l’IA rispetto a noi, a causa di molti fattori importanti, tra cui.
Mancanza di senso comune e intuizione morale
A differenza di noi, i sistemi di IA mancano di senso comune e intuizione morale. Non capiscono il contesto nel modo in cui lo facciamo noi e non possono prendere decisioni basate su una comprensione completa del mondo. Pertanto, abbiamo bisogno di linee guida etiche rigorose per garantire che i sistemi di IA si comportino in modo appropriato in una vasta gamma di situazioni.
Coerenza e scala dell’impatto
I sistemi di IA possono operare su una scala e a una velocità molto oltre le capacità umane. Un singolo sistema di IA può influenzare milioni di persone in un tempo molto breve. Ciò significa che un difetto o un pregiudizio in un sistema di IA può avere conseguenze enormi. Quindi, lo standard etico per l’IA deve essere più elevato per prevenire danni diffusi.
Trasparenza e responsabilità
Le decisioni prese dall’IA possono essere difficili da comprendere e da rintracciare. Questo problema della “scatola nera” rende necessario mantenere l’IA a elevati standard di trasparenza per garantire che le decisioni possano essere spiegate e giustificate. Noi, al contrario, di solito possiamo fornire ragionamenti per le loro azioni quando richiesto.
Pregiudizio e giustizia
I sistemi di IA possono involontariamente perpetuare e amplificare i pregiudizi sociali presenti nei loro dati di addestramento. A differenza di noi, l’IA non ha la capacità di mettere in discussione la giustizia dei dati che le vengono forniti. Pertanto, dobbiamo mantenere l’IA a elevati standard di giustizia per prevenire risultati discriminatori.
Impatti a lungo termine
Per me, questo potrebbe addirittura essere il punto più importante da considerare. Gli effetti a lungo termine dei sistemi di IA sulla società non sono ancora completamente compresi e in qualche modo imprevedibili. Data la possibilità di conseguenze non intenzionali e impreviste, anche senza necessariamente pensare a “Terminator e Sarah Connor”, è di fondamentale importanza applicare standard etici estremamente rigorosi quando si crea l’IA futura.
In sostanza, le caratteristiche uniche e gli impatti potenziali dell’IA necessitano di alti standard etici per garantire il loro utilizzo responsabile. Questo non significa che dovremmo avere standard più bassi per gli esseri umani, ma piuttosto che gli standard etici che applichiamo all’IA dovrebbero riflettere le sue sfide e i rischi esponenziali.
Tutto quanto posto sopra è un argomento mi rendo conto complesso e che varia molto a seconda del contesto, ma è un dibattito importante da avere mentre continuiamo a implementare e adattare l’IA nella nostra società.
Il modo migliore per prevedere il futuro è crearlo. Dovremmo sperare che noi, come esseri umani, saremo sempre quelli a crearlo… forse.
Conclusioni
P.S: Per riflettere ulteriormente su tutto questo, ho posto la stessa domanda a ChatGPT4, cioè se “abbiamo uno standard etico più alto per l’IA che per gli esseri umani?” Ecco qui sotto la risposta di #chatGPT4:
La questione se teniamo l’IA a standard etici più alti degli esseri umani è sfumata e dipende dal contesto. Ecco alcuni punti da considerare.
Precisione e accuratezza
Ci aspettiamo spesso che l’IA esegua compiti con livelli di precisione e accuratezza sovrumani. Ad esempio, potremmo tollerare un autista umano che commette un errore e causa un incidente, ma ci aspettiamo che le auto a guida autonoma siano quasi perfette e minimizzino ogni rischio di incidenti. Questo può essere visto come un standard etico più elevato, poiché esigiamo che l’IA riduca significativamente o elimini il rischio di danno.
Non-pregiudizio
Ci aspettiamo che i sistemi di IA siano completamente imparziali, anche se raggiungere questo è tecnicamente difficile, dato che l’IA spesso impara dai dati generati dagli esseri umani, che sono intrinsecamente pregiudicati. In contrasto, mentre riconosciamo che gli esseri umani dovrebbero sforzarsi per l’equità e l’imparzialità, capiamo anche che tutti hanno un certo livello di pregiudizio inconscio.
Privacy
Ci aspettiamo che i sistemi di IA rispettino la privacy assolutamente. Qualsiasi raccolta, utilizzo o condivisione di dati deve essere trasparente, con il consenso dell’utente e per scopi esplicitamente dichiarati. La violazione di questo principio è vista come una grave violazione etica. Mentre teniamo gli esseri umani a standard simili, le capacità complete di tracciamento e analisi dei dati dei sistemi di IA rendono questi standard ancora più critici.
Responsabilità e Trasparenza
sistemi di IA sono spesso “scatole nere”, con i loro processi decisionali che sono opachi e difficili da comprendere. Questa mancanza di trasparenza ha portato a richieste di spiegabilità dell’IA, in modo che le decisioni prese dai sistemi di IA possano essere comprese e contestate dagli esseri umani. Il livello di trasparenza richiesto ai sistemi di IA è generalmente superiore a quello per i processi decisionali umani, che sono spesso accettati come complessi e sfaccettati.
Intenzione e responsabilità
È importante notare che l’IA non ha coscienza o intenzione; quindi, non ha responsabilità etiche nello stesso modo in cui le hanno gli esseri umani. Quando l’IA fa qualcosa di dannoso o non etico, la responsabilità rientra sugli umani che hanno creato o utilizzato l’IA.