l'approfondimento

Intelligenza artificiale, usi o decisioni non etiche: il dibattito

L’intelligenza artificiale per essere etica deve riprodurre uno schema valoriale di riferimento, basandosi su quelli condivisi dalle strutture sociali e istituzionali umane. Obiettivo per niente facile, per diverse ragioni. I rischi che questo comporta

Pubblicato il 19 Mar 2021

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria

intelligenza artificiale pregiudizio

L’intelligenza artificiale è uno strumento che deve essere usato con attenzione e prudenza, tenendo conto anche dei possibili rischi connessi.

Una tecnocrazia degli algoritmi rischia infatti di essere iniqua e di aumentare le diseguaglianze.

Partendo da questi presupposti si sta diffondendo all’interno della comunità scientifica un dibattito sulla potenziale non eticità dell’intelligenza artificiale e, cioè, sia sulla possibilità che l’intelligenza artificiale possa essere non etica sia perché si presta ad essere utilizzata in maniera non etica, sia perché prende delle decisioni non etiche.

Sono questi due aspetti molto importanti e molto rilevanti per le ricadute che hanno e che possono arrivare, in ultima analisi, a violare i diritti fondamentali delle persone.

Usi non etici dell’intelligenza artificiale

Possiamo perciò delineare alcuni possibili impatti che potrebbero far classificare come non etico l’utilizzo dell’intelligenza artificiale. In questa tipologia rientrano sicuramente quegli algoritmi finalizzati al riconoscimento facciale, alla localizzazione e alla sorveglianza e che possono essere usate come strumento di repressione delle libertà o come strumento per ridurre e controllare le libertà individuali da parte di regimi totalitari. Accanto a queste vi è sicuramente fra gli utilizzi non etici la ricerca per sviluppare armi intelligenti, armi in grado di scegliere e colpire autonomamente il bersaglio.

Infine, vi sono strumenti per distorcere la realtà e orientare il consenso e i comportamenti e sono i generatori di fake news, i troll, gli strumenti per creare delle rappresentazioni distorte e fraudolente di voci e immagini. Se le tecniche di riconoscimento facciale, localizzazione e sorveglianza si prestano ancora alla possibilità di un “dual use”, per le altre tipologie di utilizzazione dell’intelligenza artificiale la classificazione non può che essere di “totally unethical use”.

Decisioni automatizzate, l’intervento dell’uomo non basta: servono nuove norme

Decisioni non etiche dell’intelligenza artificiale

Ma accanto agli usi non etici dell’intelligenza artificiale, vi è anche il problema, non secondario, delle decisioni non etiche che possono esser prese da un’intelligenza artificiale all’interno di utilizzo eticamente accettabile di questi algoritmi.

Queste decisioni non etiche possono derivare sia dall’incapacità dell’intelligenza artificiale di discriminare eticamente le strategie proposte, sia dal fatto che, come gli esseri umani, le intelligenze artificiali possono sviluppare dei pregiudizi (bias), che possono nascere autonomamente nel processo di apprendimento, o che possono essere indotti dal set di dati proposto per l’apprendimento. Nel primo caso gli algoritmi di deep learning non sono delle super intelligenze, ma assomigliano di più a dei bambini che imparano quello che si cerca di insegnare loro, distorcendone il senso e il contenuto e includendo cose che non facevano parte di quello che doveva essere insegnato loro che in termini pedagogici potremmo definire come un overfitting.

Nel secondo caso, invece, la distorsione dell’algoritmo riflette il pregiudizio dell’essere umano che ha costruito il set di dati per l’apprendimento.

I pregiudizi della tecnologia

Il problema delle decisioni non etiche dell’intelligenza artificiale è rilevante se si considera che si sta cominciando a fare largo uso di questi algoritmi in campi in cui la decisione non etica può portare a delle conseguenze molto gravi. Negli Stati Uniti la polizia utilizza dei software di riconoscimento facciale per individuare gli autori dei crimini. Può, quindi, succedere di essere arrestati e messi in prigione per un riconoscimento errato, o meglio per un errata associazione dell’immagine del criminale alla persona reale. Sempre negli Stati Uniti i software che venivano utilizzati per prevedere la probabilità di reiterazione del reato da parte dei criminali avevano sviluppato un bias razziale e, pertanto, per il semplice fatto di non essere di razza bianca si andava incontro con certezza a un aggravio di pena. Gli algoritmi che gestiscono le consegne dei rider possono penalizzare alcuni lavoratori e avvantaggiare altri sulla base di criteri che possono essere totalmente non etici e che trasformano l’algoritmo in una sorta di caporale digitale.

Nel caso dello sviluppo di pregiudizi da parte degli algoritmi si può intervenire facendo un lavoro di pulizia dei dati per creare dataset bias neutral. Ma la decisione di eliminare dei pregiudizi insiti nei dati non può essa stessa derivare da un pregiudizio?

Bambini e intelligenza artificiale, come bilanciare i rischi: gli studi

Nel caso della possibilità decisioni non etiche da parte dell’intelligenza artificiale si intervenire, provando a inserire alcuni riferimenti etici condivisi all’interno delle decisioni. Questi riferimenti potrebbero essere l’equità, la ragionevolezza, la responsabilità, la sicurezza e la tutela della privacy. Tuttavia, il tentativo di costruire una filosofia morale della macchina è arduo e difficoltoso, tenuto conto che l’uomo ha impiegato migliaia di anni a fare questo processo e non è detto che ci sia riuscito bene fino in fondo.

I tre livelli d’interazione tra etica e intelligenza artificiale

Virginia Dignum individua tre livelli di interazione fra etica e intelligenza artificiale:

  • Etica by Design che consiste nell’ l’integrazione tecnico/algoritmica delle capacità di ragionamento etico nell’ambito del comportamento dell’intelligenza artificiale e si realizza attraverso un approccio che includa strumenti formali per descrivere una situazione e principi etici in grado di far formulare autonomamente un giudizio e giustificare perché una determinata decisione è eticamente, o meno, accettabile;
  • Etica in Design che individua i metodi normativi e ingegneristici che supportano l’analisi e la valutazione delle implicazioni etiche dei sistemi di IA in quanto questi integrano o sostituiscono le strutture sociali tradizionali, Il che significa che gli algoritmi che governano le nostre vite devono essere trasparenti, equi e responsabili rispetto ai valori condivisi dagli stakeholder.
  • Etica per Design che consiste nella progettazione di codici di condotta, nella definizione di standard e di processi di certificazione che garantiscano l’integrità di sviluppatori e utenti mentre ricercano, progettano, costruiscono, impiegano e gestiscono sistemi intelligenti artificiali. Ovviamente in questo caso ai progettisti deve essere dato un insieme chiaro e coerente di principi etici in modo tale che il sistema possa prendere decisioni seguendo questi principi e avvisare gli utenti quando si discosta da tale sistema valoriale.

Come si può evincere si tratta di modelli complessi il cui effettivo funzionamento va testato di volta in volta.

Il principio di precauzione

In generale quando l’attività decisoria dell’intelligenza artificiale può presentare profili di rischio è sempre opportuno agire nel rispetto del principio di precauzione. In questi casi, quindi, occorre dunque che la macchina, per quanto dotata di intelligenza artificiale, sia sempre supervisionata dall’uomo.

Il principio della supervisione umana sulle decisioni dell’intelligenza artificiale va e andrà sempre più salvaguardato perché solo la sinergia fra intelligenza artificiale e supervisione umana può assicurare un livello di funzionalità quasi normale anche nei casi più gravi.

Questa procedura chiamata intelligenza artificiale estesa permette di associare dei driver etici umani alle capacità di apprendimento delle intelligenze artificiali, evitando sia i bias discriminatori, sia evitando anche che la decisione presa nell’ambito ristretto dell’intelligenza artificiale sia ottimale per un singolo problema, ma devastante per il governo complessivo del processo. Questi driver etici devono essere veicolati anche alle intelligenze artificiali, ipotizzando un’interazione uomo-intelligenza artificiale in cui sia sempre l’uomo a dettare le regole del gioco e la macchina sia un utile strumento per la risoluzione di problemi.

È necessario in sostanza assicurare che l’essere umano sia sempre in grado di intervenire per assicurare che il comportamento dei sistemi di intelligenza artificiale sia sempre vantaggioso per l’umanità. Si tratta, quindi, di inserire una sorta di bottone di emergenza che consenta l’interruzione dell’azione e lo spegnimento della macchina, impedendo al sistema di apprendere come bypassare questa azione nel caso in cui l’osservatore dovesse riscontrare violazioni dei principi etici predefiniti.

Conclusioni

L’intelligenza artificiale per essere etica deve riprodurre uno schema valoriale di riferimento, basandosi su quelli condivisi dalle strutture sociali e istituzionali umane. È chiaro che quando si parla di strutture sociali e istituzionali condivise si può generare una certa ambiguità perché i diversi sistemi sociali oggi sviluppano regole di comportamento sociale che possono essere molto differenti.

In generale potremmo quindi definire l’agire etico dell’intelligenza artificiale come la capacità di prendere decisioni che siano sempre capaci di salvaguardare la dignità della persona, operare secondo i principi della sussidiarietà e agire in maniera solidale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati