Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

intelligenza artificiale

Nell’era degli algoritmi, solo l’etica può salvare l’umanità: ecco perché

Le tecnologie non sono neutre, gli algoritmi rischiano di trasformare il web da opportunità in somma di solitudini molto condizionabili. L’intelligenza artificiale porta con sé inevitabili dilemmi etici: pensiamo allo sviluppo di guerrieri robot. L’unico modo per restare umani è preservare la nostra capacità di scegliere

27 Giu 2018

Norberto Patrignani

Politecnico di Torino


Ormai in ogni articolo, convegno, evento dedicato all’intelligenza artificiale emerge il tema dell’etica, soprattutto quando entrano in gioco i “titani del web” (Magnani, 2018). Sarà una moda, oppure la necessità di chiarire la propria posizione di fronte all’opinione pubblica dopo gli ultimi scandali legati all’utilizzo del Big Data per condizionare elezioni politiche? (Patrignani, 2018).

Perché serve la figura del “critico tecnologico”

In molti casi emerge forte il bisogno di una nuova figura: il critico tecnologico. Abbiamo il critico letterario, il critico cinematografico, il critico d’arte, etc. ebbene avremo presto bisogno anche del critico tecnologico: una persona esperta di tecnologia e società che ci aiuti a capire come questi due dominii si plasmano a vicenda, che la tecnologia non è neutra, e che non dobbiamo per forza accettare tutte le pressioni provenienti dai venditori di tecnologie (il famoso “technology push“) per correre ad acquistare l’ultimo prodotto, l’ultima mirabilia tecnologica, a prescindere dal suo impatto sociale e ambientale.

Intelligenza artificiale, ecco la via dell’Europa: governance, etica, ricerca (ma pochi soldi)

Gli algoritmi non sono neutri

Una persona che ci aiuti a capire che non è vero che gli algoritmi sono neutri solo perché basati su molta matematica, il cosiddetto “mathwashing (Schep, 2018). Chi progetta un algoritmo (che verrà poi eseguito dal computer) fa comunque delle scelte, volontariamente o involontariamente. Questo avrà delle conseguenze sulle persone che usano queste tecnologie (pensiamo ai social network): o perché si affidano ciecamente a queste (“l’ho letto su …“) oppure perché manca un solido approccio scientifico. Come ci insegna la grande scienziata Isabelle Stengers, una posizione scientifica è affidabile e solida non perché gli scienziati sono oggettivi, ma perché tale posizione è stata esposta alle esigenti e approfondite obiezioni di colleghe competenti preoccupate di verificare la sua affidabilità (Stengers, 2018). In quest’ultimo caso l’algoritmo viene considerato affidabile solo perché è stato esposto ad una quantità gigantesca di dati.

I limiti della “calibrazione” degli algoritmi

Ma questo implica solo che l’algoritmo è stato “calibrato” con molti dati: ad esempio più una persona usa un social network più la piattaforma calibrerà le visualizzazioni personalizzandole sempre di più. Il Web, nato come fantastico strumento di accesso alla conoscenza (Web 1.0) e grande opportunità di costruzione di comunità (Web 2.0), rischia di trasformarsi in una sommatoria di solitudini molto condizionabili. La calibrazione dell’algoritmo permette spesso di trovare delle correlazioni tra eventi (ad esempio le scelte o preferenze di una persona ed i prodotti da offrire alla stessa) ma correlare eventi è molto diverso dal trovare le cause di un evento. Come dimostrò John Snow (1813-1858), fondatore della moderna epidemiologia che trovò l’origine della diffusione del colera a Londra nel 1854, correlare dati a volte è molto utile: correlando la mappa della diffusione della malattia nei quartieri della città con la mappa delle fontane trovò l’origine nel quartiere di Soho e validò per la prima volta l’ipotesi che l’acqua è il mezzo fondamentale di trasmissione del colera. Ma correlare dati (anche con algoritmi sofisticatissimi) non significa trovare relazione di causa-effetto tra eventi. Può solo aiutarci nella guida euristica delle nostre scelte di indagine. Non possiamo equiparare una correlazione statistica con una causa. La scienza non può essere delegata all’analisi di Big Data, seppur definita “intelligenza artificiale” mascherata da mathwashing.

Intelligenza artificiale e dilemmi etici

Ma dilemmi etici ancora più profondi nascono quando deleghiamo alla macchina, dotata della cosiddetta “intelligenza artificiale”, decisioni life-critical, come ad esempio negli sviluppi del robot guerriero.

Questo tema diventerà cruciale nei prossimi mesi: in novembre a Ginevra verrà discussa la proposta di moratoria internazionale per impedire la proliferazione di armi letali autonome (ICRAC, 2018). L’associazione italiana Informatici Senza Frontiere si è recentemente espressa con un no deciso all’utilizzo di robot e intelligenza artificiale a fini militari (DataManager, 2018). E questo è solo un primo drammatico segnale dell’urgenza di un’etica, una deontologia professionale per i professionisti informatici coinvolti negli sviluppi della cosiddetta “intelligenza artificiale”: quali saranno i principi guida, i valori che guideranno i programmatori nella definizione degli algoritmi da far eseguire alla macchina? Forse è arrivato il momento di andare a rileggere Joe Weizenbaum (1923-2008), uno dei primi scienziati dei computer ad interessarsi alle questioni etiche legate alla diffusione delle tecnologie dell’informazione. Nel suo libro più famoso “Il potere del computer e la ragione umana, i limiti dell’intelligenza artificiale” invita i colleghi ricercatori e professionisti dei computer a non confondere “decisioni” con “scelte”.

Decisioni o scelte, la differenza è fondamentale

Le “decisioni” entrano in gioco in situazioni che possono esser ricondotte ad un’attività computazionale e quindi qualcosa che può alla fine essere programmato. Le “scelte” invece sono implicite in situazioni che richiedono agli umani una profonda riflessione: prima di fare una scelta (che evidentemente non è mai neutra) come umani, facciamo ricorso alla nostra storia, alla nostra educazione, al nostro sistema di valori spesso condivisi dalla comunità: in definitiva una scelta non può essere ridotta ad un’attività computazionale, “choosing … is the product of judgment, not calculation“. Da questo discende la raccomandazione di Weizenbaum riguardo ad esempi di funzioni umane che non dovrebbero essere sostituite da computer: quelle che richiedono “judgement, respect, understanding, caring and love” (Weizenbaum, 1987).

Se vogliamo rimanere umani sarà proprio la nostra capacità di scegliere che ci proteggerà dal mathwashing, che ci distinguerà dalle macchine anche se saranno “artificialmente intelligenti”.

Riferimenti

– DataManager (2018), Informatici Senza Frontiere dice no ai killer robot, www.datamanager.it, 18 Aprile 2018.

– ICRACR (2018), Statement on the human control of weapons systems at the April UN Geneva meeting, https://www.icrac.net/, 11 April 2018.

– Magnani A. (2018), I Big riscoprono l’etica dell’intelligenza artificiale, Nova-Sole24Ore, 13 maggio 2018.

– Patrignani N. (2018), Data Ethics, cos’è e perché serve alla democrazia, Agenda Digitale, https://www.agendadigitale.eu/cultura-digitale/letica-al-tempo-del-big-data43126/, 3 Aprile 2018.

– Schep T. (2018), What is Mathwashing, https://www.mathwashing.com/

– Snow J. (1854), On the Mode of Communication of Cholera, London, John Churchill, New Burlington Street.

– Stengers I. (2018), Another Science is Possible. A Manifesto for Slow Science, Wiley.

– Weizenbaum J. (1987), Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale, (trad.) Tibone F., EGA-Edizioni Gruppo Abele. Titolo originale Computer Power and Human Reason: From Judgment To Calculation, San Francisco, Freeman, 1976.

Articolo 1 di 4