cambiamenti tecnologici

Costruire un’AI affidabile: l’importanza di algoritmi equi e corretti

La velocità raggiunta dal progresso tecnologico non ha precedenti nella storia umana e gli algoritmi di AI vengono applicati in sempre più ambiti del nostro quotidiano. Ci si chiede allora: è praticabile un utilizzo delle tecnologie che non comprometta la struttura ontologica dell’umano?

18 Gen 2022
Fiammetta Cioè

Università degli Studi di Roma “La Sapienza”

Fabio De Felice

Università degli Studi di Napoli “Parthenope”

Antonella Petrillo

Università degli Studi di Napoli “Parthenope”

Artificial Intelligence

Negli ultimi due secoli le trasformazioni radicali introdotte dall’evoluzione industriale hanno avuto come caratteristica fondamentale una velocità dolce e accettabile. Il riverbero sui processi produttivi si è manifestato con una frequenza lunga, e con effetti misurabili in un lasso di tempo generalmente non inferiore a cinquant’anni.

A partire dalla fine del Novecento, invece, il lasso di tempo in cui si sono verificati cambiamenti di profondo impatto si è via via ridotto fino a un “range” di tre-sette anni e hanno avuto effetto più diretto e profondo sulla vita delle persone.

Intelligenza artificiale: il faro Ue su tutela delle vulnerabilità e principi antidiscriminazione

L’impatto della tecnologia sulle nostre vite sta crescendo rapidamente e algoritmi di AI vengono applicati in diversi ambiti. È praticabile un utilizzo delle tecnologie che non comprometta la struttura ontologica dell’umano?

Crisi da quickness

Mezzo secolo è un periodo sufficientemente lungo per tollerare le ricadute sugli individui dei cambiamenti tecnologici che il mercato si occupa di propagare. Per una sorta di strategia di sopravvivenza psichica, nell’uomo l’apertura al cambiamento è frenata dall’abitudine, forza inerziale che resiste al dinamismo, e all’inclinazione al cambiamento permanente che è una fra le principali espressioni dello spirito del nostro tempo. Metabolizzare una innovazione che incide nella “carne viva” del corpo sociale richiede un tempo fisiologico che è certamente più lungo di tre-sette anni e per di più, come abbiamo osservato a proposito delle campagne di vaccinazione anti COVID19, ogni impulso alla rapidità in campi come la salute e la sicurezza reca il sospetto di essere eterodiretti ed in balia del dominio della tecnica. È la quickness of change che è requisito prioritario del digitale, oltre tutto è a intensità crescente, a destare riserve e timori, che si aggiungono ai sospetti che di suo sortisce l’intelligenza artificiale.

WHITEPAPER
Valorizza i dati del tuo cloud e scopri i benefici per la tua azienda!
Big Data
Cloud

Piattaforme dominanti: la supremazia degli algoritmi

In ogni caso la velocità raggiunta dal progresso tecnologico non ha precedenti nella storia umana. L’apparato percettivo-sensoriale dell’uomo sembra adeguarsi con fatica e difficoltà agli upgrade dell’universo virtuale, che tra l’altro sembra ormai aver raggiunto dimensioni fuori controllo rispetto alle dimensioni della realtà. E questo a causa della circostanza per cui ciò che esiste e significa è frutto del sistema di interconnessione permanente, al punto che la distinzione tra virtuale e reale sembra non aver più corso: e qui si pone già una prima, ineludibile questione etica. Dal canto suo l’IA contribuisce ad approfondire oltremodo il senso di smarrimento labirintico tipico della condizione contemporanea. Un labirinto che è anche una prigione, dove le piattaforme tecnologiche deputate a renderci la vita più facile, a causa del tracciamento permanente dei nostri modelli di comportamento, prevalgono sulla libertà individuale. In effetti affidando i nostri dati ai signori delle piattaforme consegniamo le nostre individualità alla supremazia degli algoritmi. È un dispotismo all’altezza dei tempi moderni quello che chiede all’utenza, in cambio della fruizione senza costo dei servizi in rete, la patria potestà su una messe di informazioni che riguardano i nostri gusti estetici, i nostri giudizi, gli orientamenti politici e religiosi e – infine – le passioni e le emozioni che ci distinguono nel profondo. Il progresso tecnologico si pone nelle condizioni di ricostruire come in un identikit la trama della nostra concezione del mondo. Le tecnologie ci stringono in una morsa minacciosa, che mostra di puntare a una pervasività senza confini tal quale è concluso il cerchio dell’interconnessione permanente.

La tunica di nesso

Non si sfugge a questa realtà dei nostri giorni, poiché è facile constatare che possiamo uscire di casa anche senza patente e portafogli, ma non potremmo mai farlo senza avere con noi il cellulare: un medium che ci colloca nel mondo ma al tempo stesso ci consegna al mondo senza tregua e senza rimedio. Al culmine di questo progressivo alienare le proprie facoltà c’è l’IA, la quale contrassegna l’acme del trapasso dell’impatto tecnologico dal processo al prodotto: dalla fungibilità industriale, tutta interna alla dimensione della manifattura, al fallout sui gruppi e gli individui che compongono il tessuto sociale. Dalla automazione robotica della vita di fabbrica si è giunti ai dispositivi della IA, dei quali tutti siamo divenuti dipendenti, in particolare con il lockdown che ha esercitato in questo processo una funzione catalizzatrice: digitale, connessioni, lavoro da remoto, cloud computing, reti 5G compongono ormai sempre più l’ambiente in cui viviamo. L’altra faccia di questa condizione contemporanea è la sensazione di essere giunti all’avvento del “capitalismo di sorveglianza” di cui parla Shoshana Zuboff.

Il digitale consente di rilevare il tracciato dei nostri più minuti orientamenti mediante la mappa degli accessi quotidiani effettuati come naviganti e di trasformarlo in un patrimonio informazionale da cui è possibile ricavare profitti. Essere in Rete conferisce la percezione di un potere acquisito con la connessione e, al tempo stesso, ci scaglia nella condizione, appunto, di “irretiti”: prigionieri da controllare e da manipolare. È da questo stato d’animo diffuso, coacervo magmatico in cui ribolle un impulso di rivalsa contro ogni forma di persuasione occulta. Un esempio sono i movimenti NO VAX i quali, com’è noto, finiscono per attribuire alla somministrazione di un vaccino il presunto compito di introdurre microchip nel corpo di miliardi di persone, a scopo di controllo sociale di sapore orwelliano.

Tecnologia come “farmaco”

La domanda appassionante che si staglia dal fondale opaco, vero o presunto, dello strapotere del digitale è la seguente: è possibile con la tecnologia giungere alla riaffermazione della centralità dell’essere, limitando i danni derivanti da un uso pervasivo e sregolato delle più recenti innovazioni? È praticabile un utilizzo delle tecnologie che non comprometta la struttura ontologica dell’umano?

Ancora: è possibile considerare la tecnologia come rimedio anziché subirla come minaccia, nel solco di scienziati come Bernardt Stiegler che arriva a parlare della tecnologia come pharmacon, sostanza curativa – o anche antidoto – che cura l’anima di chi è utente?

Volendo approfondire il tema, va riconosciuto anzitutto un aspetto, vale a dire la neutralità che ab initio viene attribuita alla tecnologia come strumento. Per dirla tutta, cosa si richiede alla IA quando è noto che l’introduzione di fattori etici non dipende dalla IA ma dall’uso che ne fa l’uomo? Un approccio che è figlio proprio della fase primordiale dell’IA che si manifesta come automatismo robotico che accelera e migliora le prestazioni umane in fase produttiva: un ambito indifferenziato dal punto di vista etico poiché interno al perimetro della realtà industriale e senza fallout riferibili al vissuto di individui singoli. Ma quando l’ambito che concerne applicazioni del sistema di intelligenza artificiale chiama in causa azioni individuali, quali ad esempio l’approvazione della richiesta di prestito ipotecario, l’e-recruiting, il credito on-line o pratiche tariffarie personalizzate, vale a dire decisioni dirette ai singoli individui (o anche imprese), assunte sulla base di specifiche informazioni personali? Parliamo infatti di decisioni che sono in capo a sistemi automatizzati, che possono causare ripercussioni ingiuste per le persone (e per le imprese).

Equità e algoritmi

Il primo elemento che andrebbe considerato quando si affronta il tema dell’etica del digitale è quindi la discriminante che segue: evitare processualità decisionali del tutto prive della supervisione umana. Nessun algoritmo, infatti, può garantire l’equità della decisione automatica o assicurare che una tale deliberazione non determini distorsioni dal punto di vista etico. Nessuno accetterebbe anche la lontana ipotesi che da un algoritmo possa derivare un rischio di discriminazione. L’importanza di ottenere algoritmi equi e corretti è cruciale. E solo la supervisione umana può permettere di prevedere la possibilità di correggere o sovvertire una conclusione frutto di un sistema automatizzato. In altre parole, va stabilito per regola il richiamo dei principi etici ogni qual volta le decisioni automatizzate hanno a che fare coi dati personali di un individuo.

Un altro aspetto attiene al livello di affidabilità della tecnologia quando essa amministra dati personali. Spam, phishing, hack di email, trafugamento dei dati personali – per non dire dell’hack del conto bancario o della carta di credito – sono fenomeni che hanno interessato più della metà della popolazione mondiale (due terzi in Europa, l’80% negli stati Uniti) che è rimasta vittima di un uso improprio dei dati. Appare evidente che la scarsa sicurezza informatica applicata alla protezione dei dati ha implicazioni di carattere etico, oltre che tecnologico. A favore della IA etica, viceversa, c’è la sua capacità di stimolare la crescita economica sostenibile con un ruolo sempre più importante in arre come l’assistenza sanitaria, l’istruzione e l’ecocompatibilità, come si evince dal documento elaborato dalla Commissione Europea intitolato “Linee guida etiche per l’IA affidabile” (2019) che trova conferma anche nella proposta di regolamento sull’approccio europeo all’intelligenza artificiale, pubblicato il 21 aprile 2021, un documento in cui vengono valutati i rischi connessi a questo strumento con l’obiettivo di “salvaguardare i valori e i diritti fondamentali dell’UE e la sicurezza degli utenti”.

Intelligenza sostenibile

L’IA può essere utilizzata come strumento di primo piano per rimediare alla discriminazione, in quanto alcuni sistemi di IA possono essere utilizzati per testare e rilevare discriminazioni che possano emergere all’interno di un set codificato di dati. L’IA e il deep learning devono basarsi su una tecnologia che resti rispettosa della dignità umana e dei fondamentali diritti individuali quali la privacy, la trasparenza e il corretto uso dei dati. Inoltre, l’IA può giocare un ruolo importante nella tutela dei cosiddetti “diritti diffusi” quali il rispetto per l’ambiente o la promozione dell’economia sostenibile.

Una Carta dei Valori che riguardi il rapporto tra intelligenza artificiale, impresa e società potrebbero rappresentare una fonte di ispirazione etica e la comunità scientifica può aiutare le aziende ad accelerare l’adozione di soluzioni di IA etiche, dove si riconosce che la dignità dell’essere umano è sacra e non negoziabile con il primato delle macchine. La focalizzazione è sulla intelligenza umana, in cui agisce l’intenzionalità (capacità di interiorizzare sia oggetti fisici che oggetti astratti come i doveri e i valori). L’IA, che è straordinariamente capace di risolvere problemi più e meglio dell’uomo, manca tuttavia di “intelligenza generale” ed infatti nessun sistema di IA ha la capacità di svolgere compiti per i quali non è programmato.

Resta quindi una prospettiva nella funzione di sussidiarietà dell’IA in particolare al cospetto di decisioni con implicazioni etiche. È questo il caso del giudizio di una persona che si è macchiata di azioni criminali, caso il cui la complessità degli elementi non oggettuali di cui tener conto è vasta, come le sfumature della sua personalità e del contesto culturale e sociale in cui è vissuto, il tipo di intelligenza emotiva di cui è dotato.

Conclusioni

Risulta evidente come le potenzialità dei sistemi di Intelligenza Artificiale siano molteplici. Tuttavia, un algoritmo ha valore limitato in un contesto in cui agiscono questioni come le esperienze di vita e interrogativi che riguardano la coscienza. L’essere umano è un sistema particolarmente complesso, in cui incidono profondamente fattori come l’umana dignità e la responsabilità morale, inapplicabili alle macchine e che la tecnologia non contempla né è in grado di spiegare.

Inoltre, la rimozione dei pregiudizi, che non è esclusa dall’uso di un algoritmo perché i sistemi di IA possono soffrire della inclusione di pregiudizi, è questione aperta, a cui non esiste una soluzione tecnica. Va ribadito che l’uomo non è un ente composto di sola ragione, perché gli è propria una capacità creativa che non potrà mai essere fagocitata dalla prevedibilità algoritmica. E le sue facoltà si sprigionano ampiamente solo quando avverte di essere libero di riscoprire il suo io e di perseguire la propria individuazione. E tutto ciò non coincide in alcun modo con la sua identità digitale, nemmeno quando essa si manifesta magistralmente come alterità virtuale.

Bibliografia

B.Romano, Algoritmi al potere, Giappichelli Editore,Torino 2018.

B. Stiegler, La società automatica, Meltemi, Milano, 2019.

F. De Felice, A. Petrillo, Effetto digitale. Visioni d’impresa e Industria 5.0. McGrawHill, Milano, 2021.

Commissione Europea, Building Trust in Human-Centric Artificial Intelligence, comunicazione, 8 aprile 2019 COM(2019) 168 final

Commissione Europea, Proposal for a Regulation of the european parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts com/2021/206 final

S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Milano, 2019.

WHITEPAPER
Sanità: quali le applicazioni di AI in radiologia, oncologia e cardiologia?
Intelligenza Artificiale
Sanità
@RIPRODUZIONE RISERVATA

Articoli correlati