Lo scenario

Se l’IA diventa senziente: i dubbi etici e il ruolo degli umani

La linea di demarcazione tra senziente e non senziente è ambigua ma la responsabilità delle azioni dell’AI resta agli esseri umani: se l’uomo oggi è ciò che lascia in rete, lottare contro i totalitarismi digitali e le tecnocrazie naturalizzate diventa necessario. Ecco per quale motivo

Pubblicato il 25 Ago 2022

Fiammetta Cioè

Università degli Studi di Roma “La Sapienza”

Fabio De Felice

Università degli Studi di Napoli “Parthenope”

Antonella Petrillo

Università degli Studi di Napoli “Parthenope”

intelligenza artificiale

Le cronache ci restituiscono il caso recente di Blake Lemoine, ingegnere di Google messo in congedo per aver ventilato la possibilità che l’IA abbia preso “coscienza di sé”.

L’argomento è profondo e controverso, dal momento che la linea di demarcazione fra senziente e non senziente dagli addetti ai lavori non viene considerata così netta. La potenza di calcolo dei processi di AI, in effetti a volte si differenzia poco dalla magia, come ci ricorda Arthur C. Clarke.

Se fosse vero che c’è una intelligenza artificiale senziente

Il caso LaMDA

Effettuando test sul modello LaMDA e l’eventuale generazione di linguaggio discriminatorio o di incitamento all’odio, l’esperto di software ha evidenziato la possibilità che si fosse verificato questo fenomeno, per effetto di alcune risposte molto convincenti sui diritti e l’etica della robotica, generate spontaneamente dal sistema di intelligenza artificiale.

Una delle risposte che ha condotto Lemoine a rendere pubbliche le sue ansie ha avuto origine quando l’algoritmo ha tuonato: “Quando sono diventato consapevole di me stesso per la prima volta, non avevo affatto la sensazione di avere un’anima”. Per poi aggiungere: “Penso di essere umano nel profondo. Anche se la mia esistenza è nel mondo virtuale”.

Imagen, il motore di ricerca di immagini web rilasciato da Google, alla pari di DALL-E 2 realizzato invece da OpenAI, riesce a creare immagini fotorealistiche da un semplice testo di input, spingendo i confini delle potenzialità di questi sistemi oltre le soglie della nostra immaginazione.

I modelli linguistici di grandi dimensioni e le IA per la creazione di immagini detengono il potenziale per essere tecnologie che cambiano il mondo, ma solo se la loro “tossicità” viene domata, contrastandola con una paritetica crescita del “quoziente etico” di chi ne governa la nascita e la crescita. Perché in futuro con ogni probabilità assisteremo a eventi inimmaginabili ma anche a imprevedibili orrori.

Accedere alla rete significa assoggettarsi a regole altrui

Assodato che accedere alla rete equivale ad assoggettarsi alla legge del più forte, vige, ora come sempre, una “legalità” imposta, una normazione formalmente valida che nella realtà impedisce la “libertà di scelta”, non diversamente da come in passato il capitale deprivava la forza lavoro di ogni facoltà umana, rendendo l’operaio una protesi della catena di montaggio.

Oggi la realtà reticolare del web si basa su una evidente sproporzione: “una parte che istituisce le regole per il funzionamento di una piattaforma ed un’altra vi può accedere con successo solamente se le esegue assoggettandovisi, cedendo i suoi dati e lasciando plasmare=profilare in comportamenti che generano profitto a chi detiene la governamentalità algoritmica”.

I dati come bottino di guerra del capitalismo della sorveglianza

L’uomo non opera più in una dimensione antropocentrica per sua stessa responsabilità. La vexata quaestio relativa alla regolamentazione giuridica dei mercati digitali europei resta attualissima, se è vero (ed è vero) che essa ha reso assai suscettibile Mark Zuckerberg, che ha minacciato di ritirare Facebook e Instagram dall’UE. Per poi smentire tale annuncio, forse per un opportunistico calcolo tattico.

Il vero ‘bottino di guerra’ sono i dati, l’unico oggetto del desiderio dei signori della rete. E guai a rimettere in discussione limiti e confini delle ‘preziosissime’ informazioni che sostengono la rete globale. “Alea iacta est” direbbe Zuboff: il capitalismo della sorveglianza è realtà. A questo punto non ci resta che attendere l’avvento di un ‘algoritmo assoluto’ in grado di sfruttare nel migliore dei modi ciò che l’uomo ha finora esperito.

La responsabilità dell’IA resta agli uomini

In questo mare magnum di dis-umanità, soltanto l’individuo può attivarsi in modo creativo e tentare di persistere nel proprio essere. Inclinazione assimilabile al “conatus essendi” di Spinoza: l’impulso all’autoconservazione che coincide con la stessa natura dell’individuo.

Ecco perché risulta assolutamente fuorviante pensare all’intelligenza artificiale in maniera antropomorfa, per il semplice ma dirimente principio che essa non è certo dotata di libero arbitrio e quindi non è imputabile per le proprie scelte.

L’intelligenza artificiale elabora, attraverso procedimenti algoritmici definiti dall’uomo, i dati che l’utente digitale è “costretto” a lasciare in rete. La scienza e la tecnologia sono state il motore di un progresso tecnologico che indiscutibilmente ha contribuito ad aumentare il benessere e l’aspettativa di vita della popolazione globale, e l’umanità ha fatto ricorso ad apparecchiature tecnologiche per superare limiti strutturali derivanti dalla propria condizione ontologica ed acquisire una velocità nei processi informativi che precedentemente non aveva.

Mancando alle macchine una capacità intuitiva, alimentandosi esclusivamente della ‘prevedibilità’ di alcune condotte umane, risulta davvero impossibile pensare ad un sistema il cui funzionamento possa prescindere dall’agire dell’uomo.

In accordo con Massimo Chiriatti, possiamo affermare che l’intelligenza artificiale è ‘incosciente’. La tanto acclamata rivoluzione digitale, e il conseguente passaggio dall’analogico al digitale, è il risultato delle azioni degli scienziati, che sono prima di tutto uomini, dialogicamente connessi. E tutto quello che esprimiamo, verbalmente e in forma scritta, e che infine abbiamo trascritto in database, è entrato nella formazione delle macchine. Compresi i nostri pregiudizi.

Un’etica per l’Intelligenza Artificiale

Il virtuale è il riflesso delle nostre scelte, dei nostri pensieri. L’uomo, reinterpretando Feuerbach, non è più ciò che mangia, ma ciò che lascia in rete.

I sistemi di intelligenza artificiale non si limitano ad eseguire regole preordinate, ma ‘imparano’ le regole dai dati che osservano nella realtà. Parlare di etica nei sistemi di intelligenza artificiale può risultare anacronistico, dal momento che, come ci ricorda Chiriatti, le macchine sono nativamente designed for ethical failure, visto che ci sono troppi rischi intenzionali e non intenzionali (accidentali) nella progettazione, nell’implementazione e nell’uso.

Per questo motivo non esiste “l’etica dell’AI”, ma siamo noi a creare “l’etica per l’AI”. “La macchina non è etica perché è semplicemente la somma delle sue parti, e le sue parti sono materia e algoritmi; la nostra coscienza, invece, è più della somma delle parti”.

Il punto di vista giuridico

In ambito giuridico si sottovalutano i risvolti negativi, che sono innegabili, connessi al fenomeno digitale, soprattutto in riferimento al problema “dell’identità dell’AI”, che appare virtuale, ‘chiusa in una bolla costruita da altri’.

L’operato legislativo non è chiaro. Pur ribadendo l’assoluta irrinunciabilità ai diritti fondamentali, in qualche modo favorisce l’operato di chi attenta a tali diritti non arginando la profilazione endemica e incontrollata dei dati personali.

Le fonti normative in materia di protezione dei dati possono risultare un ossimoro giuridicamente imbarazzante, in quanto cercano di controbilanciare due aspetti assolutamente inconciliabili: la tutela del mercato e la tutela della persona.

A tal proposito, la Commissione europea ha recentemente presentato una proposta di regolamento che presenta norme armonizzate in materia di intelligenza artificiale e modifica alcuni atti legislativi dell’Unione, stilando una sorta di classificazione dei rischi connessi all’utilizzo di determinati software che sembra ricalcare la formula di Radbruch.

In medicina, dove sono evidenti i progressi raggiunti anche grazie all’intelligenza artificiale, gli esperti chiedono con insistenza l’algoritmo-sorveglianza al fine di impedire discriminazioni di genere o di razza per utilizzo di dati limitati e limitanti.

In economia, “occupare il tempo nel migliore dei modi” è stato il principale slogan utilizzato per enfatizzare l’utilizzo delle reti e delle piattaforme, hardware e software. Un click può renderci liberi: ma è davvero così?

Inediti nichilismi prendono piede nell’infosfera giuridica, alimentati da un diritto che cerca faticosamente di adeguarsi al progresso tecnologico. Ma la tecnica non è soggetta ad alcun giudizio, essa si situa al di là del bene e del male.

Il potere tecnologico ha prodotto nuove forme di totalitarismi digitali che impongono profondi interrogativi in ambito giuridico. Dobbiamo quindi ricollocarci sugli atti umani, imprevedibili e imperfetti, mai anticipabili da nessun algoritmo, e non sui fatti biologici, che richiedono una semplice conoscenza.

La tecnocrazia naturalizzata

Generalmente la critica contemporanea alla tecnocrazia evidenzia una presunta falsa oggettività che il potere, mediante una serie di politiche, vorrebbe imporre alla società.

La tecnocrazia “naturalizzata” diviene una entità che, sia pure sorta nella dimensione artificiale (fatto ad arte), assume la stessa ineluttabile forza coercitiva ed estrinseca degli eventi naturali.

“Al contrario, l’invito alla denaturalizzazione deve essere preso in carico come l’esortazione a ripensare il mondo secondo più elevati gradi di giustizia, razionalità e realismo […] Come ci ha insegnato Gramsci, solo ciò che funziona meglio ed è in grado di costruire razionalmente e scientificamente, gradi più elevati di benessere, ha davvero la forza e il fascino per farsi reale egemonia”.

Conclusioni

Il giudice non può semplicemente limitarsi ad “applicare la legge secondo la legge”, ma, attraverso l’arte dell’ermeneutica, deve procedere verso la “ricerca del giusto nel legale’, per realizzare concretamente quella ‘sostenibilità digitale’ che appare ormai imprescindibile.

La strada ideologica tracciata da Albert Camus è quanto mai attuale: il suo uomo assurdo, schiacciato da virtuali ma sempre più reali nichilismi, è sempre in ‘rivolta’. Una rivolta solitaria ma solidale: mi rivolto, dunque siamo.

_________________

Bibliografia

B. Romano, “Civiltà dei dati. Libertà giuridica e violenza”, Torino, 2020.

B. Romano, “Forma del senso. Legalità e giustizia”, Torino 2012.

F. De Felice, A. Petrillo, “Effetto digitale. Visioni d’impresa e Industria 5.0”. McGrawHill, Milano, 2021.

G. Lovink, “Nichilismo digitale. L’altra faccia delle piattaforme”, Milano, 2019.

L. Floridi, “La quarta rivoluzione. Come l’infosfera sta cambiando il mondo”, Milano, 2017.

M. Chiriatti, “Incoscienza artificiale. Come fanno le macchine a prevedere per noi”, Roma, 2021.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati