Poche persone sono particolarmente consapevoli di sé stesse. Poche
persone hanno sviluppato nel corso del proprio percorso di vita l’autoconsapevolezza.
Ogni persona, ovviamente, possiede un certo grado di capacità metacognitive. Ecco a cosa serve raggiungere un’elevata consapevolezza di sé stessi e sé stesse e perché è importante la consapevolezza in relazione con l’intelligenza artificiale (IA).
Autoconsapevolezza: che cos’è
Secondo una ricerca pubblicata sulla Harvard Business Review (HBR) da Tasha
Eurich, sviluppare la propria metacognizione permette di prendere decisioni
migliori, avere maggiore sicurezza nel prendere decisioni, essere più efficaci
nel comunicare con gli altri.
Quando invece una persona non fa consapevolezza, il suo livello di attenzione
verso ciò che pensa e fa è molto basso. Alcune persone sembrano camminare su
questa Terra senza avere la minima idea di ciò che stanno facendo, e non hanno
nemmeno una parvenza di ciò che gli altri fanno.
L’esempio più semplice per illustrare questa situazione è quando una persona vede uno dei tanti video virali che girano per la rete sul proprio smartphone.
Alcune persone si immergono totalmente nel video senza avere contezza di quello che succede attorno a loro, senza neanche rendersi conto che passano da quel video ad uno successivo. Il tempo passa e non se ne ha contezza.
Mentre altre persone guardano il video, consapevoli di vedere un video “divertente”, senza perdere contezza del mondo che le circonda, e soprattutto, senza perdere contezza che il video che sta vedendo serve solo per “distrarsi” qualche minuto.
Ogni persona possiede una consapevolezza del sé “interna”, volta a distinguere
in modo chiaro i nostri valori, le nostre passioni, le nostre aspirazioni e un’autoconsapevolezza o consapevolezza del sé “esterna”, rivolta a comprendere come gli altri ci percepiscono.
La matrice a quattro quadranti
La ricerca condotta da Tasha Eurich ha sintetizzato tutto questo in una matrice a
quattro quadranti. Quella che conosciamo come matrice di Eisenhower, conosciuta anche come matrice di Covey.
In questa matrice, Tasha Eurich individua quattro archetipi della propria
consapevolezza: introspezione, ricerca (il cercare), piacere, consapevolezza.
L’archetipo consapevole
L’apice del nostro percorso di sviluppo della consapevolezza del sé è costituito dall’ “archetipo consapevole”, che consiste nell’essere pienamente consapevoli sia di noi stessi che degli altri (del mondo che ci circonda).
Tuttavia non si raggiunge questa condizione in modo permanente. Anzi si può scivolare avanti e indietro fra l’alto e il basso nei quattro quadranti. Può dipendere dall’ora del giorno, dalla situazione in cui ci si trova e da una serie di innumerevoli fattori.
Quello che possiamo affermare a questo punto è che più si sviluppa la propria metacognizione e più siamo in grado di esercitare l’autocontrollo su di sé.
Alcuni ricercatori ritengono che le persone con una forte autoconsapevolezza siano meno inclini a imbrogliare, rubare o mentire. Questo deriverebbe dal fatto che lo sviluppo della propria metacognizione porta ad aiutare e migliorare le persone con cui si è in relazione, e per fare questo non si può scegliere di ingannare e truffare il prossimo.
Ma altri non sono d’accordo. Una persona può essere consapevole di far del male ad altre persone, ad esempio, e compiacersene.
Autoconsapevolezza e IA: serve una guida etica per sviluppatori e aziende
Se la consapevolezza del sé può essere per un essere umano una sorta di “guida
etica”, può essere anche una sorta di cartina di tornasole per sviluppare una
nozione di etica per l’intelligenza artificiale.
Sono molti i campanelli di allarme sull’IA, la quale si nutre di dati che talora sono iniqui e pieni di pregiudizi. Quando negli Stati Uniti d’America l’intelligenza artificiale è stata utilizzata per condurre dei test sul riconoscimento facciale, ha commesso, per esempio, molti più errori nei confronti degli afroamericani.
Il dibattito sull’intelligenza artificiale si sta focalizzando su come ridurre i potenziali utilizzi non etici di questa tecnologia. Basta pensare al recente appello di Elon Musk.
Serve dunque una guida etica agli sviluppatori di intelligenza artificiale, oltre che alle aziende, al fine che costruiscano o
introducano soluzioni basate sull’intelligenza artificiale che rispondano ad
un’etica. Ma, per farlo, bisogna valutare se possiamo convincere gli sviluppatori di intelligenza artificiale ad abbracciare principi etici, se siamo in grado di convincere sia le aziende che creano o introducono l’IA a fare altrettanto sia gli utenti dell’IA ad essere consapevoli delle sfaccettature etiche che implica l’uso dell’intelligenza artificiale.
Il brivido di creare l’IA può sopraffare qualsiasi accenno di attenzione verso il rispetto di un codice etico. Non solo il brivido, ma anche le grandi opportunità di business che questa tecnologia offre.
Molti sviluppatori ritengono che nel momento in cui l’intelligenza artificiale sarà disponibile per tutti, sarà l’uso stesso dell’intelligenza artificiale a portare ad un
equilibrio e ad un uso etico di questa tecnologia.
Ma è un’idea pericolosa, assomiglia al proverbio di chiudere la stalla dopo che i buoi
sono scappati.
Ecco cosa possiamo fare per poter permettere a tutti di utilizzare l’intelligenza artificiale impedendone un uso non etico.
Intelligenza artificiale: stop a un uso non etico
Per impedire un utilizzo non etico dell’IA è coltivare il più alto grado possibile di consapevolezza del sé.
Se le persone sviluppassero una maggiore consapevolezza di come usano e/o interagiscono con l’intelligenza artificiale, potrebbero aumentare la loro propensione a voler utilizzare questa tecnologia secondo norme etiche ben precise.
Lo stesso si potrebbe dire degli sviluppatori di intelligenza artificiale e delle aziende legate ai sistemi di intelligenza artificiale.
Essere consapevoli di sé offre una tendenza ad essere una persona eticamente migliore e anche ad evitare di essere una persona eticamente riprovevole.
Se questa premessa è vera, implica che gli sviluppatori di intelligenza artificiale che sono più inclini all’autoconsapevolezza saranno inclini a comportamenti etici e, quindi, saranno propensi a produrre un’intelligenza artificiale guidata da un’etica.
Il punto debole di questo approccio è legato al fatto che si tratta di una soluzione
“indiretta”.
Il punto debole
L’esorbitante catena di collegamenti tra l’essere consapevoli di sé, l’essere eticamente virtuosi e l’applicazione di precetti etici dell’intelligenza artificiale, è forse difficile da comprendere.
Alcuni ricercatori ritengono che si dovrebbe costruire all’intero dell’intelligenza artificiale un proprio senso di etica, da sviluppare autonomamente.
Un programmatore potrebbe creare un sistema di intelligenza artificiale e cercare di impedire all’intelligenza artificiale di incarnare pregiudizi e disuguaglianze. Potrebbe: il condizionale è d’obbligo.
L’impatto dell’apprendimento
L’intelligenza artificiale è utilizzata quotidianamente. Caratteristica dell’intelligenza artificiale è quella di “apprendere”. Ciò significa che l’intelligenza artificiale può adattarsi ed evolvere man mano che raccoglie nuovi dati. Dunque, può evolversi rispetto alla sua programmazione originale, anche se, per inciso, ciò non implica che l’intelligenza artificiale sia senziente.
L’intelligenza artificiale è stata appositamente concepita per migliorare sé stessa
in itinere. Ciò sta facendo emergere iniquità e pregiudizi.
Ricordiamoci che i dati di cui l’intelligenza artificiale si nutre sono prodotti da esseri umani, che per l’appunto hanno una bassa consapevolezza che ciò che condividono sulla rete può (ed è spesso carico) di pregiudizi.
La capacità dell’apprendimento dell’IA ha di fatto messo fuori campo la libertà di coloro che la programmano di “impedire” che si nutra di pregiudizi.
La soluzione: il doppio controllo dell’etica dell’IA
Un mezzo per prevenire o almeno intercettare questo problema è quello di costruire all’interno dell’intelligenza artificiale una sorta di doppio controllo dell’etica dell’intelligenza artificiale. Programmare l’intelligenza artificiale perché osservi il proprio comportamento, così da capire se è etico o meno.
In caso di comportamento non etico, inoltre, l’intelligenza artificiale può avvisare chi è
responsabile della sua programmazione perché intervenga.
In futuro si potrebbe anche arrivare ad automatizzare questo comportamento.
Ovvero far sì che l’intelligenza artificiale sia in grado di capire che c’è un comportamento non etico e, quindi, intervenire in modo autonomo. Insomma una sorta di adattamento delle tre leggi della robotica di Asimov.
Ma questo tipo di programmazione, almeno oggi, è estremamente complessa. È necessario riuscire a valutare una notevole quantità di fattori, evitare i così detti falsi positivi e così via. Un ruolo che per il momento svolge al meglio l’essere umano.
Conclusioni
Forse un giorno esisterà una figura professionale preparata proprio a svolgere il ruolo di interfaccia etica dell’intelligenza artificiale.
Oggi lo stadio di evoluzione dell’IA è che non è dotata di autoconsapevolezza, non è consapevole di sé stessa.
E, fino a quando non raggiungeremo un’intelligenza artificiale consapevole di sé stessa, sarà l’uomo a dover monitorare questa straordinaria tecnologia, con tutti i limiti del caso.
In futuro forse anche le auto guidate da intelligenza artificiale dovranno possedere una sorta di codice etico. E dovremo capire come si risolverà questo limite alla luce di quanto sappiamo.
Per esempio, un bambino attraversa improvvisamente la strada. L’interrogativo è se la macchina può frenare in tempo, se sterza, e se lo fa, se può ferire qualcuno, mettendo magari in pericolo la vita dei passeggeri. E, di conseguenza, ci domandiamo chi risponderà.
Attualmente le auto gestite da intelligenza artificiale prevedono sempre l’assistenza di un essere umano, ma domani nessuno lo sa.
Questa è la vera sfida che l’intelligenza artificiale ci pone: sviluppare la nostra
autoconsapevolezza, la nostra metacognizione fino all’archetipo della “consapevolezza” individuata da Tasha Eurich. Infatti sarà questa che ci permetterà di utilizzare al meglio tutto ciò che l’intelligenza artificiale ci mette oggi (e metterà in futuro) a disposizione. Sarà dunque la guida da seguire per creare i binari sui quali far correre l’etica dell’intelligenza artificiale.