Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Etica vs. redditività

Intelligenza Artificiale e diritti umani: è l’etica la vera sfida (più della compliance)

Non è solo attenendosi alle leggi che si evitano usi impropri dei sistemi di intelligenza artificiale: è soprattutto la conoscenza dei diritti umani che consente di realizzare tecnologie imparziali. La conservazione dell’etica digitale costituisce insomma la vera sfida per imprese, sviluppatori di software e consumatori

18 Apr 2019
Massimo Valeri

Senior Consultant in ambito Data Protection & Security


Una più approfondita conoscenza dei diritti umani da parte degli sviluppatori, oltre alla compliance normativa, potrebbe portare alla progettazione di algoritmi più imparziali, meno inclini a distorsioni o discriminazioni. E’, infatti, l’etica, più che il mero allineamento alle leggi la base per evitare usi impropri delle tecnologie e possibili discriminazioni indirette da parte degli algoritmi che – non dimentichiamolo – sono sempre programmati dagli uomini.

Intelligenza artificiale e rispetto dell’etica

L’Intelligenza artificiale (AI) sta trovando la sua strada in un numero sempre crescente di aspetti della nostra vita quotidiana. Alimenta gli assistenti intelligenti sui nostri telefoni cellulari e gli “assistenti domestici” virtuali. È usata negli strumenti di polizia predittiva, che, se non correttamente progettati, possono portare a discriminazioni basate su razza, genere o etnia.

Risiede, fra l’altro, in moltissimi algoritmi progettati per migliorare la capacità di diagnosi della nostra salute. D’altro canto, le norme sulla privacy e sulla protezione dei dati si applicano anche alle informazioni relative alla salute.

Ecco allora che, quando si tratta di protezione dei nostri diritti umani, appare immediatamente percettibile come numerosi potenziali conflitti possano emergere fra lo sviluppo tecnologico, la compliance alle normative e il rispetto dell’etica.

Ad esempio, la registrazione e l’uso sistematico della posizione geografica dei nostri smartphone potrebbero violare le norme sulla privacy e sulla protezione dei dati, sollevando preoccupazioni per la sorveglianza digitale da parte delle autorità pubbliche.

In tutti questi casi, gli sviluppatori dei software sono responsabili della progettazione degli algoritmi dietro questi sistemi. Sono i loro algoritmi a consentire agli “assistenti intelligenti” di rispondere in modo più accurato alle nostre domande, o ad aiutare i medici a migliorare l’individuazione dei rischi per la salute.

Eppure, tutti questi professionisti, in genere, non ricevono una formazione in materia di diritti umani. Ciò appare paradossale se si pensa che, tramite certe righe di codice, potrebbero benissimo riuscire ad interpretare, applicare e persino violare le fondamenta dei diritti umani, senza nemmeno saperlo.

Usi impropri delle tecnologie, il Gdpr da solo non basta

Dalle pratiche di condivisione dei dati e di data mining dei social network alle app che vendono i dati sulla posizione, tutti siamo coinvolti.

Tuttavia, troppo spesso la gestione di questi strumenti, “amministratori dei nostri dati”, non si è rivelata certo etica.

Chiaramente, il GDPR ha aumentato le restrizioni in merito a quanto le organizzazioni possono fare con i dati dei singoli ed ha esteso i diritti delle persone di accedere e controllare i propri dati. Questi passi verso la privacy by design e la protezione dei dati costituiscono grandi opportunità per integrare i quadri giuridici all’interno della tecnologia. Da soli, tuttavia, non sono sufficienti se non coadiuvati da una migliore conoscenza della legge sui diritti umani, la quale potrebbe aiutare gli sviluppatori di software a capire, ad esempio, cosa si intenda per discriminazione indiretta e perché sia ​​proibita dalla legge.

La discriminazione indiretta si verifica quando una regola algoritmica, benché neutrale, porta ad un trattamento meno favorevole di un individuo (o di un gruppo di individui).

Comprendere la complessità del diritto può portare a scelte meglio informate nella progettazione dell’algoritmo. Può inoltre assistere gli ingegneri e i programmatori nello sviluppo di scelte imparziali dei set di dati. Ad esempio, i dati sulla ricchezza e sul reddito, combinati con i dati sulla posizione geografica, possono essere utilizzati come proxy per l’identificazione di popolazioni provenienti da un determinato background etnico, se tendono a concentrarsi in un determinato quartiere o area.

Purtroppo, i professionisti del marketing e della privacy troppo spesso si concentrano solo sugli aspetti di mera compliance alle leggi, e le leggi in genere sono reazionarie rispetto a certe tecnologie emergenti, come le tecniche di riconoscimento facciale, la geo-localizzazione e l’intelligenza artificiale.

L’etica, invece, è il principio morale che governa il proprio comportamento basato su valori e norme sociali. Deve essere saldamente radicata e allineata alle aspettative della società e, in tal caso, può costituire, più ancora della compliance, il principio cardine per evitare usi impropri delle tecnologie.

Etica vs. redditività

Anche in questo senso, tuttavia, continuano a riscontrarsi casi in cui l’etica e la redditività viaggiano in direzioni diametralmente opposte. Basti pensare alle pratiche contabili di Enron o alla manipolazione dei test delle emissioni da parte delle case automobilistiche.

Negli ultimi anni, poi, la potenza dell’analisi dei dati si è evoluta in modo significativo, arrivando a ridefinire l’analisi comportamentale predittiva, e permettendo di estrapolare inferenze dettagliate e correlazioni degli stili di vita degli utenti. Queste tecnologie sono molto promettenti, ma solo se vengono utilizzate all’interno dei valori e delle norme sociali e sviluppate con uno “scopo etico”, possono anche rivelarsi socialmente utili.

L’intelligenza artificiale può infatti essere utilizzata anche per fini certamente non nobili, come potenziare la sorveglianza invasiva, emarginare segmenti della società ed erodere la propria dignità digitale.

Lacune e contraddizioni nello sviluppo delle tecnologie

Per affrontare a lungo termine l’impatto sociale di queste evoluzioni ed evitare che le normative ingessino l’innovazione nel tentativo di perimetrare l’utilizzo sapiente delle tecnologie emergenti, dovremmo chiederci tutti, in prima persona, se le nostre applicazioni AI siano progettate per rispettare l’autonomia e la dignità digitale dei soggetti e per evitare pregiudizi involontari ed usi imprevisti.

Inoltre, una migliore comprensione di come operano i quadri giuridici sui diritti umani può stimolare la creazione di soluzioni volte a migliorare il rispetto delle norme giuridiche. Tali soluzioni potrebbero essere rilevanti anche per il settore privato.

In conclusione, la realtà digitale sta di fatto facendo affiorare alcune annose questioni relative al controllo della tecnologia da parte dell’uomo, evidenziando lacune e contraddizioni nell’uso e nella gestione delle nuove tecnologie. Ci sta facendo inoltre capire quanto sia importante investire ed indirizzare risorse ed energie non solo a favore dello sviluppo di tecnologie all’avanguardia, ma anche a favore di una generale riflessione in merito alle modalità con cui lo sviluppo di queste tecnologie si intreccia con il rispetto, quanto mai essenziale, delle norme sui diritti umani.

Accanto al progresso tecnologico e alle connesse esigenze di sicurezza e protezione dei propri dati personali e di business, la conservazione dell’etica digitale costituisce una delle vere sfide odierne per imprese, sviluppatori di software e consumatori.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4