etica e AI

Ray-Ban Stories, gli occhiali specchio dell’anima della società digitale? Tutti i rischi

I dati raccolti dai Ray-Ban Stories sono estremamente sensibili: riguardano il nostro meccanismo decisionale e il funzionamento del nostro cervello e consentirebbero innovazioni dirompenti. È giusto lasciare tutto ad aziende private il cui scopo è oil profitto tout court? Servono misure per il benessere collettivo

20 Dic 2021
Alessandro Massolo

Luiss Guido Carli

Con i Ray-Ban Stories, gli occhiali frutto della collaborazione fra Facebook e EssilorLuxottica, l’osmosi fra il nostro corpo, la nostra quotidianità e la tecnologia si rafforza.

Qualcuno sosterrà che non cambia molto filmare con una video camera, un telefonino o con un paio di occhiali. In realtà, seppur effimera, vi è una sostanziale differenza.

Ray-Ban Stories: perché gli occhiali Facebook sollevano timori universali

L’immagine del mondo circostante che arriva al cervello dipende esclusivamente dagli occhi. Questi ultimi, infatti, generano impulsi neurali consentendoci, così, di adottare delle decisioni.

Con questa nuova invenzione, Facebook avrà quindi la possibilità non solo di raccogliere informazioni su ciò che ci circonda (i.e. adulti e bambini, affetti e famigliari, negozi, ambienti privati, paesaggi), ma anche sui tempi e il tipo di reazione del nostro cervello a seconda degli stimoli sensoriali che riceve.

Si precisa che, in parte, Facebook è già in grado di farlo con i contenuti che ci propone sui suoi social network. Nel caso dei Ray-Ban Stories, però, Facebook avrebbe accesso a una tipologia di dati ben più dettagliati circa le nostre preferenze poiché sarebbe in grado di capire come utilizziamo il nostro sistema visivo per compiere azioni o adottare decisioni.

Immaginate, ad esempio, di utilizzare un paio di Ray-Ban Stories per filmare una passeggiata in riva al mare. Spesso non ce ne accorgiamo, ma automaticamente assumiamo un atteggiamento diverso, aperto o chiuso, a seconda delle immagini che vediamo come ad esempio, una persona che ci piace o un venditore ambulante che ci interessa e così via. Indossando i Ray-Ban stories, consentiremo a Facebook di raccogliere questo tipo di dati, talvolta sconosciuti anche a noi stessi perché non conosciamo approfonditamente il funzionamento del nostro cervello.

I problemi privacy di Ray-Ban Stories

Tutto ciò pone sicuramente dei problemi di privacy. Non a caso, Facebook ed EssilorLuxottica hanno dedicato una pagina al trattamento dei dati personali per l’utilizzo della loro nuova invenzione.

candidatura
Passione per la cybersecurity? Candidati per la squadra di IT & Cyber Security Governance di P4I!
Sicurezza
Cybersecurity

Facebook afferma che i dati raccolti non saranno incrociati con quelli del suo social network né saranno utilizzati per fini commerciali. I dati saranno sfruttati solo per sviluppare i prodotti e i servizi offerti.

Tuttavia, l’impresa americana avrà sicuramente accesso a tutti i nostri contenuti e le interazioni vocali, anche se fortuite, che avremo con gli occhiali. In quest’ultimo caso, Facebook accederà anche alle voci delle persone che ci circondano in quel momento e, quindi, ad esempio anche dei nostri famigliari, amici o colleghi.

Come dicevamo, Facebook utilizzerà i nostri dati per sviluppare nuovi prodotti. Considerando la qualità e l’elevato grado di sensibilità dei dati personali che Facebook raccoglie, non è difficile immaginare che arriveremo ben presto a prodotti basati su sistemi di intelligenza artificiale dotati di un crescente grado di autonomia. Ci si chiede però quali possano essere i rischi, ma soprattutto, l’impatto di tali nuove innovazioni sulla società.

Etica e intelligenza artificiale: le mosse Ue

La Commissione e il Parlamento europeo sono già intervenuti per armonizzare le regole in materia di intelligenza artificiale (IA) al fine di garantire che vi sia un livello adeguato di gestione delle tipologie di rischi connessi all’utilizzo dei prodotti basati su sistemi di IA[1] e per delineare un quadro riguardante gli aspetti etici dell’IA[2].

Intelligenza artificiale, ecco l’etica che serve all’innovazione

In particolare, per quanto riguarda la questione etica, il Parlamento europeo ha proposto un regolamento sui principi etici per lo sviluppo, la diffusione e l’utilizzo dell’intelligenza artificiale, della robotica e delle tecnologie correlate. Tale regolamento si basa su alcuni principi, fra i quali, un approccio umanistico e antropocentrico dello sviluppo tecnologico, la presenza di garanzie e mezzi di ricorso contro le distorsioni e le discriminazioni, il rispetto della vita privata e restrizioni all’utilizzo del riconoscimento biometrico.

Tali principi sono di notevole importanza al fine di garantire che le future innovazioni non ledano i diritti fondamentali, i principi e i valori sociali ed economici della nostra società. In particolare, è fondamentale che tali innovazioni rispettino la dignità umana, l’autonomia e l’autodeterminazione dell’individuo, e che impediscano danni, promuovano l’equità, l’inclusione e la trasparenza ed eliminino le distorsioni e le discriminazioni.

Tuttavia, ci si chiede se ciò sia sufficiente, o se occorra spingersi oltre. Stiamo parlando, infatti, di dati estremamente sensibili, che riguardano il nostro meccanismo decisionale e il funzionamento del nostro cervello, che consentirebbero di pervenire a innovazioni dirompenti.

Pertanto, varrebbe la pena domandarsi se sia giusto lasciare questa opportunità e delicato compito solo ad alcuni privati. Si tratta, infatti, del destino della nostra società. L’iniziativa privata ha certamente contribuito notevolmente a trainare lo sviluppo tecnologico ed è stata il motore di tutte le rivoluzioni industriali. La quarta rivoluzione industriale è però differente. Essa è potenzialmente in grado di favorire lo sviluppo di robot capaci di agire come essere umani. Il cambiamento sarà quindi radicale e la tecnologia non solo lo accompagnerà ma questa volta ci sostituirà o sarà comunque parte imprescindibile della nostra vita quotidiana.

Conclusioni

Una plausibile soluzione sarebbe quella di aprire un dialogo politico fra pubblico e privato per discutere un orientamento comune sul tipo di società auspicabile in futuro (ad esempio, si potrebbe progettare il lavoro del futuro per evitare licenziamenti di massa) e sulle innovazioni più importanti da sviluppare (in campo medico e ambientale soprattutto per evitare nuove epidemie e catastrofi ambientali). Si potrebbe prevedere che queste ultime figurino in panieri più ampi di innovazioni, fra le quali ci sono anche quelle più commerciali, forse meno utili, ma considerate più redditizie per i privati.

Non si intende mirare al dirigismo economico ed è ben noto che la libertà di iniziativa economica è costituzionalmente garantita. Tuttavia, un semplice (e timido) invito al ricorso al buon senso e al pragmatismo lungimirante per il bene della collettività appare opportuno.

Note

  1. Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, COM(2021) 206 final, 21 aprile 2021.
  2. Parlamento europeo, Quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologieCorrelate, Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate, 6 ottobre 2021, C 404/63.
WEBINAR
8 Giugno 2022 - 12:00
Governance e sicurezza dei dati. Come gestirli al meglio?
Big Data
Sicurezza
@RIPRODUZIONE RISERVATA

Articolo 1 di 4