Perché la responsabilità digitale d’impresa richiede il trattamento etico dei dati - Agenda Digitale

società digitale

Perché la responsabilità digitale d’impresa richiede il trattamento etico dei dati

La responsabilità digitale, così come quella sociale e come ogni valutazione etica, implica spesso l’analisi di zone grigie, in cui prendere una posizione non è semplice. In particolare, riguardo al trattamento dei dati in ballo c’è non solo cosa si può o non si può fare, ma anche cosa sia più o meno etico fare

29 Set 2021
Laura Brandimarte

Assistant Professor of Management Information Systems, University of Arizona

Di responsabilità sociale da parte delle imprese si parla da almeno 70 anni, ovvero da quando l’economista americano Howard Bowen pubblicò un volume, “Social Responsibilities of the Businessman,” sul (all’epoca) nuovo paradigma imprenditoriale della condivisione dei profitti non solo tra azionisti, ma anche con tutte le parti che, più o meno direttamente, sono coinvolte nel processo produttivo: dai lavoratori, ai fornitori, ai clienti e quindi alla società allargata, includendo anche istituzioni e ambiente.

Con il ruolo sempre più preponderante che la sfera digitale ricopre nell’economia e nella società attuale, alcuni accademici stanno recentemente concentrando la loro attenzione su un concetto derivato dalla responsabilità sociale ma esplicitamente rivolto al digitale: appunto, la responsabilità digitale d’impresa, o Corporate Digital Responsibility (Lobschat et al. 2021).

Privacy e sicurezza: alla ricerca di un compromesso senza sacrificare la crittografia

La responsabilità digitale d’impresa

La digitalizzazione di processi produttivi e dati consente di ridurre i costi di produzione e, allo stesso tempo, di incrementare l’efficienza della produzione stessa, sostenuta da decisioni manageriali basate su informazioni accurate che raggiungono i vertici decisionali in tempo reale. Assieme a questi benefici, il digitale impone tuttavia nuove responsabilità: dalla sicurezza informatica alla protezione dei dati personali di tutte le parti che compongono la filiera produttiva. Entrambe queste responsabilità, di security e privacy, richiedono investimenti significativi e un’ottica di gestione di lungo termine, che guardi agli interessi ed ai diritti delle varie parti in causa più che al profitto immediato, con la consapevolezza che essere digitali responsabilmente può rappresentare un vantaggio competitivo che paga nel lungo periodo, non solo in termini di reputazione aziendale ma anche di lealtà e fedeltà al marchio.

WHITEPAPER
Perché impostare una strategia di manutenzione dei server?
Datacenter
Sicurezza

Alcuni provvedimenti, tra cui il GDPR (General Data Protection Regulation) a livello europeo, impongono alle aziende determinate scelte in quanto a raccolta e gestione dei dati digitali, pena l’imposizione di multe anche pesanti (la più recente di 746 milioni di euro ad Amazon, ovvero circa il 2,8% dei profitti, da parte dell’Autorità Lussemburghese per la protezione dei dati), ma per responsabilità digitale si intende qualcosa in più del rispetto della normativa vigente.

Il trattamento etico dei dati

In particolare, si pensa al trattamento etico dei dati: non solo cosa si può o non si può fare, ma anche cosa sia più o meno etico fare. Questo tema è intuitivamente importante per tutti i settori industriali, ma è centrale e fondamentale per tutte le aziende tecnologiche che fanno del digitale il loro settore primario. Tutte le “big tech”, ovvero le grandi aziende che producono beni e servizi tecnologici, da Facebook a Google, da Amazon a Microsoft ed Apple, ma anche aziende (relativamente) più piccole di compravendita di dati e profilazione (i cosiddetti data brokers come Acxiom, Equifax o Palantir), sono da diverso tempo al centro di accesi dibattiti concernenti la responsabilità digitale.

Il caso mediatico più recente è quello di Apple, azienda storicamente più attenta alla gestione dei dati dei propri clienti rispetto alla competizione, anche in circostanze controverse. Basti pensare alla presa di posizione di Tim Cook, amministratore delegato di Apple, nell’incidente di San Bernardino, in California (McGee, Hsieh, & Mcara 2017): nel Febbraio del 2016, un giudice statunitense impose all’azienda di sbloccare un iPhone utilizzato da un terrorista, responsabile, insieme alla moglie, dell’uccisione di 14 persone nel dicembre precedente. Apple rifiutò di collaborare con l’FBI in quanto rompere il codice crittografico anche di un singolo dispositivo significava, di fatto, farlo per tutti i dispositivi con quel sistema operativo, venendo quindi meno alla promessa di protezione dei dati fatta a tutti i suoi clienti. Anche in una circostanza così particolare, in cui era in gioco un’investigazione per terrorismo e sicurezza nazionale, Apple preferì proteggere la privacy dei propri clienti a tutti i costi. Non ha dunque stupito l’introduzione di un sistema automatico per bloccare la condivisione dei dati a scopi pubblicitari, che Apple ha implementato lo scorso aprile con la versione 14.5 del suo sistema operativo (e i dettagli per gli sviluppatori)). È apparso invece strano l’annuncio del 5 Agosto scorso in cui Apple presentava le sue intenzioni di analizzare, seppure con alcune accortezze crittografiche a protezione della privacy, tutte le foto che gli utenti salvano sul proprio spazio digitale iCloud per cercare immagini pedo-pornografiche. Circostanza controversa anche questa, come quella di San Bernardino: terrorismo lì, pedo-pornografia qui. Approccio però molto diverso: rifiuto di collaborare con le autorità lì, atteggiamento proattivo qui, a caccia di materiale illegale o pericoloso.

Pochi giorni dopo l’annuncio, Apple ha ben circoscritto l’iniziativa, specificando che posticiperà l’implementazione () e controllerà esclusivamente immagini già segnalate in diversi Paesi, ma i dubbi sulla sua effettiva responsabilità digitale restano, soprattutto tra chi ritiene che l’attenzione alla privacy da parte di Apple sia solo una trovata pubblicitaria, costruita ad arte per accrescere la propria quota di mercato.

Conclusioni

La responsabilità digitale, così come quella sociale e come ogni valutazione etica, implica spesso l’analisi di zone grigie, in cui prendere una posizione non è semplice: è etico investire in crittografia per proteggere la privacy di tutti pur sapendo che, tra i tanti innocenti che vogliono solo comunicare privatamente, possono nascondersi criminali di ogni sorta? È giusto che le piccole aziende raccolgano quanti più dati riescono ad ottenere sugli utenti di Internet perché la pubblicità personalizzata è alla base dell’unico modello di business che consente loro di sopravvivere sul mercato? È giusto che le grandi aziende facciano altrettanto perché offrono in cambio servizi gratuiti, come i social network o i motori di ricerca?

Sono molte le domande di etica e di responsabilità digitale che sorgono riguardo alle nuove tecnologie, e richiedono profonda riflessione: ciò che è giusto per alcuni può non esserlo per altri, ed avere il coraggio di infastidire una parte dell’azionariato o della clientela non è mai decisione scontata. Ciò non significa che non vada affrontata.

Bibliografia

Lobschat, L., Mueller, B., Eggers, F., Brandimarte, L., Diefenbach, S., Kroschke, M., & Wirtz, J. (2021). Corporate Digital Responsibility. Journal of Business Research, 122, 875-888.

McGee, H., Hsieh, N., & Mcara, S. (2017). Apple: Privacy vs. Safety (A), Harvard Business School, Case 9-316-069.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4