Digidog, un cane-robot simbolo di tutti i mali dell’intelligenza artificiale | Agenda Digitale

etica e tecnologia

Digidog, un cane-robot simbolo di tutti i mali dell’intelligenza artificiale

Da uno strumento troppo invasivo della privacy a un sistema di repressione in più in mano ai regimi totalitari, fino alla possibilità che i cani robot possano essere dotati di sistemi di arma o di offesa. Sono molti i fattori che, di fronte a tecnologie come Digidog, occorra la massima attenzione ai risvolti etici dell’AI

06 Apr 2021
Domenico Marino

Università degli Studi Mediterranea di Reggio Calabria

Il famoso cane robot della Boston Dynamics, ormai ribattezzato Digidog, e i suoi possibili usi ci fanno capire quanto sia importante prestare la massima attenzione agli aspetti etici dell’intelligenza artificiale.

E non parliamo di scenari futuri distopici, ma di una realtà che è già presente e su cui occorre riflettere.

Vediamo perché.

Cos’è e cosa fa Digidog

Boston Dynamics è una società di ingegneria e di robotica nata nel 1992 come spin off del Massachusetts Institute of Technology che è diventata famosa per il suo cane robot, ultimamente soprannominato Digidog e realizzato per la prima volta nel 2005. Nel 2013 la società viene acquistata da Google che successivamente nel 2017 la cede alla Giapponese Softbank che, a sua volta, la rivende nel 2017, per quasi un miliardo di dollari, alla Hyundai. L’asset principale di questa società che viene valutata a con cifre a nove zeri è appunto Digidog, un cane robot dal costo unitario di poco superiore ai 70.000 dollari, di circa 30 kg di peso, che è in grado di sviluppare una velocità di quasi 5 km l’ora e che è in grado di muoversi autonomamente nel raggio di 30 metri potendo contare su tutta una serie di sensori e di telecamere che lo rendono molto utile per il monitoraggio.

WHITEPAPER
I Robot del futuro e le loro applicazioni nella vita quotidiana. Qui tutti i dettagli
Intelligenza Artificiale
IoT

Può anche essere munito di un braccio meccanico che lo mette in grado di afferrare oggetti e di sollevare pesi. L’accoppiamento con il 5G può notevolmente migliorare le sue performance e il suo raggio d’azione, rendendolo di fatto completamente autonomo e indipendente e, quindi, con un raggio di azione molto esteso. Si tratta di uno strumento estremamente versatile che può essere utilizzato con scopi molto diversificati ed eterogeni in campo medico, nel monitoraggio e nella sorveglianza della casa, nelle operazioni di polizia, nella movimentazione di magazzino.

Intelligenza artificiale, usi o decisioni non etiche: il dibattito

Se un cane diventa un branco

Le ultime applicazioni che si stanno sperimentando prevedono anche la possibilità di un utilizzo congiunto per un solo task di un numero elevato di questi robot che in questo caso agiscono a tutti gli effetti in maniera sinergica come un branco e possono svolgere task collettivi complessi.

Come si può evincere da queste prime descrizioni si tratta di uno strumento che può essere molto utile e versatile, che però solleva dubbi legittimi legati alla possibilità che venga utilizzato come uno strumento di sorveglianza aggressivo e invasivo e, al limite, anche come un sistema d’arma.

Il Dipartimento di Polizia di New York sta testando Digidog per utilizzarlo al posto degli agenti in situazioni pericolose, ad esempio nel caso di rischio di esplosione o per entrare in ambienti pericolosi, ma più in generale esso può costituire un utile strumento di supporto al pattugliamento e al controllo del territorio per le forze di polizia soprattutto in contesti molto ampi, ad esempio nei parchi.

I rischi per la privacy

Il primo rischio che può essere legato a questo robot è quello di diventare troppo invasivo per la privacy. I suoi sensori, i suoi microfoni e le sue telecamere possono captare e immagazzinare molti più dati di quanto non possa fare un essere umano, anche se fornito di tecnologie avanzate, e possono farlo in maniera dinamica, seguendo anche nei terreni più scoscesi e impervi i soggetti che bisogna monitorare. Può essere usato per controllare i parchi e le zone poco frequentate della città che normalmente vengono utilizzati come piazza dello spaccio, ma il volume di dati personali e sensibili che può raccogliere in queste operazioni è enormemente grande e può costituire un pericolo per la privacy di molti individui, soprattutto se questi dati finiscono in mani sbagliate.

Pensate quale straordinario e terribile strumento di repressione delle manifestazioni può essere rappresentato da un branco di questi cani robot, che possono monitorare migliaia di persone che partecipano a un corteo o a una manifestazione per poi, attraverso tecnologie di riconoscimento facciale, andarle a individuare durante le loro attività quotidiane. Si potrebbero, inoltre, utilizzare questi robot per sciogliere le manifestazioni, insegnando loro a caricare gli assembramenti e i cortei. I regimi totalitari avrebbero a disposizione uno strumento efficiente e dal costo estremamente contenuto per controllare e reprimere il dissenso, apparentemente anche in maniera meno violenta.

Riconoscimento facciale, il quadro internazionale: norme, mercato e sfide etiche

I problemi di natura etica

Il rischio più grave, però, è che questi cani robot possano essere dotati di sistemi di arma o più semplicemente di sistemi di offesa (ad esempio taser che non uccide, ma stordisce) ponendo grossi problemi di natura etica. Si tratta, infatti, non di automi telecomandati, ma di macchine in grado di prendere delle decisioni autonome e che, quindi, potenzialmente potrebbero anche arrivare a uccidere se ritenessero quella la scelta migliore o che potrebbero sviluppare bias razzisti e colpire selettivamente alcuni gruppi etnici. Quelli che stiamo descrivendo non sono scenari distopici e lontani nel tempo, ma fatti che possono essere estremamente attuali, poiché sarebbe sufficiente sostituire il braccio meccanico con un sistema di arma o di offesa per trasformare il cane robot in un perfetto strumento di morte.

Certo le democrazie evolute non potrebbero tollerare simili strumenti di controllo della libertà individuali, ma nel mondo esistono ancora troppi regimi totalitari e troppi governi che non si fanno troppi scrupoli nell’attuare azioni violente per reprimere i dissidenti o le opposizioni. Il caso attuale della Birmania non è che l’ultimo degli esempi del potenziale distruttivo che possono avere queste tecnologie se messe al servizio di regimi che non tengono in nessun conto il rispetto della libertà.

A facilitare il tutto vi è anche un costo abbastanza accessibile e una tecnologia tutto sommato consolidata e facile da usare. Con appena un milione di euro ogni regime potrebbe dotarsi di un branco di questi cani robot per poi utilizzarli come strumento di repressione estremamente efficiente o come strumento di spionaggio estremamente invasivo per la privacy individuale.

Conclusioni

Si ripropone, quindi, anche rispetto a questi strumenti, l’importanza di sottolineare la necessità di dare un’etica all’intelligenza artificiale e di fare in modo che applicazioni non etiche vengano bloccate. La tecnologia è neutra, non è né buona, né cattiva. È l’uso che si fa della tecnologia a renderla buona o cattiva. È, quindi, necessario che la sperimentazione di queste tecnologie che possono essere invasive per le libertà individuali avvenga in un contesto di intelligenza artificiale estesa, cioè in un contesto in cui l’essere umano mantenga il controllo sulle decisioni, supervisioni le decisioni e sia in grado di intervenire e di bloccare la macchina quando, per qualunque motivo, essa oltrepassi determinati limiti. Ma questo è, ovviamente, valido solo per governi democratici che dovrebbero punire determinati comportamenti repressivi, cosa diversa dal caso di regimi che non si fanno scrupolo di attuare dure repressioni e che potrebbero apprezzare proprio la non eticità di queste tecnologie. Alexandria Ocasio Cortes, membro della Camera dei Rappresentanti degli Stati Uniti, ha denunciato il potenziale razzista di queste tecnologie utilizzate dalla polizia di New York, lamentando il fatto che, mentre per sorvegliare le comunità di colore a basso reddito si impiegano questi nuovi droni terrestri, si trascura di fornire le più elementari dotazioni tecnologiche alle scuole e alla sanità.

Digidog ci fa capire quanto elevata deve essere l’attenzione rispetto all’uso improprio delle nuove tecnologie dell’intelligenza artificiale!

@RIPRODUZIONE RISERVATA

Articolo 1 di 4