Mala innovazione: se bisogna fermarsi per salvare l'umano | Agenda Digitale

la riflessione

Mala innovazione: se bisogna fermarsi per salvare l’umano

È da molto tempo che sappiamo che non tutte le innovazioni sono buone. Ma negli ultimi anni sembrava che l’avevamo dimenticato. Una sbornia collettiva da cui ci stiamo svegliando. Ecco, anche attraverso un dialogo con Luciano Floridi, la consapevolezza di cui abbiamo bisogno per riprogettare il nostro futuro

21 Apr 2021
Alessandro Longo

Direttore agendadigitale.eu

Un’intelligenza artificiale che faccia, davvero, gli interessi delle persone, della società. Per quest’obiettivo, caro anche alle istituzioni europee – come sembra apparire dal regolamento sull’intelligenza artificiale, uscito oggi – è necessario che vada recuperato lo storico dibattito sulla bontà delle innovazioni.

“È da molto tempo che sappiamo che non tutte le innovazioni sono buone”, mi dice Luciano Floridi, filosofo, tra i principali esperti mondiali di AI. Ora insegna all’università di Bologna.

Lo si è visto con il dibattito sul nucleare, che in Italia negli anni 80 e di recente in Germania hanno portato al blocco delle centrali nucleari.

Lo sappiamo da molto tempo ma sembra che l‘avevamo dimenticato. L’umanità si sta risvegliando lentamente, negli ultimi 4-5 anni circa, dalla sbornia dell’innovazione fine a sé stessa.

Quando l’automazione non dà valore alla società.

Questo sguardo critico ritorna ad esempio sul rapporto tra digitale e automazione. Il Mit da due anni sta parlando di “technology so-so”, dove ci mette automazioni che non portano veri vantaggi alla collettività e persino alle aziende ma comportano soprattutto tagli di posti di lavoro e piccoli risparmi.

Digital event, 24 giugno
Forum PA: Trasformare il Sistema Sanitario Nazionale, potenziamento del territorio e data governance
Sanità
Smart health

Intelligenza artificiale, i punti chiave del regolamento europeo

Se ne parla in un nuovo libro di Kevin Rose, Futureproof: 9 Rules for Humans in the Age of Automation, su alcune automazioni che arrivano in ufficio e non generano quell’aumento di produttività e nuovi ecosistemi dell’innovazione che portano nuovi tipi di lavoro, di numero magari superiore a quelli sottratti dalla tecnologia (com’è avvenuto nelle precedenti rivoluzioni industriali). Si moltiplicano a tale proposito articoli (vedi Financial Times) che indicano come nel breve-medio periodo il saldo dell’occupazione risulta negativo, per l’automazione, da recenti studi.

Frank Pasquale l’ha scritto nel New Law of Robotics (2021) (la prossima settimana esce il suo primo articolo qui): ci sono “innovazioni” che vanno scongiurate (mentre altre vanno gestite), come quelle di medici, infermieri, insegnanti. Anche lui, mi dice, “bisogna recuperare i filosofi del sospetto, Michel Foucault, Herbert Marcuse, che ho studiato; peccato che anche negli Usa non li si possa proporre in accademia”.

Ebbene, quel dibattito sulla bontà dell’innovazione bisogna riprenderlo; ma non per partire da zero. Gli USA, con il loro recente scrutinio delle big tech (anche in sede legislativa e antitrust) si sono ricordati di qualcosa che è nota da decenni di filosofia della tecnologia.

“In senso più esteso, bisogna uscire da due assunzioni che da tempo affliggono il dibattito sul digitale. La prima è quella per cui l’innovazione è sempre buona e che ogni critica o regolamentazione è un blocco negativo al progresso umano o alla crescita economica. Un’assunzione che ha regnato per decenni e ora si mostra ovunque in tutta la sua ingenuità. In realtà sappiamo che esiste una innovazione buona e una cattiva”, aggiunge Floridi.

Intelligenza artificiale, obiettivo regole privacy per renderla “umana”

L’altra dicotomia, tra privacy e innovazione

Ma c’è un’altra dicotomia che solo ora si rivela, come dice Floridi. Quella tra privacy e innovazione.

Bisogna uscire da quegli schemi mentali per i quali la privacy è ormai diventata arma di mass destruction, bloccante. Negli Usa ad esempio la normativa privacy sta persino ostacolando il dibattito sul femminismo. In Italia ha ostacolato uno strumento salva-vita, come il Fascicolo sanitario elettronico, per anni finché non è dovuta intervenire una norma per risolvere. Vedi anche tutto il dibattito su innovazione e crittazione dei messaggi. Nel Regno Unito il garante privacy la prende come valore assoluto e ora non sanno più come fare indagini del terrorismo e crimine organizzato

“La seconda assunzione è che la privacy sia sempre un fine a sé stesso, un valore assoluto – aggiunge Floridi. È una banale confusione di mezzi e fine. La privacy a volte può essere un bene in sé perché collegata direttamente alla dignità umana; ma in altri casi è solo un mezzo per proteggere informazioni e può essere addirittura una scusa per non promuovere la trasparenza. D’altra parte, anche la trasparenza non è un valore assoluto, si pensi ad esempio al diritto all’opacità nel voto. In poche parole, innovazione, alcuni casi di privacy, e trasparenza sono condizioni che possono facilitare un agire morale migliore, ma non sono di per sé moralmente buone in assoluto”.

Per un’etica pratica della tecnologia: da dove partire

A volte bisogna fermare l’innovazione

“Nel caso dell’automazione vale lo stesso principio. A volte bisogna fermarsi. Alcune automazioni non vanno fatte solo perché si possono fare, nella presunzione che nel farle ci sia un valore innovativo comunque positivo, che sia una cosa buona in sé stessa”, dice Floridi.

Ad esempio, come molte associazioni per i diritti digitali ed esperti dicono, il riconoscimento facciale ora è troppo pericoloso. Forse è giustificato solo in alcuni casi molto specifici, dopo attacco terroristico o in zone dove serve un’elevata sicurezza. Ma solo per un fine preciso, con tempi e ambiti specifici. Non come fanno in Cina o stanno tentando di fare in alcune città occidentali (recente il caso della polizia di New York). È sorveglianza di massa; è automazione di pregiudizi insisti nella nostra società contro certi ceti ed etnie svantaggiate.

Bloccare anche l’AI che fa schedatura di massa dei cittadini, social scoring come in Cina, scrive la Commissione ue.

Vietati anche i sistemi di AI “progettati per manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso”. Come quelli che sfruttano i dati personali a fini discriminatori, amplificando le vulnerabilità di persone o gruppi sociali.

A volte non bisogna fermarsi del tutto, ma comunque rallentare, mettere in pausa. Il regolamento europeo chiede proprio questo per le applicazioni di AI ad “alto rischio”: l’azienda deve fare una valutazione di impatto (proprio come per il trattamento dati con il Gdpr), assumendosene la responsabili.

Ad alto rischio sono ad esempio, si legge: i sistemi automatizzati di reclutamento; i sistemi con AI che decidono l’accesso agli istituti di istruzione o di formazione professionale; i sistemi di invio di comunicazioni e servizi di emergenza; quelli che fanno valutazione della solvibilità (credit scoring) per un prestito; i sistemi per decidere sostegni di welfare; i sistemi decisionali per la prevenzione, individuazione e persecuzione del crimine; e i sistemi decisionali utilizzati per assistere i giudici.

Social e tv

“Anche i sistemi di raccomandazione vanno visti con prudenza. Possono andare bene per consigliare un film; ma in alcuni casi possono avere un impatto politico. Nei social possono ad esempio rischiare di alimentare o amplificare la disinformazione, e favorire la radicalizzazione di gruppi.

Sorveglianza via riconoscimento facciale, Garante Privacy solo baluardo di diritti

Anche Facebook è arrivato a questa consapevolezza dopo l’attacco al Congresso Usa di gennaio: ha bloccato la raccomandazione di gruppi Facebook politici.

Non tutta l’innovazione è buona come non è buono tutto ciò che si vende bene. I due punti sono collegati tra loro. Sbagliato il principio che è sempre bene dare alla gente cosa la gente vuole. Perché a volte le persone vogliono qualcosa che danneggia loro e la società (Karl Popper, Cattiva Maestra Televisione).

Senza scadere nel paternalismo, offrendo solo contenuti culturali, non ci si può nemmeno adeguare al minimo comune denominatore dei desideri. Anche gli imperatori romani davano panem e circenses, ciò che volevano le persone.

In tv bisogna dare scelta, non solo programmi di massima qualità certo ma nemmeno “ciò che la gente vuole”. Questa visione assume che la gente sappia quello che la gente vuole e ciò che è meglio per sé. In realtà, le scienze cognitive hanno dimostrato da decenni che siamo malleabili, influenzabili, manipolabili.

Da mezzo secolo abbiamo abbandonato in filosofia questa idea che facciamo sempre scelte razionali (homo economicus). È il momento di farlo anche nel dibattito socio-politico sull’innovazione.

Floridi ha una suggestione: facciamo anche ispirare dai gesuiti. Che dicevano: per non cadere in tentazione è meglio non mettersi nella condizione di caderci. Se metti in tentazione le persone non ti può aspettare che non ci siano conseguenze negative.

“Vorrei che ci fosse molta più attenzione alle nostre fragilità e alla nostra plasticità da parte dei mass media. Social compresi”.

I limiti della gig economy

E forse certi modelli non funzionano nemmeno economicamente.

Oggi la ricerca dimostra che alcune automazioni complete di negozi sono state un fallimento, la gente preferisce rapporto umano. Preferisce anche fare più fila.

Vedi le cosiddette innovazioni della gig economy: non solo stanno sollevando problemi di sostenibilità del lavoro, ma anche stanno a fatica a piedi economicamente come mostrano i bilanci delle diverse società. E non si è nemmeno sicuro che siano “innovazioni”, quanto una re-invenzione in modello app del taxi o della consegna a domicilio.

Gli studi mostrano che la promessa di Uber & C, di ridurre il traffico cittadino e l’impatto ambientale grazie alla condivisone dei veicoli, si è rivelata falsa. E la conseguenza è stata perlopiù la riduzione dell’uso di mezzi pubblici.

In conclusione

Per riassumere, bisogna guardare con spirito critico ogni innovazione, mettendo per prima cosa in dubbio che sia davvero un’innovazione e poi chiedersi se vada applicata e con che modo; con quali limiti.

In certi casi dell’automazione decide il business; in altri è giusto limitarla. Non è un caso che sugli aerei, che già possono essere in larga parte automatici, ci vogliono due piloti.

A volte la cosiddetta innovazione va fermata. A volte, almeno, dobbiamo (sof)fermarci noi (per un po’): per riflettere sulla bontà di quell’innovazione e di come integrarla nell’umano, rendendola umana. Come dicono sempre più esperti di intelligenza artificiale e come suggerisce lo stesso Regolamento UE.

Vanno tutelati così gli interessi di fruitori di quella tecnologia, ma anche dei lavoratori, sui cui diritti non possiamo permetterci passi indietro.

Appunto: un’innovazione che fa fare passi indietro alla società non è un’innovazione; ma ha una funzione regressiva.

Ci auguriamo in conclusione che il regolamento UE sull’intelligenza artificiale sia davvero lo strumento efficace per rimettere l’umano e l’umanità al centro.

Nuove leggi della robotica: basteranno a non renderci nuovi turchi meccanici del tecnocapitalismo?

WHITEPAPER
Telemedicina: come attivare una valida rete ospedale-medici-territorio
Sanità
@RIPRODUZIONE RISERVATA

Articolo 1 di 4