Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

nuove competenze

Cos’è la computer ethics e perché deve diventare coscienza comune

di Giovanni Salmeri, docente di filosofia a Roma Tor Vergata

31 Mag 2017

31 maggio 2017

Il successo dell’informatica e la diffusione capillare di internet ha instillato la convinzione che tutti possano e debbano usare gli strumenti informatici senza preparazione alcuna. Ma è evidente che non è così e sia la scuola che lo Stato dovrebbero intervenire per insegnare agli uomini come funzionano i computer

Se si volesse dedicare un volume ai risvolti umani dell’informatica, il risultato sarebbe ampio e soprattutto composito. Una parte sarebbe per esempio dedicata ai temi dell’usabilità, quelli cioè che toccano l’interazione tra uomo e macchina e si preoccupano che i programmi siano facili da usare e consentano di ottenere rapidamente e senza errori l’effetto desiderato. Si tratta di un campo di ricerche molto ben sviluppato, in cui le intuizioni estemporanee di un tempo hanno da tempo lasciato il posto ad elaborazioni precise e affidabili (chiunque lavori nel campo conosce per esempio che cosa dicono la legge di Fitts o la legge di Hick e come esse influenzano la scelta di un’interfaccia appropriata). Un’altra parte dovrebbe sicuramente occuparsi della computer ethics, cioè di tutti i problemi morali che nascono, o comunque vengono moltiplicati, dall’uso dell’informatica (per esempio riguardo all’uso dei dati, alla diffusione delle informazioni, al controllo delle reti pubbliche, alle influenze sul concetto di «proprietà intellettuale»). Anche in questo caso, si tratta di un campo che dalle primitive intuizioni ormai è debordato perfino in norme penali, pure nei casi in cui si potrebbe ritenere che le leggi esistenti erano di per sé già sufficienti (come nel caso della recentissima legge italiana sul «cyberbullismo»). Insomma, pur considerando la velocità dell’evoluzione dell’informatica, si avrebbe l’impressione di una sintesi di campi di ricerca e di applicazione ormai consolidati.

Eppure, proprio un volume siffatto qualche dubbio lo farebbe venire. La prima parte insegnerebbe che i programmi vanno concepiti in maniera da essere «intuitivi», facili da usare, sfruttabili fin dal primo momento senza bisogno di nessuna istruzione (il manuale? il file di aiuto? che cosa sono, chi mai li ha letti?). Insegnerebbe che quando si parla di manipolazione diretta di oggetti su uno schermo, ciò significa che i cambiamenti si devono poter vedere sùbito (dove «sùbito» significa: dopo non più di un decimo di secondo). La seconda parte insegnerebbe esattamente il contrario: che l’uso di ogni strumento presuppone che prima si capisca quali siano le sue possibilità, i suoi limiti, i suoi rischi. Tutti aspetti, questi, che vanno prima valutati in maniera da comprenderne il significato umano, morale, e anche legale: tutto il contrario quindi di un uso immediato e senza nessuna istruzione previa. Si potrebbe obiettare: si tratta di cose diverse, che non si escludono affatto. Un conto è che un programma, o per esempio una piattaforma sociale, siano chiari e facili da usare, un conto è che nell’usarli si rifletta a che cosa si sta facendo e non divengano lo strumento, puta caso, di diffamazione o molestia. Giusto. Anzi, quasi giusto.

Il fatto è che i punti di contatto tra i due ordini di problemi sono più numerosi di quanto sembri a prima vista. Si pensi per esempio a tutti i casi in cui (in maniera peraltro inefficace) i programmi informatici sono intenzionalmente rallentati da richieste di conferma, passaggi intermedi di per sé non necessari ma evidentemente concepiti per dare una possibilità di ripensamento. Certo: il ripensamento a cui si mira è soprattutto quello nei confronti di errori accidentali o distrazioni, ma comunque si suppone che ciò che si chiede di fare al computer non coincida perfettamente con ciò che veramente si vuole fare. Oppure, si pensi al caso più evidente e sempre più frequente di app che alla prima esecuzione costringono ad attraversare un piccolo tutorial o una presentazione, anche quando questi non sono strettamente necessari per l’uso del programma, ma solo per un uso consapevole e accorto. Insomma, che cosa sta accadendo?

Per capire la situazione, bisogna fare qualche passo indietro, e ricordare ciò che è accaduto negli anni 80. Sono stati questi gli anni della prima grande diffusione dell’informatica personale. Le basi teoriche c’erano tutte. Quello che avvenne fu semplicemente la popolarizzazione a prezzi accessibili dei primi «personal computer» o «home computer» e lo sviluppo di programmi generici che ne rendessero l’uso attraente anche appunto alla singola persona nel lavoro quotidiano o nello svago. Il tipico computer di quell’epoca aveva quindi normalmente l’interprete per un linguaggio di programmazione e veniva completato a seconda delle necessità con i tipici (e salati) programmi applicativi: videoscrittura, foglio di calcolo, database. In ogni caso era impossibile cominciare ad usare un computer se prima non se ne studiavano i manuali: in parte perché per qualsiasi impiego più specializzato usare un computer significava programmarlo, in parte perché non esisteva alcuno standard e ogni programma già pronto era una storia a sé, in parte perché nozioni oggi imparate spontaneamente nella culla erano novità inaudite («posso tornare indietro e correggere ciò che ho scritto? davvero?»), in parte perché venivano fatti pochissimi sforzi per rendere «intuitivo» l’uso di un programma (qualcuno ricorda ancora il bellissimo dBase­II che, una volta lanciato, nello schermo completamente nero scriveva solo un punto?)

Sembrerà strano, ma di fronte alla difficoltà di questo nuovo ingresso c’era chi cantava vittoria: per esempio Neil Postman, che nel suo celebre The Disappearance of Childhood vedeva nell’informatica il ritorno nella storia dell’umanità di una competenza difficile che (per dirla in due parole) avrebbe ridato senso alle istituzioni educative e restituito alla minore età il suo carattere di periodo di apprendimento e crescita. Le cose non sono andate così. La fine degli anni 80 vede la rapida diffusione delle interfacce grafiche, che in un colpo solo annullano tutti i motivi detti prima: ora ogni cosa assomiglia alla vita reale, si impone lo standard WIMP (window, icon, menu, pointer), diventa un imperativo la discoverability, cioè la possibilità di «scoprire» autonomamente tutte le funzioni esistenti, e tutto viene progettato in modo da rendere superflui i manuali, mentre la programmazione, irriducibile com’è a manipolazioni grafiche, viene sempre più percepita come qualcosa di esoterico. Mentre prima la preoccupazione era soprattutto che un programma fosse veloce da usare una volta imparato, ora si vuole che esso possa essere usato senza bisogno di impararlo: una cosa completamente diversa. Interpretazione esagerata? Niente affatto, su questo erano esattamente basati i messaggi pubblicitari del primo Macintosh nel 1984, uno straordinario e meritato successo basato sullo slogan: non dovrai imparare come funziona il computer, perché noi abbiamo insegnato al computer come funzioni tu. Gli anni in cui si afferma l’informatica personale sono poi anche quelli in cui si diffonde Internet, cosa che meriterebbe un discorso a sé. Basti però dire che avviene qualcosa di paragonabile: un canale dapprima pensato per poche élites diventa improvvisamente ubiquitario e facile.

Insomma, il problema è profondo e deriva paradossalmente proprio dal successo dell’informatica e dalla ben riuscita corsa verso una sempre maggiore facilità: ciò non solo ha messo uno strumento potentissimo come il computer nelle mani di tutti, ma ha anche imposto l’idea che tutto possa (o addirittura debba) essere usato senza alcuna preparazione previa. Sarebbe quindi sbagliato addebitare ad Internet un problema che viene più da lontano. Certo, fa riflettere il fatto che un innocuo radioamatore debba sostenere un esame di abilitazione, mentre qualsiasi bambino con uno smartphone ha nelle mani un potere di gran lunga maggiore: ma il problema nasce appunto non da una mancata regolamentazione dell’uso di Internet, ma dalla facilità che si è imposta come imperativo dell’informatica di consumo. Che la situazione alla lunga non sia più sostenibile può essere affermato con buoni argomenti. Fino a pochi anni fa le lamentele erano quelle dei pochi esperti contro i neofiti che non rispettavano la sacra netiquette (non si scrive in maiuscolo! non si fa il top-posting!). Oggi il problema ha superato le buone maniere, in tutte le direzioni immaginabili: ci sono persone che si tolgono la vita, rapporti umani che si distruggono, danni immensi a cose e persone derivanti da ignoranza o superficialità. Nessuno può ragionevolmente sostenere che questi siano effetti collaterali inevitabili di una tecnologia che porta pur sempre enormi benefici. Edsger Dijkstra qualche decennio fa poteva dire: non è questa l’informatica che volevo, ora è Tim Berners Lee che può dire: non è questa la Rete che volevo. Che cosa fare?

Dopo aver posto una domanda, sarebbe bello dare una risposta. Purtroppo non la abbiamo ancora. O, forse, ne abbiamo tante che paiono insufficienti. C’è il ruolo che può svolgere la scuola: sono pochissimo convincenti le proposte di introdurre un’ulteriore materia per esempio di «educazione digitale» (come se la già oltremodo dispersiva scuola avesse bisogno di un’altra materia!), ma pare invece sensato che, in una forma possibilmente non troppo legata all’attualità, il tema dell’uso umano delle tecnologie di comunicazione entrasse per esempio sotto l’ombrello dello studio della lingua, o dell’educazione civica (o di ciò che ne rimane): ai bei tempi andati (cioè i miei, ahimè) non si insegnava forse come e perché si scriveva una lettera? Obiettare che malgrado ciò ognuno rimarrà libero di fare quel che vuole non ha senso: in questo modo sarebbe dichiarata inutile ogni pretesa educativa. C’è anche un ruolo che può svolgere lo Stato: un intervento ossessivo e paternalistico sarebbe controproducente, ma si potrebbe immaginare un’attenzione almeno pari a quella per esempio rivolta alla televisione. Ancora: se campagne pubblicitarie martellanti istillano sensi di colpa profondi in chi getta una bottiglietta di plastica nell’indifferenziata, forse altre campagne potrebbero consigliare comportamenti cauti e responsabili in chi usa un computer. Finora, se non erro, non ce ne sono state di memorabili. Forse unendo queste parziali risposte la direzione può essere cambiata. Il fatto è che ci troviamo in una situazione peculiare in cui la computer ethics esiste in maniera sufficientemente condivisa, ma ancora esistono poco i canali attraverso cui farla diventare coscienza comune. Chi sviluppa i programmi se ne sta accorgendo, sarebbe il caso che lo capissimo tutti. Il sogno del Macintosh è finito, forse è la previsione di Postman che sta tornando verosimile: ora sappiamo benissimo che, con tutto lo sforzo che si deve fare per «insegnare ad un computer come funzionano gli uomini», gli uomini dovranno pur sempre imparare come funzionano i computer e che cosa di umano fare di essi.

Articoli correlati