Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

automazione

Intelligenza Artificiale e lavoro: così nasce il “cyber-proletariato”

Lavori altamente ripetitivi. retribuiti a cottimo e di cui non si percepisce lo scopo. Così l’intelligenza artificiale e il deep learning, da promessa per una società libera da lavori poco dignitosi rischia di diventare promotrice di un “cyber-proletariato” che potrebbe rimpiangere le fatiche della catena di montaggio

07 Ago 2019

Alessio Plebe

Università degli Studi di Messina


Una delle promesse più ambiziose dell’Intelligenza Artificiale (IA) riguarda la progressiva liberazione dal lavoro, soprattutto dalle tipologie di lavoro meno gratificanti e più faticose. Di contro, si assiste in questi anni a un paradosso: la proliferazione di un nuovo lavoro emerso proprio dalle esigenze dell’IA, una tipologia di lavoro al cui confronto potrebbe sembrare piacevole persino passare giornate a serrare bulloni o raccogliere cotone.

E’ il cyber proletariato, bellezza.

I vantaggi dell’intelligenza artificiale

Beninteso, l’IA, in questi anni in cui sta vivendo uno dei suoi momenti migliori, sta producendo indubbi vantaggi, indipendenti dal tema qui introdotto. Molte persone trovano utili ed efficaci tecnologie derivanti dall’IA sia nella loro attività professionale che nella vita normale. Questo accade, per esempio, interrogando il proprio dispositivo SIRI, richiedendo la traduzione automatica di un brano in lingua straniera, o attivando l’adaptive cruise control della propria automobile, ma anche senza che le persone se ne rendano conto, per esempio quando si ricevono indicazioni appropriate da una ricerca, o si riceve un suggerimento mirato riguardo nuovi film da vedere.

Ma le dimensioni assunte dall’IA stanno incidendo in modo profondo a livello della società umana, in modo che va oltre l’esserne o meno utilizzatori. In questa prospettiva più ampia, il beneficio principale che ci si potrebbe aspettare dall’IA riguarda la progressiva liberazione dal lavoro. Così come l’utilizzo sempre più capillare dell’IA sta suscitando diverse riflessioni critiche, anche la prospettiva di una diminuzione del lavoro dovuta all’IA viene vista da alcuni non come un beneficio, ma come un male da temere. Si tratta di una preoccupazione particolarmente allarmata, considerando che la disoccupazione è uno dei fenomeni sociali più temuto nelle società occidentali dall’inizio di questo millennio.

Le ripercussioni dell’IA sul lavoro

Si è dell’avviso che sostituire lavoro possa davvero costituire un beneficio dell’IA, e forse uno dei principali in un’ottica sociale, se ne esporranno le motivazioni più avanti. Ma il punto principale che si intende trattare è la situazione nuova e inattesa detta inizialmente, in cui è la stessa IA a innescare un genere di lavoro umano, del tutto sconosciuto finora. Chiamiamolo per ora il mestiere dell’ “etichettatore” o dell’ “annotatore”, vedremo di preciso di cosa si tratta, ma si può anticipare che non è certo un mestiere gratificante, ed è tipicamente sottopagato. In questo paradosso dell’IA sociale a due facce, una liberatrice dal lavoro, e un’altra generatrice di nuovo lavoro di bassa qualità, iniziamo con la prima.

Per certi versi l’IA attuale si colloca in continuità con gli intenti tradizionalmente perseguiti dell’automazione, nel proporre sostituzioni meccaniche a lavori umani, soprattutto i più pesanti, rischiosi, e poco gratificanti. Infatti l’IA è la colonna portante di quella che viene chiamata dagli economisti la quarta rivoluzione industriale o la seconda era delle macchine, titolo del recente libro di Erik Brynjolfsson e Andrew McAfee.

Automazione e produttività

Alla luce di tale continuità, l’IA potrebbe ben prestare il fianco ad una lunga serie di critiche sociopolitiche, riguardo lo scarso effetto in termini di riduzione del lavoro operata dalle varie precedenti rivoluzioni industriali e precedenti “ere delle macchine”. Queste critiche hanno evidenziato come la struttura capitalistica tenda sempre a tradurre i vantaggi dell’automatismo in termini di maggior produttività, anziché di maggior tempo libero per i lavoratori. I rapporti tra tecnologia e strutture politiche sono sicuramente un tema fondamentale e delicato, e non c’è dubbio che giocheranno un peso sostanziale anche su come verrà declinata la nuova IA, ma è un tema che esula da questo articolo.

L’aspetto qui considerato è il potenziale dell’IA in termini di sostituzione di lavoro umano, e qui si registra una discontinuità notevole rispetto a ogni precedente automazione. La novità consiste sia nelle dimensioni dell’impatto in comparti tradizionalmente beneficianti l’automazione, sia l’estensione a generi di lavori totalmente nuovi.

Diamo un’idea del primo aspetto nel campo della robotica industriale. Nonostante una lunga storia di impiego, i robot fino a pochi anni fa coprivano una porzione di lavoro industriale veramente minima, contrariamente a quanto normalmente ritenuto. Il paese più avanzato in termini di robotizzazione, la Corea del Sud, utilizza 500 robot su un totale di circa diecimila lavoratori nell’industria, a livello mondiale i robot industriali sono circa un milione e mezzo, rispetto a oltre tre miliardi di lavoratori umani. Il motivo di fondo del relativo scarso impiego di robot è la loro attuale, per così dire, scarsa intelligenza.

Mentre gli aspetti di meccanica e di controllo a basso livello hanno avuto un continuo progresso nella robotica degli ultimi 50 anni, poco è cambiato a livello della sofisticazione nel controllo ad alto livello. Questo si traduce in incapacità ad adattarsi a variazioni rispetto alle configurazioni standard in cui sono programmati per lavorare, di far fronte a qualunque anche minimo imprevisto. In uno dei settori industriali maggiormente automatizzato, l’industria automobilistica, negli anni passati si è assistito ad un graduale ripristino del lavoro manuale al posto di robot per alcuni compiti complessi. La scarsa flessibilità dei robot richiedeva un tale impegno di monitoraggio, e di interventi correttivi, da rendere economicamente vantaggioso rinunciare del tutto ai robot in quei reparti. E’ successo nel 2016 alla Mercedes–Benz, e nel 2017 alla Tesla per la produzione della nuova autovettura Model 3. Oggi la nuova IA ha le carte in regola per dotare i robot di un controllo ad alto livello decisamente superiore e più flessibile, e pertanto c’è da aspettarsi nei prossimi anni una diffusione dei robot in ambito industriale modo molto più ampio e capillare.

Intelligenza artificiale e lavoro cognitivo

Ma la discontinuità maggiore dell’IA rispetto alle precedenti ondate di automazione, riguarda una miriade di lavori non manuali, bensì costituiti su compiti prettamente cognitivi. Il polso della situazione lo si ricava dall’autorevole studio di Carl Frey e Michael Osborne dell’università di Oxford del 2016, in cui con metodi matematici hanno stimato quali categorie occupazionali sono potenzialmente sostituibili. Tra queste vi sono sempre attività di tipo materiale, come produzione, riparazione, trasporto e movimentazione materiali, ma la parte emergente è costituita da lavori di tipo cognitivo: gestionale, finanziario, legale, vendita, supporto amministrativo, servizi. Sempre secondo questo studio, le prospettive di essere sostituiti da algoritmi artificiali riguarda poco meno della metà degli attuali occupati degli Stati Uniti. Non si tratta sicuramente di una sostituzione dall’oggi al domani, ma non vi sono ostacoli di principio perché questo gradualmente accada. Un lavoro cognitivo umano si realizza tramite una forma di calcolo, realizzata dai neuroni di cui siamo dotati. Siamo ben lontani sia dal codificare matematicamente quella forma di calcolo, che dal riprodurlo in modo efficiente in un computer, ma l’intento dall’IA è sempre stato quello di inventare algoritmi che pur, essendo probabilmente ben distanti da come funziona il cervello, realizzano in parte alcune delle sue funzioni.

Quando le funzioni diventano sofisticate, come riconoscere il contenuto di una fotografia o comprendere frasi del linguaggio umano, l’IA era rimasta molto distante dalle prestazioni umane, ma negli ultimi anni questo divario si è rapidamente ridotto. Per questo le predizioni di Frey e Osborne sembrano piuttosto realistiche.

Vi sono diverse idee sul creare benessere sociale da livelli di sostituzione del lavoro drastici e pervasivi, come quelli prospettati da questo studio, una delle proposte più concrete ed elaborate è il reddito di base universale. Ci si era già trovati a parlare di questo, e della forma parziale di cui anche l’Italia si è dotata con il reddito di cittadinanza.

L’IA creatrice di lavoro di pessima qualità

E’ il momento di passare all’altra faccia dell’IA, creatrice di lavoro di pessima qualità. Per afferrarne le motivazioni occorre addentrarsi nel merito tecnico del successo attuale dell’IA, dovuto quasi interamente al metodo denominato deep learning. Il secondo termine chiarisce la natura del metodo, fondato interamente sull’apprendere, filosoficamente lo si potrebbe considerare un radicale esponente dell’idea di tabula rasa di John Locke. I modelli deep learning non hanno nessuna regola, nessuna conoscenza codificata, inizialmente sono, come direbbe Locke, white paper, ma sono in grado di acquisire qualunque genere di competenza apprendendo da esempi. E non c’è dubbio che apprendono molto bene, dal riconoscere cosa c’è in un immagine, a cosa esprimono i suoni pronunciati dal parlante di qualche lingua naturale.

Vi è pero’ una differenza, appunto, profonda tra l’apprendere di un cervello umano e il deep learning. Quest’ultimo ha necessità di esempi in cui ai dati, per così dire percettivi, sia associata la risposta corretta rispetto al compito che il modello deve apprendere. Prendiamo come esempio il dataset su cui il deep learning ha costruito la sua gloria, ImageNet, la collezione di immagini utilizzata per il ImageNet Large Scale Visual Recognition Challenge (ILSVRC), la competizione in cui si sfidano i software di riconoscimento automatico di immagini.

Il nuovo mestiere dell’ “etichettatore”

Nel 2012 il primo modello basato su deep learning sbaraglia ogni concorrenza, diventando da quel momento il principale il metodo di riferimento nel campo del riconoscimento di immagini, addirittura pareggiando nel 2015 le prestazioni degli umani. ImageNet è costruito intorno ai 1000 nomi delle principali categorie di oggetti esistenti, e per ogni categoria colleziona diverse centinai di immagini prese in giro da internet, per un totale di oltre un milione di immagini. I modelli deep learning per apprendere si passano in rassegna una per una tutte queste immagini, e ogni volta deve venir detto loro a che categoria appartiene l’immagine, il tutto viene ripetuto migliaia di volte. Ma come si fa a sapere qual’è l’oggetto principale contenuti in ognuna tra quel milione abbondante di immagini? Non si può certo ricorrere ad un algoritmo automatico, visto che si tenta proprio di mettere a punto il più potente algoritmo automatico esistente, non rimane che l’essere umano.

Così nasce la nuova occupazione dell’“etichettatore” o “annotatore”, traduzioni dei due termini usati per questo scopo, labeling o annotation. ImageNet è riuscita nell’intento impiegando Amazon Mechanical Turk (AMT), la prima piattaforma di questo genere e tuttora il, se vogliamo, “caporalato virtuale” dominante della manovalanza annotatrice. AMT nasce per esigenze interne di Amazon, per una manutenzione del proprio vasto archivio, in cui inevitabilmente i procedimenti automatici generavano doppioni, contenuti errati o di scarsa qualità.

Si è poi evoluto in una piattaforma aperta, dove chiunque può diventare il richiedente di un lavoro, oppure offrirsi come lavoratore. Prima dell’ondata di richieste derivanti dal deep learning i tipi di compiti erano di basso livello ma variegati, spesso la digitalizzazione di dati il cui formato originale è analogico, come fotografie di ricette o biglietti da visita. Etichettare consiste invece, per il caso di ImageNet, nello scrivere la categoria a cui appartiene un’immagine, ripetendo questa semplice azione migliaia di volte, il più rapidamente possibile, essendo il pagamento a cottimo.

La nascita del cyber proletariato

Mediamente un etichettatore riesce a guadagnare tra il mezzo dollaro e i tre dollari l’ora. Attualmente la richiesta di gran lunga maggiore deriva dai progettisti di veicoli a guida autonoma, dove l’accuratezza richiesta nel riconoscere cosa si trova davanti alla macchina è massima, ed è noto a tutti come le prestazioni del deep learning siano interamente dipendenti dalla mole di dati etichettati di cui si dispone.

Il lavoro umano diventa più impegnativo, perché su ogni immagine occorre evidenziale tutti gli oggetti presenti importanti per la guida: segnali stradali, pedoni, ciclisti, altri veicoli, carreggiata. La competizione tra aziende come Waymo, Tesla, Mercedes, Toyota per veicoli a guida autonoma affidabili si sta progressivamente spostando sulla creazione di giganteschi archivi di filmati su percorsi di guida. Per porsi come leader, la Tesla ha messo in campo dai primi del 2019 una flotta di centinai di migliaia di veicoli, registrandone le riprese della telecamera, con l’obiettivo di coprire nell’anno 5 miliardi di miglia, 200 volte quanto sta facendo Waymo. Vuol dire una quantità sterminata di immagini da etichettare, e a fianco di AMT stanno nascendo aziende specializzate, come CrowdFlower, che curano sia lo sviluppo di software che rendano più rapido ed accurato il lavoro di etichettatura, sia il reclutamento dei lavoratori. Si tratta sempre di forme di lavoro che eludono ogni tipo di protezione sindacale.

Le caratteristiche altamente ripetitive di questi lavori, la loro retribuzione a cottimo certamente poco remunerativa, e l’assenza di una minima percezione degli scopi del proprio lavoro, hanno indotto alcuni a includere le persone dedite a queste occupazioni entro il termine “cyber-proletariato”, proprio così intitola il suo recente saggio Nick Dyer-Witheford.

E’ bene evidenziare che la richiesta di eserciti degli etichettatori deriva dalle peculiari maniere di funzionare del deep learning, l’IA comprende diverse altre metodologie che non necessitano di dati con associate risposte, come gli algoritmi genetici o i sistemi esperti. Purtroppo vanno molto meno bene del deep learning.

Senz’altro il suo fondarsi dell’apprendimento cattura molto di come funziona la mente umana, magari senza l’ipotesi estrema di un’iniziale tabula rasa. Anche la necessità di avere associate le risposte corrette non è del tutto aliena dal modo con cui gli umani imparano. Rimanendo nell’esempio della visione, un passo di addestramento del deep learning trova una buona corrispondenza con l’azione di una madre di indicare al proprio infante un oggetto e pronunciarne il nome. Ma l’enorme differenza è che a noi umani basta un numero limitato di ostentazioni del risultato corretto, l’apprendimento poi continua vedendo e rivedendo lo stesso oggetto di cui qualcuno ha pronunciato il nome in una miriade di pose diverse, muovendolo, afferrandolo, senza che ad ogni istante qualcuno ci ripeta incessantemente che oggetto sia.

La pedanteria di cui necessita invece il deep learning si chiama tecnicamente addestramento supervisionato, e uno dei principali desideri dei ricercatori nell’ambito dell’IA è arrivare un giorno a disporre di tecniche di addestramento non supervisionato, che permettano ai modelli di apprendere dai dati senza che siano stati etichettati da nessuno. Tecniche del genere ne esistono, ma al momento funzionano decisamente meno bene di quelle supervisionate. E’ difficile dire se, e quando, l’addestramento non supervisionato potrà diventare competitivo, finché questo non succede c’è il rischio che l’IA, da promessa per una società libera da lavori poco dignitosi, ne diventi promotrice.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4