digitale e occupazione

L’IA ci ruba il lavoro? La formazione è il solo antidoto contro l’ansia da automazione

La paura che il progresso tecnico porti via il lavoro agli uomini ha origini antiche e assume forme diverse. Da diversi studi emerge, in contrasto a questi timori, l’importanza cruciale della formazione dell’organizzazione che intende adottare nuove soluzioni e della formazione continua dei lavoratori di livello medio-alto

18 Mag 2022
Mario Dal Co

Economista e manager, già direttore dell’Agenzia per l’innovazione

workers-ga1c62242e_1920

L’impatto dell’intelligenza artificiale sull’economia e sulla società è oggetto di discussione da anni. Diversi economisti e ingegneri ritengono che il suo impatto sarà esteso sia sull’occupazione sia sulla produttività del lavoro.

Si tratta di una tesi che periodicamente, sotto diversi orizzonti tecnologici, si riaffaccia, come dimostra questa citazione tratta dal maggior economista del secolo scorso: “Siamo afflitti da una nuova malattia di cui alcuni lettori forse non hanno ancora sentito il nome, ma di cui subiranno il grande impatto negli anni a venire, vale a dire, la disoccupazione tecnologica”[1].

Intelligenza artificiale, è davvero la fine del lavoro? La sfida è sul filo delle competenze

Da quella affermazione, in cui si prefigurava un massiccio spiazzamento dei lavoratori da parte delle macchine automatiche, derivano le previsioni di disoccupazione tecnologica di cui parlava Keynes; e si noti che ciò avveniva in una fase, l’inizio degli anni Trenta, in cui la disoccupazione era elevatissima e derivava non certo da progresso tecnico, quanto da stagnazione della domanda.

L’ansia da automazione ha origini antiche

L’idea che l’automazione, il progresso tecnico, l’informatica e – oggi – l’intelligenza artificiale portino necessariamente all’aumento della disoccupazione, è antica e radicata. Anche i movimenti contro la meccanizzazione dei telai nelle industrie tessili inglesi degli inizi dell’800 volevano contrastare lo spiazzamento che quell’automazione avrebbe prodotto nei confronti del lavoro dei tessitori. Contro di loro, i luddisti, che distruggevano le macchine per evitare di rimanere disoccupati, fu inviato un esercito maggiore di quello che comandava Wellington nel 1808 contro Napoleone[2].

WHITEPAPER
[White Paper] TEST più semplici e completi per i tuoi software: l'AI fa la differenza
Automotive
Intelligenza Artificiale
The Future of Employment - The Impact of AI and Automation on Jobs - with Oxford Prof Carl Frey

Ancora l’ansia da automazione si presentava negli anni ‘60 del secolo scorso, in forma nuova, come una variante determinata dai nuovi livelli di automazione basata sulle macchine a controllo numerico: “la nuova tecnologia sta minacciando un nuovo gruppo di abilità: lo smistamento, l’archiviazione, il controllo, il calcolo, la capacità di ricordare, confrontare, approvare, che sono la riserva speciale dell’impiegato. Alla fine, mentre le macchine continuano a invadere la società, ripetendo un numero sempre maggiore di attività sociali, è lo stesso lavoro umano che viene gradualmente reso superfluo.”[3]

L’ansia da automazione assume forme diverse: essa nasce a livello individuale, ma può alimentare fenomeni collettivi come quelli dei luddisti, quando si diffonde e assume la forma di forma di un timore sociale, ossia della paura di appartenere alla fascia di popolazione che sarà colpita dall’impatto dell’automazione.

L’impatto diversificato dell’AI

Il timore del singolo lavoratore di fronte all’introduzione di innovazioni sul posto di lavoro e di processi di automazione deriva dalla consapevolezza che le proprie capacità individuali sono limitate e dal timore di non essere in grado di dimostrarsi resiliente rispetto al cambiamento.

L’OCSE ha passato in rassegna gli studi recenti sull’impatto dell’AI confermando alcuni dei più significativi risultati raggiunti nell’ultimo decennio.

L’intelligenza artificiale è un processo di elevata automazione trasversale, ossia applicabile in diversi settori e a diverse tipologie di attività. A differenza delle precedenti fasi di automazione, che tendevano a sostituire con macchine e processi automatici funzioni di tipo ripetitivo e standardizzato, l’AI coinvolge fasi e processi più complessi, supportando le decisioni di più alto livello e proponendo scelte o effettuando attività che richiedono qualifiche elevate da parte degli operatori coinvolti. Dato che l’AI è in grado di risolvere problemi e di condurre un ragionamento logico e di recepirlo, vi è la possibilità che le sue applicazioni possano sostituire almeno parte delle attività qualificate di tecnici e ingegneri “che appaiono come i più esposti agli effetti dell’AI.”[4]

Questo impatto diversificato sul mercato del lavoro è il risultato che, con diverse sfumature, viene più frequentemente citato dalle ricerche sugli effetti dell’AI sull’occupazione. Non mancano ancor oggi le visioni millenaristiche o se si vuole catastrofiste degli effetti dell’AI sul lavoro, ossia di coloro che prevedono la fine del rapporto tra crescita e occupazione in ragione del fatto che il lavoro viene completamente soppiantato dall’AI. Queste previsioni si richiamano alla singolarità, che si verificherebbe nei prossimi anni, ossia al superamento dell’intelligenza umana da parte dell’AI a causa dell’accelerazione costante delle potenzialità di quest’ultima e della sostituzione del lavoro in tutti i campi.[5]

AI e alterazioni nella domanda di lavoro

È tuttavia prevalente la convinzione che l’applicazione dell’AI abbia l’effetto di provocare alterazioni nella domanda di lavoro, con alcuni segmenti vincenti e altri che risulteranno perdenti. Questa ridefinizione dei ruoli in ambito lavorativo, con alcune delle qualifiche medie e medio-alte a rischio, apre una ulteriore riflessione sulla distribuzione delle risorse che potrebbe essere alterata sia tra diverse fasce di lavoratori, sia tra diverse imprese. Infatti, se AI nelle sue applicazioni più efficaci è una risorsa molto costosa che si acquisisce con rilevanti investimenti finanziari, tecnologici e organizzativi, essa rimarrà, per un certo tempo almeno, prevalentemente nella disponibilità di aziende grandi o comunque di aziende fortemente dinamiche. Ciò avrebbe l’effetto di concentrare il fatturato e i margini di profitto sempre più nelle aziende grandi e tecnologicamente più avanzate, a scapito delle altre, secondo lo schema “il vincitore prende il grosso”[6].

Spinte per la regolamentazione dell’AI

Mai come in questo momento, lo sviluppo dell’intelligenza artificiale è al centro della ricerca scientifica, delle opzioni di investimento, delle scelte politiche e delle strategie militari.

L’Europa punta alla definizione di un nuovo quadro normativo che tuteli i cittadini dai rischi di applicazioni rischiose per la sicurezza e lesive delle libertà individuali, come illustrato in questa rivista il 15 aprile scorso.[7] Non mancano le controindicazioni. È già accaduto anche in altri casi, quando l’attitudine a tutelare i valori costituenti dell’Europa ha sollevato, non senza ragione, le preoccupazioni di chi teme che l’eccesso delle tutele e i vincoli normativi rallentino lo sviluppo delle capacità innovative delle aziende europee[8].

La Cina da un lato si è ispirata alle norme europee per porre vincoli allo strapotere delle aziende tecnologiche, dall’altro ha adottato sistematicamente le applicazioni di intelligenza artificiale per il controllo dei comportamenti dei cittadini e delle imprese. Recentemente, l’Esercito Popolare di Liberazione (l’esercito cinese) ha pubblicato una documentata analisi delle opportunità e dei rischi dell’intelligenza artificiale applicata alla guerra, individuando nelle sue applicazioni alcune possibilità per sopraffare il nemico più forte di te, secondo una delle massime degli antichi testi classici cinesi sull’arte della guerra. Il riferimento al confronto con gli Stati Uniti è del tutto esplicito.

Sembra anche, secondo l’intelligence occidentale, che la società cinese che produce droni a Shenzhen (DJI) abbia fornito strumenti per le forze armate russe che hanno attaccato l’Ucraina[9].

Le ricerche più recenti sulle applicazioni dell’intelligenza artificiale negli ambienti di lavoro dimostrano che essa introduce una modalità di interazione con gli operatori che presenta curiose asimmetrie: l’uomo è disposto a giudicare con maggiore indulgenza gli errori umani degli errori degli algoritmi. Ciò rappresenta un vincolo rispetto alle potenzialità applicative dell’intelligenza artificiale, che si aggiunge a limiti normativi che vengono invocati da molte parti, anche al di là dell’Atlantico. Si veda a tale proposito la posizione della Federal Trade Commission, che per mano della commissaria Rebecca Kelly Slaughter ha osservato che “una crescente evidenza rivela che le decisioni degli algoritmi possono essere distorte, discriminatorie e inique in diverse aree importanti dell’economia, dall’occupazione, al credito, alla salute, alle abitazioni…una nuova legislazione può aiutare ad indirizzare meglio le minacce connesse all’utilizzo dell’intelligenza artificiale e alle decisioni supportate dagli algoritmi.”[10]

Il rapporto uomo-intelligenza artificiale

Il rapporto tra operatore/decisore e AI sta trasformandosi sotto i nostri occhi. Il timore della singolarità, ossia dello spiazzamento totale dell’attività umana da parte delle macchine, rappresenta il periodico ritorno dei timori degli effetti devastanti sull’occupazione dell’automazione. Questi timori nel corso dei secoli si sono sempre dimostrati infondati. E ciò è accaduto non perché l’effetto di sostituzione sia irrilevante, ma perché esso è ampiamente compensato dall’effetto reddito, ovvero dall’aumento della produttività.

In altre parole, se l’automazione puntuale può ridurre il lavoro localmente, a livello macroeconomico l’incremento di produttività che ne deriva consente di aumentare il reddito disponibile, far fronte a nuovi bisogni, migliorare la qualità dei beni e servizi offerti sul mercato.

Altri timori, come quello individuale contro l’introduzione di innovazioni tecnologiche, sono stati analizzati nel contesto dell’introduzione di processi di AI. Ne è emerso un quadro in cui risulta decisivo il contesto e la modalità con cui l’AI viene adottata, poiché vi è una istintiva e difficilmente superabile diffidenza dell’operatore nei confronti dell’AI. Questa diffidenza, che spesso non è affatto basata su evidenza empirica, rappresenta uno degli ostacoli maggiori all’adozione di soluzioni di AI che invece potrebbero migliorare la qualità e la produttività. Da tempo le ricerche sull’impatto di AI nella sanità dimostrano che il responso di AI è il più delle volte superiore a quello del medico. Eppure, vi sono resistenze evidenti che si oppongono all’utilizzo di strumenti di AI.

Due possibili strade per rispondere al paradosso

Per rispondere al paradosso sono state individuate due possibili strade: la prima insiste sulla resistenza opposta dagli operatori e motivata da presunte insufficienze degli algoritmi o delle soluzioni AI proposte, dall’impossibilità di interagire con le indicazioni del processo di AI, dal fatto che il processo decisionale è intrinsecamente complesso e non adatto al meccanicismo intrinseco all’AI. In questo caso le soluzioni individuate, per superare le resistenze umane all’adozione delle soluzioni di AI sono: una maggiore trasparenza sugli algoritmi, il controllo umano sulle decisioni degli algoritmi.

La seconda strada si apre invece sul tema dell’interpretazione dei risultati dell’AI, nella sua versione stringente di machine learning applicato ai big data. Qui le soluzioni individuate sono quelle che migliorano la capacità di interpretare le risposte dell’algoritmo, attraverso l’applicazione di strumenti di analisi ex post (Shapley Additive Explanations – SHAP oppure Local Interpretable Model-agnostic Explanation – LIME).

Una ricerca sperimentale ha posto in evidenza che le resistenze contrarie all’adozione di soluzioni di AI, sta invece nella scarsa conoscenza dei risultati che tali soluzioni consentono di raggiungere[11]. Tanto più il team oggetto della nuova sperimentazione viene a conoscere i risultati positivi che l’AI consente di raggiungere, tanto meno resistenza esso opporrà alla loro adozione. Quindi, la soluzione è la preparazione e l’interazione tra il team e lo strumento o gli strumenti che vengono adottati.

Conclusioni

Sia dai lavori dell’OCSE, sia dalle recenti ricerche sull’interazione operatore-AI, emerge l’importanza cruciale della formazione. Si tratta innanzitutto della formazione specifica del team o dell’organizzazione che intende adottare le nuove soluzioni. Occorre dotare l’organizzazione non solo delle conoscenze tecniche per poter interagire con i nuovi strumenti, ma anche di quelle che consentono di valutarne l’impatto.

In secondo luogo, e questo è tema di un ordine dimensionale superiore, occorre attivare processi di formazione continua dei lavoratori di livello medio-alto. Infatti, i lavoratori manuali sopravvissuti alle ondate di automazione precedenti sono evidentemente quelli che devono interagire direttamente o in modo altamente comunicativo con il cliente (fitness, turismo, assistenza, manutenzione etc). Si tratta di specifiche qualità in cui il rischio di sostituzione con AI è minimo. Piuttosto, occorre dotare i lavoratori con qualifiche professionali medio alte, quelle fino ad oggi rispalmiate dall’automazione, di capacità di entrare nella fascia superiore di attitudini: problem solving, creatività, flessibilità, capacità di comunicazione.

Sono questi lavoratori di qualifica intermedia, che saranno i più esposti al rischio di essere spiazzati dall’AI.

  1. John Maynard Keynes, Economic Possibilities for our Grandchildren (1930), in Essays in Persuasion, pp. 358-373, London: Macmillian 1933.
  2. Carl Benedikt Frey, Ebrahim Rahbari. Automation and its enemies, Vox EU, CEPR, November 04, 2019.
  3. Robert L. Heilbroner, Men and Machines in Perspective, The Public Interest, vol. 1, fall 1965, pp. 27-36.
  4. Marguerita Lane, Anne Saint-Martin, The impact of Artificial Intelligence on the labour market: What do we know so far? OECD Social, Employment and Migration Working Papers No. 256, january 21, 2021.
  5. Nordhaus, W. , Are We Approaching an Economic Singularity? Information Technology and the Future of Economic Growth, Cowles Foundation Discussion Papers, No. 2021, 2015.
  6. Korinek, A. and J. Stiglitz , Artificial Intelligence and Its Implications for Income Distribution and Unemployment, NBER Working Paper Series, No. 24174, 2017.
  7. Riccardo Berti , Franco Zumerle, Intelligenza artificiale. L’Europa si scontra sulle regole. Ecco i nodi, Agendadigitale.eu, 15 aprile 2022.
  8. Andrew Mcafee, EU proposals to regulate AI are only going to hinder innovation, Finantial Times, July 25, 2021.
  9. Kevin Pollpeter, Amanda Kerrigan, Andrew Ilachinsk, The PLA and Intelligent Warfare: A Preliminary Analysis, CNA, October 2021
  10. Rebecca Kelly Slaughter, Algorithms and economic justice: A taxonomy of harms and a path forward for the Federal Trade Commission ,”Yale Journal of Law & Technology, August 2021.
  11. Daehwan Ahn, Abdullah Almaatouq, Monisha Gulabani, Kartik Hosanagar, Will We Trust What We Don’t Understand? Impact of Model Interpretability and Outcome Feedback on Trust in AI, arXiv:2111.08222 [cs.AI]
INFOGRAFICA
DATA ANALYTICS contro un male cronico italiano: i tempi di ATTESA in SANITÀ
Big Data
Dematerializzazione
@RIPRODUZIONE RISERVATA

Articolo 1 di 3