ai act

Intelligenza artificiale: come usarla senza violare i diritti dei lavoratori



Indirizzo copiato

L’AI Act mira a promuovere un’IA antropocentrica e sicura, regolando pratiche ad alto rischio e vietando quelle manipolative. Questo intervento è cruciale per bilanciare i benefici della tecnologia con la tutela della sicurezza, della privacy e dei diritti fondamentali dei lavoratori

Pubblicato il 7 ott 2024

Wanda Falco

dipartimento R&D di Toffoletto De Luca Tamajo



intelligenza artificiale pc

Secondo il Regolamento europeo sull’intelligenza artificiale o AI Act, i sistemi di IA sono progettati per funzionare con livelli di autonomia variabili e dall’input ricevuto deducono come generare output quali previsioni, contenuti, decisioni che possono influenzare ambienti fisici o virtuali.

Tali sistemi hanno sicuramente degli impatti sul mondo del lavoro: dalla scomparsa di molti posti di lavoro alla creazione di “nuovi lavori”, tutto accompagnato dal potenziamento della produttività e dell’efficienza grazie alla capacità di assorbire le attività ripetitive.

Si tratta di impatti di dimensioni tali che è stato necessario un intervento a livello comunitario, tradottosi nel Regolamento 2024/1689 del 13 giugno 2024, il cui obiettivo è promuovere l’innovazione e al tempo stesso la diffusione di un’intelligenza artificiale antropocentrica e affidabile, garantendo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali.

Quali sono le principali previsioni?

AI Act, i principi generali

L’uso dell’IA, garantendo il miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali, può fornire vantaggi competitivi alle imprese e condurre a risultati interessanti sul piano sociale e ambientale.

L’abuso dell’IA, invece, può pregiudicare gli interessi pubblici e i diritti fondamentali delle persone in quanto, ad esempio, può:

  • comportare rischi per la sicurezza informatica e la privacy;
  • manipolare le persone attraverso tecniche subliminali o di sfruttamento delle vulnerabilità di specifici gruppi (es. minori, persone con disabilità) al fine di distorcerne materialmente il comportamento;
  • perpetuare modelli di discriminazione per sesso, età, disabilità, origine etnica e orientamento sessuale.

Dalle suddette valutazioni è nata l’esigenza di regole armonizzate a livello UE affinché tutti gli operatori sviluppino o utilizzino sistemi di IA conformi a principi fondamentali quali la sicurezza informatica, la protezione dei dati, la non discriminazione, la sostenibilità sociale e ambientale.

Pratiche di IA vietate e sistemi di IA ad “alto rischio” nel mondo del lavoro

Il Regolamento, al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA, adotta un approccio basato sul rischio che consiste nell’adattare la tipologia e il contenuto delle regole all’intensità e alla portata dei rischi che possono essere generati dai sistemi.

Pertanto, vieta determinate pratiche di IA che determinano un rischio inaccettabile per la salute e i diritti fondamentali delle persone e stabilisce requisiti rigorosi per i sistemi di IA ad «alto rischio».

Le pratiche vietate

Quali sono le pratiche vietate?

Il Capo II del Regolamento contiene un lungo elenco di sistemi vietati poiché contrari ai valori dell’Unione come il rispetto della dignità umana, la libertà, l’uguaglianza, la non discriminazione, la protezione dei dati e la tutela dei diritti dei minori.

Sono, ad esempio, vietati l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA che:

  • utilizzano tecniche manipolative o ingannevoli o sfruttano le vulnerabilità delle persone per distorcerne il comportamento;
  • consentono di attribuire un punteggio sociale, classificando o valutando le persone in base al loro comportamento sociale o alle loro caratteristiche personali, con conseguente applicazione di trattamenti sfavorevoli;
  • classificano le persone sulla base dei loro dati biometrici per trarre deduzioni in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale.

Sono vietati anche i sistemi di IA capaci di inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro, tranne laddove l’uso del sistema sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza (si pensi, ad esempio, al monitoraggio dei livelli di stanchezza di un pilota). Si tratta di sistemi che suscitano – come emerge dai Considerando del Regolamento – serie preoccupazioni in merito alla base scientifica sulla quale si fondano: l’espressione delle emozioni varia notevolmente in base alle culture, alle situazioni e persino in relazione a una stessa persona. La limitata affidabilità, la mancanza di specificità e la limitata generalizzabilità di tali sistemi costituiscono carenze che possono portare a risultati discriminatori.

Proprio per la natura di tali sistemi l’art. 113 del Regolamento prevede che i divieti che li riguardano troveranno eccezionalmente applicazione a partire dal 2 febbraio 2025.

I sistemi di IA ad alto rischio

Quali sono, invece, i sistemi di IA ad alto rischio?

L’Allegato III al Regolamento contiene un variegato elenco di sistemi di IA «ad alto rischio» in cui rientrano «i sistemi operanti nei settori dell’occupazione, gestione dei lavoratori e accesso al lavoro autonomo» ovvero:

  • i sistemi utilizzati per l’assunzione o la selezione, in particolare per pubblicare annunci di lavoro, filtrare le candidature e valutare i candidati;
  • i sistemi utilizzati per adottare decisioni riguardanti le condizioni di lavoro, la promozione o la cessazione dei rapporti di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento dei lavoratori.

Come evidenziato dal Considerando 57, durante tutto il processo di assunzione nonché in sede di valutazione, di promozione o, in generale, di svolgimento dei rapporti di lavoro, i sistemi di IA ad alto rischio – se progettati ed utilizzati in modo inadeguato – possono:

  • perpetuare discriminazioni nei confronti delle donne, di alcune fasce di età, delle persone con disabilità, delle persone aventi determinate origini razziali o un determinato orientamento sessuale;
  • compromettere i diritti fondamentali in materia di protezione dei dati e vita privata.

Proprio per scongiurare tali rischi sono previsti molteplici obblighi non solo per fornitori, importatori e distributori di sistemi di IA ad alto rischio, ma anche per i deployer definiti come «persone fisiche o giuridiche, autorità pubbliche, agenzie o altri organismi che utilizzano un sistema di IA sotto la propria autorità». 

Gli obblighi per i deployer

  • Affidare la sorveglianza umana sui sistemi di IA a persone che dispongano della competenza, della formazione e dell’autorità necessarie.
  • Monitorare il funzionamento del sistema di IA sulla base delle istruzioni per l’uso.
  • Informare tempestivamente il fornitore o il distributore e la pertinente autorità di vigilanza del mercato e sospendere l’uso del sistema qualora ci sia motivo di ritenere che esso possa presentare un rischio per la salute, la sicurezza o i diritti fondamentali delle persone.
  • Informare – prima dell’utilizzo – i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all’uso del sistema di IA.

Il Regolamento, inoltre, sancisce il diritto alla spiegazione dei singoli processi decisionali: qualsiasi persona interessata da una decisione adottata dal deployer sulla base dell’output di un sistema di IA ad alto rischio e «che produca effetti giuridici o in modo analogo incida significativamente su tale persona in un modo che essa ritenga avere un impatto negativo sulla sua salute, sulla sua sicurezza o sui suoi diritti fondamentali ha il diritto di ottenere dal deployer spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata».

Conclusioni

Le nuove tecnologie offrono alle imprese soluzioni innovative e notevoli possibilità di efficientamento dei processi interni ed in particolare di quelli produttivi. Per avvantaggiarsene senza incorrere in responsabilità è indispensabile essere aggiornati sulle nuove regole che l’ordinamento europeo sta costruendo anche per la tutela dei lavoratori.

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4