scenario

AI, tutele assenti nei contratti di lavoro: i ritardi dell’Italia



Indirizzo copiato

Tra opinione pubblica diffidente, mobilitazioni contro i data center e prime clausole contrattuali, l’AI sul lavoro non è un destino scritto. La sua implementazione dipende da scelte politiche, sociali e aziendali che possono ancora essere discusse e condizionate

Pubblicato il 25 nov 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



ai-sovrana-agenda-digitale ia e studi ritirati; ai cybersecurity; AI scrittura manuale

La resistenza all’adozione acritica dell’AI non solo esiste, ma sta iniziando a produrre effetti concreti.

Non sempre dove ce li aspetteremmo però, e non sempre con gli stessi attori in primo piano. L’Italia risulta parecchio in ritardo, ad esempio, per la tutela contrattuale dei lavori intellettuali dall’avanzata dell’AI, mentre gli Usa sono all’avanguardia.

Una partita che si gioca su diversi terreni, anche quello della mobilitazione sindacale e territoriale.

Non a caso, lo sciopero indetto per il 28 novembre da Fnsi (federazione nazionale stampa italiana) per il rinnovo dei contratti giornalistici parla per la prima volta anche di clausole sulla tutela del lavoro contro l’abuso di AI da parte dei datori.

AI sul lavoro oltre la narrativa dell’inevitabilità

L’AI viene spesso presentata come una tecnologia inarrestabile, una “forza della natura” che si impone in azienda e nella società. Ma i dati suggeriscono un quadro diverso: metà degli americani è più preoccupata che entusiasta dell’AI; oltre il 70% chiede una regolamentazione robusta; piccoli movimenti coesi possono generare cambiamento non lineare.

Dalla contrattazione sindacale alle lotte locali contro i data center, passando per le forme emergenti di governance interna, esistono vie percorribili per orientare l’innovazione. Non tutte sono realistiche ovunque, ma alcune sì e funzionano.

Cosa vedono i lavoratori nell’adozione dell’AI sul lavoro

Oltre la narrativa dell’inevitabilità, l’introduzione dell’intelligenza artificiale nei luoghi di lavoro viene spesso percepita come un processo inevitabile. La narrazione dominante suggerisce che, data la rapidità dello sviluppo e la pressione competitiva, alle aziende non resti altra scelta che adottare l’AI in modo esteso e immediato. Ma un’analisi più attenta rivela uno scenario meno lineare e molto più conflittuale, in cui le scelte non sono affatto neutre.

In un recente articolo pubblicato su Vox, la giornalista Sigal Samuel racconta il caso di un ingegnere che si definisce “obiettore di coscienza” rispetto all’uso dell’AI generativa nella sua azienda. Non è contrario alla tecnologia in sé, ma alla sua applicazione acritica, guidata, come spesso accade, non da un’analisi costi-benefici, bensì da un entusiasmo manageriale non sempre informato. La sua esperienza non è isolata. Secondo il Pew Research Center, il 50% degli americani si sente più preoccupato che entusiasta dell’aumento dell’AI nella vita quotidiana. Il dato proviene dal rapporto How Americans View AI and Its Impact on People and Society. Questa diffidenza non riguarda solo gli utenti, ma anche molti lavoratori nei settori tech e creativi, che vivono l’espansione dell’AI come un processo opaco, non condiviso e potenzialmente dannoso.

Piccole minoranze che cambiano l’AI sul lavoro

Quando parliamo di resistenza all’interno dei sistemi complessi – aziende, comunità, società – la ricerca della politologa Erica Chenoweth, Harvard Kennedy School, fornisce una chiave interpretativa potente. Nel paper Questions, Answers, and Some Cautionary Updates Regarding the 3.5% Rule Chenoweth mostra che i movimenti non violenti diventano “statisticamente inevitabili” quando raggiungono una soglia di partecipazione pari al 3,5% della popolazione.

Non si tratta di una legge matematica, ma di un’indicazione empirica sul funzionamento dei sistemi sociali complessi: piccoli gruppi coesi possono generare effetti di cascata, alterando in tempi relativamente rapidi dinamiche consolidate. Applicata al mondo del lavoro, la regola suggerisce che l’impatto dei singoli è limitato, ma l’impatto dei gruppi organizzati, anche se minoritari, può essere significativo.

Sindacati e categorie che negoziano l’AI sul lavoro

Gli ultimi anni mostrano che la resistenza all’uso acritico dell’AI è più efficace quando avviene attraverso soggetti collettivi con forza contrattuale. In questo quadro, sindacati e categorie professionali assumono un ruolo centrale, perché possono negoziare clausole vincolanti e rendere misurabili gli effetti dell’innovazione.

Gli esempi più evidenti: Writers Guild of America (WGA) ha ottenuto clausole contrattuali vincolanti che vietano l’uso dell’AI per sostituire sceneggiatori. National Nurses United ha portato in piazza migliaia di infermieri per rivendicare il diritto a decidere come e quando l’AI debba essere usata nelle interazioni cliniche. Service Employees International Union (SEIU) ha negoziato con lo Stato della Pennsylvania la creazione di un comitato di supervisione dei sistemi AI nei servizi pubblici.

Questi risultati confermano la tesi centrale dell’AI Now Institute, espressa dalla co-direttrice Sarah Myers West: i sindacati rappresentano oggi uno degli attori più efficaci nel determinare come l’AI venga implementata e se debba esserlo. La resistenza non è quindi solo blocco, ma capacità di riscrivere le regole dell’adozione tecnologica.

E l’Italia?

In Italia nulla di tutto questo. Tanto che Fnsi con lo sciopero del 28 novembre ora chiede anche che tutele sul lavoro con l’AI siano incluse nei contratti giornalistici.

Comunità locali contro l’impatto dell’AI sul lavoro e sui territori

Una forma di resistenza più sorprendente arriva dalle comunità locali. L’espansione dei data center necessari alla crescita dell’AI sta generando mobilitazioni in tutta l’America. Secondo Data Center Watch tra il 2023 e il 2025 sono stati bloccati o ritardati progetti per 64 miliardi di dollari.

Le motivazioni variano: consumo energetico, impatto sull’acqua, inquinamento acustico, stress sulle infrastrutture locali. Ma il risultato è chiaro: quando la mobilitazione riguarda la qualità della vita, l’inerzia tecnologica viene messa in discussione con successo. Qui l’AI non appare come un tema astratto, ma come qualcosa che incide su bollette, rumore, paesaggio e risorse ambientali, rendendo la mobilitazione più concreta e partecipata.

Opinione pubblica e richiesta di regole stringenti

Lo studio condotto dal Future of Life Institute su un campione di 2.000 americani mostra che il 73% degli intervistati sostiene una regolamentazione rigorosa dell’AI avanzata, fino a prevedere possibili limiti all’addestramento di modelli troppo potenti. Non si tratta quindi di ostilità alla tecnologia, ma della richiesta di un percorso controllato, trasparente e responsabile.

Questa domanda di regole segnala che l’adozione dell’AI non è percepita come un fatto puramente tecnico, ma come una scelta politica e sociale, che deve essere negoziata tra interessi diversi: imprese, lavoratori, comunità, istituzioni.

Il ritardo italiano tra innovazione e tutele

In Italia il dibattito sull’intelligenza artificiale nei luoghi di lavoro è ancora nelle prime fasi, sia sul versante dell’adozione tecnologica sia su quello delle tutele. I dati europei confermano che il Paese procede a ritmo più lento rispetto ad altre economie avanzate: secondo il Digital Decade Country Report – Italy 2025 della Commissione Europea, l’Italia mostra progressi nella digitalizzazione, ma “persistono ritardi significativi nell’adozione dell’AI nelle imprese”, in particolare nelle PMI.

Allo stesso modo, l’OCSE rileva che, nonostante incentivi come il piano Transizione 5.0, la maturità digitale delle aziende resta disomogenea e spesso insufficiente a integrare l’AI in modo strutturale. Sul fronte delle tutele e della contrattazione collettiva, il quadro è altrettanto lento. Nel nostro Paese stanno emergendo i primi accordi che citano esplicitamente l’intelligenza artificiale, ma si tratta ancora di esperienze settoriali e non di una strategia nazionale.

Un caso rilevante è quello di CNP Vita Assicura, che nel marzo 2025 ha firmato con le organizzazioni sindacali un accordo aziendale dedicato ai sistemi di AI: il testo vieta l’uso dell’intelligenza artificiale per finalità di controllo o monitoraggio dei dipendenti e prevede percorsi di formazione e riqualificazione. Questo è uno dei pochissimi esempi italiani di contrattazione su contenuti concreti legati all’AI.

A livello nazionale, alcuni CCNL hanno iniziato a introdurre riferimenti alla trasformazione digitale e alle nuove professioni dell’AI. Il CCNL Terziario “Sistema Impresa – FESICA Confsal”, ad esempio, include una sezione dedicata ai profili professionali legati all’intelligenza artificiale, segnale che il tema sta entrando, seppur lentamente, nelle maglie della contrattazione.

Accanto agli accordi, il mondo sindacale italiano sta sviluppando una riflessione più ampia sul rapporto tra AI e diritti del lavoro. La Fondazione Di Vittorio (CGIL) ha dedicato un’intera giornata di studio all’azione sindacale nell’era digitale, mentre documenti della UIL e analisi pubblicate da Adapt evidenziano l’urgenza di costruire strumenti di monitoraggio e governance dell’AI all’interno delle imprese. Tuttavia, a oggi, mancano ancora accordi nazionali organici, linee guida condivise e osservatori strutturati sull’impatto dell’AI nei luoghi di lavoro.

Il confronto con gli Stati Uniti evidenzia il divario: oltre ai casi di negoziazione avanzata nei settori creativi e sanitari, il mondo sindacale statunitense sta già definendo principi guida sull’uso dell’AI e, in alcuni casi, inserendo clausole specifiche nei contratti collettivi, come avvenuto con SAG-AFTRA dopo lo sciopero 2024-2025 o come emerge dai documenti analizzati dal Labor Center dell’Università di Berkeley sulle “AI values” delle principali organizzazioni sindacali. L’AI è entrata nella contrattazione collettiva solo in modo episodico e sperimentale. Esiste un dibattito crescente, ma manca ancora un impianto regolatorio e contrattuale sistemico.

Siamo lenti nell’adozione dell’AI e lenti nell’introdurre tutele adeguate: una doppia fragilità che rischia di lasciare imprese e lavoratori senza strumenti per governare davvero questa tecnologia.

Strade realistiche di resistenza e governance

La domanda chiave è: tutto questo è davvero percorribile? Non tutte le forme di resistenza hanno le stesse possibilità di successo, né gli stessi rischi per chi le mette in pratica. Alcune strategie sono poco realistiche, altre funzionano solo in contesti specifici, altre ancora rappresentano la via più concreta per incidere sull’uso dell’AI sul lavoro.

Resistenza frontale nelle aziende: perché è poco realistica

  1. Resistenza frontale nelle aziende: poco realistica
    Per ragioni strutturali la protesta individuale o di piccoli gruppi informali non è sostenibile. Il rischio percepito, stigmatizzazione, perdita del lavoro, isolamento, è troppo alto, mentre gli incentivi a tacere sono molto forti. Senza tutele collettive e senza riconoscimento formale, la resistenza frontale tende a rimanere episodica e fragile.

Resistenza collettiva: quando può funzionare davvero

  1. Resistenza collettiva: realistica, ma in precise condizioni
    Esistono tre scenari in cui la resistenza è concretamente percorribile:

a) Comunità territoriali
Quando l’impatto dell’AI è materiale (energia, acqua, rumore), le mobilitazioni funzionano. I risultati già ottenuti nel blocco dei data center lo dimostrano, perché collegano l’AI a problemi concreti di vita quotidiana.

b) Settori sindacalizzati o categorie con identità forte
Nelle professioni protette da contratti collettivi la resistenza è efficace, misurabile, negoziabile. Qui è possibile inserire clausole su limiti, condizioni d’uso e formazione.

c) Gruppi professionali ad alta reputazione
Ricercatori, giornalisti, docenti, medici specializzati possono orientare policy e regolamentazioni grazie al loro capitale simbolico e alla credibilità pubblica, influenzando le cornici entro cui l’AI viene regolata.

Governance interna: la via più percorribile

Governance interna nelle aziende: la via più percorribile in assoluto
Dentro le aziende la strada non è dire “no all’AI”, ma: governarla, negoziarla, condizionarla. Ciò significa introdurre valutazioni di impatto, comitati AI interni, criteri di rischio e valore, controlli sulla qualità dei dati, valutazioni energetiche e responsabilità chiare. Un approccio pragmatico, compatibile con gli obiettivi aziendali e già applicato nelle organizzazioni più mature, che consente di trasformare la resistenza in governance condivisa.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati