Tra opinione pubblica diffidente, mobilitazioni territoriali, sindacati in prima linea e nuove forme di governance aziendale, la resistenza all’adozione acritica dell’AI non solo esiste, ma sta iniziando a produrre effetti concreti. Non sempre dove ce li aspetteremmo.
L’AI viene spesso presentata come una tecnologia inarrestabile, una “forza della natura” che si impone in azienda e nella società. Ma i dati suggeriscono un quadro diverso: metà degli americani è più preoccupata che entusiasta dell’AI; oltre il 70% chiede una regolamentazione robusta; piccoli movimenti coesi possono generare cambiamento non lineare.
Dalla contrattazione sindacale alle lotte locali contro i data center, passando per le forme emergenti di governance interna, esistono vie percorribili per orientare l’innovazione. Non tutte sono realistiche ovunque, ma alcune sì e funzionano.
Indice degli argomenti
Come i lavoratori percepiscono davvero l’AI sul lavoro
Oltre la narrativa dell’inevitabilità, l’introduzione dell’intelligenza artificiale nei luoghi di lavoro viene spesso percepita come un processo inevitabile. La narrazione dominante suggerisce che, data la rapidità dello sviluppo e la pressione competitiva, alle aziende non resti altra scelta che adottare l’AI in modo esteso e immediato.
Ma un’analisi più attenta rivela uno scenario meno lineare e molto più conflittuale. In un recente articolo pubblicato su Vox, la giornalista Sigal Samuel racconta il caso di un ingegnere che si definisce “obiettore di coscienza” rispetto all’uso dell’AI generativa nella sua azienda. Non è contrario alla tecnologia in sé, ma alla sua applicazione acritica, guidata, come spesso accade, non da un’analisi costi-benefici, bensì da un entusiasmo manageriale non sempre informato.
La sua esperienza non è isolata. Secondo il Pew Research Center, il 50% degli americani si sente più preoccupato che entusiasta dell’aumento dell’AI nella vita quotidiana. Il dato proviene dal rapporto How Americans View AI and Its Impact on People and Society.
Questa diffidenza non riguarda solo gli utenti, ma anche molti lavoratori nei settori tech e creativi, che vivono l’espansione dell’AI come un processo opaco, non condiviso e potenzialmente dannoso.
Il potere delle minoranze organizzate nell’AI sul lavoro
Quando parliamo di resistenza all’interno dei sistemi complessi — aziende, comunità, società — la ricerca della politologa Erica Chenoweth, Harvard Kennedy School, fornisce una chiave interpretativa potente.
Nel paper Questions, Answers, and Some Cautionary Updates Regarding the 3.5% Rule Chenoweth mostra che i movimenti non violenti diventano “statisticamente inevitabili” quando raggiungono una soglia di partecipazione pari al 3,5% della popolazione.
Non si tratta di una legge matematica, ma di un’indicazione empirica sul funzionamento dei sistemi sociali complessi: piccoli gruppi coesi possono generare effetti di cascata, alterando in tempi relativamente rapidi dinamiche consolidate.
Applicata al mondo del lavoro, la regola suggerisce che l’impatto dei singoli è limitato, ma l’impatto dei gruppi organizzati, anche se minoritari, può essere significativo.
Sindacati e categorie professionali che resistono all’AI sul lavoro
Gli ultimi anni mostrano che la resistenza all’uso acritico dell’AI è più efficace quando avviene attraverso soggetti collettivi con forza contrattuale.
Alcuni casi di contrattazione sull’uso dell’AI
Gli esempi più evidenti:
- Writers Guild of America (WGA) ha ottenuto clausole contrattuali vincolanti che vietano l’uso dell’AI per sostituire sceneggiatori.
- National Nurses United ha portato in piazza migliaia di infermieri per rivendicare il diritto a decidere come e quando l’AI debba essere usata nelle interazioni cliniche.
- Service Employees International Union (SEIU) ha negoziato con lo Stato della Pennsylvania la creazione di un comitato di supervisione dei sistemi AI nei servizi pubblici.
Questi risultati confermano la tesi centrale dell’AI Now Institute, espressa dalla co-direttrice Sarah Myers West: i sindacati rappresentano oggi uno degli attori più efficaci nel determinare come l’AI venga implementata e se debba esserlo.
La resistenza territoriale all’espansione dei data center
Una forma di resistenza più sorprendente arriva dalle comunità locali. L’espansione dei data center necessari alla crescita dell’AI sta generando mobilitazioni in tutta l’America.
Secondo Data Center Watch, tra il 2023 e il 2025 sono stati bloccati o ritardati progetti per 64 miliardi di dollari. Le motivazioni variano: consumo energetico, impatto sull’acqua, inquinamento acustico, stress sulle infrastrutture locali.
Ma il risultato è chiaro: quando la mobilitazione riguarda la qualità della vita, l’inerzia tecnologica viene messa in discussione con successo.
Cosa chiede davvero il pubblico sulla regolazione dell’AI
Lo studio condotto dal Future of Life Institute su un campione di 2.000 americani mostra che il 73% degli intervistati sostiene una regolamentazione rigorosa dell’AI avanzata, fino a prevedere possibili limiti all’addestramento di modelli troppo potenti.
Non si tratta quindi di ostilità alla tecnologia, ma della richiesta di un percorso controllato, trasparente e responsabile.
AI sul lavoro in Italia: ritardi, sperimentazioni e tutele deboli
In Italia il dibattito sull’intelligenza artificiale nei luoghi di lavoro è ancora nelle prime fasi, sia sul versante dell’adozione tecnologica sia su quello delle tutele.
I dati europei confermano che il Paese procede a ritmo più lento rispetto ad altre economie avanzate: secondo il Digital Decade Country Report – Italy 2025 della Commissione Europea, l’Italia mostra progressi nella digitalizzazione, ma “persistono ritardi significativi nell’adozione dell’AI nelle imprese”, in particolare nelle PMI.
Allo stesso modo, l’OCSE rileva che, nonostante incentivi come il piano Transizione 5.0, la maturità digitale delle aziende resta disomogenea e spesso insufficiente a integrare l’AI in modo strutturale.
Sul fronte delle tutele e della contrattazione collettiva, il quadro è altrettanto lento. Nel nostro Paese stanno emergendo i primi accordi che citano esplicitamente l’intelligenza artificiale, ma si tratta ancora di esperienze settoriali e non di una strategia nazionale.
Un caso rilevante è quello di CNP Vita Assicura, che nel marzo 2025 ha firmato con le organizzazioni sindacali un accordo aziendale dedicato ai sistemi di AI: il testo vieta l’uso dell’intelligenza artificiale per finalità di controllo o monitoraggio dei dipendenti e prevede percorsi di formazione e riqualificazione. Questo è uno dei pochissimi esempi italiani di contrattazione su contenuti concreti legati all’AI.
A livello nazionale, alcuni CCNL hanno iniziato a introdurre riferimenti alla trasformazione digitale e alle nuove professioni dell’AI. Il CCNL Terziario “Sistema Impresa – FESICA Confsal”, ad esempio, include una sezione dedicata ai profili professionali legati all’intelligenza artificiale, segnale che il tema sta entrando, seppur lentamente, nelle maglie della contrattazione.
Accanto agli accordi, il mondo sindacale italiano sta sviluppando una riflessione più ampia sul rapporto tra AI e diritti del lavoro. La Fondazione Di Vittorio (CGIL) ha dedicato un’intera giornata di studio all’azione sindacale nell’era digitale, mentre documenti della UIL e analisi pubblicate da Adapt evidenziano l’urgenza di costruire strumenti di monitoraggio e governance dell’AI all’interno delle imprese.
Tuttavia, a oggi, mancano ancora accordi nazionali organici, linee guida condivise e osservatori strutturati sull’impatto dell’AI nei luoghi di lavoro. Il confronto con gli Stati Uniti evidenzia il divario: oltre ai casi di negoziazione avanzata nei settori creativi e sanitari, il mondo sindacale statunitense sta già definendo principi guida sull’uso dell’AI e, in alcuni casi, inserendo clausole specifiche nei contratti collettivi, come avvenuto con SAG-AFTRA dopo lo sciopero 2024-2025 o come emerge dai documenti analizzati dal Labor Center dell’Università di Berkeley sulle “AI values” delle principali organizzazioni sindacali.
L’AI è entrata nella contrattazione collettiva solo in modo episodico e sperimentale. Esiste un dibattito crescente, ma manca ancora un impianto regolatorio e contrattuale sistemico. Siamo lenti nell’adozione dell’AI e lenti nell’introdurre tutele adeguate: una doppia fragilità che rischia di lasciare imprese e lavoratori senza strumenti per governare davvero questa tecnologia.
Quali forme di resistenza all’AI sul lavoro sono realistiche?
La domanda chiave: tutto questo è davvero percorribile?
Perché la resistenza frontale in azienda è poco realistica
- Resistenza frontale nelle aziende: poco realistica.
Per ragioni strutturali la protesta individuale o di piccoli gruppi informali non è sostenibile. Il rischio percepito — stigmatizzazione, perdita del lavoro, isolamento — è troppo alto, mentre gli incentivi a tacere sono molto forti.
Quando la resistenza collettiva diventa efficace
- Resistenza collettiva: realistica, ma in precise condizioni.
Esistono tre scenari in cui la resistenza è concretamente percorribile:
a) Comunità territoriali
Quando l’impatto dell’AI è materiale (energia, acqua, rumore), le mobilitazioni funzionano. I risultati già ottenuti nel blocco dei data center lo dimostrano.
b) Settori sindacalizzati o categorie con identità forte
Nelle professioni protette da contratti collettivi la resistenza è efficace, misurabile, negoziabile.
c) Gruppi professionali ad alta reputazione
Ricercatori, giornalisti, docenti, medici specializzati possono orientare policy e regolamentazioni.
Governance interna: governare l’AI invece di subirla
- Governance interna nelle aziende: la via più percorribile in assoluto.
Dentro le aziende la strada non è dire “no all’AI”, ma: governarla, negoziarla, condizionarla. Ciò significa introdurre valutazioni di impatto, comitati AI interni, criteri di rischio e valore, controlli sulla qualità dei dati, valutazioni energetiche e responsabilità chiare.
Un approccio pragmatico, compatibile con gli obiettivi aziendali e già applicato nelle organizzazioni mature.
Conclusioni: l’AI come scelta politica, non destino
L’AI non è una forza naturale, è un insieme di scelte politiche, economiche e organizzative. Dire che “non si può fermare” è una narrazione funzionale agli interessi di pochi, non un dato tecnico.
La vera domanda non è possiamo resistere? La domanda è: attraverso quali strumenti, in quali contesti e con quali alleanze la resistenza diventa efficace?











