L’intelligenza artificiale non è una semplice innovazione tecnologica, ma rappresenta un principio tecnico universale destinato a riorganizzare integralmente la realtà.
Siamo testimoni di un cambiamento di status del digitale che si erge a potenza aletheica: un mezzo abilitato a interpretare la realtà, investito del compito di enunciare e valutare il reale in modo più “affidabile” dell’uomo.
Questa trasformazione dei modelli di IA, da strumenti di calcolo a motori capaci di svelare nuovi modelli di realtà e conoscenza all’interno di enormi quantità di dati, segna il passaggio verso una “singolarità ontologica” dove la figura umana è ridefinita e sottomessa alle equazioni dei suoi stessi artefatti per rispondere a interessi economici privati di poche multinazionali tecnologiche.
I creatori di algoritmi presentano questa tecnologia come mezzo per rispondere ad esigenze di certezza ed efficienza, perché basata su calcoli statistici e quindi tecnologia neutra che, se adottata, è in grado di garantire libertà ed equità.
Indice degli argomenti
Come l’intelligenza artificiale interpreta e semplifica la realtà
In particolare, questa tecnologia non elabora solo input per ottenere output, ma assume una funzione interpretativa che “toglie il velo” alla realtà, spesso offrendone una visione semplificata e apparentemente “oggettiva” che si sostanzia in un’immagine manipolata rispettosa dei valori intrinseci degli sviluppatori.
Il nuovo algoritmo non esegue più solamente istruzioni, ma impara a identificare modelli nei dati di addestramento, prevedendo o rivelando tendenze che l’uomo non percepirebbe se non dopo analisi approfondite che richiederebbero enormi risorse intellettive e di tempo.
Secondo Luciano Floridi, viviamo nell’infosfera, dove la distinzione tra online e offline si fa sempre più sfumata; in questo scenario, gli algoritmi agiscono come tecnologia delle tecnologie, definendo la nostra realtà e spingendo le nostre scelte di vita verso direzioni eterodeterminate difficili da riconoscere e contrastare.
Controllo, persuasione e perdita di autodeterminazione
L’algoritmo presentato come soluzione alle disuguaglianze economiche e sociali si presenta come strumento di controllo e di persuasione subdola che condiziona l’individuo nella sua libertà di autodeterminazione, nella sua capacità di ragionamento e di scelta.
Abbiamo imparato che gli algoritmi modellano la realtà secondo logiche di profitto inoculate dagli sviluppatori e il loro impatto sulle vite degli utilizzatori non è neutro, pertanto, per garantire che il sistema automatizzato “sveli” la verità in modo equo, trasparente e responsabile, evitando pregiudizi (bias), occorre garantire che chi opera lungo la catena di valore sia educato al rispetto di saldi valori etici che pongono al centro della riflessione socio-culturale il rispetto della dignità della persona umana.
Sebbene l’IA offra la promessa dell’oggettività e dell’efficienza economica basata sui dati, la svolta cui si è assistito è l’aumento del rischio che l’algoritmo cristallizzi i pregiudizi di chi lo ha creato, “svelando” una realtà distorta, manipolata e discriminatoria.
Dati, bias e limiti dell’oggettività algoritmica
L’AI e il suo corretto funzionamento si basa sull’etichettatura di contenuti e sull’uso di dati strutturati aggregati in modo tale dal risultare scevri da pregiudizi di coloro che li hanno prodotti.
Per tutelare gli utenti e garantire un uso sicuro degli stessi si ricorre all’etica che migra dall’interiorità umana alla topologia dei sistemi automatizzati perché l’algoritmo non spiega le sue ragioni, le performa attraverso la sua struttura, agendo in una sorta di silenzio operativo e l’uomo adotta le risposte dell’algoritmo accettandole come oggettivamente corrette perché basate sui dati elaborati da un sistema ipoteticamente asettico.
Tuttavia, qualsiasi dato l’uomo produca non corrisponde alla realtà bensì a una rappresentazione della stessa pertanto, per capire l’impatto che gli algoritmi hanno sulle nostre vite, occorre riflettere su come sono progettati, sulla tipologia di dati utilizzati per allenarli e quali parametri sono stati scelti dagli sviluppatori per rendere efficiente l’output.
Etica dell’intelligenza artificiale e supervisione umana
Tuttavia, queste attività sono già oggetto di preliminare selezione e, di conseguenza, potrebbero essere affette da errori o distorsioni collegate a bias cognitivi degli sviluppatori stessi; pertanto l’etica funge da strumento di riflessione che permette una prima correzione alle possibili fallacie cui potrebbe incorrere lo strumento.
Infatti, un algoritmo che fa una previsione distorta, perché è stato addestrato su dati pieni di pregiudizi non “si preoccupa” degli effetti conseguenti l’uso dell’output, perché non mette in discussione la scelta operata per raggiungere il risultato; solo gli esseri umani hanno la capacità critica per farlo, pertanto il coinvolgimento umano nel processo di costruzione, allenamento e valutazione dei risultati è indispensabile per evitare errori purché l’operatore sia conscio delle dinamiche di potere che si nascondono dietro questi strumenti, compresi i pregiudizi culturali che essi potrebbero amplificare.
Non si tratta solo di etica degli algoritmi, ma, anche di quella inoculata negli algoritmi, intesa come creazione di algoritmi, by design, rispettosi di principi etici e, realizzata mediante valutazioni preventive dell’impatto etico del sistema prima del lancio sul mercato.
Equità, trasparenza e principi morali
Al fine di governare correttamente i risultati di questi sistemi, come previsto già nell’AI Act europeo, occorrerà quindi operare delle verifiche tecniche sul codice e sui dati per individuare possibili distorsioni, mantenere la supervisione umana obbligatoria nei processi decisionali e garantire che i teams di sviluppo siano diversificati per rispecchiare le diverse prospettive di genere e i diversi valori culturali.
In sintesi, l’etica applicata agli algoritmi cerca di risolvere il dilemma tra efficienza tecnologica e tutela dei diritti fondamentali, assicurando che la tecnologia cambi la società in modo positivo.
Tuttavia, l’idea che l’equità sia moralmente auspicabile, presuppone una visione precisa dell’etica cui ispirarsi, come ad esempio quella proposta dalla giustizia distributiva.
Consequenzialismo, deontologia ed etica della cura
Eppure, le teorie morali non sono tutte uguali e, il rapporto tra equità ed eticità cambia radicalmente secondo il quadro teorico adottato.
Dal punto di vista dell’etica consequenzialista ad esempio, un’azione è etica se le sue conseguenze massimizzano il bene collettivo, inteso come la somma degli interessi di tutti gli individui.
Da questo punto di vista, un algoritmo equo potrebbe produrre conseguenze indesiderabili, se non dannose, garantendo ad esempio un accesso al credito a tutti i gruppi sociali con pericoli per la tenuta del sistema finanziario.
Poiché il consequenzialismo presuppone che gli interessi dei singoli possano essere sommati per ottenere un bene globale, alcune critiche a tale approccio sostengono che questo non tenga conto della differenza qualitativa tra gli individui.
Intelligenza artificiale, categorie e singolarità della persona
Tali osservazioni poggiano sull’etica deontologica, secondo cui l’azione morale è definita dalla sua conformità a una serie di principi, piuttosto che dalle conseguenze che produce.
Tra tali principi vi è il rispetto del valore intrinseco, della dignità e dell’autonomia di ogni individuo, considerato come soggetto morale, ossia come un soggetto degno di ricevere azioni etiche, verso cui è giusto agire moralmente.
Un quadro etico alternativo è l’approccio dell’etica della cura, dove l’attenzione è incentrata sui bisogni di cura dell’altro e sulla sua vulnerabilità, concettualizzando una moralità basata sulla vicinanza e sul riconoscimento della singolarità e del contesto specifico di chi ci è prossimo, a scapito dell’imposizione di modelli universalmente validi, astratti e decontestualizzati.
Riduzioni categoriali e limiti morali degli algoritmi
Se guardiamo alla questione dell’equità seguendo questi ultimi due approcci – quello deontologico e della cura – emerge una criticità, il cui nodo centrale riguarda il funzionamento stesso degli algoritmi che, anche quando sono ispirati a equità, operano attraverso variabili e categorie, riducendo il singolo a un insieme di caratteristiche specifiche che mortificano le sue peculiarità.
Ebbene, l’equità basata su tali riduzioni categoriali, può risultare eticamente inadeguata in quanto, l’elaborazione statistica su cui si basano le scelte algoritmiche, implica che i singoli casi siano necessariamente valutati attraverso modelli generali e correlazioni a livello di popolazione, il che può condurre a risultati moralmente problematici quando le decisioni vengono prese in relazione a singoli individui.
Inoltre le rappresentazioni categoriali su cui si basa l’IA riducono l’identità del singolo a una “combinazione originale” di variabili predeterminate, senza lasciare spazio a una “rinegoziazione” simultanea di tali caratteristiche (poiché sarebbe necessario un nuovo addestramento del modello algoritmico) e, questa mancanza di flessibilità, rende impossibile riconoscere la singolarità individuale al di là dei dati codificati.
Chi decide l’etica delle macchine
In secondo luogo, le categorie non sono mai neutrali ma, derivate da contesti culturali e sociali specifici, inoltre l’atto stesso di classificare implica lo stabilire cosa conta, cosa è rilevante, e cosa non lo sia, con l’effetto di rafforzare piuttosto che mitigare le distorsioni.
In sintesi l’equità è eticamente ambigua: può essere compatibile con alcune concezioni morali, ma entrare in conflitto con altre; di conseguenza, quando deleghiamo decisioni a sistemi automatici senza interrogarci su quali presupposti morali sono disegnati, rinunciamo a una parte del nostro spazio di deliberazione collettiva.
Chi decide quale etica deve guidare le macchine? E su quale base?
Ebbene, solo stimolando una riflessione globale condivisa su obiettivi e valori che vogliamo che un algoritmo incorpori potremmo capire le caratteristiche appropriate di un sistema IA eticamente equo, altrimenti, il rischio sarà di pensare che basti rendere le macchine “fair” per sollevarci dal compito, più difficile, di decidere collettivamente che cosa intendiamo per etico e quindi giusto.
Un esempio concreto lo abbiamo visto con la vicenda del rifiuto di Anthropic a sottoscrivere il contratto con il Pentagono al fine di non fornire alla difesa americana un algoritmo da utilizzare in violazione dello statuto etico cui si è ispirata l’azienda.
Come spiega Kate Crawford nel suo libro Atlas of Ai, che indaga da un punto di vista politico, sociale e ambientale lo sviluppo delle intelligenze artificiali, ci dovremmo interrogare su chi tiene le redini di questo “progresso tecnologico” (poche aziende potentissime) e che tipo di mondo pervaso dall’IA vogliamo costruire per il nostro futuro, giacché quello realizzato fin qui non sembra essere il migliore per la collettività anzi, sembra aver già tradito tutte le promesse.
L’impero dell’IA: come le imprese tecnologiche stanno ridefinendo il concetto di conoscenza
Con la perifrasi “impero dell’IA” si vuole richiamare l’attenzione su come i colossi tecnologici sequestrino risorse presenti in rete per personale arricchimento offrendo gli output delle loro soluzioni artificiali come risposte a problemi di inefficienza energetica strutturale e come mezzo di democratizzazione degli effetti “asseritamente positivi” dell’IA.
Come un tempo le nazioni coloniali, le aziende tecnologiche, come spiega Karen Hao stanno estraendo sapere dal mondo intero, ridefinendo il concetto stesso di conoscenza e sapere.
Ebbene, il dominio tecnologico non è solo infrastrutturale, a causa della diffusione capillare dei sistemi IA nella società, ma altera profondamente il modo in cui costruiamo conoscenza, prendiamo decisioni e intendiamo il pensiero umano.
Estrazione del sapere e privatizzazione dei dati
Secondo questa teoria, l’industria dell’IA viene paragonata a una nuova forma di colonialismo, dove ogni azienda che progetta algoritmi usa la rete (mediante scraping indiscriminato) per alimentare i propri modelli, concentrando nelle proprie mani il potere e il valore dedotto dai dati a spese dei creatori originali.
Il sapere algoritmico non viene creato attraverso l’esperienza umana o la ricerca, ma “estratto” da database globali, social media e produzioni intellettuali e trasformato da sapere collettivo in asset privato.
La differenza principale rispetto al sapere umano è che le persone, per padroneggiare un concetto o un argomento, devono fare uno sforzo cognitivo che coinvolge memoria e pensiero critico necessari per comprendere concetti complessi e costruire il proprio bagaglio di conoscenze.
Dalla comprensione al calcolo probabilistico
Al contrario, l’IA generativa e i modelli linguistici (LLM) stanno ridefinendo il concetto di conoscenza spostandolo dalla comprensione profonda (interiorità) al mero calcolo probabilistico con l’effetto di trasformare il sapere in mera “risposta” generata per rispondere ad un input, non più nel desiderio di apprendere per crescere culturalmente ed arricchirsi personalmente.
La “nuova aurora del pensiero” analizza come l’IA stia destrutturando lo statuto antropologico dell’uomo, facendo discutere sull’ipotesi che il pensiero sia un atto biologico unico o una procedura simulabile grazie ad un calcolo statistico.
Se da un lato l’uso di questi strumenti a supporto dell’attività umana funge da potenziamento nelle attività di ricerca, sintesi e organizzazione dei contenuti, dall’altro può favorire l’accettazione acritica dei risultati, facilitando la pigrizia intellettuale e riducendo l’attenzione e l’analisi anche a causa di una mole sempre più elevata di contenuti di ogni genere, difficili da selezionare in tempi brevi, per giungere a una risposta soddisfacente e veritiera.
Come l’intelligenza artificiale ridefinisce la conoscenza
Ciò posto, appare evidente come, la conoscenza umana, non possa equipararsi all’estrazione algoritmica di dati strutturati per riprodurre in modo verosimile elaborati prodotti dall’uomo.
Anzi, proprio perché i dataset sono basati su scritti prodotti dalle persone, gli algoritmi e i loro output incorporano gli stessi bias, trasformando il sapere estratto in pregiudizi strutturali, spesso invisibili e difficili da correggere a causa dell’opacità del loro funzionamento.
Di conseguenza il sapere elaborato automaticamente non è più solo ricercato, ma generato in maniera automatica con lo spostamento del focus dalla qualità del pensiero alla velocità e alla quantità delle risposte a scapito della verità e dell’analisi profonda.
Creatività simulata e opacità del sapere automatico
Il sapere estratto dall’IA è spesso descritto come un’azione senza biografia perché l’algoritmo elabora, calcola e passa da un dato all’altro senza comprendere i concetti che computa, senza mai “conoscere” nel senso umano del termine.
Questa privatizzazione del sapere collettivo trasforma il “sapere umano estratto” in un grande calderone d’informazioni carpite in modo opaco, tagliate e incollate con “sapienza algoritmica” per simulare una creatività che è, in realtà, mera probabilità statistica depurata di quegli aspetti peculiari che caratterizzano la ricchezza del sapere umano.
In sintesi l’algoritmo si presenta uno strumento problematico, che elabora risposte da verificare, che risponde a logiche di profitto, che potrebbe restituire risultati affetti da distorsioni, discriminazioni, errori e che non può operare autonomamente ma dovrà essere sottoposto a verifiche periodiche, aggiornamenti e supervisione umana al fine di prevenire e gestire i rischi che dal suo malfunzionamento o uso distorto potrebbero derivare.
Pensiero critico e dipendenza cognitiva
A nostro avviso, per difendersi e mantenere un pensiero indipendente è necessario potenziare il pensiero critico e la capacità analitica, strumenti imprescindibili per valutare l’accuratezza dei contenuti generati automaticamente e per identificare distorsioni e pregiudizi; inoltre sarà importante ricordare che l’interazione costante con questi strumenti può modificare il modo in cui strutturiamo i pensieri, portandoci a ragionare in termini induttivi, sequenziali e asettici, con l’effetto di un potenziale indebolimento delle capacità umane di ragionamento autonomo e creativo e di ricchezza del linguaggio.
In sintesi possiamo dire che l’IA agisce come una nuova misura del sapere, ponendo il problema di cosa sia il possesso della conoscenza in un’epoca di accesso ubiquo e immediato alle informazioni.
La diffusione dell’IA sta contribuendo a costruire un nuovo paradigma logico dove il sapere diventa una risorsa estratta, elaborata e gestita in modo automatizzato, sfidando l’uomo a ridefinire il proprio ruolo nella creazione e nella gestione della conoscenza e del linguaggio.
Intelligenza artificiale, sfruttamento e lavoro invisibile
Analogamente al colonialismo del XIX secolo, le multinazionali del digitale estraggono il patrimonio intellettuale dell’umanità — dalle opere d’arte, dai libri, dai codici, dalle vite in rete di ciascuno di noi — per addestrare i loro modelli linguistici di grandi dimensioni, prevalentemente senza consenso e per realizzare sistemi di IA o agenti IA da vendere alla collettività che continuerà a contribuire, in modo più o meno consapevole, alla diffusione di questi strumenti presentati come necessari e/o indispensabili per risolvere le asimmetrie economiche ed i principali problemi sociali.
E non va taciuto che, per ottimizzare il funzionamento degli algoritmi basati su LLM di grandi dimensioni, è necessario che i dataset di addestramento reperiti nella rete siano raffinati prima del loro utilizzo e, anche in quest’operazione, si nasconde la nuova “schiavitù digitale”.
Infatti, per ogni algoritmo funzionante è necessario il lavoro di migliaia di persone in paesi come il Kenya, il Bangladesh o il Pakistan, pagate con salari offensivi della dignità umana, per pulire ed etichettare i dati che nutrono l’IA.
Il corto circuito socioeconomico della macchina
Infine, non va dimenticato come, per garantire l’efficienza di questi sistemi sia necessario nutrirli di dati prodotti dagli uomini, di qui il proliferare di annunci di lavori in cui i teams di sviluppo dei nuovi algoritmi assumono esseri umani per la produzione di dati da dare in pasto ai sistemi che poi saranno immessi sul mercato con l’effetto di alimentare un corto circuito socioeconomico in cui la macchina non è più alle dipendenze dell’uomo ma, è l’uomo che diventa schiavo della sua stessa creatura e contribuisce, con il suo lavoro, a rafforzare la nuova squalificante condizione di subordinazione alla macchina.
In questa prospettiva, le aziende tecnologiche agiscono come parte dell’apparato degli stati imperialisti moderni, lavorando per far avanzare gli interessi di grandi corporation e istituti di credito in spregio di ogni diritto o garanzia.
La personalità elettronica e il vuoto di responsabilità
Ebbene, se l’algoritmo ci dice come interpretare la realtà e ci suggerisce la soluzione più efficiente e quindi desiderabile da adottare, garantendoci il minimo sforzo cognitivo, cosa accade quando da tali scelte derivano pregiudizi ai danni di altri soggetti?
Di chi è la responsabilità per i danni prodotti all’uomo dall’algoritmo o da un agente autonomo?
L’autonomia dei sistemi IA crea un “vuoto di responsabilità” (accountability gap) poiché le logiche delle reti neurali sono spesso opache (“black-box”) risultando molto complicato, da un punto di vista tecnico, individuare l’effettivo responsabile del danno algoritmico.
Black box e difficoltà di imputazione del danno
In questo scenario è altrettanto difficile applicare le regole ordinarie dell’illecito civile che riconduce la responsabilità del danno ingiusto alla condotta omissiva o commissiva intenzionale o imperita, imprudente o negligente del danneggiante.
Per questo, una soluzione ipotizzata da alcuni studiosi è stata quella di attribuire alle macchine personalità elettronica sebbene, su tale proposta sia nato un forte dibattito anche per la difficile sovrapposizione tra le categorie tradizionali della responsabilità contenute nel codice civile e le nuove prospettive tracciate dall’AI Act Europeo e dalla legge italiana sull’IA nonché dalle ipotesi di responsabilità per prodotto difettoso.
La proposta di istituire uno status di personalità elettronica nasce ufficialmente con la Risoluzione del Parlamento Europeo del 2017 (Rapporto Delvaux), con l’intento di gestire artefatti dotati di capacità decisionali autonome.
Perché la personalità elettronica viene contestata
Tale tesi si fonda su un approccio funzionalistico: attribuire una soggettività alle macchine permetterebbe di creare un centro di responsabilità unitario, dotandole eventualmente di un patrimonio proprio (simile al peculium dello schiavo romano) per risarcire i danneggiati.
Tuttavia, seguendo quanto emerso dall’esperimento mentale della stanza cinese di John Searle, si è visto che la macchina manipola simboli (sintassi) senza comprenderne il significato (semantica) e che l’IA simula la coscienza ma, ne è priva e risponde a causalità computazionali, non a un’esperienza interiore di dolore, rimorso, rabbia o gioia pertanto attribuire diritti e doveri a entità prive d’intenzionalità reale svuota il concetto stesso di responsabilità dal punto di vista etico e giuridico.
Per questo la dottrina maggioritaria e le successive posizioni europee hanno rigettato questa strada, per le seguenti criticità:
- assenza di coscienza: l’IA è un sistema deterministico di trasformazione di segnali privo di “qualia” (esperienza soggettiva) e intenzionalità morale e, senza coscienza non può esserci colpevolezza in senso tradizionale.
- rischio di moral washing: elevare la macchina a soggetto giuridico rischierebbe di trasformarla in un “capro espiatorio tecnologico”, permettendo ai produttori di diluire la propria responsabilità e di limitare il risarcimento a un fondo patrimoniale potenzialmente insufficiente.
- inutilità pratica: la responsabilità diretta dell’IA non accresce la tutela della vittima; al contrario, la responsabilizzazione umana (produttori, custodi, gestori) garantisce centri finanziari più solidi e la possibilità di un integrale ristoro.
Responsabilità dell’intelligenza artificiale e centralità umana
Di conseguenza, nelle risoluzioni del 2019 e 2020 l’Unione Europea ha operato un netto “dietrofront”, riaffermando il principio antropocentrico: l’IA deve rimanere uno strumento al servizio dell’uomo e l’essere umano deve conservare la responsabilità ultima (human-in-the-loop) delle conseguenze dell’uso degli algoritmi.
Esclusa quindi l’ipotesi di una personalità elettronica delle macchine permaneva il problema tecnico, di difficile soluzione dell’opacità intrinseca degli algoritmi di machine learning, che operano come una “scatola nera” (black box), rendendo la prova del nesso causale e della colpa una vera probatio diabolica a carico del danneggiato.
La riflessione si è quindi concentrata sull’analisi delle categorie di responsabilità (soggettiva e oggettiva) del codice civile italiano, che sono state sottoposte a una tensione interpretativa senza precedenti al fine di trovare una soluzione accettabile per individuare su chi far ricadere i costi del danno algoritmico.
Le categorie civilistiche applicate ai sistemi IA
Con riferimento alla responsabilità aquiliana (art. 2043 c.c.) applicata all’algoritmo, risulta evidente che la stessa è spesso inadeguata poiché presuppone un comportamento “umano” cosciente e volontario, elementi difficili da dimostrare quando il danno deriva da un’elaborazione autonoma del software.
D’altra parte, la responsabilità del custode (art. 2051 c.c.) potrebbe rappresentare una via percorribile perché la macchina è rappresentata come una “cosa” e il custode ne risponde oggettivamente, salvo prova del caso fortuito. Tuttavia, l’imprevedibilità del sistema AI non può costituire caso fortuito, essendo un rischio intrinseco alla natura dinamica del bene custodito.
Se invece pensiamo il ricorso all’algoritmo (sviluppo o uso) come l’esercizio di un’attività pericolosa (art. 2050 c.c.) si avrà l’inversione dell’onere della prova a carico del produttore/gestore a tutto vantaggio del danneggiato.
Se infine inquadrassimo la responsabilità per i danni conseguenti l’uso dell’IA come responsabilità vicaria (art. 2049 c.c.): l’IA sarebbe equiparata a un “ausiliario” (un collaboratore digitale) e il datore di lavoro (utilizzatore) risponderebbe dei danni prodotti dal sistema impiegato nella propria organizzazione aziendale (o risponderebbe dei danni prodotti dal sottoposto cui è demandato l’uso dello strumento che si è discostato dalle linee guida dello studio).
Infine, si potrebbe pensare a una responsabilità da prodotto difettoso, applicando il codice del consumo e/o prevedere un’assicurazione obbligatoria da far sottoscrivere ai produttori e agli utilizzatori per garantirli e manlevarli nell’ipotesi di sinistri colposi conseguenti un uso improprio del sistema.
AI Act, standard di sicurezza e obblighi di conformità
Il legislatore europeo invece con il Regolamento UE 2024/1689 (AI Act) non ha disciplinato direttamente la responsabilità civile degli algoritmi, che rimane affidata agli ordinamenti nazionali e a specifiche direttive (come la nuova Product Liability Directive) e ha adottato un approccio basato sul rischio, imponendo tuttavia obblighi preventivi di trasparenza sul modo in cui l’algoritmo elabora l’output, di documentazione tecnica aggiornata e di supervisione umana, specialmente per i sistemi ad alto rischio, come quelli impiegati nel sistema giustizia, in campo medico o dell’istruzione.
In termini di responsabilità civile delle macchine quindi, è determinante la conformità del sistema AI agli obblighi dell’AI Act e la conformità da parte del responsabile dello strumento al manuale di istruzioni, alle linee guida e alle buone prassi condivise, diventando tutti questi documenti parametri per valutare la negligenza del soggetto che ha utilizzato il sistema e il suo output e quindi per individuare il responsabile cui imputare l’obbligo risarcitorio.
Inoltre, il mancato rispetto degli standard di sicurezza (es. log di tracciabilità, qualità dei dati) costituisce un indizio di colpa specifica in sede risarcitoria.
Infine, in Italia, la Legge n. 132/2025 (la legge italiana sull’IA) ha recepito tali principi, ribadendo che l’IA può solo supportare l’uomo giammai sostituirlo, mantenendo la catena decisionale sempre riconducibile alla scelta finale di a una persona fisica.
In conclusione il “vuoto di responsabilità” non richiede la creazione di una nuova “persona elettronica”, che risulterebbe una finzione pericolosa per le vittime, quanto piuttosto in un adattamento olistico delle norme esistenti e in un’integrazione tra l’accountability preventiva (AI Act) e una liability correttiva umana basata su presunzioni di colpa e agevolazioni probatorie.
Ebbene, solo preservando la centralità umana si potrà evitare che la “soluzione matematica più elegante” dell’algoritmo coincida con la fine della tutela dei diritti e delle libertà fondamentali della persona umana.
Un mondo costruito per le macchine: come si trasforma il lavoro e come sopravvive l’uomo
Se l’adozione massiva dell’IA sta trasformando il mondo in un ecosistema progettato per l’efficienza delle macchine, quali sono le ricadute sull’esistenza dell’individuo?
Secondo Matteo Pasquinelli in The eye of the master: a social history of artificial intelligence (2023) gli algoritmi non nascono per replicare l’intelligenza biologica dell’uomo, ma come strumenti per catturare, sistematizzare e riprodurre l’intelligenza umana applicata al lavoro.
Questa intelligenza del lavoro non è un’astrazione individuale, ma un sapere pratico che si sviluppa nell’attività collettiva, nell’interazione con strumenti e tecnologie.
Dalla fabbrica industriale ai sistemi intelligenti
Fin dall’epoca industriale i processi produttivi sono stati scomposti in operazioni elementari rese misurabili e trasferite alle macchine sotto forma di algoritmi o, se preferiamo, istruzioni.
Una logica che oggi troviamo nei sistemi di IA, i quali funzionano proprio grazie a una vasta accumulazione di conoscenza umana estratta dal lavoro umano, trasformata in dati e utilizzata per addestrare i modelli a riconoscere schemi (pattern) e prendere decisioni.
L’elaborazione di questa mole di dati contribuisce a perfezionare questi sistemi a replicare in modo sempre più efficiente la prestazione lavorativa umana, massimizzando il rapporto produttività profitto.
Non è un caso che l’intelligenza artificiale venga presentata prima di tutto come uno strumento per ottimizzare processi e decisioni, per produrre di più e più velocemente.
In un sistema che pone l’efficienza al centro, anche la conoscenza, il lavoro e perfino la creatività finiscono per essere trattati come risorse da gestire secondo logiche di rendimento.
Selezione, sorveglianza e licenziamenti automatizzati
L’intelligenza artificiale, in questo scenario, non si limita a processare informazioni: dalle fabbriche alle piattaforme digitali, l’IA sta ridefinendo i meccanismi di controllo, organizzazione e accesso al mondo del lavoro, a partire dalle assunzioni, dove algoritmi di screening analizzano curriculum, test psicometrici e persino espressioni facciali attraverso i video-colloqui, assumendo o escludendo i candidati senza alcuna trasparenza sui criteri adottati.
A ciò si aggiunga l’incremento della sorveglianza sui dipendenti, l’assegnazione di turni e mansioni sulla base di obiettivi sempre più esigenti spesso calcolati da sistemi statistici e la valutazione “intelligente” delle performance che decide automaticamente sui licenziamenti.
Da questo punto di vista l’IA tratta gli esseri umani alla pari: come macchine da valutare, ottimizzare o dismettere e sostituire con nuove unità.
Intelligenza artificiale, profitto e disuguaglianza nel lavoro
Questo non è un fenomeno nuovo, con la rivoluzione industriale e l’automazione della produzione, le conseguenze per gli operai furono spesso drammatiche per la sostituzione con telai meccanici di centinaia di migliaia di tessitori, artigiani qualificati rimpiazzati da mano d’opera non specializzata per la gestione dei nuovi telai meccanici, pagati con salari più bassi e costretti a condizioni di lavoro più alienanti.
Dall’analisi dei dati storici emerge poi che dei vantaggi derivanti dalla meccanizzazione dell’industria ne beneficiarono solo generazioni molto successive a quelle sfruttate.
La meccanizzazione dell’industria americana portò alienazione e peggioramento delle condizioni del lavoro operaio per la difficoltà di adattamento dell’uomo alla sequenzialità della catena di montaggio e per la disumanizzazione della prestazione.
Infine, negli anni, ogni promessa di miglioramento e benessere diffuso è stata tradita dalla logica del profitto che ha guidato chi controllava la tecnologia e la usava per massimizzare il guadagno generando iniquità sociale.
Per controbilanciare questi poteri e ridurre le asimmetrie economiche sono state necessarie lotte sindacali e l’intervento dello stato come ente regolatore del mercato e garante dei diritti dei lavoratori.
Promesse dell’automazione e rischi sociali reali
Ebbene, l’IA e l’automazione avanzata potrebbero consentire realmente di produrre valore con meno sforzo umano, aprendo la strada a orari di lavoro più brevi, salari più alti e a una maggiore creatività dei lavoratori nei processi produttivi.
A ciò si aggiungono i vantaggi, molti, che questa tecnologia può portare nel campo della ricerca, per esempio nel settore medico-scientifico; tuttavia, in assenza di cambiamenti strutturali, l’IA rischia di seguire la traiettoria delle precedenti automazioni a causa del contesto socio-economico in cui viene applicata.
Di fatto, molte implementazioni attuali di IA nelle aziende mirano esplicitamente a tagliare costi e massimizzare l’efficienza, non a migliorare la vita dei dipendenti.
Anche istituzioni internazionali come l’OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) e l’FMI (Fondo Monetario Internazionale) hanno avvertito che senza adeguate politiche, l’IA potrebbe accentuare i divari esistenti e portare ad una contrazione dell’occupazione complessiva.
Salari, PIL e concentrazione dei profitti
L’IA sta già creando serie difficoltà alle aziende nella selezione di figure altamente specializzate per la gestione dei sistemi di IA adottati per rimpiazzare lavoratori licenziati, con una preoccupante riduzione della quota di Pil relativa al reddito da lavoro sul reddito nazionale.
Questo significa che, una porzione crescente del valore aggiunto prodotto, va ai profitti e una porzione calante va ai salari.
Il risultato è un gap crescente tra quanto produce un lavoratore e quanto guadagna.
Parimenti, la quota dei redditi da capitale (profitti, dividendi, rendite) è aumentata, mentre la quota destinata al lavoro ha raggiunto minimi storici in molte economie avanzate.
Appare evidente che invece di usare le macchine per aumentare il benessere collettivo e rendere meno faticoso il lavoro, si stanno utilizzando gli algoritmi per aumentare i profitti degli imprenditori, controllare i lavoratori e aumentare il divario economico e sociale.
Come l’intelligenza artificiale ridefinisce il rapporto uomo-macchina
Si pensi al sistema di sorveglianza e valutazione della performance adottato da Amazon che, in modo automatizzato, verifica il tempo d’inattività del lavoratore che, raggiunta una specifica soglia, genera in automatico la lettera di licenziamento.
Si pensi alla logica sottostante le piattaforme utilizzate dalle società di delivery per la gestione delle richieste di consegna da redistribuire tra i riders, discriminatorie e stressanti.
Insomma gli strumenti creati per aumentare la produttività sono divenuti strumenti che aumentano lo stress del lavoratore a scapito della sua salute psicofisica e della sua sopravvivenza perché per lavorare di più secondo le logiche dell’algoritmo ed evitare il licenziamento, i lavoratori si espongono a rischi maggiori per stipendi più bassi e a condizioni sempre più precarie.
Monitoraggio digitale, ansia e alienazione
Infine con l’introduzione del digitale negli uffici, sono stati introdotti software di monitoraggio avanzato che registrano ogni attività svolta dai dipendenti su computer aziendali, alcuni di questi sistemi, basati sull’IA, scattano screenshot dello schermo a intervalli casuali, tracciano i movimenti del mouse e registrano il tempo trascorso su ogni applicazione.
Questi sistemi generano nei lavoratori, ansia e stress perché riducono la loro autonomia provocando altresì insoddisfazione e alienazione. Nonostante ciò, molte aziende continuano a investire in questi strumenti, poiché nel breve periodo permettono di estrarre più lavoro dai dipendenti senza dover migliorare salari o condizioni.
Infine, come insegnano i premi Nobel per l’economia, Paul Romer e Joseph Stiglitz, la tendenza delle imprese a investire in IA che replicano e controllano il lavoro umano invece di sviluppare tecnologie per migliorarne le condizioni, può generare profitti nell’immediato, ma lascia la società in generale con meno persone impiegate e una domanda aggregata stagnante perché le persone inoccupate o con salari bassi consumano meno.
Potere politico delle grandi imprese tecnologiche
L’IA, come altre tecnologie, tende a generare vantaggi che premiano poche grandi aziende tecnologiche, quelle con accesso ai migliori algoritmi, alla mole di dati necessaria per addestrarli e ai capitali per investirvi: ciò aumenta il potere di mercato di queste imprese permettendo loro di imporre le proprie condizioni al lavoratore.
Quando questi attori acquisiscono anche un’influenza politica diretta, il rischio di asimmetrie incolmabili si amplifica.
Il loro controllo sulle infrastrutture digitali e sui dati si traduce in un potere di orientamento delle politiche pubbliche, d’influenza delle strategie nazionali per la diffusione, ad esempio, dell’IA nel tessuto produttivo nazionale, di orientamento degli investimenti in innovazione e delle scelte di offrire vantaggi fiscali a loro stesse in cambio della riconversione automatizzata delle infrastrutture pubbliche.
Inoltre, questi grandi colossi hanno un impatto decisivo sulla produzione legislativa, perché possono incidere sul grado di protezione della privacy, sulla normativa in tema di gestione dei dati, sulle leggi sulla concorrenza e sulle regole sull’impiego dell’IA nel lavoro e nell’ordine pubblico.
Infine, la loro posizione dominante incide sul dibattito sociale, perché sono in grado di orientare la percezione pubblica sulle implicazioni etiche della tecnologia, con il rischio di consolidare narrazioni che legittimano il loro stesso potere.
Intelligenza artificiale e progettazione del lavoro a misura d’uomo
In assenza di correttivi, questo sistema continuerà a intensificare lo sfruttamento e la concentrazione dei frutti della tecnologia nelle mani di pochi.
Come abbiamo visto, non si tratta di un esito ineluttabile causato dalla tecnologia in sé, ma dal modo in cui è governata.
Le stesse macchine che sotto certe condizioni producono alienazione e sfruttamento, in altri scenari potrebbero realmente offrire un contributo positivo di crescita condivisa e auspicabilmente sostenibile, laddove scelte etiche e non esclusivamente economiche intorno all’IA potrebbero spingere a reinvestire i profitti nella ricerca di soluzioni che ne riducano anche l’impatto ambientale.
Ebbene il contenimento del lavoro sfruttato è possibile, il problema rimane di ordine politico ed economico, non tecnologico.
Occorre ricordare però che l’automazione può e deve avere uno sviluppo controllabile: è la società nel suo insieme a doverla orientare verso il benessere collettivo perché di certo non lo farà il mercato.
AI Act, conformità e modelli organizzativi
Infine l’AI Act europeo ha stabilito specifici obblighi per le aziende e gli enti che si dotano di sistemi di AI per la propria attività produttiva, soprattutto se si tratta di sistemi ad alto rischio imponendo agli utilizzatori obblighi stringenti di conformità, analisi del rischio e adozione di efficaci misure di sicurezza volte a mitigare i danni che da un uso errato di tali sistemi potrebbe derivare.
Pertanto per ottemperare agli obblighi di conformità, assumersi le responsabilità e prevenire i rischi connessi all’uso degli algoritmi le imprese dovrebbero adottare un modello organizzativo che integri questo ulteriore rischio e riprogettare l’impianto industriale “a misura d’uomo”.
L’ergonomia fisica e cognitiva possano incidere concretamente sulla qualità del lavoro e sull’efficienza dei processi, riducendo complessità operative e carichi cognitivi pertanto è necessario progettare linee produttive e tecnologie pensando alla persona che utilizzerà le nuove infrastrutture intelligenti per svolgere il proprio lavoro con il supporto dell’IA; questo però non significa rallentare la produzione, ma creare condizioni che favoriscano continuità operativa, minori errori e maggiore sostenibilità nel lungo periodo.
Ergonomia, fabbrica intelligente e benessere del lavoratore
La fabbrica contemporanea, integrata con sistemi di IA, necessiterà un ripensamento dei modelli di progettazione, dove automazione e digitalizzazione non sono fini a loro stessi ma, strumenti per migliorare la collaborazione tra operatori, macchine e sistemi intelligenti.
Interessante è il caso di Bosch Rexroth, dove la convergenza tra l’ergonomia fisica e cognitiva delle linee produttive intelligenti dimostra la riduzione dello stress del lavoratore e l’efficienza della complessità operativa, liberando produttività nascosta nelle linee di assemblaggio e nella logistica.
L’approccio implementato si basa su strumenti concreti: simulazioni “man model”, interfacce uomo-macchina semplificate, postazioni adattive e dispositivi progettati per ridurre affaticamento e sovraccarico cognitivo.
Inoltre, display con informazioni essenziali, utensili con feedback tattili e banchi di lavoro regolabili rappresentano esempi pratici di una progettazione industriale che punta a rendere i processi produttivi più intuitivi e meno stressanti per i lavoratori.
Il punto chiave è quello di adattare le macchine alla mente umana, non viceversa perché, se l’automazione ha ridotto lavori ripetitivi e usuranti, ha anche introdotto nuovi livelli di complessità che oggi devono essere gestiti attraverso una progettazione più intelligente delle interazioni uomo-macchina.
Il punto centrale è capire che la competitività non passa solo dall’automazione spinta, ma dalla capacità di costruire ambienti produttivi in cui tecnologia e persone lavorino in modo armonico, riducendo errori, stress e inefficienze.
In definitiva l’obiettivo è di evitare la creazione di una società in cui l’individuo non è più visto come irriducibilmente unico, ma come una sequenza di dati da confrontare e ottimizzare a caccia del massimo profitto con un costo biologico, psichico ed economico devastante per il lavoratore.
Conclusioni sull’intelligenza artificiale e sulla centralità umana
Alla luce di quanto sin qui analizzato, ci si domanda quale sia il ruolo dell’uomo nel mondo che oggi è stato disegnato, progettato e ripensato per rendere performanti i nuovi algoritmi presentati come oracoli digitali in grado di produrre efficienza e benessere diffuso.
Abbiamo constatato che, il ricorso all’elaborazione di principi etici ispirati al rispetto della dignità umana con cui regolare lo sviluppo degli algoritmi si è dimostrato insufficiente di fronte agli scopi economici e di massimo profitto perseguiti dalle multinazionali del digitale.
Nel settore della formazione e del lavoro si sono registrate le principali problematiche connesse al potere trasformativo e potenzialmente sostitutivo dell’IA, presentata come artefatto che fornisce soluzioni come un oracolo e promuove efficienza e produttività di fronte all’imperfezione e fallibilità umana, relegata a risorsa da cui estrarre competenze specifiche da automatizzare.
Appare evidente il pericolo sistemico di stritolamento (crushing) della salute fisiopsichica umana sotto il peso di obiettivi algoritmici non condivisi conseguenti la riconversione degli ambienti di lavoro integrati con soluzioni digitali.
La realtà si sta trasformando in un vasto laboratorio alla ricerca dell’efficienza della macchina dove, la vita biologica è subordinata all’estrazione di conoscenze e competenze da utilizzare per massimizzare il profitto computazionale con l’effetto che, in un mondo disegnato per far funzionare l’IA, l’uomo rischia di diventare una variabile di profitto obsoleta.
Norme, dignità e diritto all’errore
Per proteggere l’essere umano, accanto alla progettazione etica degli algoritmi e al rafforzamento della cultura digitale e umanistica, occorre conformarsi alle disposizioni normative di settore, europee e nazionali, che hanno tracciato in modo completo e complesso un ecosistema digitale fatto di obblighi doveri e garanzie delineato intorno all’essere umano per preservarne la dignità e libertà.
Quindi, per proteggere la propria essenza e dignità, l’umanità deve rivendicare il diritto all’errore e alla propria irriducibile fragilità, opponendosi a un totalitarismo dell’efficienza che potrebbe portare persino l’autodistruzione se calcolata come beneficio collettivo.
Ebbene, l’uomo, nel prossimo futuro, non può fungere da mero concorrente, perché incapace di competere con la velocità della macchina, ma dovrà trasformarsi in garante della responsabilità e del significato dei risultati da quest’ultima restituiti.
Un ecosistema tecnologico a misura d’uomo
L’IA deve essere intesa come una componente dell’infrastruttura industriale, inserita in un ecosistema in cui la tecnologia non sostituisce l’uomo, ma ne amplifica le potenzialità, grazie alla progettazione di algoritmi che permettano una equilibrata competizione uomo-macchina.
Per realizzare un equilibrato ecosistema “a misura d’uomo”, occorrerà garantire il rispetto dei principi sanciti nell’AI Act come l’obbligo di un aggiornamento delle competenze tecniche del lavoratore di pari passo con l’evoluzione del sistema da gestire e supervisionare.
Bisognerà promuovere politiche industriali rispettose dei diritti dei lavoratori, che riducano il divario sociale; che pongano l’accento sulla riconversione delle fabbriche nel rispetto della dignità umana, affinché il lavoratore sia messo nelle condizioni di mettere a disposizione della produzione competenze peculiari irriducibili e possa essere valorizzato il suo contributo al miglioramento dell’efficienza algoritmica.
Saranno inoltre necessarie politiche pubbliche a lungo termine e programmi di riqualificazione strategica per prevenire la disoccupazione “strutturale” che minaccia il 28% dei posti di lavoro, secondo le stime OCSE.
Formazione, digital labour e futuro della collettività
La difesa dell’uomo deve passare per la riconversione delle fabbriche in luoghi, dove la tecnologia amplifica, e non sostituisce, le potenzialità umane, dove la supervisione della macchina da parte del lavoratore specializzato (human-in-the-loop) diventa non solo un obbligo etico ma anche tecnico e giuridico dove sia realizzata la piena trasparenza in merito al funzionamento del sistema automatizzato adottato lungo l’intera catena del valore dell’IA.
Inoltre occorrerà adottare politiche specifiche per tutelare i lavoratori del “digital labour” nel Sud globale, garantendo retribuzioni dignitose e supporto psicologico, poiché senza il loro lavoro invisibile l’ecosistema digitale è destinato a crollare.
Per contrastare la riduzione del pensiero a mero calcolo probabilistico, è essenziale potenziare il pensiero critico, fin dai percorsi scolastici elementari, affiancando la formazione in materie tecnologiche a quella in discipline umanistiche.
In sintesi, l’IA deve essere declassata da oracolo a componente dell’infrastruttura industriale, governata da una razionalità aperta che rifiuti la passività umana e ponga la tecnica al servizio del benessere collettivo, non del solo profitto computazionale.
Sarà necessario il monitoraggio dell’attuazione delle politiche industriali e di sviluppo tecnologico da parte dello Stato che dovrà procedere alla modernizzazione della pubblica amministrazione promuovendo digitalizzazione e automazione finalizzata a offrire il miglior servizio al cittadino in conformità con la normativa europea e nazionale di settore al fine di evitare alienazione, stress, precarietà economica e distorsioni inique del sistema.
In conclusione, dobbiamo contribuire a far evolvere l’era dell’IA, partendo dall’impianto normativo più completo come l’AI Act e promuovere la conformazione alle sue previsioni da parte di aziende ed enti, sviluppare una razionalità aperta che promuova le capacità cognitive umane perché il futuro della collettività dipenderà dalla capacità di abitare la tecnica con intolleranza attiva verso ogni forma di deumanizzazione, assicurandoci che la macchina rimanga un’estensione della mente umana e non la sua sostituta non potendo l’algoritmo comprendere né la portata delle scelte elaborate né le ricadute delle stesse sull’esistenza degli esseri umani.
Fonti consultate:
“Ha senso di parlare di etica degli algoritmi?” Laura Carrer, 27.05.2021 https://www.wired.it/attualita/tech/2021/05/27/algoritmi-etica-studi/
Talia, D., La società calcolabile e i Big Data.
Nutt, D., Environmental impact of AI data center boom, Cornell Chronicle.
Cerrina Feroni, G., Algoritmi e intelligenza artificiale, Garante Privacy.
Sadin, E., Critica della ragione artificiale.
Searle, J. R., Minds, Brains and Programs.
Buson, L., Dalla Macchina di Turing all’Aula Scolastica.
Exploring the impact of AI technostress on physicians.
Nicolini, M., Guida introduttiva all’iA per giornalisti / Progetto Zeus.
Il lavoro delle macchine, il destino dell’uomo / Journals UniUrb.
Karen Hao’s Empire of AI / Marco Ciofalo / Daniela-Elena Lițan.
Panikkar, R. / The Algorithmic Laboratory.
agendadigitale.eu – AI a favore dei lavoratori, non contro: una via possibile. Maurizio Carmignani
lavoro.gov.it – Verso l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro. Febbraio 2026.
Come l’IA (non) trasforma il lavoro. Una riflessione sull’intelligenza artificiale a partire da The Eye of the Master di Matteo Pasquinelli. Paolo Ruta 23 maggio 2025 – Il tascabile.
www.ilsole24ore.com – L’intelligenza artificiale e il futuro del lavoro: come adattarsi e rimanere rilevanti. Gianfranco Minutolo, 3 ottobre 2024
https://www.lum.it/intelligenza-artificiale-lavori-del-domani/Intelligenza Artificiale: 8 lavori del domani prima impensabili.
youtube.com – “Impatto Ia nel mondo del lavoro”












