intelligenza artificiale

Allucinazioni dell’AI: i rischi per il diritto e la società



Indirizzo copiato

Le allucinazioni dell’intelligenza artificiale sollevano interrogativi etici e giuridici. Dal Tribunale di Firenze agli algoritmi sanitari e finanziari, gli errori delle macchine mostrano costi sociali e discriminazioni che richiedono maggiore supervisione umana

Pubblicato il 8 ott 2025

Giovanna Pistorio

Professoressa associata in Diritto costituzionale e pubblico, presso il Dipartimento di Giurisprudenza dell’Università degli Studi Roma Tre



allucinazioni ai LLM Allucinazioni dell'IA

Le allucinazioni dell’intelligenza artificiale sono errori di sistema che generano informazioni inesatte o inventate, con ricadute concrete sulla società. Il fenomeno, al centro di un recente caso giudiziario a Firenze, apre scenari complessi tra tecnologia, diritto ed etica.

Il caso del tribunale di Firenze e le sentenze inventate

È il 14 marzo 2025 quando il Tribunale di Firenze, nel corso di un processo su plagio e riproduzione di marchio industriale, si pronuncia in tema di responsabilità aggravata per lite temeraria. La richiesta di condanna ex art art. 96 c.p.c. è stata formulata a causa «dell’indicazione, in sede di comparsa di costituzione, di sentenze inesistenti, ovvero il cui contenuto reale non corrisponde a quello riportato»[1].

Nulla di nuovo se non fosse che l’indicazione di tali decisioni non è il risultato della ricerca effettuata da un avvocato inesperto (o forse sì, sic!), ma è il frutto di allucinazioni di un sistema di intelligenza artificiale. Sulla base di una vaga somiglianza con quelle umane, le allucinazioni dell’intelligenza artificiale consistono in risposte contenenti informazioni incoerenti, fuorvianti o del tutto inesistenti.

È ChatGPT, nel caso di specie, a commettere l’errore. Si tratta della nota piattaforma Generative Pre-trained Transformer – come indica la sigla nel nome – che, sviluppata dalla società statunitense OpenAI nel 2020 e ormai a tutti nota, rappresenta la forma tecnologica più avanzata per la conversazione con una macchina.

Interrogata, dunque, nel corso di una ricerca giurisprudenziale, ChatGPT “inventa” alcuni precedenti che, non verificati poi in sede di redazione dell’atto giudiziario, entrano nel processo, rischiando di generare una visione distorta della realtà.

Nonostante il «disvalore relativo all’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA», il Tribunale di Firenze esclude l’applicabilità dell’art. 96 c.p.c. Non è dimostrata la mala fede della parte soccombente. L’utilizzo dell’intelligenza artificiale, ai fini della ricerca, è compiuto da una collaboratrice di studio, all’insaputa del patrocinatore. Non v’è prova dei danni subiti a causa dei riferimenti giurisprudenziali inesistenti, né del nesso di causalità tra condotta illecita e pregiudizio arrecato. Le sentenze errate vengono riportate nelle memorie difensive ad abundantiam rispetto alla strategia processuale già nota, sin dal primo grado di giudizio.

Nessuna lite temeraria, dunque, per assenza dei presupposti.

A prescindere dalla condivisibilità o meno dell’orientamento espresso dal Tribunale di Firenze, i profili di interesse che il caso suscita sono molti.

A cominciare da una prospettiva di ampio respiro, si pensi ai rischi che l’utilizzo delle nuove tecnologie implica[2]. Se è vero, infatti, che le meraviglie dell’intelligenza artificiale dischiudono nuovi scenari, fatti di importanti e significative opportunità – dalla globalizzazione delle relazioni all’accrescimento delle conoscenze – è altresì acclarato che esse non sono esenti da pericoli, sia in termini di garanzia dei diritti individuali, dalla tutela della dignità alla privacy, sia rispetto a esigenze di interesse generale, ordine pubblico, amministrazione della giustizia, sicurezza[3].

Con riguardo, in particolare, al caso di specie, poi, si pensi all’importanza della questione in termini di responsabilità professionale dell’avvocato. D’altra parte, se un legale, più o meno consapevolmente o addirittura dolosamente, manipola il contenuto di una sentenza, di un parere, di una fonte normativa, giungendo a una ricostruzione del tutto fuorviante rispetto all’originale, ne risponde personalmente per violazione dei doveri di lealtà e correttezza, oltreché, qualora ne ricorrano gli estremi, per falso o per altro reato.

In ogni caso, che l’errore sia parte della storia dell’umanità è un dato di fatto. Anzi, potremmo dire che l’errore nasce con l’uomo quando, acquisita la capacità di scelta, assume con essa il rischio di sbagliare. Come evocato nel libro della Genesi, Eva, tentata dal serpente, disobbedisce mangiando il frutto dell’albero proibito. É un atto di disobbedienza, dunque, che porta l’umanità alla scelta e perciò anche alla possibilità di commettere errori.

Poi, nel tempo e nello spazio, gli errori si moltiplicano, evolvono, si sviluppano e diventano persino oggetto di studio e dibattito.

Per Platone l’errore è inevitabile e non necessariamente negativo, se prodromico a un processo di elevazione verso la verità. Per Aristotele, invece, l’errore è l’antitesi della verità, frutto di una distorta percezione della realtà e perciò solo da condannare, qualora non lo si riesca ad evitare.

Evitare gli errori è stato, in effetti, uno degli obiettivi cui mirava l’uomo quando ha iniziato a delegare a congegni meccanici determinate operazioni tipiche della mente. Dall’abaco alla calcolatrice per effettuare calcoli aritmetici, dagli algoritmi alle forme di intelligenza artificiale per compiere operazioni più complesse, in maniera rapida, efficiente, oggettiva e neutrale, come solo le macchine sono in grado di eseguire[4].

Tutto o quasi sembra crollare, come un castello di sabbia, quando proprio quelle macchine che chiamiamo “intelligenti” cominciano a commettere errori, generando informazioni fuorvianti, capaci di incidere su calcoli statistici e analisi di dati. Nascono così le c.d. allucinazioni delle forme di intelligenza artificiale. Tali allucinazioni si risolvono in errori “innocui”, come quando una chatbot consiglia una mostra a Parigi a chi chiede come trascorrere la serata a Campobasso, o in errori ben più gravi e significativi, se perpetrati in attività di consulenza medica, scientifica, finanziaria, giuridica.

Recenti studi, peraltro, dimostrano che l’incremento delle forme di allucinazioni risulti direttamente proporzionale allo sviluppo dei modelli delle macchine intelligenti. OpenAi ha pubblicato i dati di alcuni test interni, rivelando che se, all’inizio, la generazione di informazioni false si attestava intorno al 15%, successivamente è aumentata al 33% per arrivare, da ultimo, nei modelli più sofisticati, a toccare il 48%. La conseguenza, inevitabile quanto paradossale, è che al crescere della potenza si riduce l’affidabilità nei confronti delle macchine[5].

È da tale contesto di indubbio disordine e preoccupazione che muovono le seguenti riflessioni: perché le macchine sbagliano e, soprattutto, a quali costi?

Come funzionano le macchine e perché commettono errori

Per comprendere il motivo per cui le macchine commettono degli errori, occorre fare un passo indietro ed esaminarne il funzionamento.

L’intelligenza artificiale comprende un insieme eterogeneo e variegato di tecnologie in grado di acquisire, analizzare, pianificare, ovvero svolgere alcune delle attività tipicamente umane. Per compiere tali operazioni, la macchina si avvale di algoritmi. Gli algoritmi sono infatti quelle “istruzioni” che consentono di risolvere un problema tramite la rielaborazione di dati immessi nel sistema. Se poi, come avviene nel caso del Machine Learning, l’intelligenza artificiale viene programmata per imparare da un set di dati, la macchina, proprio a partire da tali dati, non solo apprende, ma inizia a generare dei contenuti in maniera autonoma. Ora, più è ampia la mole dei dati messa a disposizione, maggiore sarà la capacità di apprendimento della macchina e, conseguenzialmente, più precisa sarà la soluzione fornita dall’algoritmo al quesito[6].

Tutto impeccabile, se non fosse per due zone d’ombra.

La prima è imputabile alle macchine e attiene alla possibile opacità della decisione algoritmica. La fase finale della sequenza di operazioni, rappresentata dall’elaborazione del risultato, sulla base dell’analisi dei dati, pur essendo «decisiva» è la «meno governabile»[7]. È qui che risiede quella che viene efficacemente definita la black box, posto che il meccanismo di correlazioni resta spesso indecifrabile anche per gli stessi programmatori[8].

Sono proprio i programmatori, peraltro, che, se da un lato cercano di comprendere il funzionamento di tali passaggi, ovvero l’essenza dell’apprendimento automatico, dall’altro sono però i responsabili, sia pur in parte, della seconda zona d’ombra. La decisione algoritmica dipende infatti dalla progettazione dell’algoritmo e dalla configurazione dei set di dati. In entrambe queste fasi, il ruolo dell’uomo nell’interazione con le macchine è determinante. In sede di programmazione, è possibile ordinare al sistema la direzione, escludendo o includendo alcuni elementi o suggerendo la strategia da seguire. In sede di configurazione, poi, se i dati inseriti sono incoerenti, inesatti, obsoleti, la decisione assunta sarà inaffidabile, perché imprecisa, se non errata.

Vero è dunque che, a valle, il risultato finale è prodotto dalla macchina, ma è altresì indubbio che, guardando a monte, l’eventuale errore è imputabile all’addestramento con dati distorti o, comunque, non rappresentativi della realtà.

Detto in altri termini, in tali casi, la responsabilità è dell’uomo.

Bias algoritmici e discriminazioni nei sistemi di IA

Avvalendosi di categorie proprie del diritto penale, potremmo differenziare il comportamento, in base all’elemento soggettivo: dolo o colpa.

Ricorre il dolo quando ci si avvale di algoritmi per influenzare potenziali utenti, inducendoli a determinati comportamenti, per fini commerciali o politici, nell’acquisto di un prodotto o in campagna elettorale, per esempio. È a tutti noto lo scandalo di Cambridge analytica: società di consulenza che raccoglieva e analizzava dati, ricavati per lo più da social network, da Facebook in particolare, per creare messaggi pubblicitari personalizzati e influenzare così gli elettori nelle loro scelte politiche[9].

Diverso, invece, il caso in cui la distorsione cognitiva della macchina è frutto di un atteggiamento colposo dell’uomo: negligenza, imperizia, mancanza di controllo.

L’evenienza più frequente e pregiudizievole è quella dei c.d. bias, vale a dire distorsioni che portano poi a errori di calcolo, di valutazione, di scelta.

Facciamo qualche esempio.

Uno dei primi casi risale addirittura agli anni Ottanta, quando nel Regno Unito, in una Scuola di medicina, ci si avvalse di un sistema di intelligenza artificiale per la selezione del personale: il sistema, operando sulla base delle assunzioni effettuate nel passato, finì per penalizzare i candidati di sesso femminile e i candidati immigrati[10].

IA e discriminazione giudiziaria

Uno dei casi più noti, invece, si verifica negli Stati Uniti, intorno agli anni 2010, quando comincia ad essere utilizzato il software COMPAS (Correctional offender management profiling for alternative sanctions), come supporto al sistema giudiziario, essendo uno strumento per calcolare, sulla base di alcuni indici, il rischio di recidiva di eventuali condannati. Qual è il problema? Il sistema è stato programmato sulla base di informazioni e decisioni anche piuttosto datate che, inevitabilmente, incorporavano indubbi pregiudizi. Ecco allora che, nel 2013, Loomis, condannato di sesso maschile, afroamericano, appartenente a un ceto sociale basso, ottiene il più elevato rischio di recidiva[11]. Evidente la discriminazione, intersezionale nel caso di specie, ovvero derivante dall’interazione di più discriminazioni – sesso, razza, estrazione sociale – quale effetto della configurazione dei dati[12]. Una discriminazione by design, potremmo dire.

IA e discriminazioni sanitarie

Analogo pregiudizio pervade, spesso, i sistemi sanitari. Risale al 2022, la ricerca condotta nell’Università di Boston che ha dimostrato quanti e quali pregiudizi, nascosti nei dispositivi clinici, sono il frutto di progettazioni inique, per etnia, genere, età[13]. Nella diagnosi e nella cura di malattie cardiovascolari, per esempio, è ormai acclarato che molte delle distorsioni cognitive che hanno generato discriminazioni in base al sesso sono imputabili alla progettazione degli algoritmi, non calibrata in modo tale da valutare adeguatamente le differenze di rischio tra uomo e donna e in relazione all’età[14]. Negli Stati Uniti ci si è affidati a una forma di intelligenza artificiale per prevedere quali pazienti avrebbero necessitato di ricevere determinate cure mediche. In tal caso però, posto che i dati venivano raccolti basandosi sulla spesa sanitaria e acclarato che i pazienti neri sostenevano spese sanitarie inferiori rispetto ai bianchi, nelle stesse condizioni di salute, si è generata una discriminazione etnica, per effetto della quale venivano selezionati, per usufruire di dette cure, per lo più pazienti bianchi.

Non è esente da rischi di questo tipo il sistema bancario. Moltissime le discriminazioni perpetrate nei confronti di gruppi a basso reddito, da algoritmi finanziari che, inadeguatamente progettati, hanno processato le richieste di mutuo[15].

In tali occasioni, dunque, la decisione algoritmica determina pregiudizi digitali «derivati», vale a dire frutto di scelte discriminatorie imputabili all’intervento umano, in sede di progettazione o di configurazione dei dati[16]. D’altra parte, se i dati sono «soggettivamente inquinati» da pregiudizi, tali pregiudizi sono destinati a cristallizzarsi[17]. Incorporata la distorsione, la macchina non può che perpetuare[18], se non aggravare le discriminazioni[19].

I costi sociali delle allucinazioni algoritmiche

La possibile propagazione, nel tempo e nello spazio, delle discriminazioni perpetuate dall’intelligenza artificiale, ma derivate dall’intervento umano, induce a riflettere sugli effetti, in termini di “costi”, di tali pregiudizi. Le discriminazioni, spesso intersezionali, derivanti da operazioni algoritmiche appaiono infatti molto più gravi rispetto a quelle realizzate senza l’uso dell’intelligenza artificiale.

Almeno tre, le ragioni.

In primo luogo, tali decisioni hanno un’applicazione quantitativamente significativa, una capacità diffusiva immediata e capillare. Si tratta, d’altra parte, di una delle inedite opportunità per l’uomo e per la società intera, derivanti dallo sviluppo delle nuove tecnologie, dal progresso scientifico, tecnologico e informatico[20].

In secondo luogo, è proprio tale progresso che spiega la maggiore gravità dei pregiudizi arrecati dagli algoritmi. Si tratta infatti di un progresso che affascina e conquista l’uomo per i risultati da esso prodotti. Ne consegue uno slancio, spesso eccessivamente fideistico, verso le meraviglie dell’intelligenza artificiale. L’uomo crede, confida nelle macchine, rectius si affida ai sistemi di intelligenza artificiale, con una propensione spiccatamente maggiore rispetto all’atteggiamento di apertura nei confronti dei suoi simili, finanche professionisti o esperti. L’algoritmo è spesso visto come «uno stabilizzatore di fiducia», garanzia di efficienza e di neutralità[21].

Basti pensare alla capacità di persuasione, non tanto e non solo dell’informazione in rete, ma della disinformazione. Le fake news sono sempre esistite, ma l’irrompere della rete sulla scena ha inciso profondamente sulle modalità di diffusione delle stesse, incrementandone da un punto di vista quantitativo e qualitativo il raggio di espansione e la capacità di condizionamento[22]. Tutto, o quasi, in rete sembra vero, o quantomeno verosimile e quindi credibile. D’altra parte, è proprio attraverso la rete, quell’ambiente artificiale, parallelo alla vita reale, senza confini di spazio e di tempo, che l’internet delle cose è ormai penetrato nella vita quotidiana, caratterizzandone le abitudini, alterandola, incidendo sulla stessa in modo significativo[23].

Oggi assistiamo a quella che è stata efficacemente definita la quarta rivoluzione, ovvero quella in cui le nuove tecnologie forgiano la realtà fisica e intellettuale dell’uomo, incidendo sul modo in cui questi, come organismo informazionale, si relaziona con gli altri e con se stesso in un ambiente onlife del tutto nuovo e dall’evoluzione costante[24]. La regolazione della vita sociale è ormai incardinata entro i confini determinati dall’universo digitale in cui sequenze di algoritmi irrompono silenziosamente nella vita di ciascun individuo[25], indagando nei settori più disparati: dallo stato di salute, agli interessi, alle scelte economiche, alla potenzialità criminale, all’efficienza lavorativa[26]. Le macchine intelligenti consentono di archiviare, sistemare, ordinare una quantità enorme di dati e di informazioni, realizzando una precisa e analitica profilazione del singolo e delle collettività[27]. La profilazione consente di delineare l’identità virtuale di una persona, individuandone così abitudini, idee, volontà[28].

Gli effetti che ne scaturiscono consentono di comprendere la terza ragione per cui le discriminazioni derivanti dai sistemi di intelligenza artificiale sono più gravi e pregiudizievoli. Gli algoritmi, sfruttando enormi volumi di dati, più o meno consapevolmente immessi in rete o nelle macchine dall’uomo, influenzano le persone, ne plasmano le decisioni nelle scelte di vita.

Alle volte, non è il cittadino a cercare l’informazione, ma è la notizia a cercare il cittadino, nella veste di utente, acquirente, consumatore, producendo un effetto di “isolamento” nel mondo informativo, di riduzione dello spazio di conoscenza, di polarizzazione delle opinioni a discapito di quella che dovrebbe essere la pluralità delle espressioni, quale cartina di tornasole di un sistema democratico[29].

La profilazione, poi, se da un lato può essere utile per attività di controllo, poste in essere dai pubblici poteri, per motivi di difesa, sicurezza e prevenzione, dall’altro può invece divenire lo strumento per la commissione di reati di vario genere, tra i quali furti di identità, manipolazione di dati, frodi informatiche di vario tipo. È il c.d “rischio illecito”, ovvero la possibilità che il trattamento dei dati personali non avvenga conformemente alla legge, provocando «danni fisici, materiali o immateriali»[30].

Supervisione umana e approccio antropocentrico come antidoto

Il contesto è complicato e, per certi versi, pericoloso anche sul piano etico, prima ancora che giuridico. Dietro il rischio che l’«algocrazia» pone, ovvero il timore che gli algoritmi plasmando, se non sostituendo le decisioni umane, prendano il sopravvento, si sviluppa una questione di etica degli algoritmi, intesa quale responsabilità nella programmazione e nell’utilizzo delle forme di intelligenza artificiale[31].

D’altra parte, una cosa è certa: tutto, o quasi, ruota attorno al rapporto tra uomo e macchina.

Posto che, in tale relazione, è fondamentale la modalità attraverso la quale l’uomo interagisce con i sistemi di intelligenza artificiale, il principio di non esclusività algoritmica deve costituire la base di tale rapporto e orientarne lo sviluppo. Sancito dal General Data Protection Regulation (GDPR, di cui al Regolamento UE n. 2016/679) e ribadito nell’Artificial Intelligence Act (AI Act, entrato in vigore il 1º agosto 2024), tale principio implica, da un lato, il diritto a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, dall’altro, il diritto all’intervento umano. Siffatto diritto, in un’epoca efficacemente definita «Novacene», perché caratterizzata dalla coesistenza di uomini con dispositivi intelligenti[32], assume carattere universale[33], nel rapporto fra uomo e macchina, garantendo l’individuazione di attività che sono e devono rimanere «riserva di umanità»[34].

Prima fra tutte, la supervisione, ex ante ed ex post.

È a monte, infatti, che il controllo garantito dall’intervento umano, in sede di programmazione e di configurazione, per esempio, può evitare che il sistema di apprendimento incorpori pregiudizi e produca poi inevitabili discriminazioni[35].

Discriminazioni che, comunque, potrebbero essere smascherate, a valle, tramite un’attenta e scrupolosa attività di supervisione umana, prodromica all’utilizzo dei risultati prodotti dalle macchine intelligenti. Solo tale attività, peraltro, è in grado di arginare gli effetti di eventuali allucinazioni imputabili alla macchina, nei margini di autonomia in cui, operando, può commettere errori.

Il caso deciso dal Tribunale di Firenze ne è un esempio emblematico. Il primo in Italia, a quanto costa, ma non in assoluto. Nel 2023, negli Stati Uniti, in un processo intentato per un risarcimento da lesioni personali, l’avvocato Steven A. Schwartz porta, a sostegno della domanda, diversi precedenti rivelatisi inesistenti e falsi, perché “inventati” da Chat GPT. Nessun dolo per il legale, posto che si dichiara ignaro del fenomeno delle allucinazioni e assolutamente privo di alcuna intenzione di ingannare il tribunale o la controparte. Tuttavia, accertata la colpa, per omesso controllo in merito alla veridicità delle informazioni reperite, l’avvocato viene sanzionato[36].

Ecco allora che, per assicurare che, nel rapporto tra uomo e macchina, non siano gli algoritmi o i valori di coloro che li generano a “governare”, ma venga assicurato «un adeguato bilanciamento tra la “funzionalità tecnologica” e la desiderabilità sociale degli scopi perseguiti», occorre investire su tre fronti[37].

  • Incrementare la cultura del digitale, in termini di educazione e di alfabetizzazione, per un uso consapevole delle macchine intelligenti[38]. D’altra parte, quella riferita alla tecnologia è la più insidiosa delle sfide che il Ventunesimo secolo attende il costituzionalismo, a fronte dei dirompenti effetti che l’innovazione digitale produce sulla tenuta dell’assetto democratico[39].
  • Potenziare la cultura dell’eguaglianza, in termini di equità, perché se è vero che tanto si è fatto, c’è ancora molta strada da percorrere: deve ancora cambiare il contesto sociale in cui si programma l’algoritmo perché molte discriminazioni delle forme di intelligenza artificiale sono lo specchio dei pregiudizi della società[40]. Come testimoniato da una ricerca condotta da Ryan Steed (Carnegie Mellon University) e Aylin Caliskan (George Washington University), sempre più spesso l’«algoritmo diventa “portavoce” di pregiudizi e stereotipi esistenti»[41].
  • Garantire il costante e diligente intervento umano, quale «prima concretizzazione dell’umanesimo digitale»[42], propugnata dall’Unione europea. In tale contesto, assume rilevanza strategica la Dichiarazione europea sui diritti e i principi digitali per il decennio digitale, adottata da Parlamento, Consiglio e Commissione dell’Ue il 15 dicembre 2022. In piena armonia con precedenti scelte normative[43], la Dichiarazione si prefigge, sin dal Preambolo, di «promuovere un modello europeo per la trasformazione digitale, che metta al centro le persone, (…) basato sui valori europei e sui diritti fondamentali dell’UE [e che] riaffermi i diritti umani universali e apporti benefici a tutte le persone, alle imprese e alle società nel suo complesso»[44]. La visione antropocentrica, quale filo conduttore della Dichiarazione, ponendosi peraltro in perfetta sintonia con l’impostazione valoriale della nostra Costituzione che pone l’uomo al centro della società, è e resta l’arma più efficace per evitare che la rivoluzione epocale in corso dia vita un «nuovo medioevo digitale»[45].

Note


[1] Tribunale di Firenze, sezione imprese, ordinanza pronunciata nel procedimento per reclamo iscritto al n. 11053/2024 R.G., 14 marzo 2025.

[2] È già dalla metà degli anni Novanta che S. Rodotà, Tecnologie e diritti, Bologna, 1995, si interrogava sulle possibili ripercussioni sulla sfera privata dell’uomo derivanti dalle nuove tecnologie. Poi, la dottrina è amplissima sul tema. Cfr., ex plurumis, U. Beck, Conditio umana. Il rischio nell’età globale, 2011.

[3] Sulla possibilità che minacce ai diritti fondamentali e alla democraticità degli ordinamenti possano cumularsi, incrementando «il proprio potenziale offensivo», cfr. G. Fontana, Sfera pubblica digitale e democrazia dell’Unione europea. Prime considerazioni intorno alla dichiarazione europea sui diritti e i principi digitali, in R. Torino, S. Zorzetto (a cura di), La trasformazione digitale in Europa. Diritti e principi, Torino, 2023, 41.

[4] Per una efficace decostruzione del discorso intorno «alla neutralità della macchina e al suo supposto agire in modo scevro da quei pregiudizi ed errori che inficiano le decisioni umane», si veda M. Airoldi, D. Gambetta, Sul mito della neutralità algoritmica, in The Lab’s Quarterly, 2018, 25 ss.

[5] Così, M. Carmignani, Le allucinazioni dell’IA aumentano: ecco perché, in Agendadigitale, 9 giugno 2025.

[6] In tal senso, cfr. P. Zuddas, Intelligenza artificiale e discriminazioni, in www.giuricost.org, 2020, 2.

[7] Così, P. Zuddas, Intelligenza artificiale e discriminazioni, cit., 11.

[8] Più approfonditamente, cfr. D.U. Galetta-J.G. Corvalán, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federalismi.it, 2019, 15 s.

[9] Interessanti, quanto problematiche, le ripercussioni in termini di privacy, sicurezza e disinformazione, esaminate, con riguardo al caso in esame, da E. Assante, Cosa ci può insegnare il caso Cambridge Analytica, in Federalismi, 2019.

[10] Più approfonditamente, cfr. S. Lowry, G. Macpherson, A blot on the profession, in 296 British Medical Journal, 1988, 657 ss.

[11] Supreme Court del Wisconsin nel caso State v. Loomis, 881 N.W.2d 749, 2016.

[12] Sul caso, ex multis, A. Simoncini, S. Suweis, Il cambio di paradigma nell’intelligenza artificiale e il suo impatto sul diritto costituzionale, in Rivista di filosofia del diritto, 1/2019, 102.

[13] In tal senso, cfr. P. Cozzi, Nuove riflessioni critiche sul rischio di discriminazione algoritmica in ambito sanitario, in Tech4future, 2025.

[14] In tal senso, cfr. AI e Bias: i pregiudizi trasmessi dall’umano alla macchina, inwww.jnjmedicalcloud.it, 2024.

[15] Più approfonditamente, cfr. M. Martorana, Banche: i danni dell’intelligenza artificiale: discriminazioni ed errori, in www.agendadigitale, 2021.

[16] Per tale orientamento, cfr. P. Zuddas, Intelligenza artificiale e discriminazioni, cit., 5.

[17] Così, A. Venanzoni, La valle del perturbante: il costituzionalismo alla prova delle intelligenze artificiali e della robotica, in Politica del diritto, 2019, 237 ss.

[18] Più approfonditamente, sulla configurazione degli algoritmi, quali prodotti storici che riflettono scelte della società, cfr. N. Seaver, Algorithms as culture: Some tactics for the ethnography of algorithmic systems, 2017, in Big Data & Society, 2 ss.; T. Striphas, Algorithmic culture, in European Journal of Cultural Studies, 2015, 395 ss.

[19] Interessante ed emblematico in tal senso l’esempio riportato da G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Politica del diritto, 2019, 217, secondo il quale «se nella programmazione di un algoritmo utilizzato per decisioni relative all’assunzione di personale si concretizza la nozione di «buon» dipendente avendo riguardo – tra gli altri – al criterio della puntualità nel recarsi sul luogo di lavoro, ciò può finire per penalizzare sistematicamente tutti coloro che vivono in periferia ed impiegano di conseguenza maggior tempo per raggiungere ogni giorno la sede dell’impresa. E poiché in determinati contesti la circostanza dell’abitare in periferia è una variabile strettamente correlata alle origini etniche e alle condizioni sociali più disagiate, un siffatto criterio formalmente “neutro” potrebbe finire per riflettersi negativamente a danno di categorie già svantaggiate».

[20] Più approfonditamente, cfr. L. Palazzani, Tecnologie dell’informazione e intelligenza artificiale, Roma, 2020, 7 ss.

[21] In tal senso, cfr. T. Gillespie, The relevance of algorithms, in T. Gillespie, P. Boczkowski, K. Foot (a cura di) Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, 2014, 179.

[22] In tal senso, cfr. C. Caruso, Il tempo delle istituzioni di libertà. Piattaforme digitali, disinformazione e discorso pubblico europeo, in Quaderni costituzionali, 2023, 545 ss.

[23] Sul tema, cfr. N. Lettieri, Antigone e gli algoritmi, Appunti per un approccio giusfilosofico, Modena, 2020, 13 ss.

[24] In tal senso, cfr. L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, 2017, 99 ss.

[25] Secondo N. Bobbio, L’età dei diritti, Tirino, 1990, 263, «oggi le minacce alla vita, alla libertà e alla sicurezza possono venire dal potere sempre più grande che le conquiste della scienza e delle applicazioni che ne derivano danno a chi è in condizione di usarne».

[26] Più approfonditamente, cfr. A. Oddenino, Individual Rights, Cyebersecurity and Access to Knoledge on the Internet: The Revision of ITU International Telecommunication Regulations, in Diritti umani e diritto internazionale, 2013, 532 ss. T.Z. Zarsky, An analytic challange: discrimination theory in the age of predictive analytics, in A Journal of Law and Policy for the Information Society, 2017, 12.

[27] È già dalla metà degli anni Novanta che S. Rodotà, Tecnologie e diritti, Bologna, 1995, si interrogava sulle possibili ripercussioni sulla sfera privata dell’uomo derivanti dalle modalità informatiche e tecnologiche di raccolta dei dati.

[28] In tal senso, cfr. M. Hildebrandt, Defining profiling: a new type of knowledge? in M. Hildebrandt-S. Gutwirth (a cura di), Profiling the European citizen, Springer, Berlin, 2008.

[29] Più approfonditamente, E. Pariser, Filter Bubble, London, 2011, 15.

[30] Così, D. Mula, Protezione dei dati personali e cybersecurity, in Cybersecurity Law. Disciplina italiana ed europea della sicurezza cibernetica anche alla luce delle norme tecniche, a cura di A. Contaldo e D. Mula, Pisa, 2020, 155.

[31] Più approfonditamente, cfr. A. Celotto, Come regolare gli algoritmi. Il difficile bilanciamento tra scienza, etica e diritto, in Analisi giuridica dell’Economia, 2019, 48 s.

[32] Così, J. Lovelock, Novacene. L’età dell’iperintelligenza, Milano, 2020.

[33] In tal senso, cfr. A. Iannuzzi, Le fonti del diritto dell’Unione europea per la disciplina della società digitale, in Aa.Vv., La regolazione europea della società digitale, Torino, 2024, 26.

[34] In tal senso, G. Gallone, Riserva di umanità e funzioni amministrative. Indagini sui limiti all’automazione decisionale tra procedimento e processo, Milano, 2023.

[35] Più approfonditamente, cfr. K. Crawford, The Hidden Biases in Big Data, in Harvard Business Review, 2013, 1 ss.

[36] Cfr. United States District Court, S.D. New York, Mata v. Avianca Inc, 22 giugno 2023.

In Italia, degno di nota – se non altro per l’esigenza di dover mettere per iscritto siffatta indicazione – il disegno di legge in materia di intelligenza artificiale approvato dal Senato lo scorso 20 marzo e attualmente in prima lettura alla Camera, nella parte in cui prevede, all’art. 13, che «l’utilizzo dei sistemi di intelligenza artificiale, nelle professioni intellettuali, è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera».

[37] Così, G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, cit., 233.

[38] In tal senso, cfr. D. Pedreschi, F. Giannotti, R. Guidotti, A. Monreale, L. Pappalardo, S. Ruggieri, F. Turini, Open the Black Box: Data-Driven Explanation of Black Box Decision Systems, in ArXiv, 2018, 26, secondo i quali è fondamentale investire in tecnologie e metodologie per spiegare l’attività degli algoritmi, salvaguardando autonomia e consapevolezza umana.

[39] Più approfonditamente, cfr. V. Frosini, Liberté egalité internet, Napoli, 2019, 189 ss.

[40] Sul tema, cfr. M. D’Amico, C. Nardocci, Intelligenza artificiale e discriminazione di genere: rischi e possibili soluzioni, in G. Cerrina Feroni, C. Fontana, E. C. Raffiotta (a cura di), AI Anthology. Profili giuridici, economici e sociali dell’intelligenza artificiale, Bologna, 2022, 251 ss.

[41] Così, A. Baldrati, Se l’algoritmo diventa lo specchio dei nostri stereotipi: uno studio, in Agendadigitale, 26 febbraio 2021.

[42] Così, A. Iannuzzi, Le fonti del diritto dell’Unione europea per la disciplina della società digitale, cit., 27.

[43] Con riferimento al General Data Protection Regulation (GDPR), al Digital Service Act (DSA), al Digital Market Act (DMA), all’Artificial Intelligence Act (AI Act), cfr., più approfonditamente, G. Fontana, Sfera pubblica digitale e democrazia dell’Unione europea. Prime considerazioni intorno alla dichiarazione europea sui diritti e i principi digitali, cit., 66 ss.

[44] Sul punto, cfr. E. Celeste, Towards a European Declaration on Digital Rights and Principles: Guidelines for the Digital Decade, in dcubrexitinstitute.eu, 7 Febbraio 2022. L. Cianci, Dichiarazione europea sui diritti e i principi digitali: quid pluris?, in Dir. pubbl. comp. eur., 2/2022, 381 ss.

[45] Per tale orientamento, cfr. G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, cit., 233.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati