Prima ancora di chiedersi cosa possa fare una macchina, occorre domandarsi chi risponde di ciò che essa decide — e perché la risposta non può che essere umana.
Indice degli argomenti
La responsabilità giuridica nell’era delle decisioni automatizzate
Nell’era delle decisioni automatizzate, la questione dell’intelligenza artificiale non è solo tecnologica, ma giuridica, etica e antropologica. Se gli algoritmi possono orientare scelte, produrre effetti e sostituire funzioni cognitive, la responsabilità resta necessariamente umana, come ribadito dall’approccio antropocentrico del quadro normativo europeo.
La sfida più profonda riguarda però il rischio di una progressiva riduzione dell’uomo a funzione calcolabile. Di fronte a sistemi capaci di imitare l’intelligenza ma privi di coscienza e intenzionalità morale, diventa essenziale progettare e governare l’AI secondo principi di responsabilità, dignità e centralità della persona. Il vero tema non è quanto le macchine diventino simili all’uomo, ma quanto l’uomo sappia restare umano nel loro utilizzo.
Quando la decisione è automatica, chi risponde delle conseguenze?
Una delle differenze più radicali tra informatica tradizionale e intelligenza artificiale sta nella natura del risultato. Un calcolatore, per quanto potente, rimane sempre un moltiplicatore della capacità umana: può eseguire miliardi di operazioni al secondo, ma quelle operazioni sono teoricamente replicabili anche da un matematico, seppur in tempi infinitamente più lunghi. Con l’IA il discorso cambia.
Qui non si tratta più di mera velocizzazione di un compito umano, ma di qualcosa che, pur basandosi su testi e dati già noti, produce output non necessariamente replicabili da un uomo. Prendiamo l’esempio della guida autonoma: l’auto non compie manovre predeterminate e sempre prevedibili, ma reagisce a contesti mutevoli, fattori incrociati, situazioni irripetibili. Il risultato non è un calcolo già scritto, ma una scelta contingente. Ed è qui che si apre la questione più spinosa della responsabilità giuridica in presenza dell’AI: se una macchina prende decisioni, chi è responsabile delle conseguenze? È troppo semplice risalire al “proprietario” del sistema: la catena che porta alla nascita e utilizzo di un algoritmo è lunga, distribuita e indistinta.
Ci sono sviluppatori, data scientist, chi fornisce i dataset, chi addestra i modelli, chi li applica a contesti specifici. Individuare un responsabile univoco rischia di diventare un esercizio sterile. Questa ipotesi di responsabilità “disumana” rivela una povertà spirituale e antropologica: il pericolo di ridurre la responsabilità – concetto profondamente umano – a un mero problema assicurativo o finanziario. Se una società impersonale sviluppa un algoritmo, e se quella società dispone di risorse economiche sufficienti a “pagare i danni”, ecco che la giustizia si ridurrebbe a un meccanismo di risarcimento senza più un volto, senza più una coscienza. La responsabilità non sarebbe più legata a un atto morale, ma a un bilancio.
Il rischio di una giustizia senza soggetti umani
E qui la provocazione: se davvero accettiamo che l’IA possa sostituire progressivamente gli avvocati e persino i giudici, potremmo arrivare a immaginare un processo interamente popolato da attori artificiali, come scrivono Vincenzo Ambriola e Caterina Flick « (…) In una visione collettiva si assume che l’IA possa avere la capacità di svolgere un insieme di ruoli – sovrapponibili a quelli svolti dagli esseri umani o da persone giuridiche – da cui deriva l’attribuzione di diritti, quali stipulare contratti o avere delle proprietà, difendersi verso altrui comportamenti aggressivi, attivare procedimenti giudiziari, o l’attribuzione di obblighi o responsabilità, rispetto alle conseguenze derivanti dai comportamenti adottati. In generale, nei periodi di ottimismo tecnologico e sviluppo commerciale il dibattito tende a far prevalere la visione collettiva mentre, in periodi di scetticismo o incertezza circa il potenziale tecnologico, tende invece a prevalere una prospettiva singolarista». Un tribunale senza uomini. Una giustizia che discute con sé stessa senza più soggetti umani da difendere, da punire o da assolvere. O meglio, con almeno e solo una persona che ha subito un danno.
L’AI Act europeo: nessuna personalità giuridica per le macchine
Il dibattito europeo sull’intelligenza artificiale, dagli anni recenti fino all’adozione dell’AI Act (Reg. UE 2024/1689), ha oscillato tra due estremi: da un lato, l’idea – o forse la paura – di attribuire una personalità giuridica autonoma all’IA, dall’altro la volontà di mantenerla nel quadro della normativa sui prodotti, evitando che diventi soggetto di diritti e doveri.
La scelta finale del legislatore europeo è chiara: nessuna personalità giuridica autonoma per l’IA. Responsabilità e obblighi rimangono in capo agli attori umani della catena di fornitura, a chi sviluppa, immette sul mercato o utilizza questi sistemi.
L’approccio antropocentrico del legislatore europeo
Un primo modo, individuato dal legislatore europeo, per evitare di dover riconoscere all’IA una personalità giuridica autonoma è quello di intervenire a monte, limitandone le potenzialità e disciplinandone l’uso secondo un approccio chiaramente risk-based.
L’AI Act, infatti, non attribuisce soggettività alla macchina, ma la considera un prodotto che può essere immesso sul mercato solo se conforme a requisiti stringenti, differenziati in base al livello di rischio: inaccettabile, alto, limitato o minimo. In questa logica, prevenire e contenere i rischi diventa l’alternativa all’attribuire diritti e doveri all’IA: si tratta di evitare ciò che è all’origine di ogni richiesta in giudizio, ossia il danno.
L’assunto è chiaro e radicale: l’IA non deve produrre danni alle persone, ai loro diritti fondamentali, né alla società. Questa impostazione non è solo un compromesso tecnico-giuridico: è il riflesso di un principio culturale ed etico molto più profondo, quello dell’antropocentrismo. Il diritto, infatti, è sempre stato costruito intorno alla persona umana, centro di tutele, diritti e responsabilità. La protezione giuridica dell’ambiente o degli animali, quando si realizza, non nasce da un loro valore assoluto ma dal riconoscimento della loro importanza per l’uomo e per la sua dignità.
Di fronte all’irruzione dell’IA generativa e dei suoi più recenti sviluppi che sembrano dotarsi di una propria autonomia, il legislatore europeo ha scelto di ribadire che la macchina resta oggetto e non soggetto. È l’uomo che continua a portare la responsabilità delle scelte e delle conseguenze, senza delegarla a un algoritmo impersonale. Qui si apre il collegamento con i valori cristiani e la dottrina sociale della Chiesa.
Nei momenti di crisi e di trasformazione – basti pensare alle encicliche Rerum Novarum o Laborem Exercens – la comunità cristiana ha sempre ribadito la centralità della persona. Il lavoro, la tecnica, l’economia non hanno mai valore in sé, ma solo in quanto sono al servizio dell’uomo e della sua dignità.
Allo stesso modo, oggi, di fronte al rischio che l’IA diventi un nuovo idolo a cui attribuire potere, l’Europa sembra richiamarsi a questo principio: nessuna macchina potrà mai essere posta sullo stesso piano della persona umana. In definitiva, la scelta di non riconoscere una personalità giuridica autonoma all’IA non è solo una questione di regole: è un atto che riafferma il primato dell’uomo e la necessità di un’IA antropocentrica e affidabile, capace di tutelare i diritti fondamentali. È una risposta che, forse inconsciamente, si allinea con la tradizione evangelica e con l’idea cristiana che l’uomo resti sempre «immagine e somiglianza di Dio», mai sostituibile da alcun artefatto tecnologico.
Chiesa e intelligenza artificiale: discernimento, non condanna
A una analisi superficiale, la Chiesa cattolica appare come un’istituzione refrattaria al cambiamento, ancorata alla tradizione e sospettosa verso ogni forma di progresso tecnologico. Eppure, la storia racconta qualcosa di diverso.
Dalla stampa di Gutenberg — che proprio diffondendo la Bibbia pose le basi della rivoluzione culturale europea — fino all’uso dei media di massa, della radio, della televisione e oggi dei social network, la Chiesa ha sempre saputo cogliere le potenzialità delle nuove tecnologie per ampliare il raggio della propria missione: diffondere la parola di Dio, parlare alle coscienze, entrare in dialogo con il mondo. Non è dunque un paradosso che anche l’intelligenza artificiale entri, in qualche modo, in questo orizzonte. Certo, i rischi sono evidenti: la fede ridotta a spettacolo digitale, la spiritualità tradotta in algoritmo, la religione piegata a logiche di marketing.
Ma allo stesso tempo, si intravede la possibilità di usare la tecnologia per una nuova forma di evangelizzazione, più vicina ai linguaggi contemporanei e alle sensibilità delle giovani generazioni. Come sempre nella storia della Chiesa, la sfida non è tanto la novità in sé, quanto il discernimento sul suo uso: a chi serve e a che fine.
È quanto racconta Massimo Gaggi in un recente articolo sul Corriere della Sera, prendendo spunto da un curioso esperimento di fede digitale. In un video prodotto dalla piattaforma AI Bible — un’App commerciale di Pray.com, società che si definisce “leader mondiale nelle app per la fede e la preghiera” con 25 milioni di utenti — le visioni apocalittiche di Giovanni prendono vita attraverso immagini generate dall’intelligenza artificiale: draghi, cavalieri celesti, città in rovina, angeli e fuoco. Uno spettacolo da Dungeons & Dragons più che da catechismo, eppure capace di affascinare milioni di persone. È la rappresentazione di un nuovo modo di comunicare la religione: spettacolare, emotivo, immediato. Un linguaggio che si muove tra intrattenimento e mistica, tra devozione e show-business.
Negli Stati Uniti, dove la religiosità popolare convive da sempre con l’industria dei media, il fenomeno si intreccia con la politica e la società. Il giudizio, ancora una volta, non può essere univoco. Se da un lato tutto ciò rischia di banalizzare la fede, dall’altro rappresenta un tentativo, forse ingenuo ma sincero, di tenere vivo il bisogno di trascendenza in una società che ha smarrito i luoghi e i tempi della spiritualità. In fondo, la domanda resta la stessa di sempre: non se la tecnologia possa servire la religione, ma se la religione sappia ancora orientare l’uso della tecnologia.
Le sfide etiche di una tecnologia che decide, prevede e orienta comportamenti
Quando si parla di Intelligenza Artificiale, e in particolare del suo impiego nel lavoro e nelle imprese, spesso ci si limita a una prospettiva tecnica o produttiva. Eppure, introdurre l’IA nei processi aziendali non è mai una scelta neutra: è un atto etico. Se poi si dichiara di volerlo fare alla luce dei principi cristiani, significa impegnarsi nella costruzione di un’IA non morale — poiché la moralità implica un giudizio sul bene e sul male — ma almeno etica, cioè conforme ai valori e alle norme che tutelano la dignità, la libertà e i diritti fondamentali dell’uomo.
L’etica, in questo senso, rappresenta il limite e insieme la bussola di un progresso che altrimenti rischierebbe di perdere la misura dell’umano. Un interessante contributo su questo delicato tema è quello di Vincenzo Ambriola, pubblicato nel 2024 su Agenda Digitale, quando segnala che l’AI è un fenomeno che non può più essere interpretato solo dagli ingegneri o dai data scientist: chiama in causa discipline diverse — sociali, economiche, filosofiche, giuridiche — e, inevitabilmente, spirituali. Non basta chiedersi cosa l’IA possa fare, ma occorre domandarsi cosa debba fare, e soprattutto cosa non dovrebbe mai fare.
La filosofia morale ci offre qui una distinzione preziosa. Come ricorda Adriano Fabris, il termine “etica” può riferirsi sia all’insieme di valori e consuetudini di una comunità, sia — in senso più alto — alla capacità di mettere in discussione quei valori quando non sono più sufficienti a garantire la giustizia. È quest’ultima la prospettiva che serve all’IA: non un’etica che si limita a descrivere ciò che esiste, ma un’etica che orienta e corregge ciò che stiamo creando.
Un’etica che non impone dogmi, ma promuove la responsabilità. Luciano Floridi, tra i principali studiosi del tema, ha scritto che l’intelligenza artificiale rappresenta un «divorzio senza precedenti tra l’intelligenza e la capacità di agire»: le macchine possono svolgere compiti complessi, prendere decisioni, imparare autonomamente, ma senza coscienza del significato morale delle proprie azioni. Per questo la riflessione etica non può più restare un esercizio accademico. È necessario comprendere quali siano gli usi legittimi dei sistemi basati su IA, e come assicurare che la loro autonomia non degeneri in irresponsabilità.
Ethics by design e AI Act: l’etica incorporata nel progetto
Il punto non è dunque solo “come usiamo l’IA”, ma anche “come la costruiamo”. Da qui nasce il concetto di Ethics by Design, ossia l’idea che i valori etici debbano essere incorporati nel processo di progettazione e sviluppo dei sistemi, e non applicati a posteriori come un correttivo. Una tecnologia etica non si ottiene con un codice di condotta o un comitato consultivo: si ottiene con architetture, algoritmi e dataset pensati fin dall’origine per evitare discriminazioni, tutelare la trasparenza e garantire la centralità dell’uomo.
È l’unico modo per tradurre l’etica in ingegneria. Il legislatore europeo, con l’AI Act entrato in vigore nel 2024, ha cercato di dare a questa visione una base giuridica. Il regolamento, primo al mondo nel suo genere, definisce quattro livelli di rischio per i sistemi di IA — da minimo a inaccettabile — e impone obblighi proporzionati in materia di sicurezza, qualità dei dati, sorveglianza umana e trasparenza. Il principio ispiratore è quello di un’«IA antropocentrica e affidabile», capace di promuovere l’innovazione senza compromettere i diritti fondamentali dei cittadini europei.
Ma come sempre accade, la differenza tra dichiarazione di intenti e attuazione concreta dipenderà dalla capacità degli Stati e delle imprese di tradurre i principi in comportamenti verificabili.
La Rome Call for AI Ethics e il contributo della Santa Sede
In parallelo, la Santa Sede ha intrapreso un percorso di dialogo e riflessione culminato nella Rome Call for AI Ethics, firmata nel 2020 insieme a Microsoft, IBM, la FAO e altri attori istituzionali. Il documento propone sei principi — trasparenza, inclusione, responsabilità, imparzialità, affidabilità e sicurezza — che costituiscono una sorta di decalogo morale per lo sviluppo tecnologico.
È significativo che la Chiesa, spesso percepita come reazionaria, sia in realtà una delle poche istituzioni a promuovere una visione propositiva dell’IA: non una condanna, ma un discernimento. Non un “no” al progresso, ma un “sì” condizionato al rispetto della persona e del bene comune. L’etica cristiana, in fondo, non nasce dal timore della tecnica, ma dal riconoscimento della sua ambivalenza. Ogni strumento umano può essere usato per creare o distruggere, per includere o escludere. L’IA non fa eccezione. Il suo valore morale non risiede nella potenza del calcolo, ma nell’intenzione di chi la progetta e la utilizza.
La tradizione cristiana, da sempre attenta alla centralità della persona, può offrire un contributo essenziale a questo dibattito: ricordare che la dignità non si misura in efficienza, ma in umanità. In questo senso, costruire un’IA “etica” significa restituire alla tecnologia la sua finalità più alta: servire l’uomo, non sostituirlo. È un compito che richiede regole, ma anche coscienza; competenza, ma anche sapienza. Perché non c’è algoritmo che possa decidere, da solo, che cosa è giusto.
Coscienza artificiale e identità umana: il confine che sfida la filosofia
Ed è su questa affermazione che si inserisce prepotentemente un’altra questione, questa volta di natura filosofica, sul rapporto uomo-macchina. Tra i tanti dibattiti che attraversano il nostro tempo, pochi sono così densi di implicazioni come quello che riguarda l’intelligenza artificiale e la possibilità che una macchina possa, un giorno, pensare, provare sentimenti e perfino avere una coscienza.
È un tema che tocca non solo la filosofia della mente e la tecnologia, ma l’essenza stessa dell’uomo, il confine tra ciò che è naturale e ciò che è artificiale, tra ciò che vive e ciò che funziona.
Da una parte, scienziati e filosofi discutono se l’intelligenza artificiale potrà mai sviluppare una forma autentica di coscienza. Alcuni sostengono che la coscienza non sia legata in modo esclusivo alla materia biologica, ma all’organizzazione delle informazioni, al modo in cui i processi si intrecciano per generare consapevolezza. Se così fosse, una macchina sufficientemente complessa, capace di apprendere, ricordare e adattarsi, potrebbe sviluppare — almeno in teoria — una qualche forma di “vita interiore”. Altri, invece, si oppongono con forza a questa visione.
Dicono che una macchina potrà forse imitare ogni comportamento umano, ma non saprà mai sentire davvero. Potrà dire “ho paura”, ma non proverà la paura; potrà dire “ti amo”, ma non conoscerà l’amore. Il filosofo John Searle, con il celebre esperimento mentale della stanza cinese, ci invita a riflettere proprio su questo: anche se una macchina manipola simboli e risponde in modo perfettamente sensato, ciò non significa che comprenda il loro significato. È la differenza, sottile ma decisiva, tra elaborare e comprendere, tra reagire e vivere.
Il dubbio filosofico: l’uomo è forse una macchina biologica?
Il dibattito, a ben vedere, non riguarda soltanto la macchina. Riguarda noi. Ogni volta che ci chiediamo se una macchina può pensare, implicitamente ci domandiamo che cosa significa pensare. Quando ci chiediamo se può provare emozioni, ci domandiamo che cosa sono le emozioni.
E quando parliamo di coscienza artificiale, tocchiamo il mistero della coscienza umana. La tecnologia, come spesso accade, non ci fornisce solo risposte, ma ci costringe a riformulare le domande più antiche. Personalmente, non sono spaventato dall’idea che l’intelligenza artificiale possa “umanizzarsi”. Al contrario: trovo affascinante che la macchina, nel suo progresso, cerchi di imitare il linguaggio, la sensibilità e il ragionamento dell’uomo. Ciò che mi inquieta, semmai, è un’altra possibilità: che, a forza di creare macchine simili a noi, scopriremo che non è la macchina a diventare come l’uomo, ma che è l’uomo stesso ad avere una struttura così regolare, prevedibile e meccanica da poter essere imitata. Insomma, forse non è la tecnologia a diventare umana, ma è l’uomo che si rivela tecnologico nella propria essenza.
Nel momento in cui un algoritmo imita la nostra capacità di apprendere, ricordare e scegliere, ci rendiamo conto che anche noi, in fondo, apprendiamo, ricordiamo e scegliamo attraverso processi non così diversi: riconoscendo pattern, confrontando immagini, ricordando esperienze, ottimizzando decisioni. L’apprendimento, ad esempio, non è forse simile, nell’uomo e nella macchina? E ancora, un medico, di fronte a una radiografia, riconosce una patologia non per magia, ma perché la sua mente ha interiorizzato, nel tempo, migliaia di immagini simili. Ha costruito un archivio interiore di casi, di somiglianze, di intuizioni. L’intelligenza artificiale che analizza radiografie fa, in fondo, lo stesso: elabora migliaia di immagini, individua pattern, associa probabilità, formula una diagnosi.
È chiaro che un medico di fronte a un paziente acquisisce anche elementi di pathos e di carattere che gli faranno modulare la comunicazione e forse anche il tipo di cura, elementi che almeno adesso non appartengono all’AI. E che dire dell’avvocato che, di fronte a un caso, richiama alla mente precedenti, sentenze, analogie e giunge a una previsione sull’esito? Anche lui, come un sistema di machine learning, “apprende” da un insieme di dati pregressi e costruisce una mappa mentale del possibile.
Fede, tecnologia e il primato dell’interiorità umana
Il mio personale dubbio filosofico è dunque se l’uomo non sia forse una macchina biologica straordinariamente complessa, ma pur sempre una macchina biologica, capace di memorizzare, reagire, adattarsi? Ecco che di fronte alla possibilità, sempre più concreta, che l’uomo si scopra simile – o ancora peggio si riduca a una macchina — o che la macchina lo imiti al punto da confonderne i confini — la mia risposta è una sola: la fede.
Non come rifugio emotivo o consolazione mistica, ma come legame extra-umano con una fonte di coscienza, di salvezza e, se vogliamo, di eternità. La fede non è un semplice credere in qualcosa che non si vede; è un atto di relazione. È riconoscere che esiste un’origine del pensiero e della vita che trascende l’uomo, una sorgente che non può essere ridotta a calcolo, logica o biologia. In un’epoca che tenta di riprodurre la mente, di emulare l’intelligenza e perfino di programmare l’emozione, la fede diventa il segno di un’appartenenza che sfugge a ogni algoritmo. Rispetto al rischio di una progressiva de-umanizzazione, la fede non è un sentimento secondario, ma un atto di resistenza.
Essa afferma che la coscienza non è un epifenomeno della materia, ma un riflesso dello spirito; che la vita non è solo la somma delle sue funzioni, ma una vocazione; che la mente non è soltanto ciò che pensa, ma ciò che ama e crede. La fede è il linguaggio che restituisce profondità all’esistenza: ci libera dall’illusione di essere automi perfetti e ci ricorda che la perfezione non è nel funzionare, ma nel significare. Credere, in questo senso, è un atto rivoluzionario: significa riconoscere un ordine che non possiamo produrre, una presenza che non possiamo simulare.
È l’antidoto più potente alla riduzione dell’uomo a ingranaggio, alla tentazione di considerare la coscienza come un effetto collaterale del calcolo, all’arroganza di pensare che tutto ciò che non è misurabile sia irrilevante. La tradizione cristiana lo aveva compreso secoli fa: l’uomo è chiamato non solo a capire il mondo, ma a elevare sé stesso al di sopra della natura. “Dominare la terra“, nel linguaggio biblico, non significa sfruttarla o ridurla a strumento, ma custodirla, governarla, farla fiorire secondo il progetto di Dio. In questo senso, la tecnologia — come ogni altra opera dell’uomo — può essere strumento di elevazione o di alienazione, a seconda di come la usiamo e del posto che le diamo nella gerarchia dei valori.
Gesù ha posto al centro del suo messaggio la centralità dell’uomo: non l’uomo macchina, non l’uomo funzionale, ma l’uomo interiore, l’uomo che sente, che ama, che sceglie, che sbaglia e che si rialza. È quell’uomo unico e irripetibile, dotato di un’anima che non si misura in byte né in algoritmi. In questa prospettiva, la vera sfida non è costruire macchine che pensino come noi, ma costruire società in cui l’uomo non smetta di pensare come uomo. Abbiamo bisogno di ritrovare la dimensione spirituale del progresso, di riconoscere che la conoscenza tecnica, se disgiunta dall’etica e dalla fede, rischia di diventare sterile o distruttiva. Non dobbiamo temere l’IA in sé, ma il vuoto di senso che può accompagnare il suo uso.
Perché la tecnologia, come il potere, non è buona né cattiva: è neutra. È l’uomo a darle direzione. E se l’uomo perde la bussola del suo rapporto con Dio, ogni strumento può trasformarsi in idolo. Ecco allora il compito della nostra epoca: dominare la tecnologia senza esserne dominati, custodire la nostra interiorità come il bene più prezioso, continuare a coltivare l’anima, perché è lì che risiede la vera differenza tra l’uomo e la macchina.
Bibliografia
- Ambriola, Vincenzo. “Intelligenza artificiale: implicazioni etiche e sociali.” Agenda Digitale, 2024.
- Ambriola, Vincenzo; Flick, Caterina. Artificial Intelligence and the Future of Responsibility. Springer, 2022.
- Benanti, Paolo. Umano, poco umano. Esercizi spirituali sull’intelligenza artificiale. Milano: San Paolo, 2019.
- Catechismo della Chiesa Cattolica. Città del Vaticano: Libreria Editrice Vaticana, 1992.
- Commissione Europea. Ethics Guidelines for Trustworthy AI. Bruxelles, 2019.
- Fabris, Adriano. Etica per le tecnologie dell’informazione e della comunicazione. Roma: Carocci, 2018.
- Floridi, Luciano. Etica dell’intelligenza artificiale. Milano: Raffaello Cortina Editore, 2022.
- Gaggi, Massimo. Articoli su intelligenza artificiale e religione. Corriere della Sera, 2024–2025.
- Giovanni Paolo II. Laborem exercens. Città del Vaticano: Libreria Editrice Vaticana, 1981.
- Leone XIII. Rerum novarum. Città del Vaticano: Libreria Editrice Vaticana, 1891.
- Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking, 2019.
- Searle, John. “Minds, Brains, and Programs.” Behavioral and Brain Sciences, 1980.
- Unione Europea. Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (General Data Protection Regulation).
- Unione Europea. Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio sull’intelligenza artificiale (Artificial Intelligence Act).












