scenari

AI Act: se il Brussels Effect evapora sotto la pressione politica



Indirizzo copiato

Il regolamento UE sull’intelligenza artificiale rappresenta un tentativo di governance by rule of law in campo tecnologico. Nato dall’ardore regolatorio europeo e inserito in una strategia costituzionale digitale, l’AI Act oggi si confronta con l’evaporazione del Brussels Effect e con sfide politiche che ne ridefiniscono portata e futuro

Pubblicato il 19 nov 2025

Amedeo Santosuosso

Scuola Universitaria Superiore IUSS Pavia



AI ACTION SUMMIT 2025 governance europea dell'IA

L’AI Act è un atto legislativo europeo (tecnicamente un Regolamento), espressione di una scelta di governance by rule of law, maturata dopo una gestazione culturale ed etica partita vari anni prima. È (insieme ad altri strumenti analoghi in campo digitale) espressione del potere normativo globale che le norme europee hanno di fatto in tutto il mondo e che è noto come Brussels Effect.

Esaminiamo alcuni degli aspetti di questa duplice dinamica (dall’etica al diritto e dal nazionale al globale), ma intanto non si può non ricordare come l’AI Act si collochi all’apice di quello che con arguta ironia è stato chiamato ardore regolatorio sull’IA (copyright Sabino Cassese)[1]. Infine vi sarà spazio per qualche considerazione sulla situazione attuale e sui possibili sviluppi di una questione costituzionale e… di sopravvivenza.

La mappa degli interventi normativi tra soft law e regolamenti vincolanti

    Vi è stato un tempo in cui il progetto di regolamento divenuto AI Act viveva insieme a numerosi fratelli, da lui diversi ma aventi un tratto comune che li faceva riconoscere come appartenenti alla stessa famiglia, quella di coloro che volevano regolare l’Intelligenza Artificiale e le sue applicazioni, attraverso norme vuoi etiche o giuridiche di varia natura. Ancora nel corso del 2024 è diffusa, e non solo in Europa, l’invocazione di regole che pongano limiti agli sviluppi dell’IA. Alcuni la interpretano come un tentativo di “mettere un guinzaglio al settore”[2], altri come una necessità maturata nel tempo e ormai talmente impellente da essere, in una certa misura, condivisa dagli stessi poteri privati, ossia le grandi società statunitensi che occupano la scena e le cui attività possono mettere a rischio i diritti delle persone[3].

    Nel decennio precedente (all’incirca 2010-2020) si afferma l’idea che per l’IA fossero necessarie alcune regole, soprattutto di tipo etico.

    Sono anni nei quali viene prodotta una gran quantità di documenti che ogni entità di un qualche rilievo ritiene di dover elaborare a partire dalla propria esperienza e visione. Si possono ricordare quelli del Consiglio d’Europa, della Commissione europea, dell’Istituto di ingegneri elettrici ed elettronici (IEEE), dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), dell’International Telecommunications Union (ITU) e dell’Organizzazione mondiale della sanità (OMS), nonché il Report della House of Lords (UK 2017) e il rapporto dell’Executive Office del presidente degli Stati Uniti (2016). Nel 2018 l’UNESCO, per parte sua, affida alla commissione COMEST la stesura di uno studio preliminare sull’etica dell’IA, che viene pubblicato nel 2019 e che va a costituire la base della Raccomandazione sull’etica dell’IA del 2021.

    Le linee guida etiche europee e il dibattito tra soft law e hard law

    La Commissione europea, a sua volta, con una comunicazione al Parlamento europeo del 25 aprile 2018, lancia un’iniziativa europea in tema di IA, che l’8 aprile del 2019 porta alla pubblicazione delle Linee guida etiche per un’IA affidabile (Ethics Guidelines For Trustworthy AI) a opera[4] di un panel di esperti definiti di alto livello.

    In questo avvio di dibattito si sovrappongono prospettive e proposte di strumenti assai diversi, tanto che non è facile dire se questo orientamento verso l’etica sia frutto di una scelta deliberata, a fronte della difficoltà di stabilire regole giuridiche nel settore di tecnologie in forte sviluppo, oppure se sia frutto della strategia di adottare un approccio meno rigido, secondo quello che viene definito soft law, che comprende sia l’aspetto giuridico, in modo limitato, sia, appunto, interventi di tipo etico.

    Il rapporto tra etica (hard e soft), governance e regolazioni giuridiche (hard e soft) è complesso e suscettibile di diverse concettualizzazioni, a seconda delle visioni dei diversi autori. Per esempio, secondo l’impostazione data da Luciano Floridi[5], si può parlare di governance digitale in due sensi: il primo (proprio e ristretto) vede la governance digitale come solo una delle tre forze normative che possono modellare e guidare lo sviluppo del digitale, accanto all’etica (soft e hard) e alle regolazioni giuridiche vere e proprie. Nel secondo senso si può intendere la governance digitale come l’insieme degli interventi normativi, comprendendo quindi anche quelli etici e giuridici.

    Il rapporto tra i diversi sistemi regolatori e, quindi, il dilemma tra regole etiche o giuridiche non sempre poggia su basi chiare. Per esempio, vi è chi preferisce non usare il termine etica, ma riferirsi al differente concetto di diritti umani, perché ritiene che, se è vero che sia l’etica, sia i diritti umani proteggono lo stesso insieme di valori, è anche vero che per i diritti umani già esiste un’infrastruttura giuridica ed è possibile azionare tutele giuridiche per ottenere rimedi effettivi. In aggiunta a ciò, occorre tenere in considerazione che, anche soltanto riferendosi all’approccio etico in sé  si presenta l’ulteriore problema della scelta dell’etica di riferimento (in presenza di una pluralità di etiche e di culture che le esprimono) e dell’individuazione di un’autorità che abbia titolo a prendere decisioni. Nell’Unione europea, per esempio, i diritti umani sono stati istituzionalizzati nella Carta dei diritti fondamentali dell’Unione, che raccoglie e compendia una serie di altri strumenti normativi europei, e pertanto può parlarsi di una loro giuridicizzazione. Al contrario, il quadro dei diritti umani nei paesi extra-UE si presenta molto più frammentato e problematico, impedendo una completa valutazione.

    A fine 2023 la situazione a proposito di IA è ben sintetizzata nel titolo “il mondo vuole regolare l’intelligenza artificiale ma non sa proprio come farlo”[6]. Sembra comunque affacciarsi un fatto nuovo: sarebbero gli stessi maggiori produttori di modelli (come Alphabet e Microsoft) e i nuovi players del mercato (come Anthropic e OpenAI), che in passato si erano opposti alle regolamentazioni, a fare pressione, in quel momento, per ottenerle, forse anche per il timore che la concorrenza sfrenata le spinga ad agire in modo avventato, rilasciando modelli che potrebbero essere facilmente abusati (sempre secondo «The Economist»). In ogni caso le aziende tecnologiche, anche quando sostengono la regolamentazione (come davanti nelle audizioni al Senato americano, luglio 2024), chiedono che essa sia limitata e che riguardi solo i rischi estremi.

    In ogni caso la via degli interventi normativi è aperta e tra 2023 e 2024 ve ne sono diversi, e non facilmente classificabili. A volerli organizzare secondo i criteri della loro forza giuridica e dell’ampiezza geografica di riferimento (ma altri criteri sono possibili!) li si potrebbe elencare così: a) la Convenzione quadro del Consiglio d’Europa[7]; b) il regolamento europeo AI Act (pubblicato il 12 luglio 2024); c) la Raccomandazione UNESCO (2021); d) la Dichiarazione finale dell’incontro di Bletchley (novembre 2023); e) l’Ordine esecutivo del presidente USA (ottobre 2023); f) il rapporto Governing AI for Humanity (settembre 2024, ONU High level Advisory Body on Artificial Intelligence Nazioni Unite)[8].

    Il Blueprint Usa e i valori democratici nei sistemi automatizzati

    L’Ordine esecutivo statunitense del 2023 è la cartina al tornasole di un notevole, e insolito, attivismo in ambito statunitense.

    L’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence viene emesso dal presidente degli Stati Uniti il 30 ottobre 2023. È un testo di 100 pagine e 20 mila parole. Annunciato da tempo, si colloca tra gli sforzi dell’amministrazione americana verso uno strumento legislativo in grado di raccogliere consensi bipartisan, compresa la bozza di Bill of Rights sull’IA, di cui si parlerà più avanti.

    I contenuti dell’Ordine esecutivo ricalcano i passi compiuti dalle istituzioni europee negli anni precedenti, con l’identificazione, nel testo, dei principi che dovrebbero guidare, come una stella polare, la progettazione, l’uso e l’impiego dei sistemi di intelligenza artificiale. La decisione finale di rompere gli indugi e di intervenire con l’Ordine esecutivo è da collegarsi (anche) alla necessità di riaffermare la leadership mondiale degli USA, contenendo gli effetti dell’iniziativa inglese del premier Sunak, che ha raccolto delegati di altri 28 Paesi, tra cui Stati Uniti, Cina, Unione europea, Singapore, gli stati del Golfo insieme ai vertici delle compagnie Big Tech e che ha portato alla Dichiarazione di Bletchley. Va notato, infatti, che l’Ordine esecutivo, a dispetto del suo carattere di norma interna statunitense e con forza giuridica limitata (non essendo approvato dal Congresso[9]), può essere assimilato agli strumenti internazionali in ragione dell’influenza che l’amministrazione USA ha sulle aziende produttrici che ancora oggi mantengono, di fatto, la leadership mondiale in campo di IA.

    L’Ordine esecutivo è affiancato dal Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People, un libro bianco pubblicato dall’Ufficio della politica scientifica e tecnologica della Casa Bianca con lo scopo di “sostenere lo sviluppo di politiche e pratiche che tutelino i diritti civili e promuovano i valori democratici nella costruzione, nell’implementazione e nella governance dei sistemi automatizzati”, e, quindi, di far sì che i sistemi automatizzati siano in linea con i valori democratici e proteggano i diritti civili, le libertà civili e la privacy.

    Nel testo è chiaramente precisato che il Blueprint (che si può tradurre con «bozza») è solo «un esercizio di immaginazione di un futuro in cui il pubblico americano sia protetto dai potenziali danni e possa godere appieno dei benefici dei sistemi automatizzati. Descrive i principi che possono contribuire a garantire queste tutele, alcune delle quali sono già previste dalla Costituzione degli Stati Uniti o sono attuate da leggi esistenti». Il Programma per una Carta dei Diritti dell’IA ha lo scopo di aiutare i governi e il settore privato a tradurre questi principi in pratica.

    Lo spirito del tempo regolatorio e la forza del Brussels Effect

    In conclusione, sul passaggio da regole etiche a quelle più stringenti, si può dire che la famiglia dell’ardore regolatorio dell’IA e delle tecnologie vede insieme virgulti di vario genere, anche molto diversi uno dall’altro, ma che rispondono a un certo spirito del tempo e, soprattutto, che si fanno forza uno con l’altro. Le regole prodotte nell’Unione Europea hanno (o forse avevano) la forza espansiva costituita dal fatto che si applicano a un’area popolata con 450 milioni di persone e tra le più ricche del mondo (noto come Brussels effect). Il movimento americano dell’Executive order e del Blueprint è frutto di varie forze, da quelle interne USA, allo stesso Brussels effect, fino alla Dichiarazione di Bletchley, nei cui lavori preparatori era stata proprio la rappresentanza cinese a insistere per la creazione di strumenti di regolazione giuridica, internazionali e vincolanti.

    L’emergere di un nuovo costituzionalismo digitale europeo

    È chiaro che le motivazioni di questi atteggiamenti non erano sempre consonanti (per es. la pressione cinese per regole internazionali vincolanti aveva chiari obiettivi geopolitici verso le aziende USA), ma un certo spirito da  ardore regolatorio funzionava da collante della famiglia, da suo idem sentimus e tratto distintivo, e faceva passare in secondo piano la mancanza di genitori chiaramente individuati,  che fossero in grado di esercitare un potere di indirizzo interno al gruppo e della capacità di difendere i propri pargoli da aggressioni esterne (che al momento apparivano relativamente deboli).

    In questo quadro mosso e caotico vi è un sottogruppo di fratelli EU che, in aggiunta a quella del Brussels effect (che si potrebbe dire di espansionismo commerciale extra EU), giocavano una partita interna, costituzionale.

    Franco Pizzetti, in un articolo del maggio 2024 (in Agenda digitale), vede l’emergere di un nuovo costituzionalismo europeo. Il processo di costruzione di una Costituzione digitale viene intravisto a partire dal vertice di Tallinn del 29 settembre 2017, momento in cui l’evoluzione digitale entra nell’agenda europea, attraverso temi come l’e-government, la cybersicurezza e l’economia digitale. Le tappe successive di questo percorso sono il Digital Markets Act (2022), il Digital Services Act (2022), il Data Governance Act (2023) e, poi, l’AI Act (2024), con un seguito nella proposta di regolamento 2024/1183 (eIDAS 2), che istituisce il quadro europeo per l’identità digitale, e la direttiva NIS2 2022/2555 sulla sicurezza informatica. Pizzetti ricorda come dal vertice di Tallinn fosse emerso un quadro nel quale era «immediatamente evidente che o la UE sarebbe stata in grado di garantire uno sviluppo digitale condiviso e dominato anche dalle scelte e dai bisogni dei suoi cittadini o la stessa esistenza dell’Unione poteva essere a rischio».  

    Dal contratto al diritto pubblico: la sovranità digitale dell’unione europea

    Pizzetti scorge l’emergere, anche se non dichiarato, di un nuovo costituzionalismo, basato sulla centralità dei valori fondamentali e dei diritti di libertà come sviluppati in Europa. E lo scorge, non solo e non tanto nel fitto (e talora intricato) reticolo normativo, quanto nel passaggio (di notevole interesse) da una dimensione contrattuale a una pubblicistica. I più recenti regolamenti UE sullo scambio di dati digitali stabiliscono, infatti, che i fornitori di servizi digitali, indipendentemente dalla loro ubicazione nel mondo, devono rispettare le regole UE quando il destinatario o l’utente del servizio si trovi nell’UE o operi nello spazio economico europeo. Questo principio contrasta con le leggi statunitensi, che seguono un approccio privatistico e applicano la legislazione dello stato dove i fornitori di servizi hanno sede, spesso proprio negli Stati Uniti. In sostanza, questi regolamenti EU introducono una norma di carattere pubblicistico, che può dirsi di natura costituzionale in quanto è espressione della sovranità dell’UE nello spazio digitale europeo. Le norme contenute in questi regolamenti, grazie alla loro efficacia territoriale, indipendente dai rapporti contrattuali, costituiscono un primo embrione di «costituzione digitale europea», dando così senso anche giuridico al concetto di sovranità digitale dell’UE.

    Bill of rights e costituzionalismo: quale potere da limitare?

    Si tratta, per l’autore, di un processo costituente non esplicito, che parte da uno sviluppo regolatorio dei rapporti propri della società digitale in punto di fornitura e uso dei servizi che la caratterizzano. Questa prospettiva è perfettamente inserita nella tradizione UE di farsi unione per passi indiretti, una tradizione che però, tocca segnalarlo, sembra mostrare la corda a fronte dei nuovi sviluppi geopolitici.

    Quando si parla di prospettiva costituzionale, bisogna ricordare che il termine «costituzione» evoca una prospettiva più ampia di quella di Bill of Rights (o Dichiarazione di diritti), in quanto riguarda anche le regole di organizzazione e di esercizio dei poteri pubblici (legislativo, esecutivo e giudiziario). Questi due aspetti, Bill of Rights e costituzionalismo (o democrazia costituzionale), si possono intersecare, possono essere complementari, ma rimangono comunque distinti.

    Inoltre, sempre a proposito di dichiarazioni dei diritti è necessario chiarire quale sia e quale forma abbia il potere rispetto al quale i diritti costituiscono una salvaguardia. Molte delle dichiarazioni, raccomandazioni e convenzioni a proposito di IA e tecnologie vedono gli Stati nazionali come destinatari di un doppio comando: vigilare sull’utilizzo delle tecnologie sia da parte di soggetti privati, detentori di poteri talora smisurati (privati, appunto), sia, contemporaneamente, da parte di essi stessi, in quanto soggetti pubblici (come gli organi di polizia o la stessa giustizia). Tanto che in alcuni degli strumenti sopra ricordati (in particolare la Raccomandazione UNESCO) è stato adottato il concetto di AI actor, definito come “qualsiasi attore coinvolto in almeno una fase del ciclo di vita del sistema IA, […] sia persone fisiche che giuridiche, come ricercatori, programmatori, ingegneri, scienziati di dati, utenti finali, imprese commerciali, università ed enti pubblici e privati, tra gli altri”. Una tale definizione comprende (come nel caso della sorveglianza di massa) anche entità pubbliche, che, così, rientrano nella categoria degli AI actors, destinatari di quei divieti.

    Gli AI actors e il superamento della sovranità statuale classica

    L’AI actor, come destinatario funzionale (privato o pubblico), apre una prospettiva culturale di grande interesse, che supera le resistenze dei teorici della non ingerenza nella sovranità statuale e che potrà avere sviluppi di rilievo. Una prospettiva di questo genere si è imposta per necessità anche in esperienze successive, come quella della Convenzione quadro in sede di Consiglio d’Europa (si veda sopra), dove, nelle spiegazioni, si riferisce del coinvolgimento nelle negoziazioni di rilevanti non-State actors, un totale di 68 rappresentanti della società civile e delle industrie che hanno partecipato come osservatori nelle negoziazioni. E si precisa che la convenzione “mira a garantire che le attività all’interno del ciclo di vita dei sistemi di intelligenza artificiale da parte di attori pubblici e privati siano conformi a questi obblighi, standard e impegni”.

    Una realtà di questo genere pone problemi pratici e teorici importanti che non possono essere affrontati in questa sede.

    Chi sono, per esempio, i padri fondatori della Costituzione europea in progress dell’IA? Chi esprime il potere costituente e qual è il suo riferimento territoriale, nazionale (dimensione troppo piccola a confronto con i poteri di fatto esistenti), regionale (per esempio, Unione europea) o globale, sul modello delle Nazioni Unite (che però proprio in questi anni non stanno dando la propria miglior prova nella tutela dei diritti fondamentali)? La consapevolezza di questi aspetti problematici non esclude che possa immaginarsi l’emergere di una necessità costituente[10]: la costruzione, pezzo per pezzo, di qualcosa che non può misurarsi soltanto con il criterio della conformità all’ordinamento preesistente e che può diventare parte di un quadro internazionale o addirittura globale di rilevanza costituzionale, quando matureranno le condizioni politiche.

    Ma è giusto questo il punto, oggi: questo corpo di legislazione comunitaria ha struttura e natura idonee ad acquisire qualità costituzionale e, in particolare, di Bill of rights? E, poi, le condizioni politiche attuali a livello internazionale sono un terreno fertile perché emerga e prenda corpo questa necessità costituente?

    AI Act e complessità del corpus normativo dell’UE

    Molti sarebbero gli aspetti dell’AI Act degni di commento. Fra tutti uno dei più importanti è la rottura della coerenza originaria dell’impostazione iniziale, basata sul rischio, causata dall’aver voluto (sia pure comprensibilmente) inserire nella fase finale alcune norme sui Large Language Models, basate sul diverso e disomogeneo criterio della potenzialità di calcolo e di uso.

    Ma vi è un aspetto preminente e di carattere generale che ci interessa in questa sede: il solo AI Act è un testo di ben 144 pagine, il cui riassunto ufficiale è di 2.157 parole e che conta 113 articoli preceduti da 180 premesse (considerando), un testo che anche esperti in materia giudicano ostico e di difficile lettura, all’interno del quale non è facile districarsi. Quando si ragiona in termini di costituzione o di Bill of Rights anche le dimensioni hanno importanza.

    Nel Rapporto The Future of European Competitiveness (2024), richiesto dalla Commissione Europea a Mario Draghi, si fa notare come le nuove regolamentazioni nell’UE stiano crescendo a dismisura, più rapidamente rispetto ad altre economie comparabili. Nell’impossibilità di un raffronto di dettaglio tra sistemi giuridici così diversi, vi è comunque un dato complessivo impressionante tra UE e USA: “negli Stati Uniti sono stati emanati circa 3500 atti legislativi e approvate circa 2000 risoluzioni a livello federale nel corso degli ultimi tre mandati del Congresso (2019-2024). Nello stesso periodo, l’UE ha approvato circa 13000 atti legislativi”[11].

    Se si considera che la caratteristica verbosità dell’AI Act è tipica anche di altri testi normativi europei e se a questo si aggiunge il ben noto fenomeno del gold-plating, e cioè la prassi diffusa tra gli Stati di aggiungere norme nazionali ulteriori e in parte divergenti da quelle comunitarie[12], risulta evidente come sia necessaria una dose massiccia di buona volontà per dire che in un coacervo del genere si possa vedere, sia pure in nuce e al netto dell’importanza del passaggio dalla logica contrattuale a quella territoriale, un Bill of rights o comunque qualcosa che possa operare come costituzione.

    Sopravvivenza istituzionale, geopolitica e Brussels Effect

    A proposito delle condizioni politiche per l’affermarsi di una prospettiva costituzionale non può non ricordarsi l’incipit dell’intervento di Mario Draghi al meeting di Rimini nell’agosto 2025: “Per anni l’Unione Europea ha creduto che la dimensione economica, con 450 milioni di consumatori, portasse con sé potere geopolitico e nelle relazioni commerciali internazionali. Quest’anno sarà ricordato come l’anno, in cui questa illusione è evaporata”. Il riferimento di Draghi al Brussels effect sembra chiaro.

    È evaporata perché il Presidente USA, Donald Trump, ha con un tratto di penna cancellato gli executive orders in materia digitale emanati dal predecessore Biden ed è evaporata perché il quadro politico internazionale e le guerre sanguinose in corso hanno posto in primo piano una politica di potenza più che di rispetto delle alleanze.

    A fine agosto 2025, mentre è ancora in corso la trattativa USA-UE sui dazi, è apertissimo il punto cruciale (tra le barriere non tariffarie che gli USA aggiungono ai dazi) della rimozione delle norme UE in materia digitale. Una questione che tocca il nucleo della sovranità digitale UE e quello che ha lasciato intravedere un percorso costituzionale. Il New York Times del 27 agosto è molto chiaro:

    The stakes are high for Europe. Officials here have long made it clear that they see their regulations as a matter of national sovereignty. Given that, bending to Mr. Trump would amount to allowing the United States to write Europe’s rules”[13].

    Anu Bradford, professore presso la Columbia Law School e autrice della fortunata formula del Brussels Effect, riconosce che “il ritrarsi americano dalla governance dell’intelligenza artificiale è un duro colpo per coloro che sono preoccupati per i rischi individuali e sociali dell’intelligenza artificiale. Tale ritiro mina la precedente collaborazione dell’UE con gli Stati Uniti in materia di politiche digitali e offre alla Cina e ad altre autocrazie l’opportunità di promuovere le loro norme digitali autoritarie”. Tuttavia, vede in questa situazione anche “un’opportunità per l’Europa di assumere un ruolo di primo piano nella definizione della tecnologia del futuro, un’opportunità che dovrebbe cogliere, senza abbandonarla per acquiescenza o timori infondati”[14].

    A ben vedere, gli autori fin qui citati pur con differenze di toni e aspettative, concordano sul fatto che la sfida sul digitale è per l’Europa qualcosa che va oltre le specifiche regole (o gli specifici dazi), ma è una questione sulla quale la stessa esistenza dell’Unione è a rischio. L’AI Act perde alla fine larga parte dei fratelli extra EU, si trova messo a repentaglio nella dimensione del Brussels effect e si ritrova senza genitori che possano difenderlo dalle incursioni malevole esterne, e ci appare come una sorta di Bill of rights senza il versante della organizzazione dei poteri istituzionali.

    In sintesi, l’AI Act e le norme europee sul digitale oltre al loro intrinseco valore finiscono con l’essere indicatore di un’evoluzione più ampia, a partire dal punto di vista dello sviluppo delle tecnologie, al modo in cui possono essere regolati i conflitti globali e alla fine per l’assetto politico del mondo, dove l’Europa è chiamata pesantemente in causa dall’invasione russa dell’Ucraina e dai suoi sviluppi.

    I giornali del 5 settembre danno la notizia della sanzione applicata dalla Commissione EU a Google e della reazione americana. La partita è in pieno svolgimento, con esito che si vuole considerare aperto.

    Note


    [1] Questo scritto riprende alcune riflessioni espresse nel volume A. Santosuosso-G.Sartor, Decidere con l’IA. Intelligenze artificiali e naturali nel diritto, Bologna, Il Mulino, 2024 (al quale rinvio per un’argomentazione più ampia e per i riferimenti bibliografici) e le sviluppa in relazione al quadro attuale post gennaio 2025.

    [2] Secondo un titolo, certo non neutrale, del «Wall Street Journal» del 25 marzo 2024

    [3] A. Simoncini, Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e governo, in «BioLaw Journal. Rivista di BioDiritto», 2, 2021.

    [4] High-Level Expert Group on Artificial Intelligence. Per indicazioni bibliografiche si rinvia al capitolo quinto di Santosuosso – Sartor, cit..

    [5] Floridi, L., Etica dell’intelligenza artificiale, Milano, Cortina 2022, pp. 128-129.

    [6] «The Economist» titolo del 2 novembre 2023

    [7] Il 19 maggio 2024, il Consiglio d’Europa adotta, a Strasburgo, la prima Convenzione quadro internazionale in materia di sistemi di intelligenza artificiale che possano mettere in pericolo i diritti umani, la democrazia e la rule of law. Il documento è aperto dal 5 settembre 2024 alla ratifica da parte degli stati membri (e anche da parte di altri stati) ed entra in vigore raggiunte le prime cinque sottoscrizioni.

    [8] Se si volesse seguire invece il solo criterio della maggiore ampiezza territoriale, l’ordine potrebbe essere: a) la Raccomandazione UNESCO; b) il rapporto Governing AI for Humanity (settembre 2024, ONU; c) la Dichiarazione di Bletchley; d) la Convenzione quadro del Consiglio d’Europa; e) l’AI Act; f) l’Executive Order. Se si volesse, infine, seguire il criterio dell’entrata in vigore l’ordine sarebbe ancora diverso: Executive Order, Raccomandazione UNESCO, Convenzione quadro del Consiglio d’Europa, EU AI Act e Dichiarazione di Bletchley.

    [9] L’Ordine esecutivo, nel sistema delle fonti statunitensi, è una dichiarazione del presidente che ha forza di legge, solitamente basata su poteri conferiti da un corpo normativo già esistente. Non ha natura di Act of the Parliament, non richiede un intervento né da parte del Congresso, né delle assemblee statali, L’abrogazione in senso proprio dell’Executive Order può, alla fine, derivare esclusivamente dall’emanazione di un provvedimento identico e cronologicamente successivo da parte del medesimo presidente.

    [10] Ipotizza la necessità costituente Santi Romano e la fa nascere in relazione al fattore tempo. Sul punto si veda Cavallo Perin, R. Ordinamenti giuridici paralleli e necessità come fonte del diritto, in R. Cavallo Perin, G. Colombini, F. Merusi, A. Police e A.

    Romano (a cura di), Attualità e necessità del pensiero di Santi Romano, Napoli, Editoriale Scientifica 2019).

    [11] Mario Draghi, The future of European competitiveness (2024), in particolare pp. 60-61.

    [12] In un documento di un gruppo di lavoro europeo il gold-plating viene definito come “one of the main sources of administrative burden overarching the full spectrum of implementation fuelled by an atmosphere of distrust across the system of ESIF management and by a fear of non-compliance due to legal uncertainty : 4th MEETING of the High Level Expert Group on Monitoring Simplification for Beneficiaries of ESI Funds 16/11/16. Sul punto si veda anche il Rapporto Draghi.

    [13] Jeanna Smialek-Adam Satariano, Trump Wants Europe to Stop Regulating Big Tech. Will It Bend, NYT 27 agosto 2025.

    [14] Anu Bradford, Trump Wants to Let A.I. Run Wild. This Might Stop Him. NYT, 18 agosto, 2025.

    guest

    0 Commenti
    Più recenti
    Più votati
    Inline Feedback
    Vedi tutti i commenti

    Articoli correlati