La società ormai si muove da un trend topic a quello successivo a una velocità che pare quasi allarmante: in questo contesto, le ultime battaglie sui dazi che vedono gli Stati Uniti contrapposti al resto del mondo sembrano aver portato ad accantonare, almeno per qualche tempo, il tema su cui l’attenzione si è concentrata negli ultimi due anni: l’Intelligenza Artificiale.
Indice degli argomenti
La discontinuità normativa tra Usa ed Europa
Una volta concluso il percorso che ha portato all’adozione dell’AI Act da parte dell’Unione Europea, occorrerà tempo per verificare in che modo lo sforzo di sintesi operato dalle istituzioni europee a partire dalla proposta della Commissione datata aprile 2021 realmente impatterà sul modello economico comunitario e sulla vita quotidiana dei cittadini.
Dall’altro lato dell’oceano, la nuova configurazione politica è quella di una presidenza le cui scelte, a partire dalle nomine nelle posizioni cardine governative sino alle prime azioni concrete, lasciano ampissimo margine di discussione. In una situazione forse mai così polarizzata, la posizione in tema di Intelligenza Artificiale non pare essere ancora ben definita, seppure la direzione sia stata tracciata sin dai primi giorni del nuovo ciclo del Presidente numero 47.
Gli executive orders e la strategia trumpiana sull’AI
È datato 23 gennaio 2025 l’ordine esecutivo intitolato “Removing Barriers to American Leadership in Artificial Intelligence”, il provvedimento presidenziale in cui Donald Trump ha racchiuso il percorso previsto in tema di IA. Nell’articolo 2 si legge che la linea politica è quella di “sostenere e implementare la posizione dominante dell’America a livello globale per promuovere la crescita umana, la competitività economica e la sicurezza nazionale”[1].
Si tratta di un decisissimo e totalmente prevedibile cambio di rotta rispetto all’ordine esecutivo esplicitamente citato nell’articolo 5 e – in sostanza – reso inefficace: il provvedimento n. 14110 del 30 ottobre 2023 firmato da Joe Biden.
Confrontare l’articolo 2 di tale documento, intitolato “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”[2], con quello appena citato non può che restituire un’immagine cristallina del completo rovesciamento di fronte a cui stiamo assistendo.
L’amministrazione Biden considerava di estrema urgenza disciplinare l’IA in maniera sicura e responsabile, disegnando una linea di azione atta ad “avanzare e governare lo sviluppo e l’uso dell’IA in conformità a otto principi guida e priorità”. La nuova amministrazione punta, nemmeno così sommessamente, all’autarchia in materia tecnologica e trova le proprie fondamenta nell’inserimento in – o quantomeno nella vicinanza alla – compagine governativa dei maggiori esponenti delle multinazionali del settore hi-tech. Un contesto in cui discorrere di un tentativo di tecnocrazia non pare una circostanza così lontana.
Di conseguenza, non sarebbe stato possibile lasciare intatto un testo che non soltanto guarda al Vecchio Continente, ma che si pone in linea di continuità con le azioni iniziate in seno alle istituzioni eurounitarie almeno un quinquennio prima della proposta di AI Act[3]. Ciò avviene in maniera del tutto esplicita nel testo dell’executive order dell’era Biden, il quale cita il sistema dei principi, richiamando quelle “linee guida etiche” nel panorama dell’IA che costituiscono i pilastri fondamentali dell’azione di Bruxelles, Strasburgo e Lussemburgo.
Leadership tecnologica e comunicazione politica
Tuttavia, basta una rapida lettura al testo dell’executive order ormai cassato per comprendere che, in realtà, la prospettiva statunitense del 2023 non è stata certo quella di un mero servilismo nei confronti dell’Unione. Le parole scelte rappresentano, al contrario, un’intelligente scelta di campo atta a fondare sulla cooperazione un sistema in cui gli interessi statunitensi potessero, comunque, emergere. Nel secondo principio individuato dall’amministrazione Biden, infatti, si evidenziava la volontà che fossero gli Stati Uniti a “fare da guida” nel campo dell’Intelligenza Artificiale. In una linea continua, nel sesto principio si auspicava che spettasse al governo federale il compito di “aprire la strada” al progresso sociale, economico e tecnologico, richiamando quanto già posto in essere dagli Stati Uniti nelle “precedenti ere di innovazione dirompente e cambiamento”. Si tratta di dichiarazioni che, nel proprio significato semantico, non parrebbero incoerenti con le promesse dell’attuale Commander-in-Chief.
Tuttavia, la ragione per cui si è sentita la necessità di eliminare completamente l’ordine esecutivo firmato Biden – non accontentandosi, dunque, di una semplice abrogazione silenziosa – risiede nel grado di dettaglio con cui, nello stesso, vengono delineate le modalità per raggiungere gli orizzonti appena descritti. La vera questione, infatti, è ben lontana dal tema stesso al centro del provvedimento, ma riguarda l’ambito della comunicazione politica. Veniva fornita una definizione di leadership assolutamente inaccettabile nella prospettiva della legge del più forte che ha affascinato e convinto gli elettori di Trump. L’amministrazione Biden qualificava la leadership affermando che la stessa “non è misurata solamente dagli avanzamenti tecnologici compiuti dal nostro paese”, bensì che “la leadership effettiva significa anche essere pionieri per quei sistemi e garanzie necessarie per utilizzare la tecnologia responsabilmente”, oltre che “costruire e promuovere tali tutele con il resto del mondo”.
Forse ci si sarebbe dovuti accorgere immediatamente che cancellare le parole appena ricordate, nonché quelle che saranno citate fra poco, rendeva reale tutto ciò che il miliardario di Mar-a-Lago aveva promesso nel corso della propria campagna elettorale e che, nello sgomento del mondo, ha trasposto dalla teoria alla pratica nelle settimane successive. L’amministrazione Biden indicava, infatti, di “impegnarsi con gli alleati e i partner internazionali nello sviluppo di una cornice per gestire i rischi dell’IA, sbloccare il potenziale dell’IA per il bene e promuovere approcci comuni a sfide condivise”. Ci si spingeva persino al di là dei soli rapporti con le potenze amiche, affermando di voler “cercare di promuovere i principi e le azioni di sicurezza di un’IA responsabile con le altre nazioni, inclusi i nostri avversari” e, al contempo “guidare conversazioni e collaborazioni chiave a livello globale per assicurarsi che l’IA benefici il mondo intero, invece di esacerbare le iniquità, minacciare i diritti umani e causare ulteriore danno”.
Con l’analisi appena condotta, non si intende certo immaginare una vocazione totalmente disinteressata di Biden, bensì riconoscere che la lunga esperienza politica maturata sia in chiave nazionale sia sullo scenario internazionale lo abbia – con tutta probabilità – persuaso che un approccio moderato e cooperativo fosse la via maggiormente percorribile per potare avanti la propria agenda e gli interessi della propria nazione.
Assenza di pianificazione e centralità del potere privato
La differenza di approccio è evidente anche dalla stessa forma dell’executive order 2025, il quale non contiene alcun tipo di contenuto programmatico ulteriore rispetto alla volontà di cancellare il passato.
L’articolo 4, infatti, abbozza semplicemente un “Piano di azione sull’IA” che una serie di soggetti esplicitamente indicati sono incaricati di elaborare e proporre al Presidente in una finestra temporale di sei mesi. Sebbene il titolo del provvedimento richiami presunte barriere da eliminare – barriere che sarebbero di ostacolo proprio a quella leadership statunitense cercata e voluta anche dal predecessore alla Casa Bianca – nessuna minima indicazione è fornita in merito alla modalità tramite cui realizzare tale obiettivo.
Pare, invece, paradossale che – proprio nei giorni in cui uno degli innumerevoli fronti di lotta aperti dallo stesso Trump, ossia quello contro le università, è diventato ancora più caldo – sia stato siglato un nuovo ordine esecutivo, dal titolo “Advancing Artificial Intelligence Education for American Youth”[4]. Difficile non immaginare la “Presidential AI Challenge”, una competizione rivolta agli studenti i cui connotati non sono stati chiariti, quale strumento propagandistico della nuova linea di azione. Peraltro, si potrebbe anche vedere nello stesso un ulteriore mezzo tramite il quale soddisfare gli interessi dei giganti del settore tech. È davanti agli occhi di tutti che, al contrario di quanto avvenuto nel precedente mandato di Trump, gli amministratori delegati hanno reso palese il proprio supporto alla nuova amministrazione non soltanto tramite laute donazioni, bensì comparendo personalmente alla cerimonia di inaugurazione.
In ciascuno dei provvedimenti sul fronte dello sviluppo tecnologico pubblicati dal mese di gennaio ad oggi, è possibile notare che le previsioni costituiscono il risultato di una precisa e attenta analisi, condotta con uno scopo ben delineato.
Molti sono rimasti sorpresi dal fatto che, al contrario di quanto avvenuto in relazione all’executive order sull’IA, alcuni frammenti normativi della precedente amministrazione sono stati mantenuti, sebbene debitamente modificati al fine di essere piegati alle nuove priorità. A titolo di esempio, uno Standing General Order della National Highway Traffic Safety Administration (NHTSA) datato 2021 prevedeva, da parte di produttori di autoveicoli e società informatiche, la notifica al governo di incidenti che coinvolgessero veicoli completamente autonomi o sistemi di assistenza alla guida di secondo livello[5]. Lo scorso 24 aprile, il Segretario ai Trasporti ha svelato la nuova cornice normativa relativa ai veicoli automatici, confermando il mantenimento dello strumento citato debitamente revisionato al fine di “puntualizzare il focus su informazione critica concernente la sicurezza contemporaneamente rimuovendo richieste non necessarie e foriere di duplicazioni”[6].
Ciò significa, tuttavia, selezionare in maniera più stringente gli incidenti che devono essere oggetto di report: in particolare, è avvenuta una limitazione soltanto agli incidenti che coinvolgano sistemi di terzo livello o di livello superiore[7], in cui nessun airbag sia stato utilizzato o siano stati arrecati danni a persone fisiche. Invece, qualsiasi incidente che abbia coinvolto un sistema di secondo livello in uno scenario in cui non siano stati causati una morte o un ricovero in ospedale, in cui non siano state coinvolte persone vulnerabili o in cui non vi sia stato azionamento dell’airbag è, ora, esente dall’essere oggetto di notizia[8]. È peculiare il fatto che i sistemi di secondo livello – ora oggetto delle eccezioni appena descritte – siano principalmente quelli utilizzati da Tesla, la quale componeva la maggioranza delle segnalazioni ricevute sulla base della precedente legislazione. È evidente che tali modifiche siano state introdotte secondo un disegno ad hoc atto a favorire una delle società di Elon Musk – il ruolo del quale all’interno dell’amministrazione Trump è ancora ben lontano dall’essere chiarito – ma è particolarmente critico che tutto ciò venga effettuato alla luce del sole (esattamente come la vendita di merchandising inneggiante a un terzo mandato, uno scenario che, ricordiamolo, è incostituzionale).
L’approccio europeo tra sanzioni e regolamenti
E l’Europa? Quale è la reazione dell’Unione di fronte ad una tale evidente e attesa inversione di rotta? Dopo aver compreso quale fosse la posizione dei giganti della Silicon Valley, pare proprio che le istituzioni comunitarie non siano rimaste a guardare. In una fase delle relazioni politiche che, al momento attuale, pare essere di muro contro muro, è notizia dello scorso 23 aprile quella delle ultime multe comminate dalla Commissione a Apple e Meta, rispettivamente per cinquecento e duecento milioni di euro[9].
Esse rientrano nella definizione di “gatekeeper” contenuta del Digital Markets Act (DMA), ossia il Regolamento (UE) 2022/1925 relativo a mercati equi e contendibili nel settore digitale[10].
Si tratta di una definizione applicabile sulla base della coesistenza di tre presupposti, indicati nell’articolo articolo 3, paragrafo 1:
i) l’impatto significativo sul mercato interno;
ii) la fornitura di un servizio di piattaforma di base costituente un punto di accesso, denominato gateway, rilevante affinché gli utenti commerciali siano in grado di raggiungere gli utenti finali;
iii) la posizione consolidata e duratura già detenuta nell’ambito delle proprie attività o la prevedibilità di acquisizione di tale posizione nel breve termine.
Alla prima si addebita la violazione del divieto di anti-steering: infatti, dall’indagine effettuata anche a seguito del contraddittorio con l’azienda stessa, è emerso che gli sviluppatori di app che distribuiscono i propri prodotti tramite l’App Store di Apple non sono posti nelle condizioni di informare i consumatori, gratuitamente, di offerte alternative al di fuori del medesimo Apple Store, di condurli a tali offerte e di consentire loro di effettuare acquisti. Peraltro, la somma che Apple dovrà versare non è il cuore della sanzione, poiché la Commissione ha imposto alla società di Cupertino l’obbligo di eliminazione delle barriere attualmente presenti al fine di evitare la prosecuzione della situazione di violazione del Regolamento.
Con riferimento all’azienda di Mark Zuckerberg, la decisione riguarda una questione attualmente in itinere e si riferisce, in particolare, a una specifica finestra temporale, fra il marzo e il novembre 2024. Nel novembre 2023, Meta aveva introdotto un modello di pubblicità binario della tipologia “Consenti o paga”: gli utenti di Instagram e Facebook avevano, dunque, una scelta fra consentire la combinazione dei propri dati per ottenere pubblicità personalizzata o versare una somma mensile per un servizio privo di pubblicità. Tuttavia, la Commissione aveva ritenuto tale modello in violazione dello stesso Digital Markets Act, in vigore dal marzo 2024: un sistema di questo tipo non risulta conforme alla previsione legislativa poiché non consente agli utenti di optare per un servizio che impieghi una quantità inferiore di dati personali ma che risulti, comunque, equivalente a quello comprensivo di annunci pubblicitari personalizzati. In aggiunta a ciò, nel modello proposto da Meta non si configura, per gli utenti, la possibilità di esercitare il proprio diritto ad acconsentire in maniera libera alla combinazione dei dati personali. Sulla base di ciò, Meta ha introdotto modifiche al modello proprio nel novembre 2024 e le stesse sono attualmente oggetto di ulteriore investigazione da parte della Commissione.
Sebbene gli occhi del mondo siano stati puntati, per lungo tempo e a ragione, sullo sforzo effettuato dalle istituzioni europee con riferimento all’AI Act, è necessario ricordare che, nella finestra temporale che ha visto una molteplicità di soggetti impegnati su più fronti al fine di giungere al risultato del Regolamento Europeo sull’Intelligenza Artificiale, l’Unione ha visto proporre (alla fine del 2020) e approvare (alla fine del 2022) non soltanto il citato Digital Markets Act, ma anche il Digital Services Act (DSA), ossia il Regolamento (UE) 2022/2065 relativo a un mercato unico dei servizi digitali. Insieme, tali testi legislativi costituiscono il cosiddetto Digital Services Package: tramite il Digital Markets Act, si intende contrastare attivamente gli abusi di posizione dominante e spingere verso la conformità delle condotte al diritto antitrust; con il Digital Services Act, la volontà è il raggiungimento di una disciplina dei servizi digitali e delle piattaforme online al fine di garantire il livello più elevato di tutela per gli utenti.
Verso un nuovo equilibrio regolatorio globale
Nel 2023, per la prima volta, l’Intelligenza Artificiale è entrata a far parte della vita quotidiana di ognuno di noi, ma è soltanto nel 2024 che si è veramente compreso il ruolo centrale della stessa all’interno del meccanismo politico. Anche prima del boom dell’IA generativa, essa era coinvolta negli ingranaggi del potere: si possono ricordare, infatti, le fake news di origine mai realmente chiarita diffuse online per influenzare, in maniera sommersa, l’esito dell’elezioni statunitensi del 2016, che hanno consegnato, per la prima volta, le chiavi dello Studio Ovale a Trump. Tuttavia, l’atteggiamento pare, ora, essere mutato, come reso evidente dall’immagine di Elon Musk sul palco in molteplici comizi dell’ultima campagna elettorale. Non si registra alcuno sforzo per nascondere un sodalizio inviso a molti, ma che si è rivelato la vera chiave del successo di un candidato che non ha mai avuto – o ha perso nel corso del tempo – il sostegno dell’ala prettamente politica del proprio stesso partito.
Scenari futuri per la regolamentazione globale dell’IA
Tale evento ha inserito negli equilibri geopolitici già fragili una nuova variabile la cui direzione non è semplice da prevedere. La risposta dell’Unione Europea, che aveva nel corso degli anni agganciato un ruolo di traino in merito allo sviluppo dell’IA, pare sino ad ora essere stata decisa e condivisibile da un punto di vista comunicativo. Tuttavia, da un punto di vista sostanziale, la perdita dell’alleato che l’Unione aveva trovato nell’amministrazione Biden crea un gap non facilmente accantonabile.
La situazione potrebbe non essere così grave quanto si potrebbe presagire a prima vista, tenendo in considerazione che l’Unione ha già dimostrato in precedenza di non lasciarsi influenzare dai disaccordi o dall’assenza di una strategia unitaria con il governo statunitense. In aggiunta a ciò, è sufficiente ricordare gli interventi incisivi della Corte di Giustizia nei confronti delle big tech sulla base della normativa a tutela dei diritti dei cittadini dell’Unione e dei diritti di ciascuno sul territorio dell’Unione. Il rischio di una frammentazione è molto elevato, con un’Europa a trazione fortemente regolatoria e un’America che pare sulla strada della deregolamentazione.
Come già affermato da un numero consistente di studiosi, tuttavia, tale orizzonte non è certamente auspicabile, essendo le caratteristiche stesse del web, ancor prima, e dell’IA, successivamente, a richiedere una risposta globale. Risposta unitaria che non è spinta soltanto da rilievi di carattere etico, bensì dall’efficienza stessa dei sistemi. Pensare a un bando, come era avvenuto nei primi tempi di ChatGPT in alcuni Paesi dell’Unione, non è una prospettiva sostenibile. Occorre, forse, un ripensamento dell’intero sistema normativo eurounitario, già oggetto di contestazioni ben prima dell’insediamento di Trump. Serve una regolamentazione meno prolissa, ripetitiva e composita, quindi più snella, puntuale e coerente. Il cambiamento nella direzione del vento dall’altra parte dell’oceano rappresenta una sfida, ma potrebbe anche costituire un’accelerazione sulla strada di un cambiamento che l’Europa sarebbe, comunque, stata chiamata a compiere.
Note
[1] https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/
[2] https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence
[3] Per approfondire, è possibile visionare A. Santosuosso, B. Marone, Regole per l’IA: cosa può imparare l’Italia dalle strategie Usa e UK, in Agenda Digitale, 21 novembre 2023.
[4] https://www.whitehouse.gov/presidential-actions/2025/04/advancing-artificial-intelligence-education-for-american-youth/
[5] https://www.nhtsa.gov/sites/nhtsa.gov/files/2021-06/Standing_General_Order_2021_01-digital-06292021.pdf
[6] https://www.transportation.gov/briefing-room/trumps-transportation-secretary-sean-p-duffy-unveils-new-automated-vehicle-framework
[7] https://www.nhtsa.gov/sites/nhtsa.gov/files/2025-04/third-amended-SGO-2021-01_2025.pdf
[8] https://www.theverge.com/news/655834/trump-tesla-crash-reporting-rule-adas-nhtsa-sgo
[9] https://ec.europa.eu/commission/presscorner/detail/en/ip_25_1085
[10] https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:32022R1925