E finalmente arrivarono, si potrebbe dire, raccomandazioni legislative, sfornate venerdì scorso dalla Casa Bianca, per assicurare all’intelligenza artificiale (IA) un framework regolamentare federale negli Usa.
Naturalmente minimo, come d’altronde testimoniano non solo le tre pagine di testo ma anche le diverse linee rosse che contiene sia rispetto a quello che vorrebbe che il Congresso si astenesse dal fare sia (soprattutto) rispetto ai tentativi degli stati di legiferare in materia. In effetti, sono questi ultimi ad aver innescato la dinamica che ha portato alla mossa della Casa Bianca, insieme alle preoccupazioni crescenti dell’elettorato statunitense nei confronti della tecnologia.
Le raccomandazioni contengono suggerimenti al Congresso in sette diversi ambiti: nell’ordine, protezione dei minori, comunità locali (in particolare sull’impatto dei data center), proprietà intellettuale, censura e libertà di parola, innovazione per assicurare il dominio tecnologico americano, istruzione e formazione e infine una definizione delle prerogative statali rispetto a quelle federali.
Prima di esaminare nel dettaglio i contenuti del documento della Casa Bianca e per capire meglio come interpretare correttamente questo sviluppo, per certi versi inatteso da parte di un’amministrazione che ha dimostrato fin dal principio di non tollerare neppure quel poco che era stato regolamentato dall’amministrazione Biden, per lo più su base volontaria e ristretto all’adozione dell’IA nel governo federale, ci sembra opportuno ripercorrere quanto avvenuto nell’ultimo anno.
Indice degli argomenti
Regolamentazione dell’intelligenza artificiale negli Usa tra spinte federali e stati
Il 2025 ha visto ben due tentativi ispirati dall’amministrazione Trump di istituire una moratoria di 10 anni su tutte le leggi statali riguardanti l’IA.
Al pari dell’Unione europea, il pericolo della frammentazione del mercato interno è un rischio reale anche negli USA. Anzi per certi versi ancora più pronunciato dal momento che, anziché 27 possibili regimi regolatori diversi, si potrebbe evidentemente arrivare fino a 50 (peraltro, per un numero complessivo di cittadini significativamente minore rispetto all’UE).
In un editoriale sul Washington Post dello scorso dicembre, Jai Ramaswamy, direttore degli affari legali e delle policy di Andreessen Horowitz, uno dei principali fondi di venture capital della Silicon Valley e dunque del mondo, ha lanciato l’allarme di fronte all’eventualità che le startup USA impegnate a sviluppare l’IA si debbano destreggiare tra 50 sistemi di regolamentazione diversi. Una possibilità più che concreta visto che, secondo calcoli riportati sui media americani, a fine 2025 c’erano oltre mille disegni legislativi in discussione o che quantomeno sono stati presentati nelle assemblee legislative statali e solo l’anno scorso sono stati un centinaio quelli diventati legge (in 38 stati).
Dall’ELVIS Act del Tennessee, che prova a tutelare gli artisti dalle imitazioni prodotte con l’uso dell’IA, alla legge del South Dakota che vieta i deep fake nella pubblicità politica nel mese precedente le elezioni fino a Utah, Illinois e Nevada che hanno introdotto norme per imporre maggiore trasparenza dei chatbot, l’erompere della legislazione statale in materia di IA sembra un fiume in piena, difficilmente arrestabile se non con un intervento top down. Che tuttavia si scontra con tre difficoltà oggettive tutt’altro che facili da aggirare: una costituzionale e due di ordine politico. In primis, ogni intervento federale non può comprimere troppo i poteri statali di legiferare, pena un aspro contenzioso di fronte alla Corte Suprema dagli esiti probabilmente negativi per tentativi di centralizzazione troppo spinti.
Ma l’amministrazione Trump deve gestire anche due evidenti criticità politiche: la necessità di dover contare su alcuni voti democratici (oggi al Senato per raggiungere i 60 voti, soglia necessaria per superare il filibustering della minoranza, da novembre probabilmente alla Camera, che nelle prossime midterm potrebbe diventare a maggioranza democratica) ma anche le evidenti spaccature tra gli stessi repubblicani. Poche settimane fa, un gruppo di cinquanta legislatori statali di fede repubblicana hanno preso carta e penna per chiedere a Trump di evitare di esercitare pressioni dirette per impedire agli stati di regolamentare l’IA, fatto riportato dai media negli ultimi mesi per l’Utah e la Florida, due stati dove governano i repubblicani, con telefonate provenienti dalla Casa Bianca rivolte ai leader delle assemblee.
Executive order Trump
Essendo falliti i tentativi di moratoria della legislazione statale, a furor di voti con uno stop del Senato di 99 a 1, la Casa Bianca a dicembre ha provato a mettere ordine, con l’ordine esecutivo firmato lo scorso 11 dicembre da Trump che si è impegnato a lavorare insieme al Congresso per dotare gli Stati Uniti di uno standard federale sull’IA, nel gergo legislativo una legge che regoli l’IA. Un dettaglio sfuggito quasi a tutti i commentatori, che si sono invece concentrati sui limiti imposti agli stati, quasi nessuno sulla prima ammissione messa nero su bianco da parte dell’attuale amministrazione che gli Stati Uniti si debbano dotare di una legge nazionale, sia pure “minimamente onerosa”.
Il provvedimento è sicuramente il risultato delle pressioni dell’ala più favorevole alla Silicon Valley, molto ben rappresentata dentro l’amministrazione a partire da David Sachs, il principale consigliere del presidente su IA e cripto, ma non può essere a mio modo di vedere descritto come una vittoria per KO ma al massimo ai punti dell’ala pro-innovazione. Complice forse anche il timore della review giudiziaria e del potenziale contenzioso. L’ordine esecutivo, infatti, non stabilisce alcun divieto o moratoria, ma afferma come il governo federale si doterà di una task force speciale (l’AI Litigation Task Force) per portare in tribunale le leggi statali che violino la costituzione americana, le leggi federali o siano giudicate illegittime dall’Attorney General.
Ma la minaccia principale è contenuta nelle successive due sezioni dell’executive order, laddove si dice che il governo federale procederà a un esame di tutte le leggi statali in materia e in base a questa valutazione avrebbe definito la concessione di fondi di svariati programmi di spesa destinati agli stati e in particolare del Programma BEAD (Broadband Equity Access and Deployment), che finanzia l’accesso universale sull’intero territorio statunitense alla banda larga. Una minaccia non da poco perché il budget del programma, istituito grazie a una legge del 2021, è di ben 42,5 miliardi di dollari. Per prevenire possibili contenziosi, l’executive order stabilisce un collegamento tra l’investimento infrastrutturale e la sua possibile minore efficacia nel caso la regolamentazione statale dell’IA ne penalizzi l’uso, dunque limitandone gli effetti. Un link peraltro molto difficile da dimostrare, a meno di regolamentazioni draconiane.
Insieme al bastone, l’executive order di Trump usava anche la carota, impegnandosi a lavorare con il Congresso a un quadro normativo federale su alcune materie specifiche, come la sicurezza dei bambini e la localizzazione dei data center, nelle quali si riconosce esplicitamente l’autonomia degli stati nel poter legiferare, insieme evidentemente all’acquisto di servizi IA per le amministrazioni statali ed eventuali altre da determinare nella raccomandazione legislativa annunciata entro pochi mesi e pubblicata per l’appunto il 20 marzo.
Cosa include la regolamentazione dell’intelligenza artificiale negli Usa proposta dalla Casa Bianca
Le raccomandazioni legislative della Casa Bianca, elaborate da David Sacks, consigliere speciale per IA e cripto, e Michael Kratsios, assistente del presidente per la scienza e la tecnologia, consultando secondo i media americani i leader repubblicani al Congresso, sono un complesso esercizio per continuare e anzi accelerare la corsa della tecnologia per assicurare quella predominanza rispetto alla Cina e al resto del mondo e spegnere ogni tentativo di over-regulation da parte del Congresso e soprattutto degli stati ma al contempo offrire anche un dividendo politico sia ai repubblicani che, in misura minore, alla componente più moderata dei democratici.
Minori, comunità locali e proprietà intellettuale
Dunque, da un lato si prevedono norme per proteggere i minori, non solo da pratiche evidentemente illegali ma anche da targeted advertising e addestramento dei modelli, e consentire ai genitori una supervisione efficace. Al contempo, si chiede al Congresso di consentire agli stati di applicare le proprie leggi sugli abusi sessuali ai minori, anche qualora perpetrati con l’ausilio di tool di IA. Al tempo stesso, si chiede però al Congresso di evitare di stabilire standard ambigui in tema di contenuti permessi o di responsabilità civile che possano portare a contenzioso eccessivo.
Rispetto alle comunità, si riafferma il principio contenuto nella recentissima Ratepayer Protection Pledge, firmata dalle principali aziende tecnologiche (con l’esclusione significativa di Anthropic) in una cerimonia alla Casa Bianca tenutasi all’inizio di marzo alla presenza dello stesso Trump che impegna a non scaricare sui consumatori eventuali costi addizionali derivanti dagli aumentati consumi di elettricità derivanti dai data center. Al contempo, si chiede al Congresso di codificare quanto già contenuto nell’Action Plan presentato da Trump la scorsa estate, facilitando le procedure autorizzative per le infrastrutture energetiche, e di mettere in campo finanziamenti a fondo perduto, incentivi fiscali e assistenza tecnica in favore delle piccole imprese che vogliano adottare l’IA.
Sulla proprietà intellettuale, si chiede soprattutto al Congresso di lasciare alle corti decidere se l’addestramento dei modelli IA su materiale protetto da copyright sia legittimo e meno, in base al principio del cosiddetto “fair use”, chiedendo di intervenire solo in un secondo momento, qualora la giurisprudenza in materia richieda di colmare eventuali vuoti normativi oppure di offrire maggiori garanzie di protezione del diritto d’autore. Nel frattempo il Congresso dovrebbe occuparsi semmai di proteggere gli individui dall’eventuale diffusione non autorizzata di repliche generate dall’IA della voce, dell’aspetto o di altri attributi identificabili di persone, a meno che questa non avvenga con finalità parodistiche, giornalistiche o altre modalità protette dal primo emendamento della Costituzione americana, che come noto tutela la libertà d’opinione.
Libertà di parola, innovazione e autorità di controllo
A quest’ultimo aspetto, particolarmente caro al movimento MAGA, che denuncia da anni la censura da parte dei media tradizionali prima e poi dei social nei confronti delle posizioni conservatrici, è dedicata la sezione successiva. Forse per evitare un richiamo eccessivo ai soliti mantra del DEI e altri cavalli di battaglia divisivi, si omettono riferimenti espliciti, chiedendo genericamente al Congresso di prevenire il governo dal costringere le aziende tecnologiche a vietare, obbligare o alterare contenuti sulla base di agende partigiane o ideologiche. Richiamo apparentemente neutro ma che ai MAGA fa venire in mente le azioni che avrebbero messo in atto a loro avviso l’amministrazione Obama e in tempi più recenti quella Biden, specie durante la pandemia (come peraltro ammesso dallo stesso Mark Zuckerberg in fase di riavvicinamento a Trump prima delle elezioni di novembre 2024). Naturalmente, essendo eventualmente riaffermato dal Congresso in piena presidenza Trump, questo punto potrebbe non risultare troppo indigesto neppure ai democratici.
La sezione successiva, dedicata ad abilitare l’innovazione e ad assicurare la dominanza americana nel campo dell’IA, prova a sfruttare la regolamentazione e le policy non per limitare ma semmai per facilitare l’utilizzo dell’IA. Dunque, si prevedono sandbox regolamentari, seguendo l’esempio UE ma anche di tante altre giurisdizioni in giro per il mondo e si chiedono al Congresso di promuovere l’accessibilità di imprese e università a dataset del governo federale in formato già pronto per l’addestramento dei modelli. Ma se i primi due punti difficilmente dovrebbero mettere d’accordo tutti, il terzo è certamente inviso a molti: si chiede infatti al Congresso di non istituire alcuna nuova autorità di regolamentazione ad hoc per l’IA e, anzi, si chiede di favorire il ricorso alle autorità già esistenti per supportare lo sviluppo e il deployment di applicazioni settoriali dell’IA attraverso standard tecnici guidati dall’industria.
Istruzione, lavoro e rapporti tra federazione e stati
Forse anche per rispondere ai crescenti timori che riguardano il futuro del lavoro, il penultimo punto è dedicato all’istruzione e alla formazione. Ma mentre si chiede al Congresso di intervenire per incoraggiare che i programmi esistenti includano l’IA si dà una chiara indicazione contro interventi che stabiliscano nuovi obblighi in capo alle imprese e altri soggetti datoriali. Semmai, il Congresso dovrebbe limitarsi a espandere gli sforzi del governo federale di monitorare i trend relativi alla riconfigurazione delle mansioni prodotto dall’IA con lo scopo di informare le politiche di supporto della forza lavoro nonché aumentare la capacità dei soggetti che forniscono assistenza tecnica, lanciano progetti dimostrativi e sviluppano programmi rivolti all’inserimento dei giovani nel mercato del lavoro.
Infine, l’ultima sezione, che prova a definire una governance multilivello, è forse quella che potrebbe suscitare le controversie maggiori, provando ad offrire garanzie (e al contempo a stabilire linee rosse) per tutti. Innanzitutto, chiede esplicitamente al Congresso di prevenire leggi statali che impongano oneri sproporzionati al fine di assicurare uno standard regolamentare federale coerente al posto di cinquanta diversi.
Allo stesso tempo, come già emerso nell’executive order dello scorso dicembre, questo standard non dovrebbe invadere la sfera di competenza degli stati nel perseguire la protezione dei minori, prevenire frodi e tutelare i consumatori. Inoltre, spetta ai piani regolatori statali definire la localizzazione dei data center così come ai governi dei singoli stati le procedure di procurement relative al loro uso dell’IA.
Le linee rosse più interessanti sono però le ultime, quelle rivolte nei confronti degli stati, anche perché sono quelle più cruciali per le aziende (e anche per quella parte dei sostenitori nonché collaboratori di Trump che sposano la causa tecnologica). Dunque, si chiede alle leggi statali di non regolare lo sviluppo dei modelli, di non limitare l’utilizzo dell’IA per usi che sarebbero legali se svolti senza l’IA (dunque, nessun bias contro l’IA) nonché di non penalizzare le aziende tecnologiche per danni arrecati da terzi attraverso l’impiego di modelli IA da loro sviluppati.
Al di là delle tante disposizioni messe in campo per rassicurare di volta in volta le varie parti in commedia (comunque decisamente poche rispetto all’AI Act!), c’è da scommettere che siano proprio queste ultime quelle che risulteranno decisive in eventuali negoziati da parte dell’amministrazione Trump. Che potrebbe trattare (moderatamente) su altri aspetti ma c’è da scommettere darà battaglia sulle tre linee rosse enunciate nei confronti degli stati.
Come cambia la regolamentazione dell’intelligenza artificiale negli Usa nell’opinione pubblica
Da questa parte dell’Atlantico siamo abituati a pensare agli Stati Uniti come a una nazione votata all’innovazione senza se e senza ma, in una sorta di missione collettiva che gode di ampio consenso (o quantomeno alla quale le opposizioni sono trascurabili o inesistenti). In realtà i sondaggi ci danno con sempre maggiore frequenza una lettura diversa.
Nelle settimane scorse, un sondaggio di NBC News ha rilevato come il 57% del campione rappresentativo della popolazione USA adulta crede che i rischi dell’IA superino i benefici contro il 34% che pensa il contrario. Ma a sorprendere ancora di più sono altri dati che emergono dalla stessa indagine demoscopica, effettuata tra il 27 febbraio e il 3 marzo di quest’anno. Messa a confronto con altri temi, organizzazioni e personalità pubbliche, l’IA si guadagna il terzo scranno del podio dell’impopolarità, dietro solo l’Iran, che vince per distacco, e il Partito democratico. Perfino la tanto odiata ICE fa meglio, non andando oltre la quarta posizione. Tra l’altro, a stupire, anche rispetto a sondaggi del passato, è che sono proprio i giovani tra i 18 e i 34 anni ad avere le opinioni più negative sull’IA.
Questo scetticismo per non dire aperta ostilità verso l’IA non è peraltro un fenomeno del tutto nuovo per gli USA. Secondo le rilevazioni del Pew Research Center, se nel 2022 il 38% degli americani era più preoccupato che eccitato dall’IA, subito dopo il rilascio di ChatGPT e il rilievo mediatico assunto dal tema nel 2023 la percentuale è salita al 52%, per poi rimanere stabile su quei livelli nei due anni successivi. Fatto sta che nell’ultimo confronto internazionale, condotto nel 2025 su 25 Paesi di tutti i continenti, Stati Uniti e Italia primeggiavano sostanzialmente ex equo in testa alla classifica delle nazioni nettamente più preoccupate che eccitate (50% vs 10% negli USA, 50% vs 12% in Italia).
Lavoro, data center e consenso politico negli Usa
A parte i rischi in particolare per i bambini, sono soprattutto due i fronti di crescente impopolarità dell’IA, che potrebbero peraltro svolgere un ruolo nelle prossime elezioni di mid-term: uno è il lavoro, l’altro i data center.
Timori sul lavoro e sull’automazione
Sul fronte occupazionale, che in teoria non dovrebbe destare preoccupazioni, con un tasso di disoccupazione ad oggi non troppo distante dai minimi storici, sono emersi dati, previsioni e opinioni, di cui abbiamo dato conto di recente su Agenda Digitale, che nel giro di poche settimane hanno tratteggiato un quadro piuttosto fosco. Dal rapporto di Citrini Research, che per un giorno ha creato il panico a Wall Street immaginando uno scenario economico al 2028 con una disoccupazione più che raddoppiata al 10,2% e primi pesanti licenziamenti ipotizzati proprio a inizio 2026, alle dichiarazioni di Mustafa Suleyman, a capo dell’IA di Microsoft, il quale in un’intervista di metà febbraio al Financial Times ha previsto che nel giro di 12-18 mesi il lavoro d’ufficio potrà essere completamente automatizzato dall’IA. Prese di posizioni simili sono venute di recente anche dal CEO di Anthropic Dario Amodei, il quale prevede entro 5 anni una disoccupazione al 10% o addirittura al 20% e un dimezzamento dei posti disponibili per chi entra per la prima volta nel mercato del lavoro. Ma oltre alle parole preoccupano alcuni sviluppi reali. Come, ad esempio, il licenziamento di 4 mila dipendenti da parte della fintech californiana Block su una forza lavoro complessiva di 10 mila unità. Tante altre società tecnologiche statunitensi hanno licenziato negli ultimi anni ma nessuna in queste proporzioni. Non stiamo peraltro parlando di un’azienda in crisi, visti i quasi tre miliardi di dollari di profitti realizzati nell’ultimo trimestre del 2025. Ma secondo Jack Dorsey, ex co-fondatore e CEO di Twitter e ora CEO di Block, il salto nell’automazione del coding, di cui sono prova i nuovi modelli di Anthropic e OpenAI rilasciati sul finire dell’anno scorso, costringe a una radicale trasformazione organizzativa.
In attesa che la mossa di Dorsey sia imitata o meno da altre aziende tecnologiche (e non solo), sono ormai diversi gli studi economici, pubblicati a partire dalla scorsa estate, che mostrano un calo significativo nelle assunzioni dei giovani laureati dopo il rilascio di ChatGPT. Come abbiamo scritto, non c’è ancora un consenso unanime tra gli economisti sul fatto che ciò sia davvero avvenuto e, a maggior ragione, sul fatto che il fenomeno sia eventualmente da attribuire all’IA (piuttosto che alla necessità contingente di frenare le assunzioni dopo il boom immediatamente successivo alla pandemia oppure all’aumento dei tassi d’interesse). Ma certamente, mano a mano che i modelli di IA diventano più sofisticati, aumentano i timori. Secondo un sondaggio di CBS News e YouGov, condotto a inizio febbraio, ben il 62% degli americani prevede che l’IA diminuirà il numero di occupati contro il 21% che si aspetta che lo incrementerà (e il 16% che non si attende variazioni in un senso o nell’altro).
Il nodo dei data center e dei prezzi dell’energia
Sul fronte dei data center, i timori non hanno forse ancora raggiunto gli stessi livelli di guardia ma, a parte le tradizionali preoccupazioni di carattere ambientale e sull’occupazione di suolo destinato ad altri usi che sono in naturale aumento in seguito all’accelerazione degli investimenti negli ultimi anni, a pesare politicamente in questo momento sono soprattutto i temuti impatti di questi ultimi sui prezzi dell’elettricità. In un contesto nel quale l’inflazione e la cosiddetta affordability sono da almeno un paio d’anni al centro del dibattito politico statunitense e hanno svolto un ruolo non secondario nella vittoria di Trump nelle presidenziali del 2024, non sorprende che le richieste di moratoria che fermino almeno temporaneamente la costruzione di data center, sia a livello nazionale che soprattutto statale, si stiano moltiplicando. Trovando consensi sia a sinistra che a destra.
La preoccupazione delle aziende e dell’amministrazione Trump hanno determinato lo scorso 5 marzo la sottoscrizione da parte delle principali aziende tecnologiche (con la notevole eccezione non casuale di Anthropic) di un solenne quanto volontario impegno a proteggere gli utenti da incrementi tariffari in una cerimonia alla Casa Bianca alla presenza dello stesso presidente. Ma alcune aziende, come ad esempio Microsoft e OpenAI, si erano già mosse a inizio anno con una serie di ulteriori impegni, ad esempio a non cercare di ottenere tariffe speciali o incentivi fiscali da parte delle autorità locali. In effetti, insieme a interventi di altra natura, alcuni stati stanno rimuovendo i benefici che avevano originariamente concesso per attirare gli investimenti sul proprio territorio.
Regolamentazione dell’intelligenza artificiale negli Usa e sfida elettorale
Il fatto che l’IA stia entrando nella campagna elettorale, a cominciare dalle primarie che dovranno selezionare i candidati al Congresso ma anche i governatori di ben 36 stati, è testimoniato dalla nascita di PAC (Political Action Committees) dotate di cospicui capitali per promuovere oppure opporsi a candidati in base al fatto che siano favorevoli o contrari a una maggiore regolamentazione.
È il caso di Leading the Future, lanciato alla fine del 2025 con una dotazione di oltre 100 milioni di dollari, grazie a donazioni provenienti da mostri sacri della Silicon Valley come Greg Brockman, presidente di Open AI, Joe Landsale, co-fondatore di Palantir, e il fondo di venture capital Andreessen Horowitz. Se Leading the Future promuove candidati dichiaratamente a favore di un approccio pro-innovazione come ad esempio il candidato a governatore della Florida Byron Donalds e osteggia apertamente altri come Alex Bores, candidato democratico al Congresso e principale proponente della recente legge sull’IA approvata dallo stato di New York, in campo è scesa qualche settimana fa anche The Public First, finanziata da Anthropic con un assegno iniziale da 20 milioni di dollari, per fare l’opposto, promuovere candidati a livello federale e statale che puntino a una maggiore regolamentazione dell’IA.
Ma attenzione, non si tratta dell’ennesima disfida pro o contro Trump, che poi è forse l’aspetto più preoccupante per il presidente in carica. Come detto, lo stesso movimento MAGA è diviso al suo interno e l’IA ha già fatto il miracolo di riunire dalla stessa parte personalità provenienti da fronti opposti come Steve Bannon e Bernie Sanders, entrambi schierati a favore di una regolamentazione che imbrigli la tecnologia e i suoi rischi anche dall’altra parte dell’Atlantico. Per ora si tratta di un’agguerrita minoranza ma, con le paure crescenti della classe media di fronte a una combo esplosiva di minacce occupazionali e inflazionistiche, non è detto non faccia rapidamente ulteriori proseliti. Incrociandosi con un movimento che dai territori sta prendendo piede, anche negli stati a maggioranza repubblicana, per difendere i cittadini e anche singole categorie che si sentono minacciate dall’IA (ad esempio, i creatori musicali nel Tennessee, che hanno peraltro un rappresentante di peso a Washington nella senatrice repubblicana Marsha Blackburn).
Gli ostacoli politici alla regolamentazione dell’intelligenza artificiale negli Usa
È evidente, come abbiamo già detto, che al di là delle eventuali questioni costituzionali ci sono almeno due ostacoli fondamentali sulla strada di un AI Act USA, sia pure molto più snello rispetto a quello europeo. Il primo è la prevedibile resistenza democratica, di fronte a un presidente che non si fa specie di dileggiare in ogni occasione gli avversari e specie a pochi mesi da elezioni di metà mandato che potrebbero cambiare i giochi al Congresso. Paradossalmente, potrebbe essere più facile raggiungere l’obiettivo dopo le elezioni, qualunque sia il loro risultato, a meno che il richiamo di una legge federale non sia chiesto a furor di popolo proprio dagli elettori di entrambi gli schieramenti.
Ma ad incidere sulle concrete possibilità di arrivare a quella legge federale di cui si parla dal 2023, ancora in piena presidenza Biden, saranno anche gli equilibri delicati per non dire tesi interni al movimento Maga. Difficile prevederne gli esiti anche se, con le preoccupazioni montanti dell’elettorato americano e di conseguenza le iniziative degli stati, di cui – è il caso di ricordarlo – ben 36 andranno al rinnovo a inizio novembre, il tema rischia in un modo o nell’altro di condizionare pesantemente la strategia IA degli Stati Uniti e della stessa presidenza Trump, che ne ha fatto un obiettivo prioritario.











