intelligenza artificiale

AI, gli USA cercano regole: il testo di Trump e di Blackburn al confronto



Indirizzo copiato

Arrivati due testi per colmare i vuoti normativi degli USA sull’AI. Uno senatoriale ridisegna copyright, responsabilità degli sviluppatori e rapporto tra legge federale e leggi statali. Mentre la Casa Bianca lancia un framework più leggero e orientato a preemption federale, innovazione e AI dominance. Partita interessante anche per noi in Europa, vediamo perché

Pubblicato il 23 mar 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor

Alessandro Longo

Direttore agendadigitale.eu



regole usa intelligenza artificiale
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Grandi manovre negli Usa per una normativa sull’intelligenza artificiale, dopo anni di attendismo.

La senatrice Blackburn il 18 marzo ha presentato un discussion draft ambizioso e controverso che ridisegna copyright, responsabilità degli sviluppatori e rapporto tra legge federale e leggi statali.

Ma due giorni dopo la Casa Bianca mette sul tavolo un framework diverso, più leggero e più esplicitamente orientato a preemption federale, innovazione e AI dominance. La National Policy sull’AI americana.

Regole USA per l’intelligenza artificiale

Negli Stati Uniti l’intelligenza artificiale ha finora vissuto in un vuoto normativo federale, coperto a rattoppi da leggi statali spesso tra loro incompatibili.

La bozza di Marsha Blackburn (Tennessee) potrebbe cambiare questa situazione in modo radicale. Si chiama TRUMP AMERICA AI Act, acronimo costruito ad arte, e conta quasi 300 pagine. Si tratta del primo tentativo organico di tradurre in norma la spinta impressa dall’ordine esecutivo della Casa Bianca dell’11 dicembre 2025 su una cornice nazionale per l’AI.

Di contro il National AI Legislative Framework di Trump, cioè un pacchetto di raccomandazioni legislative, insiste pure sulla necessità di superare il patchwork delle leggi statali, ma lo fa con una linea più programmatica e meno punitiva su alcuni nodi centrali, a partire da fair use, preemption e architettura regolatoria.

Per questo motivo, più che una sola linea federale americana sull’AI, oggi si vedono già due binari: uno senatoriale, dettagliato e prescrittivo; uno presidenziale, più leggero e pro-innovazione.

Va detto subito: siamo all’inizio di un percorso politico e parlamentare lungo e imprevedibile. La bozza Blackburn è dichiaratamente negoziale e il framework della Casa Bianca è a sua volta un testo di indirizzo che chiede al Congresso di trasformarne i principi in legge. I due documenti convergono sull’idea di una cornice federale unica, ma divergono già in modo netto su cosa debba essere vietato, su cosa debba restare affidato ai tribunali e su quanto spazio debbano conservare gli Stati.

Come il Trump America AI Act punta a un quadro federale unico

L’obiettivo dichiarato della bozza Blackburn è sostituire il patchwork di regolazioni statali, dalla California al Colorado, con un quadro normativo federale unico. La preemption, cioè la prevalenza della legge federale su quelle statali, è uno dei pilastri architetturali del testo. Chi opera nell’AI saprebbe finalmente a quale sistema di regole conformarsi, almeno sul territorio americano.

La retorica geopolitica è esplicita: la legge serve ad assicurare che l’America vinca la corsa globale all’AI e a contrastare gli avversari stranieri. Un framing che suona familiare a chi segue il dibattito europeo sulla sovranità digitale, ma con una declinazione molto diversa: dove l’Europa punta soprattutto sulla regolazione dei rischi, la linea americana emersa a Washington mette al centro competitività, sicurezza nazionale e rapidità di dispiegamento industriale.

Il Framework della Casa Bianca

Su questo punto, però, il framework della Casa Bianca aggiunge una precisazione importante che nel dibattito conta moltissimo. La preemption federale invocata il 20 marzo non è descritta come un azzeramento totale delle competenze statali: il documento dice che il Congresso dovrebbe preemptare le leggi statali sull’AI che impongono oneri indebiti, ma non dovrebbe toccare i poteri generali degli Stati su protezione dei minori, frode, tutela dei consumatori, zoning per l’infrastruttura e regole sul proprio uso pubblico dell’AI, per esempio in law enforcement o istruzione. È una distinzione decisiva, perché restringe il campo della preemption rispetto all’idea più aggressiva di “un solo rulebook e basta”.

Il framework della Casa Bianca aggiunge anche un altro punto politico non secondario: gli Stati, secondo Washington, non dovrebbero poter regolare direttamente lo sviluppo dell’AI, gravare in modo eccessivo sugli usi leciti dell’AI o penalizzare gli sviluppatori per la condotta illecita di terzi che usano i loro modelli. È una formulazione che segnala un orientamento più protettivo verso i provider e più diffidente verso le legislazioni statali troppo invasive.

I sei obiettivi del framework della Casa Bianca

Il testo della Casa Bianca non si limita a ribadire l’idea di una cornice federale unica. Elenca anche sei obiettivi politici che servono a capire dove l’amministrazione vuole portare il dibattito: proteggere i minori e rafforzare i genitori, safeguard and strengthen American communities, rispettare la proprietà intellettuale sostenendo i creatori, prevenire la censura e proteggere il free speech, abilitare l’innovazione e la dominanza americana nell’AI, sviluppare una workforce AI-ready. È una mappa più ampia di quella che emerge leggendo solo i capitoli più controversi del draft Blackburn.

Dentro questa griglia politica entrano temi che nel testo centrato solo sulla bozza Blackburn restavano più laterali: il costo energetico dei data center, l’idea che i ratepayers non debbano pagarne il conto, la richiesta di streamlined permitting per consentire ai data center di generare energia in loco, la lotta alle AI-enabled scams, la formazione professionale e l’integrazione dell’AI nei programmi educativi e negli strumenti di skills training. Sono elementi che spostano il baricentro del dibattito: non solo responsabilità e copyright, ma anche infrastruttura, lavoro e politica industriale.

Il fair use nel Trump America AI Act e il nodo del training

Il punto più dirompente dell’intero draft Blackburn è probabilmente questo: il training di modelli di AI su opere protette da copyright senza autorizzazione dei titolari non costituirebbe fair use ai sensi del Copyright Act americano. Nel testo, la riproduzione, copia o elaborazione computazionale non autorizzata di opere coperte da copyright ai fini di training, fine-tuning, sviluppo o creazione di sistemi di AI “shall not constitute fair use”. È una formulazione diretta, molto più netta del linguaggio prudente fin qui usato in gran parte del dibattito pubblico e giudiziario.

Oggi la quasi totalità dei grandi modelli linguistici e generativi è stata addestrata su enormi corpus di testi, immagini e altri contenuti, spesso protetti, facendo leva proprio sulla difesa del fair use o comunque sull’assenza di una proibizione legislativa esplicita. Se la norma passasse nella forma attuale, l’intera industria dell’AI dovrebbe rinegoziare i propri rapporti con editori, autori, case discografiche e titolari di diritti visivi, con ogni probabilità attraverso schemi di licenza, negoziazione collettiva o accordi settoriali molto più estesi di quelli visti finora. Questa è la parte della bozza che più direttamente prova a cambiare le fondamenta economiche del training generativo.

La bozza va anche oltre. Prevede strumenti specifici per aumentare la trasparenza e la tracciabilità dei dati e include un titolo dedicato ai subpoena for copies or records relating to artificial intelligence models, cioè alla possibilità per i titolari di diritti di ottenere documentazione utile a verificare se e come i propri contenuti siano entrati nei processi di training. Accanto a questo, il testo contiene obblighi e divieti sulla content provenance information, pensati per rendere più riconoscibile l’origine o la modifica sintetica dei contenuti.

La frattura con la Casa Bianca sul copyright

È qui che la divergenza con la Casa Bianca diventa più visibile. Nel framework del 20 marzo, l’amministrazione afferma che il training dei modelli su materiale protetto non viola il copyright, riconosce che esistono argomenti contrari e dice che il Congresso non dovrebbe adottare misure che interferiscano con la risoluzione giudiziaria della questione, compreso il punto se quel training costituisca fair use. In altre parole, il documento della Casa Bianca sceglie di non chiudere per legge la disputa nel modo in cui prova a farlo Blackburn.

La Casa Bianca apre semmai a una strada diversa: invita il Congresso a considerare licensing frameworks o sistemi di negoziazione collettiva dei diritti che permettano ai titolari di diritti di ottenere compensi dai provider di AI, ma aggiunge anche che un’eventuale legge non dovrebbe stabilire quando o se tale licensing sia richiesto. È una formulazione più flessibile, che tutela la possibilità di accordi economici senza blindare in anticipo una soluzione legislativa radicale contro il training.

Section 230 e responsabilità nel Trump America AI Act

La bozza Blackburn prevede l’abolizione della Section 230 per le piattaforme AI attraverso un vero e proprio Sunset Section 230 Act. Già dal sommario del draft compare infatti un titolo ad hoc dedicato al repeal della section 230 del Communications Act del 1934. È uno dei segnali più forti del fatto che il testo senatoriale non vuole limitarsi a qualche ritocco: punta a riscrivere le immunità legali su cui si è retta per anni l’economia delle piattaforme.

In parallelo, il draft introduce un duty of care esplicito sugli sviluppatori e apre un impianto di responsabilità molto più esteso per i danni arrecati a imprese e consumatori. Il testo, già nell’indice, costruisce un’architettura che lega obblighi di diligenza, cause federali di azione e limiti alle clausole contrattuali che attenuano la responsabilità. Non si tratta solo di un principio simbolico: significa spostare l’AI verso una logica più simile a quella della product liability.

Le implicazioni sono rilevanti: un’azienda che sviluppa un modello potrebbe essere chiamata a rispondere in sede civile per danni causati dal suo sistema, analogamente a quanto accade per altri prodotti di consumo o servizi ad alto impatto. È un cambio di paradigma che, se approvato, farebbe uscire definitivamente l’AI dal cono protettivo di eccezioni e immunità ampie invocate finora da molte piattaforme.

Anche qui la linea della Casa Bianca è più leggera

Nel framework pubblicato il 20 marzo, però, la Casa Bianca non sposa apertamente né il sunset della Section 230 né un’espansione generalizzata della responsabilità civile come quella che si intravede nel draft Blackburn. Il documento insiste soprattutto su free speech, tutela contro la coercizione governativa sui provider, sandboxes regolatorie, accesso ai dataset federali e rifiuto di creare un nuovo organismo federale di rulemaking dedicato all’AI. In questo senso, la linea presidenziale appare sensibilmente più “light touch” di quella senatoriale.

Altre misure previste dalla bozza Blackburn

Oltre ai tre temi principali, la bozza Blackburn contiene una serie di disposizioni che vale la pena segnalare. Prevede l’obbligo per certe aziende e agenzie federali di inviare periodicamente al Dipartimento del Lavoro report sugli effetti occupazionali dell’AI. Inserisce capitoli sulla protezione dei minori, sulla trasparenza delle piattaforme, sui deepfake, sulla sicurezza e sulla ricerca. E costruisce un impianto che prova a tenere insieme tutela dei bambini, diritti dei creatori, lotta alla censura, competitività e sicurezza nazionale.

Etichettatura, deepfake e standard tecnici

Il draft istituzionalizza il ruolo del NIST nel definire standard tecnici e prevede la creazione di un Center for Artificial Intelligence Standards and Innovation, con una missione di supporto allo sviluppo di best practice volontarie e strumenti di valutazione robusti per il settore privato e le agenzie. È una parte importante del testo, perché mostra che anche la bozza più dura sul piano della responsabilità mantiene una forte componente di standardizzazione tecnica e capacity building.

La bozza include inoltre strumenti per proteggere voce e immagine delle persone, capitoli dedicati ai deepfake e meccanismi di content provenance e watermarking pensati per rendere più trasparente la natura sintetica o modificata dei contenuti. Qui il terreno comune con la Casa Bianca è più ampio: anche il framework del 20 marzo chiede un quadro federale per proteggere gli individui dall’uso non autorizzato di repliche digitali di voce, sembianze o altri attributi identificabili, pur insistendo sul fatto che tale protezione non debba soffocare satira, parodia, cronaca e altre forme di espressione coperte dal Primo Emendamento.

Cosa aggiunge il framework della Casa Bianca su innovazione, energia e lavoro

Se il draft Blackburn è più ricco di divieti, obblighi e titoli normativi, il framework della Casa Bianca allarga invece il campo su tre assi politici che meritano di entrare stabilmente nell’articolo. Il primo è l’innovazione: Washington chiede regulatory sandboxes, accesso ai federal datasets in formati AI-ready e il rifiuto di un nuovo super-regolatore federale dell’AI. Il secondo è l’energia: la Casa Bianca collega lo sviluppo dell’AI ai data center, alla rete elettrica e ai permessi per la generazione on site. Il terzo è il lavoro: il documento insiste su formazione, apprendistato, studio del task-level workforce realignment e rafforzamento delle istituzioni che possono accompagnare la transizione.

Questi tre assi non cancellano i punti già presenti nella bozza Blackburn, ma ne cambiano il contesto. Il dibattito federale statunitense sull’AI non riguarda più soltanto chi paga il copyright o chi risponde in giudizio per un danno: riguarda anche chi costruirà l’infrastruttura, chi sosterrà il costo energetico, chi controllerà l’accesso ai dati, chi formerà la forza lavoro e quanta libertà regolatoria resterà agli Stati. È questo allargamento del campo che rende il framework del 20 marzo troppo importante per essere trattato come una nota a margine.

Perché questa partita va seguita anche in Europa

Il framework della Casa Bianca non è ancora un testo legislativo compiuto. Eppure i principi che contengono, e soprattutto le divergenze che mostrano già oggi, dicono qualcosa di importante sul modo in cui la prima economia mondiale sta cercando di governare l’AI.

I modelli che utilizziamo in Europa sono in gran parte americani. Le regole che Washington sceglierà di applicare, su copyright, responsabilità, trasparenza, preemption, dataset pubblici, data center e standard tecnici, avranno ricadute dirette sui servizi che usiamo già oggi e su quelli che arriveranno nei prossimi anni. La corsa alla regolazione non è solo una questione interna agli Stati Uniti: è uno dei terreni su cui si gioca la governance globale dell’intelligenza artificiale.

La conclusione è che tra il 18 e il 20 marzo 2026 Washington ha messo in campo due impostazioni federali: una più dura, legislativa e sanzionatoria, incarnata dal draft Blackburn; una più programmatica, competitiva e selettivamente deregolatoria, espressa dalla Casa Bianca. Se nascerà una legge federale vera, molto probabilmente nascerà dalla tensione tra questi due testi. Partita interessante e non scontata, anche alla luce delle elezioni mid term sempre più in vista, e la crescita degli oppositori di Trump, dentro e fuori il partito repubblicano.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x