approfondimento

AI negli Usa, perché lo scontro tra deregulation federale e leggi statali interessa l’UE



Indirizzo copiato

Negli Stati Uniti la deregolamentazione federale dell’intelligenza artificiale convive con un’esplosione di leggi statali. Ne nasce un laboratorio regolatorio che mette in luce un nodo cruciale anche per l’Europa: senza dati solidi su costi e benefici, governare l’AI diventa più difficile

Pubblicato il 17 apr 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



AI lavoro impatti; autonomous system
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il quadro d’insieme dell’AI Index 2026 di HAI Stanford include un capitolo che merita un’analisi accurata: si tratta dello scontro tra deregolamentazione federale e iperattività legislativa degli stati americani sull’intelligenza artificiale. Un conflitto che riguarda anche noi, perché mette a nudo un problema che l’Europa condivide. Come si regola una tecnologia che non conosce confini territoriali, quando mancano i dati per misurarne i costi e i benefici?

Il paradosso americano

Il punto di partenza è un paradosso. Nel 2025, il governo federale degli Stati Uniti ha intrapreso una svolta netta verso la deregolamentazione dell’intelligenza artificiale. Nello stesso anno, le legislature dei singoli stati hanno approvato un numero record di leggi sull’AI: 150, contro meno di 10 nel 2020. Il ritmo sta accelerando, secondo un’analisi del team policy di Andreessen Horowitz a marzo 2026 i legislatori di 45 stati avevano già presentato oltre 1.500 proposte di legge, superando il totale dell’intero 2025. Probabilmente il più grande esperimento di federalismo regolatorio mai applicato a una tecnologia emergente.

La sequenza federale nella regolazione dell’intelligenza artificiale

Per capire la tensione in corso bisogna ricostruire la sequenza. Il 23 gennaio 2025, l’amministrazione Trump ha firmato l’executive order “Removing Barriers to American Leadership in AI”, revocando il precedente ordine di Biden (EO 14110) che aveva istituito un quadro di garanzie articolato: obblighi di reporting per i modelli avanzati, linee guida sul watermarking dei contenuti generati da AI, interventi su privacy, diritti civili e impatto occupazionale. La nuova politica federale è stata riorientata verso un unico obiettivo, ridurre i vincoli per accelerare l’innovazione.

A luglio, il Senato ha bloccato una proposta di moratoria decennale sulla regolazione statale dell’AI, inserita in uno spending bill. Gli stati sono rimasti liberi di legiferare. Nello stesso mese, la Casa Bianca ha lanciato l’America’s AI Action Plan, accompagnato da tre executive order su data center, esportazione di tecnologie e procurement pubblico, e a novembre la Genesis Mission, un programma di accelerazione scientifica tramite AI paragonato al Progetto Manhattan.

A dicembre è arrivato il colpo più significativo. L’executive order “Ensuring a National Policy Framework for Artificial Intelligence” ha ordinato al Dipartimento di Giustizia di istituire una AI Litigation Task Force con il compito esplicito di impugnare le leggi statali in tribunale. Ha incaricato il Dipartimento del Commercio di identificare le norme statali considerate eccessivamente gravose, ha legato parte dei fondi federali alla disponibilità degli stati di non approvare legislazione AI conflittuale con l’indirizzo della Casa Bianca. L’ordine ha ritagliato solo tre aree in cui la competenza statale resta espressamente ammessa: sicurezza dei minori, infrastrutture per data center e procurement pubblico statale.

Sul piano internazionale, la traiettoria è coerente. Al Paris AI Action Summit del febbraio 2025, gli Stati Uniti e il Regno Unito hanno rifiutato di firmare la dichiarazione congiunta su un’AI inclusiva e sostenibile, sottoscritta da 64 partecipanti, tra cui l’Unione Europea e la Commissione dell’Unione Africana. Come osserva il report Stanford, solo cinque paesi, Canada, Francia, Germania, Italia e Giappone, hanno aderito a tutte le principali iniziative internazionali di governance dell’AI dal 2019 al 2025. La scelta statunitense segnala una divergenza non tattica ma strategica.

I fronti della regolazione dell’intelligenza artificiale negli stati

La risposta degli stati non è un blocco monolitico. L’AI Index 2026 consente di identificare almeno cinque filoni distinti, ciascuno con un profilo regolatorio diverso.

Discriminazione algoritmica e applicazione difficile

Anti-discriminazione algoritmica. Il Colorado è stato il primo stato a disciplinare la discriminazione algoritmica nelle decisioni relative ad assunzioni, accesso al credito immobiliare e trattamenti sanitari, con il Colorado Artificial Intelligence Act firmato nel maggio 2024. Ma nel 2025 lo stato ha dovuto posticipare le date di compliance a metà 2026 perché l’implementazione si è rivelata impraticabile nei tempi previsti. Stanford lo definisce un caso di studio di quanto sia difficile rendere operativa una regolazione ambiziosa. Un precedente che dovrebbe far riflettere anche chi, in Europa, dà per scontata l’applicabilità dell’AI Act nei tempi previsti.

Sicurezza dei modelli e obblighi di trasparenza

Sicurezza e trasparenza dei modelli. La California, con la SB 53 firmata a settembre 2025, ha introdotto l’obbligo per gli sviluppatori di modelli di grandi dimensioni di pubblicare protocolli di sicurezza, rapporti sugli incidenti e di tutelare i whistleblower. Un report commissionato dal governatore Newsom, pubblicato a giugno 2025, presenta questo quadro normativo come un possibile modello nazionale in assenza di una legge federale. Con 62 leggi AI approvate tra il 2016 e il 2025, la California è di gran lunga lo stato più attivo.

Chatbot, consumatori e tutela dei minori

Chatbot e protezione dei consumatori. Lo Utah (HB 452, marzo 2025) ha regolato i chatbot per la salute mentale: obbligo di dichiarare la natura AI dell’interlocutore, divieto di vendere o condividere dati sanitari personali, divieto di pubblicità all’interno delle conversazioni. La California (SB 243, effettiva da gennaio 2026) ha imposto agli operatori di companion chatbot di rivelare la natura AI, implementare protocolli sulla ideazione suicidaria e adottare protezioni specifiche per i minori. Hawaii e Massachusetts hanno proposto di trattare le interazioni chatbot non dichiarate come pratiche commerciali sleali e ingannevoli.

Watermarking, provenance e contenuti generativi

Watermarking e provenance. Lo stato di Washington (HB 1170) ha introdotto l’obbligo di includere dati di provenance nei contenuti generati o alterati da AI. Illinois e Florida hanno avanzato proposte simili, sulla scia della California AI Transparency Act (SB 942) che impone agli strumenti generativi di offrire gratuitamente strumenti di watermarking e rilevamento.

Innovazione, calcolo e limiti alle restrizioni

Pro-innovazione e right to compute. Non tutti gli stati si sono mossi verso una maggiore regolazione. Il Montana (SB 212, aprile 2025) ha istituito il primo diritto al calcolo statale, affermando il diritto di individui e imprese di possedere e utilizzare risorse computazionali, inclusi gli strumenti AI, per qualsiasi scopo lecito. Le restrizioni governative sono ammesse solo se dimostrabilmente necessarie e strettamente calibrate. Anche il Montana, però, ha previsto l’obbligo di mantenere politiche di gestione del rischio con capacità di intervento umano per le infrastrutture critiche controllate da AI.

Un caso istruttivo è il Texas. Il Responsible Artificial Intelligence Governance Act (HB 149, approvato nel 2025, effettivo dal gennaio 2026) era stato presentato come la legislazione AI più ambiziosa mai proposta da uno stato. Nella versione finale, gran parte degli obblighi per il settore privato è stata eliminata, sono rimasti solo i divieti sulla manipolazione comportamentale e sulla produzione di materiale di abuso sessuale su minori. La distanza tra ambizione dichiarata e legge effettiva è un indicatore significativo della pressione delle lobby tecnologiche.

Quando la regolazione dell’intelligenza artificiale passa ai tribunali

Fino a poco tempo fa, la tensione tra livello federale e statale restava una questione politica. Ora è diventata giudiziaria con il primo caso concreto: xAI, la società di Elon Musk, ha fatto causa allo stato del Colorado contestando la legittimità costituzionale del suo AI Act, in parte sulla base della cosiddetta dormant Commerce Clause.

Si tratta di un principio costituzionale che limita il potere degli stati di approvare leggi che gravano sul commercio interstatale. Il test giuridico di riferimento risale a una sentenza del 1970, Pike v. Bruce Church, un tribunale deve valutare se l’onere imposto da una legge statale al commercio tra stati è chiaramente eccessivo in rapporto ai benefici locali attesi. In sostanza si tratta di un’analisi costi-benefici.

Il problema è che i giudici non dispongono quasi mai dei dati per condurla. La dottrina esige una valutazione empirica, ma non fornisce né metodologia né strumenti. Pike stessa, la sentenza fondativa, definì il requisito statale una camicia di forza e l’interesse regolatorio minimo, senza offrire alcun criterio per quantificare oneri, misurare benefici o confrontare i due.

Il problema si aggrava nel caso dell’AI per almeno due ragioni. La prima è l’extraterritorialità, una legge approvata in California può imporre obblighi a sviluppatori open-source che operano in altri stati, anche se non intendevano offrire i propri prodotti in California. La seconda è la frammentazione, con 50 regimi potenzialmente diversi, il costo di compliance grava in modo asimmetrico. Le grandi piattaforme hanno risorse per navigare un labirinto regolatorio, le startup no. Il patchwork statale favorisce strutturalmente chi ha più risorse legali e operative.

L’executive order di dicembre 2025 non è estraneo a questo quadro. La task force del Dipartimento di Giustizia e il mandato al Dipartimento del Commercio di identificare leggi statali gravose hanno lo scopo dichiarato di costruire il dossier probatorio necessario a impugnarle. La Casa Bianca sta costruendo le munizioni giudiziarie per una strategia che non passa dal Congresso, ma dai tribunali.

Chi guida davvero la regolazione dell’intelligenza artificiale

C’è un dato del report Stanford che è essenziale per comprendere la dinamica in atto. I testimoni nelle audizioni congressuali sull’AI sono passati da 5 nel 2017 a 102 nel 2025. La composizione è cambiata radicalmente. L’industria è passata dal 13% al 37% dei testimoni, diventando il primo gruppo. Il governo federale è sceso dal 35% al 10%. L’accademia dal 26% al 15%. La società civile e le organizzazioni non profit sono salite dal 26% al 38%, ma questo dato va letto con cautela, sotto questa etichetta rientrano anche think tank finanziati dall’industria.

Il settore che produce la tecnologia è diventato la voce dominante nel processo che decide come regolarla. Parallelamente, le regolamentazioni federali sull’AI sono salite da 1 nel 2016 a 58 nel 2025, ma l’Executive Office del Presidente è il primo emittente, 28 azioni nel solo 2025. La regolazione passa sempre più per decreto presidenziale e sempre meno per legislazione congressuale.

Lo specchio europeo della regolazione dell’intelligenza artificiale

Questo laboratorio americano, imperfetto e litigioso, parla direttamente al contesto europeo. Il problema di fondo è identico, regolare una tecnologia che supera i confini giurisdizionali. In America il conflitto è tra stati e governo federale. In Europa è tra stati membri e Bruxelles, con il layer aggiuntivo dell’AI Act. Se negli Stati Uniti l’assenza di una legge federale produce frammentazione normativa, in Europa il rischio speculare è di un’implementazione disomogenea di un regolamento formalmente unitario.

Il caso del Colorado è il monito più diretto. Una legislazione ambiziosa, approvata come modello, che nel giro di un anno si rivela inapplicabile nei tempi previsti e deve rinviare la compliance. L’AI Act europeo, che prevede obblighi di AI literacy dal febbraio 2025, regole sui general-purpose AI models dall’agosto 2025 e applicazione generale dall’agosto 2026, è sotto pressione per un analogo rinvio. Avere una legge non equivale a renderla immediatamente applicabile.

Il vuoto probatorio per i tribunali americani è lo stesso che affligge la compliance europea. Come si classifica il livello di rischio di un sistema AI? Con quali dati? Chi li produce? Chi li certifica? La proposta di obbligare i legislatori a documentare costi e benefici attesi prima di approvare una legge, e a verificarli dopo, è una forma di disciplina procedurale che il processo legislativo europeo non prevede e di cui forse avrebbe bisogno.

C’è poi un dato di opinione pubblica che completa il quadro. Secondo l’indagine Ipsos riportata nel report Stanford, gli Stati Uniti registrano il livello più basso di fiducia nel proprio governo per la regolazione dell’AI tra tutti i paesi esaminati: appena il 31%. L’Italia è al 50%, sopra la media globale del 54% ma significativamente al di sotto dei paesi del Sud-Est asiatico (Singapore 81%, Indonesia 76%). In tutti e 50 gli stati americani, la preoccupazione che la regolazione federale non vada abbastanza lontano supera quella che vada troppo lontano (41% contro 27%), con un terzo degli intervistati che dichiara incertezza. L’UE, nel complesso, gode di una fiducia nella regolazione dell’AI superiore sia a quella degli Stati Uniti sia a quella della Cina: il 53% degli intervistati globali si fida dell’UE, contro il 37% per gli USA e il 27% per la Cina.

Questo consenso europeo è una risorsa preziosa, ma non illimitata. Come mostra la parabola americana, il modo in cui una regolazione viene applicata determina se la fiducia si consolida o si erode.

La lezione finale sulla regolazione dell’intelligenza artificiale

Il federalismo regolatorio americano sull’AI non è un problema solo americano. Un laboratorio costoso, contraddittorio, giudiziariamente incerto, di ciò che accade quando una tecnologia scala più velocemente delle istituzioni che dovrebbero governarla. L’Europa ha un vantaggio strutturale: un quadro normativo unitario. Ma la lezione che emerge dagli Stati Uniti è che la legge, da sola, non basta. Servono dati per misurare, istituzioni capaci di applicare concretamente le norme unitamente alla consapevolezza che chi produce la tecnologia non può essere anche la voce dominante nel processo che la regola.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x