La recente approvazione in California del Transparency in Frontier Artificial Intelligence Act (SB 53), firmato dal governatore Gavin Newsom il 29 settembre 2025 e che entrerà in vigore il primo gennaio 2026, rappresenta un vero punto di svolta nella regolamentazione dell’intelligenza artificiale negli Stati Uniti.
Indice degli argomenti
La legge californiana SB53 e il criterio della potenza computazionale
Per la prima volta, infatti, la legge sposta l’attenzione dalla semplice gestione degli usi dell’IA alla disciplina dell’intero processo di sviluppo dei modelli più potenti, detti “di frontiera”, poiché la norma introduce un nuovo modo di intendere il diritto tecnologico collegando la quantità di potenza di calcolo impiegata per addestrare un modello (più di 10^26 operazioni matematiche) al suo livello di rischio potenziale e dunque alla necessità di un controllo pubblico.
In questo modo, la California introduce un vero e proprio “diritto della potenza computazionale” che obbliga le grandi aziende dell’intelligenza artificiale – quelle con ricavi superiori a 500 milioni di dollari l’anno – a rispettare regole rigorose di trasparenza, sicurezza e gestione del rischio e creare un quadro aziendale dedicato alla sicurezza dell’IA che descriva nel dettaglio come vengono individuati, prevenuti e monitorati i possibili rischi più gravi.
Le imprese, pertanto, dovranno aggiornare periodicamente queste analisi, proteggere i pesi dei modelli (cioè i dati che ne determinano il funzionamento) come risorse strategiche, garantire canali riservati per gli informatori interni e segnalare immediatamente eventuali incidenti critici all’Ufficio dei Servizi di Emergenza della California, soprattutto se vi sono pericoli immediati per la sicurezza o la vita delle persone: tutti questi adempimenti non sono, tuttavia, pensati come meri obblighi burocratici, ma come parte di una nuova cultura della responsabilità che considera la trasparenza un elemento essenziale della sicurezza.
Sanzioni, whistleblower e un modello normativo flessibile
A rafforzare, inoltre, questa impostazione, vi è la previsione secondo cui possono essere comminate sanzioni fino a un milione di dollari per ogni violazione, riconoscendo agli informatori il diritto di agire in giudizio e imponendo al California Department of Technology di riesaminare ogni anno le definizioni e i criteri applicativi per mantenerli aggiornati ai progressi tecnologici. Si tratta, in sostanza, di un modello di normativa flessibile e adattiva, capace di evolversi con la tecnologia, in linea con l’approccio seguito anche dall’AI Act europeo che affida a standard tecnici e atti di esecuzione l’aggiornamento continuo delle regole.
L’ecosistema normativo californiano: un mosaico coerente
Ed è proprio in questa tessitura che l’istituzione di CalCompute dentro la Government Operations Agency, con il mandato di proporre entro il 1° gennaio 2027 una relazione sulle opzioni infrastrutturali e i criteri di accesso, inserisce un vettore “repubblicano” nell’economia politica dell’IA, mirando a ridurre le asimmetrie di potere computazionale tra grandi laboratori e attori pubblici o accademici e delineando un embrione di sovranità tecnologica substatale di cui l’Europa, nella propria retorica di autonomia strategica, non potrà non tenere conto.
Sullo sfondo, l’ecologia normativa californiana si arricchisce infatti di provvedimenti collaterali che, seppur eterogenei, compongono un mosaico coerente:
- l’AB 853 dilaziona al 2 agosto 2026 l’AI Transparency Act e ne affina gli obblighi di provenance e di disclosure per piattaforme e produttori di dispositivi,
- l’SB 243 interviene sui companion chatbots con vincoli di avviso, protezione dei minori e protocolli di prevenzione dell’autolesionismo,
- l’AB 325 colpisce gli algoritmi di pricing collusivi come forma antitrust algoritmica,
- mentre l’SB 361 rafforza il perimetro privacy-CPRA anche rispetto ai flussi di dati verso sviluppatori di modelli generativi;
- persino il recente SB 642, pur orbitando su trasparenza retributiva ed equal pay, testimonia una tensione a rimettere ordine nei mercati dell’informazione e degli incentivi, consapevole che l’IA opera entro sistemi socioeconomici in cui la trasparenza è condizione di concorrenza non falsata.
Nel loro insieme, perciò, tali interventi prefigurano una forma di “regolazione per piattaforme di rischio” in cui il legislatore statale, in assenza di un quadro federale unitario, usa categorie di diritto amministrativo sostanziale e tutela del consumatore per comprimere le esternalità negative dell’innovazione, sapendo che la Dormant Commerce Clause e il rischio di preemption federale restano latenti ma non immediatamente paralizzanti fintanto che le misure siano calibrate su condotte intrastatali o su provider con stabilimento e mercato in California.
California vs Europa: potenza di calcolo contro tassonomia del rischio
Il confronto con l’Europa e con l’AI Act risulta, in questo contesto, estremamente istruttivo. L’Unione europea ha scelto di costruire un quadro regolatorio fondato su una tassonomia del rischio, distinguendo i sistemi di intelligenza artificiale in base al loro potenziale impatto sui diritti fondamentali e sull’ordine democratico: sistemi a rischio minimo, limitato, alto o inaccettabile. La California, invece, imbocca un sentiero diverso ma non opposto: adotta un criterio “a soglia”, in cui la potenza di calcolo impiegata per addestrare un modello diventa l’elemento determinante per stabilire l’obbligo di controllo pubblico. Laddove l’Europa guarda ai rischi dell’uso, la California guarda alla potenza del mezzo.
Due filosofie, un obiettivo comune: la trasparenza strutturale
Due approcci, dunque, che nascono da filosofie giuridiche diverse: l’uno antropocentrico, attento alle conseguenze sui diritti e sulla società; l’altro tecnocentrico, fondato sull’idea che la scala computazionale sia essa stessa un fattore di rischio, eppure, al di là delle differenze metodologiche, entrambi i modelli esprimono un bisogno comune: quello di restituire trasparenza e tracciabilità a un ecosistema tecnologico che, per natura, tende all’opacità.
Da questa prospettiva, il punto di contatto più interessante non è tanto tecnico quanto filosofico: sia l’AI Act sia la SB 53 assumono che la trasparenza non sia più un valore reputazionale, ma una condizione strutturale di legittimità, infatti, rendere visibili le scelte di design, i rischi calcolati, gli incidenti segnalati e le misure di mitigazione significa trasformare l’intelligenza artificiale da oggetto tecnico a oggetto giuridico riconoscibile, e dunque responsabile.
L’Europa e la California, in fondo, rappresentano due laboratori normativi che stanno tentando di dare forma a un diritto dell’IA capace di apprendere, di aggiornarsi, di adattarsi. Ma se in Europa la struttura regolatoria rischia di irrigidirsi in una macchina complessa e lenta, la California sembra muoversi in modo più sperimentale, quasi “biologico”: prevede revisioni annuali, adatta le definizioni, accetta che la norma sia un organismo vivente che evolve insieme alla tecnologia e qui si apre una riflessione più profonda: può il diritto rimanere stabile in un mondo instabile? O, al contrario, deve imparare a muoversi con la stessa velocità dei sistemi che pretende di disciplinare?
Limiti del criterio computazionale e responsabilità umana
E ancora: la scelta californiana di usare la potenza di calcolo come parametro legale è al tempo stesso elegante e fragile: elegante, perché lega il diritto alla misura fisica dell’innovazione; fragile, perché il rischio non sempre cresce con la potenza. Alcuni modelli più piccoli, più efficienti o addestrati su dati specifici possono generare effetti devastanti con un consumo di calcolo molto inferiore.
Sembra quindi un monito anche per l’Europa: nessuna formula normativa può sostituire il giudizio umano, la valutazione concreta del contesto, la responsabilità di chi progetta.
Oltre le regole: costruire una società consapevole
Ecco perché il dialogo tra i due modelli, quello europeo e quello californiano, non dovrebbe ridursi a un confronto di regole, ma trasformarsi in una riflessione condivisa sulla natura della responsabilità nel tempo dell’intelligenza artificiale.
Forse la domanda da porsi non è più solo “come regoliamo l’IA?”, ma “quale tipo di società vogliamo costruire attorno all’IA?”. Una società che teme la tecnologia e la imbriglia, o una che la comprende e la orienta, rendendo la compliance non una zavorra ma una forma di consapevolezza collettiva.
Manifesti politici di una nuova era giuridica
In ultima analisi, la SB 53 non è solo una legge sulla trasparenza dei modelli, e l’AI Act non è solo una legge sui rischi: entrambe sono manifesti politici di una nuova era giuridica, in cui la legittimità del potere tecnologico passa per la sua capacità di rendersi visibile, comprensibile e discutibile.
L’IA non è più un mistero tecnico da ammirare, ma un processo sociale da governare, e la trasparenza – intesa come dovere di rendere conto – diventa il linguaggio comune tra democrazie diverse che cercano di sopravvivere all’opacità delle proprie creature digitali.











