il confronto

AI, la legge della California e le differenze con l’AI Act



Indirizzo copiato

La California introduce una legge che lega la potenza computazionale ai rischi dell’IA, segnando un cambio di paradigma rispetto all’approccio europeo dell’AI Act. Due modelli diversi, un obiettivo comune: rendere la trasparenza principio di responsabilità tecnologica

Pubblicato il 23 ott 2025

Federica Giaquinta

Consigliere direttivo di Internet Society Italia



tpu gpu

La recente approvazione in California del Transparency in Frontier Artificial Intelligence Act (SB 53), firmato dal governatore Gavin Newsom il 29 settembre 2025 e che entrerà in vigore il primo gennaio 2026, rappresenta un vero punto di svolta nella regolamentazione dell’intelligenza artificiale negli Stati Uniti.

La legge californiana SB53 e il criterio della potenza computazionale

Per la prima volta, infatti, la legge sposta l’attenzione dalla semplice gestione degli usi dell’IA alla disciplina dell’intero processo di sviluppo dei modelli più potenti, detti “di frontiera”, poiché la norma introduce un nuovo modo di intendere il diritto tecnologico collegando la quantità di potenza di calcolo impiegata per addestrare un modello (più di 10^26 operazioni matematiche) al suo livello di rischio potenziale e dunque alla necessità di un controllo pubblico.

In questo modo, la California introduce un vero e proprio “diritto della potenza computazionale” che obbliga le grandi aziende dell’intelligenza artificiale – quelle con ricavi superiori a 500 milioni di dollari l’anno – a rispettare regole rigorose di trasparenza, sicurezza e gestione del rischio e creare un quadro aziendale dedicato alla sicurezza dell’IA che descriva nel dettaglio come vengono individuati, prevenuti e monitorati i possibili rischi più gravi.

Le imprese, pertanto, dovranno aggiornare periodicamente queste analisi, proteggere i pesi dei modelli (cioè i dati che ne determinano il funzionamento) come risorse strategiche, garantire canali riservati per gli informatori interni e segnalare immediatamente eventuali incidenti critici all’Ufficio dei Servizi di Emergenza della California, soprattutto se vi sono pericoli immediati per la sicurezza o la vita delle persone: tutti questi adempimenti non sono, tuttavia, pensati come meri obblighi burocratici, ma come parte di una nuova cultura della responsabilità che considera la trasparenza un elemento essenziale della sicurezza.

Sanzioni, whistleblower e un modello normativo flessibile

A rafforzare, inoltre, questa impostazione, vi è la previsione secondo cui possono essere comminate sanzioni fino a un milione di dollari per ogni violazione, riconoscendo agli informatori il diritto di agire in giudizio e imponendo al California Department of Technology di riesaminare ogni anno le definizioni e i criteri applicativi per mantenerli aggiornati ai progressi tecnologici. Si tratta, in sostanza, di un modello di normativa flessibile e adattiva, capace di evolversi con la tecnologia, in linea con l’approccio seguito anche dall’AI Act europeo che affida a standard tecnici e atti di esecuzione l’aggiornamento continuo delle regole.

L’ecosistema normativo californiano: un mosaico coerente

Ed è proprio in questa tessitura che l’istituzione di CalCompute dentro la Government Operations Agency, con il mandato di proporre entro il 1° gennaio 2027 una relazione sulle opzioni infrastrutturali e i criteri di accesso, inserisce un vettore repubblicano” nelleconomia politica dellIA, mirando a ridurre le asimmetrie di potere computazionale tra grandi laboratori e attori pubblici o accademici e delineando un embrione di sovranità tecnologica substatale di cui l’Europa, nella propria retorica di autonomia strategica, non potrà non tenere conto.

Sullo sfondo, l’ecologia normativa californiana si arricchisce infatti di provvedimenti collaterali che, seppur eterogenei, compongono un mosaico coerente:

Nel loro insieme, perciò, tali interventi prefigurano una forma di “regolazione per piattaforme di rischio” in cui il legislatore statale, in assenza di un quadro federale unitario, usa categorie di diritto amministrativo sostanziale e tutela del consumatore per comprimere le esternalità negative dell’innovazione, sapendo che la Dormant Commerce Clause e il rischio di preemption federale restano latenti ma non immediatamente paralizzanti fintanto che le misure siano calibrate su condotte intrastatali o su provider con stabilimento e mercato in California.

California vs Europa: potenza di calcolo contro tassonomia del rischio

Il confronto con lEuropa e con lAI Act risulta, in questo contesto, estremamente istruttivo. LUnione europea ha scelto di costruire un quadro regolatorio fondato su una tassonomia del rischio, distinguendo i sistemi di intelligenza artificiale in base al loro potenziale impatto sui diritti fondamentali e sull’ordine democratico: sistemi a rischio minimo, limitato, alto o inaccettabile. La California, invece, imbocca un sentiero diverso ma non opposto: adotta un criterio a soglia”, in cui la potenza di calcolo impiegata per addestrare un modello diventa l’elemento determinante per stabilire l’obbligo di controllo pubblico. Laddove l’Europa guarda ai rischi delluso, la California guarda alla potenza del mezzo.

Due filosofie, un obiettivo comune: la trasparenza strutturale

Due approcci, dunque, che nascono da filosofie giuridiche diverse: l’uno antropocentrico, attento alle conseguenze sui diritti e sulla società; l’altro tecnocentrico, fondato sull’idea che la scala computazionale sia essa stessa un fattore di rischio, eppure, al di là delle differenze metodologiche, entrambi i modelli esprimono un bisogno comune: quello di restituire trasparenza e tracciabilità a un ecosistema tecnologico che, per natura, tende all’opacità.

Da questa prospettiva, il punto di contatto più interessante non è tanto tecnico quanto filosofico: sia l’AI Act sia la SB 53 assumono che la trasparenza non sia più un valore reputazionale, ma una condizione strutturale di legittimità, infatti, rendere visibili le scelte di design, i rischi calcolati, gli incidenti segnalati e le misure di mitigazione significa trasformare l’intelligenza artificiale da oggetto tecnico a oggetto giuridico riconoscibile, e dunque responsabile.

LEuropa e la California, in fondo, rappresentano due laboratori normativi che stanno tentando di dare forma a un diritto dellIA capace di apprendere, di aggiornarsi, di adattarsi. Ma se in Europa la struttura regolatoria rischia di irrigidirsi in una macchina complessa e lenta, la California sembra muoversi in modo più sperimentale, quasi “biologico”: prevede revisioni annuali, adatta le definizioni, accetta che la norma sia un organismo vivente che evolve insieme alla tecnologia e qui si apre una riflessione più profonda: può il diritto rimanere stabile in un mondo instabile? O, al contrario, deve imparare a muoversi con la stessa velocità dei sistemi che pretende di disciplinare?

Limiti del criterio computazionale e responsabilità umana

E ancora: la scelta californiana di usare la potenza di calcolo come parametro legale è al tempo stesso elegante e fragile: elegante, perché lega il diritto alla misura fisica dell’innovazione; fragile, perché il rischio non sempre cresce con la potenza. Alcuni modelli più piccoli, più efficienti o addestrati su dati specifici possono generare effetti devastanti con un consumo di calcolo molto inferiore.

Sembra quindi un monito anche per l’Europa: nessuna formula normativa può sostituire il giudizio umano, la valutazione concreta del contesto, la responsabilità di chi progetta.

Oltre le regole: costruire una società consapevole

Ecco perché il dialogo tra i due modelli, quello europeo e quello californiano, non dovrebbe ridursi a un confronto di regole, ma trasformarsi in una riflessione condivisa sulla natura della responsabilità nel tempo dell’intelligenza artificiale.

Forse la domanda da porsi non è più solo “come regoliamo l’IA?”, ma “quale tipo di società vogliamo costruire attorno allIA?”. Una società che teme la tecnologia e la imbriglia, o una che la comprende e la orienta, rendendo la compliance non una zavorra ma una forma di consapevolezza collettiva.

Manifesti politici di una nuova era giuridica

In ultima analisi, la SB 53 non è solo una legge sulla trasparenza dei modelli, e lAI Act non è solo una legge sui rischi: entrambe sono manifesti politici di una nuova era giuridica, in cui la legittimità del potere tecnologico passa per la sua capacità di rendersi visibile, comprensibile e discutibile.

L’IA non è più un mistero tecnico da ammirare, ma un processo sociale da governare, e la trasparenza – intesa come dovere di rendere conto – diventa il linguaggio comune tra democrazie diverse che cercano di sopravvivere all’opacità delle proprie creature digitali.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati