Il Senato degli Stati Uniti d’America sta attualmente discutendo il disegno di leggo S. 4674 – “Content Origin Protection and Integrity from Edited and Deepfaked Media Act of 2024” (noto come cd. “COPIED Act”), presentato lo scorso luglio 2024, al fine di introdurre specifiche norme dirette a garantire adeguati standard di trasparenza e sicurezza nella circolazione dei contenuti generati dai sistemi di intelligenza artificiale.
Ratio e obiettivi della normativa Copied Act
In particolare, la “ratio” sottesa all’introduzione di una simile disciplina va individuata nell’esigenza di colmare una lacuna normativa che, allo stato della regolamentazione vigente, impedisce di comprendere il corretto funzionamento dell’IA, a causa di un riscontrato gap conoscitivo, ostativo all’acquisizione di informazioni utili sul processo di addestramento e di implementazione algoritmica, “leggibili da una macchina, che documentano l’origine e la cronologia di un contenuto digitale” (cfr. Sezione 3, par. 4) , come in tal senso precisa, appunto, la Sezione 1, in combinato disposto con la successiva citata Sezione 3 del citato disegno di legge.
Pertanto, alla luce di un complessivo impatto negativo determinato sull’opinione pubblica e sulla società complessivamente considerata, si pone la necessità di un concreto intervento volto ad assicurare un efficace controllo sull’autenticità e integrità dei contenuti digitali manipolati, “generati o modificati algoritmicamente”, nell’ottica di tutelare la collettività degli utenti che ne fruiscono, nonché di salvaguardare il settore giornalistico, editoriale e artistico, anche per fronteggiare il rischio di possibili pratiche sleali suscettibili di alternare le dinamiche concorrenziali del mercato digitale.
Definizioni e terminologia del copied act
In primo luogo, giova evidenziare che, la Sezione 3 del disegno di legge S. 4674 enuclea un insieme di definizioni concettuali che, in via preliminare, vengono riportate per delimitare, sotto il profilo terminologico, l’ambito applicativo della nuova normativa configurabile mediante l’inquadramento giuridico delle relative fattispecie positivizzate.
Al riguardo, la nozione generale di intelligenza artificiale è ricostruita facendo riferimento al risalente comune significato ivi formalizzato nell’ambito della Sezione 5002 del National Artificial Intelligence Initiative Act del 2020 (cfr. 15 USC 9401), cui il COPIED Act espressamente rinvia, per includere nella portata operativa della nuova disciplina, in senso ampio e omnicomprensivo, qualsivoglia “sistema basato su macchine che può, per un dato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali. I sistemi di intelligenza artificiale utilizzano input basati su macchine e esseri umani per percepire ambienti reali e virtuali; astrarre tali percezioni in modelli tramite analisi in modo automatizzato; e utilizzare l’inferenza del modello per formulare opzioni per informazioni o azioni”.
Concetti di “blue-teaming” e “red-teaming”
Rispetto alla richiamata categoria di intelligenza artificiale, costituiscono ulteriori subspecies del genus individuato le specifiche locuzioni di “blue-teaming” e “read-teaming” dell’intelligenza artificiale.
In particolare, il primo concetto (“blue-teaming”) esprime “lo sforzo per condurre valutazioni della vulnerabilità operativa e fornire tecniche di mitigazione alle entità che hanno bisogno di una revisione tecnica indipendente della posizione di sicurezza di un sistema di intelligenza artificiale” (cfr. Sezione 3, par. 2); mentre il secondo termine (“red-teaming”) indica “gli sforzi di test avversari strutturati di un sistema di intelligenza artificiale per identificare rischi, difetti e vulnerabilità del sistema di intelligenza artificiale, come output dannosi del sistema, comportamenti imprevisti o indesiderati del sistema, limitazioni o potenziali rischi associati all’uso improprio del sistema” (cfr. Sezione 3, par. 3).
Definizione di deepfake e contenuti sintetici
Sulla falsariga dello stile qualificatorio notevolmente elastico utilizzato dalla tecnica normativa così adoperata, anche il concetto di “deepfake” è definito come fattispecie aperta, integrata dalla presenza di “contenuti sintetici o contenuti modificati sinteticamente” che possono sembrare autenticamente riferibili a una persona, creando una falsa comprensione e/o impressione (cfr. Sezione 3, par. 7).
Del medesimo tenore estensibile e flessibile risultano, inoltre, le peculiari categorie di “contenuto sintetico” e “contenuto sinteticamente modificato”.
Il primo termine (“contenuto sintetico”) ricorre quando “le informazioni, comprese le opere di autore umano quali immagini, video, clip audio e testo, sono state interamente generate da algoritmi, inclusa l’intelligenza artificiale” (cfr. Sezione 3, par. 9).
La seconda nozione (“contenuto sinteticamente modificato”) identifica “le informazioni, comprese le opere di autore umano quali immagini, video, clip audio e testo, che sono state significativamente modificate da algoritmi, inclusa l’intelligenza artificiale” (cfr. Sezione 3, par. 10).
Novità regolatorie e partenariati pubblico-privati
Entrando nel merito delle novità regolatorie introdotte dal COPIED Act, la Sezione 4 del disegno di legge S. 4674 prevede espressamente l’istituzione di un “partenariato pubblico-privato per facilitare lo sviluppo di standard riguardanti le tecnologie di informazione sulla provenienza dei contenuti e il rilevamento di contenuti sintetici e contenuti sinteticamente modificati”.
In altre parole, si evince nelle intenzioni legislative l’opportunità di ricorrere ad un necessario approccio “multistakeholder”, basato sulla cooperazione volontaria e sinergica tra istituzioni, imprese e società civile, per definire linee guida operative e buone pratiche consensuali in grado di identificare correttamente i contenuti sintetici modificati, nonché progettare sistemi sostenibili e affidabili di addestramento algoritmico, a presidio della sicurezza informatica, come bene fondamentale del Paese.
Coinvolgimento del National Institute of Standards and Technology
Per le medesime ragioni, in diretta collaborazione con il National Institute of Standards and Technology, la Sezione 5 del COPIED Act stabilisce la realizzazione di un generale programma di ricerca per orientare lo sviluppo progettuale dei sistemi di intelligenza artificiale verso il rispetto di adeguati standard di trasparenza, robustezza e integrità, nell’ottica di contrastare i rischi di manipolazione, compromissione e manomissione associati alla diffusione delle nuove tecnologie emergenti.
Educazione pubblica e campagne informative
Al fine di incrementare il livello di consapevolezza sulle implicazioni dell’IA, l’adeguamento del quadro normativo vigente presuppone un contestuale sforzo cognitivo, come indispensabile cambio di paradigma culturale, che consenta di rendere la collettività alfabeticamente digitale. Al riguardo, il COPIET Act dispone la tempestiva pianificazione e promozione (entro e non oltre 1 anno dalla data della sua promulgazione) di apposite campagne informative di educazione pubblica sui contenuti sintetici e sui deepfake.
Obblighi e vincoli del copied act
Passando all’esame degli stringenti vincoli imposti dal legislatore in materia, la Sezione 6 del COPIED Act prescrive una serie di adempimenti obbligatori a carico di “chiunque”, quando “per uno scopo commerciale, si metta a disposizione nel commercio interstatale uno strumento utilizzato per lo scopo principale di creare contenuto sintetico o contenuto sinteticamente modificato”.
Pertanto, qualora si operi indistintamente a qualunque titolo nell’esercizio di un’attività di impresa, trova applicazione il regime giuridico introdotto dal COPIED Act, la cui disciplina mira a fornire agli utenti chiare informazioni sulla provenienza, autenticità, natura e integrità dei contenuti generati dai sistemi di intelligenza artificiale, con l’ulteriore adozione di adeguate e ragionevoli misure di sicurezza in grado di salvaguardare i previsti interessi meritevoli di tutela rafforzata.
Sanzioni e divieti
Il carattere inderogabile delle disposizioni legislative, a presidio della collettività, è sancito dalla previsione esplicita di un divieto generale che preclude qualsivoglia tentativo di eliminazione delle informazioni sulla provenienza di contenuti sintetici, qualificando, infatti, come illecita per chiunque (fatte soltanto salve specifiche eccezioni tassativamente tipizzate), la condotta di “rimuovere, alterare, manomettere o disattivare consapevolmente le informazioni sulla provenienza del contenuto a sostegno di un atto o di una pratica sleale o ingannevole nel commercio o che lo influenza”.
L’eventuale violazione del COPIED Act (o di un regolamento applicativo adottato ad integrazione della sua disciplina), rileva alla stregua di una pratica sleale e ingannevole, sanzionata ai sensi e per gli effetti della sezione 18(a)(1)(B) del Federal Trade Commission Act, con conseguente applicazione dei relativi poteri e rimedi ivi stabiliti, come precisa, in tal senso, la Sezione 7 del disegno di legge S. 4674, che rinvia alla citata normativa richiamata (cfr. 15 USC 41 e seguenti).
Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.