Le mosse dell’Unione sembrano definire nuovi scenari nelle risposte alle sfide poste dal digitale.
Piuttosto che ricorrere a un esercizio di autoregolamentazione guidata da un neoliberalismo digitale, da misure illiberali o da un approccio focalizzato sulla definizione di regole tecniche che riflettano regole costituzionali, la strategia europea ha messo in luce la necessità di bilanciare, da un lato, il rispetto dei diritti in una società democratica e, dall’altro, di assicurare che il mercato europeo possa adattarsi alle trasformazioni globali nel settore digitale e competere in questo ambito.
Dalla self-regulation alla co-regolazione
Questo approccio di rottura, che ha portato a una nuova stagione per il costituzionalismo digitale europeo, non definisce un semplice passaggio da una fase di self-regulation a una di hard regulation, ma piuttosto contribuisce a riconoscere il ruolo di meccanismi che possano assicurare maggiore collaborazione come rappresentato dall’espansione della regolazione del rischio e dei processi di co-regulation.
Il ruolo della regolamentazione del rischio
L’approccio basato sul rischio, infatti, permette di porre al centro non tanto regole rigide quanto obblighi di identificazione, valutazione e gestione dei rischi specifici. Questo modello si sta affermando come un’alternativa più flessibile e adattabile rispetto alle tradizionali forme di regolamentazione, in quanto consente ai regolatori di concentrare risorse e attenzioni sulle aree di maggiore criticità, riducendo al contempo il carico normativo nelle situazioni meno rischiose.
Esempi di co-regolazione: Gdpr e digital services act
Se il GDPR aveva già contribuito a spostare il focus dell’Unione verso una regolamentazione del rischio, il Digital Services Act, piuttosto che imporre esclusivamente obblighi e garanzie procedurali, ha rafforzato tale approccio, rendendo maggiormente responsabili le very large online platforms, tramite obblighi di valutazione del rischio e conseguenti misure di attenuazione e mantenendo, al contempo, il controllo sulla valutazione di tali misure. Seppur in modo diverso, anche l’AI Act si colloca in un tale quadro di maggior responsabilizzazione, considerando il ruolo delle piattaforme digitali quali fornitori e utilizzatori di sistemi di IA, come nel caso dei deep fake.
Similmente, l’Unione sembra essersi concentrata sulla costruzione di un approccio collaborativo in cui attori pubblici e privati lavorano insieme per sviluppare e implementare norme e politiche.
Il ruolo dei codici di condotta
L’emergente modello di regolamentazione dell’Unione, come sottolineato dal GDPR, dal Digital Services Act e dall’Artificial Intelligence Act, evidenzia il ruolo dei codici di condotta nella definizione di un sistema di dialogo tra attori pubblici e privati, tendendo quindi a superare i limiti di un approccio di enforcement di natura principalmente verticale, che ha già dimostrato i suoi limiti, tanto da richiedere nuove regole al fine di affrontare le sfide poste dal digitale. Nel caso del Digital Services Act, la co-regolamentazione si concretizza principalmente attraverso codici di condotta volontari, che consentono alle piattaforme di lavorare con le istituzioni europee per sviluppare misure personalizzate in base ai rischi specifici che affrontano.
Questi codici non sono semplici linee guida, ma strumenti flessibili che possono rendere maggiormente specifici obblighi generali e più prevedibili le conseguenze di potenziali violazioni. Non è un caso, infatti, che il Digital Services Act valuti negativamente la decisione delle piattaforme di non prender parte a tali esercizi di co-regolamentazione, che, seppur volontari, rappresentano degli elementi centrali del paradigma europeo di regolamentazione del digitale.
Il caso delle politiche sulla disinformazione
Il caso delle politiche sulla disinformazione costituisce un esempio paradigmatico. Concentrandosi qui sulle questioni relative alla co-regolamentazione, il codice di buone pratiche rafforzato sulla disinformazione rappresenta un tentativo di mediazione tra istanze neoliberali e illiberali.
Il Digital Services Act svolge un importante ruolo anche in questo caso sottolineando la natura ancora volontaria dei codici di condotta, ma riconoscendo, come si diceva, il ruolo della co-regolamentazione come misura di mitigazione per contrastare i contenuti considerati harmful come nel caso della disinformazione. In questo caso, i codici di condotta mirano a svolgere un ruolo importante nella lotta contro l’amplificazione delle notizie false e possono essere considerati un’adeguata misura di mitigazione del rischio da parte delle piattaforme online di dimensioni molto grandi.
In questo contesto, come stabilito dal Digital Services Act, la Commissione e il Comitato europeo per i servizi digitali hanno il ruolo di incoraggiare e facilitare l’elaborazione di codici di condotta volontari, tenendo conto in particolare delle sfide specifiche legate alla lotta contro i diversi tipi di contenuti illegali e i rischi sistemici.
Codici d condotta come misure di attenauzione del rischio
Tali codici possono svolgere un ruolo fondamentale non solo nel dettagliare meglio gli obblighi derivanti dal Digital Services Act, ma dovrebbero anche essere considerati come misure di attenuazione del rischio, attuate dalle piattaforme digitali designate come very large per affrontare i rischi sistemici, compresa la disinformazione. Di conseguenza, i codici di condotta non sono solo strumenti di autoregolamentazione, ma piuttosto strumenti di co-regolamentazione che trovano la loro base nell’accordo volontario tra attori pubblici e privati, ma anche in una normativa. Come sottolineato dal Digital Services Act, il rifiuto di partecipare a tale processo senza adeguate spiegazioni da parte delle piattaforme può essere preso in considerazione dalla Commissione nel valutare se queste abbiano violato gli obblighi introdotti dal Digital Services Act.
Anche se la partecipazione al Codice non garantisce in automatico il rispetto delle garanzie e degli obblighi che si applicano alle piattaforme, questo sistema non solo rende maggiormente responsabili le piattaforme nel contrasto alla disinformazione, ma riduce anche la loro discrezionalità nella moderazione dei contenuti.
In altre parole, l’idea di tali codici è superare uno degli aspetti più problematici dell’autoregolazione, come assai lucidamente individuato da Luisa Torchia. “L’autoregolazione ha assunto i caratteri tipici degli strumenti di limitazione del potere (quale che sia la natura del potere): la determinazione di regole e principi generali, il controllo sul rispetto di quelle regole, la costruzione di apparati tendenzialmente indipendenti, chiamati a risolvere eventuali controversie. Si finisce per mimare così il potere pubblico, ivi compreso un embrione di principio di divisioni dei poteri, anche se tutte le funzioni — la determinazione delle regole, il controllo sul loro rispetto e la funzione giustiziale — sono strutturate e rimangono all’interno della piattaforma”[1]
Tuttavia, il codice di buone pratiche non è ancora diventato un codice di condotta, come definito dal Digital Services Act. Nonostante sia stato adottato per far fronte al fallimento del primo tentativo di auto-regolamentazione del 2018, il codice rappresenta ancora un meccanismo volontario che aspira a diventare un codice di condotta e, quindi, una misura di co-regolamentazione. Al momento, tale valutazione da parte della Commissione sembra solo rimandata, anche se risulta importante sottolineare come l’ambito stesso di applicazione del codice potrebbe essere messo in discussione dall’ampliamento delle politiche europee in materia di piattaforme online e moderazione dei contenuti.
Alcune parti del Codice tendono a sovrapporsi agli obblighi giuridici che sono stati introdotti dalla legislazione europea dopo la sua adozione. Ad esempio, l’accesso a fini di ricerca ai dati detenuti dalle piattaforme online, nel Codice, si sovrappone al quadro giuridico introdotto dal Digital Services Act. Analogamente, è probabile che le norme del codice in materia di pubblicità politica soddisfino l’obbligo che sarà introdotto dal regolamento sulla trasparenza della pubblicità politica[2].
Sfide e prospettive future della co-regolazione
In un tale contesto, l’approccio dell’Unione sembra sempre più distinguersi a livello globale. La regolamentazione del rischio e la co-regolamentazione contribuiscono ad avvicinare gli attori pubblici al loro obiettivo di rendere maggiormente effettive le politiche pubbliche negli spazi digitali, aumentando al contempo la reattività degli attori privati all’attuazione dei propri obblighi e l’accettazione di potenziali sanzioni.
In effetti, un maggiore dialogo con le autorità di regolamentazione nella fase di applicazione avrebbe potuto aiutare a mitigare misure sproporzionate quale, ad esempio, la sospensione temporanea di ChatGPT da parte del Garante per la protezione dei dati personali, nonché a rendere maggiormente coerente e attrattivo il mercato interno, che non sembra portare a un cambiamento di rotta per quanto riguarda lo sviluppo di prodotti e servizi digitali europei.
L’approccio europeo sottolinea l’intenzione dell’Unione di fornire risposte concrete alle sfide del digitale. Seppur restino domande costituzionali relativamente a un potenziale eccesso di regolamentazione e alle forzature delle basi giuridiche dell’UE a tal fine, lo sviluppo di una strategia di questo tipo può collegarsi alla necessità per il costituzionalismo europeo di rigettare approcci neoliberali o eccessivamente restrittivi, concentrandosi piuttosto sul bilanciamento, non solo tra diritti, ma tra le opzione di regolazione (del presente, ma anche del futuro) che si è cercato di fare emergere.
Note
[1] L. Torchia, I poteri di vigilanza, controllo e sanzionatori nella regolazione europea della trasformazione digitale, in Rivista Trimestrale di Diritto Pubblico, fasc. 4, 2022
[2] Regolamento relativo alla trasparenza e al targeting della pubblicità politica, cit. Per un quadro più ampio sul rapporto tra disinformazione e IA nel contesto delle elezioni politiche, si consideri O. Pollicino – P. Dunn, Disinformazione e intelligenza artificiale nell’anno delle global elections: rischi (ed opportunità), in Federalismi.it, fasc. 12, 2024.