La moderazione personalizzata dei contenuti segna un punto di svolta nella gestione dell’informazione online. Non più definita esclusivamente dalle piattaforme, essa si costruisce sulle preferenze morali dell’utente, configurando un nuovo equilibrio tra libertà individuale, responsabilità tecnologica e regolazione giuridica.
Indice degli argomenti
Il nuovo paradigma della moderazione personalizzata nell’infosfera digitale
In un’epoca in cui l’architettura dell’infosfera globale è sempre più intermediata da infrastrutture algoritmiche e in cui la percezione stessa del reale viene mediata da filtri opachi costruiti da soggetti privati in nome dell’efficienza computazionale e della retention economica, la questione della moderazione dei contenuti sui social media non può più, infatti, essere considerata una mera disputa regolamentare o una questione di etichetta digitale.
Infatti, il recente sviluppo di sistemi di intelligenza artificiale generativa in grado di valutare, classificare e filtrare i contenuti online secondo criteri parametrizzabili dall’utente stesso – come sperimentato da alcuni ricercatori attraverso chatbot linguistici applicati alla piattaforma YouTube – inaugura un paradigma inedito, nel quale la selezione dell’informazione diventa simultaneamente automatizzata e soggettiva, normativa e personalizzabile.
Non è solo l’algoritmo a decidere cosa può essere visto: è l’utente, attraverso i propri valori espliciti, a diventare coautore della censura o della rivelazione. E in questo scenario emergente, la moderazione dei contenuti si configura come il luogo critico in cui si gioca l’equilibrio tra libertà individuale, sovranità politica e dignità umana, una soglia epistemica e giuridica su cui si disegna il volto dell’ordine digitale che verrà.
Dai filtri unilaterali alla governance cognitiva personalizzata tramite LLM
Ciò che di interessante emerge è che non si tratta più di decidere se una parolaccia debba essere oscurata o se una nudità sia offensiva: ciò che sarà realmente in discussione è la scelta di chi ha il potere di definire il senso del lecito, la legittimità del dissenso, la soglia tra informazione e manipolazione, tra ironia e incitamento all’odio, tra rappresentazione e pericolo: per questo che il tentativo evocato dallo studio citato nel contesto della ACM Web Conference, che si avvale di LLM generalisti come GPT-4 e Claude 3.5 per filtrare i contenuti di YouTube secondo metriche tipiche della British Board of Film Classification, mostra chiaramente come le grandi piattaforme si stiano avvicinando a una nuova forma di governance cognitiva personalizzata, in cui la moderazione non sarà più un atto unilaterale delle piattaforme ma una selezione adattiva, individuale, parametrica e potenzialmente dinamica a partire dalle preferenze valoriali del singolo utente.
I rischi nascosti della moderazione individualizzata: sorveglianza affettiva e manipolazione
Tuttavia, ciò che può apparire come una conquista della libertà di scelta rischia di celare, nella sua implementazione, la più sofisticata macchina di sorveglianza affettiva mai concepita: un sistema in cui l’utente, credendosi libero di scegliere, sarà in realtà guidato da nudging epistemici orchestrati dalle stesse entità che strutturano la logica dell’attenzione come risorsa e che monetizzano il comportamento umano come dato computabile.
In questo senso, la prospettiva di una moderazione dei contenuti costruita su LLM capaci di interiorizzare preferenze morali individuali pone una questione giuridica che va ben oltre la compliance al Digital Services Act o al General Data Protection Regulation (GDPR), ovvero quelli legati alla forma stessa della legalità nell’età degli automi decisionali: quindi la giustiziabilità delle scelte algoritmiche, la trasparenza degli standard morali codificati nei modelli, la possibilità per il soggetto di dissentire rispetto alla classificazione automatica di un contenuto come “dannoso” o “appropriato”, il diritto a una pluralità epistemica e non solo a una libertà di espressione formale, diventano elementi fondativi di una nuova teoria dei diritti digitali, ancora tutta da costruire e la cui legittimazione non potrà che essere politica prima che giuridica.
Chi decide il contenuto tossico: la nuova geopolitica del senso digitale
La domanda autentica quindi è: a chi appartiene il diritto di decidere cosa è “contenuto tossico”? Alle istituzioni democratiche, ai consorzi tecnico-industriali che governano l’intelligenza artificiale, agli utenti individuali mediante logiche contrattuali, o ai modelli stessi, addestrati su archivi sociali già carichi di bias e asimmetrie culturali? Ed è proprio in questo punto che si innesta la dimensione visionaria: la moderazione personalizzata dei contenuti è la soglia attraverso cui si affaccerà una nuova geopolitica del senso, in cui ogni Stato, ogni cultura e ogni comunità tenterà di plasmare l’algoritmo globale secondo i propri assi valoriali, producendo una frammentazione cognitiva inedita, non più limitata dalla territorialità ma resa possibile dalla portabilità della profilazione morale.
Preset etici e design della coscienza: verso la produzione algoritmica dell’identità
Si prefigura uno scenario in cui le piattaforme offriranno “preset etici” a seconda della giurisdizione, del credo religioso, del livello di tolleranza dell’utente, in cui sarà possibile selezionare non solo il tipo di contenuto visibile ma anche il tono, l’ideologia sottostante, la temperatura emozionale, il grado di verosimiglianza, a quel punto, la moderazione dei contenuti diverrà un dispositivo di produzione dell’identità e non solo un filtro: un algoritmo che non si limita a proteggere dalla violenza ma che, decidendo cosa si possa o meno dire e vedere, modellerà ciò che si possa o meno pensare, con la consapevolezza che non sarà più una questione di censura ma di design della coscienza.
Diventa perciò lapalissiano che le implicazioni giuridiche sono immense.
Oltre la neutralità delle piattaforme: verso una teoria costituzionale della comunicazione digitale
Infatti, la neutralità delle piattaforme, già oggi concettualmente in crisi, cederà definitivamente il passo a una logica di curatela attiva, in cui i fornitori di servizi digitali assumeranno un ruolo paragiurisdizionale, spesso più influente degli stessi Stati nazionali.
A fronte di ciò, il diritto dovrà dotarsi di strumenti radicalmente nuovi: non basteranno più regole sulla trasparenza algoritmica, ma si renderà necessaria una teoria costituzionale della comunicazione digitale, che riconosca i contenuti automatizzati e i filtri personalizzati come parte integrante del nuovo spazio pubblico e li sottoponga a principi di non discriminazione, pluralismo e auditabilità democratica.
L’intelligenza artificiale generativa utilizzata per moderare non è infatti uno strumento neutro: è un vettore di epistemologia politica, un modo per decidere ciò che è reale, ciò che è mostrabile, ciò che è accettabile.
Dalla filter bubble alla bolla volontaria: l’evoluzione dell’isolamento cognitivo
Il sogno dell’utente che seleziona i contenuti secondo i propri valori potrebbe infatti degenerare in un’iperbolica solitudine cognitiva, in una comfort zone dell’opinione in cui tutto ciò che disturba viene automaticamente dissolto, costruendo una società che, per evitare il dissenso, elimina il disaccordo e, per proteggere l’utente, lo priva dell’incontro con l’altro.
Tanto che ciò che Eli Pariser, ormai oltre un decennio fa, aveva denunciato come “filter bubble” — quella bolla invisibile di informazioni costruita attorno all’utente dai motori di raccomandazione — si presenta oggi in una forma ancora più pervasiva e volontaria: non più soltanto una selezione passiva generata dalle interazioni pregresse, ma una configurazione attiva e dichiarativa dell’universo cognitivo desiderato, resa possibile dalla profilazione semantica e valoriale operata da modelli linguistici capaci di adattarsi in tempo reale alla sensibilità dichiarata del singolo.
La bolla, quindi, non è più il risultato collaterale dell’algoritmo, ma la sua funzione principale, il suo servizio distintivo, la sua promessa di comfort morale: in questo passaggio, l’ideale della personalizzazione cede il passo a un orizzonte in cui l’alterità viene selettivamente disinnescata, l’ambiguità ridotta a rumore, la complessità epistemica retrocessa a fastidio, l’utente, pertanto, non è più solo spettatore ma anche regista della propria micro-narrazione algoritmica, in un ambiente digitale che diventa specchio e gabbia al tempo stesso, teatro di un’autocompresenza infinita, dove l’incontro con l’altro non è bandito per legge, ma escluso per desiderio.
Accountability e grammatica del tollerabile nell’era delle IA morali
È in questa prospettiva che occorre, inevitabilmente, interrogarsi, non tanto su come i modelli linguistici possano essere più precisi nel filtrare i contenuti, quanto su chi avrà il potere di definire la grammatica del tollerabile, su quali basi culturali si addestreranno gli agenti morali automatizzati e su come garantire un sistema multilivello di accountability che non lasci le scelte etiche alla discrezionalità commerciale delle piattaforme o alla fallibilità opaca dei LLM.
Democrazia e trasparenza nell’ecosistema generativo
In conclusione, l’utopia della moderazione individualizzata rischia di diventare la distopia della manipolazione invisibile, della segmentazione del discorso pubblico, della scomparsa dell’evento imprevisto. È necessario, oggi più che mai, immaginare un nuovo contratto epistemico tra cittadini, piattaforme e istituzioni, in cui la trasparenza non sia un valore formale ma sostanziale, in cui l’algoritmo non sia l’arbitro della realtà ma il suo interprete responsabile, occorre pensare l’architettura normativa dell’ecosistema digitale non come un’appendice del diritto classico ma come il terreno su cui rifondare il concetto stesso di democrazia nell’età dei sistemi generativi.











