Le promesse dei big data si fondano sull’idea che sia possibile restituire il mondo così com’è, senza mediazioni: accumulare tracce, estrapolare correlazioni, prevedere comportamenti. Questo modello, che Antoinette Rouvroy e Thomas Berns hanno definito “governamentalità algoritmica“, sembra offrire una visione oggettiva e a-normativa del mondo.
In realtà, ciò che produce non è oggettività, ma la sostituzione delle norme discorsive e politiche con regolarità statistiche. Ne deriva quella che possiamo chiamare “normatività dei dati”: le piattaforme non osservano, ma impongono schemi attraverso ranking, punteggi e profilazioni.
Ci proponiamo, di seguito, di affrontare il problema assumendo come criterio l’idea di coerenza narrativa propria dell’Interpretativismo di Dworkin: i valori prendono forma attraverso pratiche pubbliche di interpretazione, in cui ogni decisione deve inserirsi come capitolo coerente di una storia comune. In questo quadro, i dati vanno intesi come atti che configurano possibilità di senso, e la loro governance come pratica di co-narrazione aperta al conflitto e alla responsabilità intergenerazionale.
Indice degli argomenti
L’illusione di neutralità dei dati e il potere delle piattaforme
Secondo i promotori dei big data, non servono più teorie né ipotesi: basta accumulare informazioni, lasciare che gli algoritmi estraggano correlazioni e trasformare tali schemi in decisioni. L’assunto implicito è che i dati parlino da soli, e che i valori possano emergere automaticamente dalla loro regolarità numerica. In realtà, come mostrano Rouvroy e Berns, ciò che prende forma è una nuova modalità di governo, in cui le piattaforme non si limitano a osservare ma definiscono ciò che conta: decidono quali comportamenti siano premiati, quali profili considerati rilevanti, quali segnali trasformati in criteri di valutazione.
In questo quadro, l'”oggettività” promessa si rivela illusoria. La sostituzione del confronto normativo con la pura ricorrenza statistica produce una normatività dei dati tossica: i valori non vengono discussi né giustificati, ma incorporati in punteggi, ranking e soglie che orientano le azioni future. Ciò che si perde è lo spazio pubblico in cui i valori possono essere interpretati, contestati e trasformati. Il risultato è un comportamentismo digitale generalizzato, che congela il divenire del senso e riduce il potenziale dei dati a uno strumento di previsione, invece che a occasione di riflessione collettiva.
L’interpretativismo come chiave per ripensare i valori digitali
Per contrastare questa trasformazione, la tradizione dell’Interpretativismo normativo, inaugurata da Ronald Dworkin, offre una chiave decisiva. Essa parte dall’idea che i valori non siano né entità eterne da applicare meccanicamente né semplici fatti sociali da registrare, ma il risultato di pratiche pubbliche di interpretazione. Interpretare significa assumere la responsabilità di collocare una decisione entro la trama di una storia collettiva, cercando la “migliore lettura” possibile sulla base di criteri come coerenza, integrità e rispetto della dignità delle persone coinvolte. Ciò implica che non tutte le interpretazioni abbiano lo stesso peso: alcune riescono a dare un senso più convincente ai conflitti e a guidare meglio l’evoluzione dei valori comuni.
Applicata al digitale, questa prospettiva permette di superare l’illusione di neutralità dei dati. Ogni dato non è mai un semplice fatto, ma un atto di responsabilità: scegliere cosa registrare, come conservarlo, in quale algoritmo inserirlo significa già configurare possibilità di senso e delimitare ciò che può apparire nello spazio pubblico. In questa luce, i database diventano vere e proprie architetture di memoria morale, mentre gli algoritmi operano come dispositivi narrativi che selezionano universi valoriali. Ne discende l’esigenza di una responsabilità narrativa: rendere trasparenti i criteri con cui vengono privilegiati alcuni mondi rispetto ad altri e assumere le conseguenze di tali scelte, non solo per il presente ma anche per le generazioni future.
Coerenza narrativa come criterio di legittimità algoritmica
Da queste premesse si ricava una linea normativa fondamentale. L’oggettività, nel contesto digitale, non può essere ridotta alla presunta neutralità dei pattern statistici: come ha mostrato Dworkin, essa va intesa come coerenza narrativa pubblica. Ogni decisione si colloca in una storia comune che deve dare continuità ai principi già affermati, ma che al tempo stesso deve poterli trasformare. La coerenza non è rigidità conservatrice: è il criterio che consente di modificare norme e valori senza recidere il filo della loro giustificazione.
Il parallelismo con il digitale è evidente. I dati e i modelli non sono registrazioni neutre, ma scelte interpretative che stabiliscono quali valori vengano riconosciuti, quali esclusi e quali possibilità di azione rimangano disponibili. Trattarli come atti narrativi significa riconoscere che anch’essi devono poter essere rielaborati alla luce di nuovi contesti, conflitti ed esigenze di giustizia, esattamente come avviene per le norme giuridiche. Un algoritmo non può cristallizzare per sempre ciò che vale in una società, così come una sentenza non esaurisce mai il senso del diritto: entrambi richiedono di essere riaperti al confronto interpretativo.
Da ciò deriva che una governance responsabile del digitale deve garantire meccanismi di revisione interpretativa, capaci di rendere trasparenti le assunzioni di valore che guidano la raccolta e l’elaborazione dei dati, e di permetterne la modifica. Così come le norme evolvono attraverso pratiche di dibattito e di giustificazione pubblica, anche le infrastrutture algoritmiche devono restare aperte a correzioni e nuove narrazioni. Solo in questo modo la coerenza narrativa diventa criterio di legittimità non solo per il diritto, ma anche per la tecnica che oggi struttura lo spazio sociale.
Istituzioni di co-narrazione per un digitale democratico
La governamentalità algoritmica, come hanno mostrato Rouvroy e Berns, non elimina le norme: le sostituisce con regolarità statistiche che cristallizzano valori impliciti senza renderli discutibili. In questo scenario, l’interpretativismo normativo di Dworkin offre una prospettiva decisiva. La sua idea di coerenza narrativa mostra che le norme e i valori non sono mai fissi, ma capitoli di una storia collettiva che può e deve essere re-interpretata.
Solo attraverso questo processo essi mantengono legittimità e capacità di orientare la vita comune. Applicata al digitale, questa lezione implica che i dati e gli algoritmi non possano essere trattati come fatti neutri, ma come atti che istituiscono possibilità di senso.
Proprio perché portatori di valori, essi devono rimanere aperti a revisione, contestazione e trasformazione, alla luce di nuovi contesti e nuove esigenze di giustizia. Il futuro del digitale non può dunque essere affidato alla presunta oggettività dei calcoli, ma alla capacità di costruire istituzioni di co-narrazione che rendano visibili le scelte di valore e ne permettano la discussione pubblica.
Bibliografia
Zuboff, S. (2019). The Age of Surveillance Capitalism. New York: PublicAffairs.
Dworkin, R. (1986). Law’s Empire. Cambridge, MA: Harvard University Press.
Gabriel, M. (2013). Moralischer Realismus. Berlin: Suhrkamp.
Pasquale, F. (2015). The Black Box Society. The Secret Algorithms That Control Money and Information. Cambridge, MA : Harvard University Press.
Ricoeur, P. (1983–1985). Temps et récit (3 voll.). Paris : Seuil.
Rouvroy, A., & Berns, T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation. Réseaux, 31(177), 163–196.
Scheffler, S. (2018). Why Worry about Future Generations? Oxford: Oxford University Press.
Simondon, G. (2005). L’individuation à la lumière des notions de forme et d’information (ed. orig. 1958). Grenoble: Millon.
Taylor, C. (1989). Sources of the Self. The Making of the Modern Identity. Cambridge, MA: Harvard University Press.










