Nel dibattito sul Webfare, le persone digitali non sono semplici utenti connessi, ma esiti di classificazioni algoritmiche che producono nuovi “tipi umani”. Proprio come mostrava Ian Hacking, le categorie con cui descriviamo la realtà finiscono per modellare identità, comportamenti e diritti.
L’idea che le classificazioni producano realtà non è nuova. Già negli anni Ottanta il filosofo Ian Hacking parlava di “making up people”: i modi in cui la scienza, la burocrazia o le istituzioni creano nuovi “tipi umani” – categorie che, una volta introdotte, influenzano il comportamento e l’identità delle persone classificate. La diagnosi di una malattia mentale, l’invenzione di una categoria sociale o statistica, la definizione di un deviante: tutto ciò che serve a “descrivere” finisce per costruire (Hacking 1986).
Indice degli argomenti
Persone digitali e classificazioni che fanno esistere i tipi umani
Hacking mostrava che le classificazioni non sono mai neutrali. Esse attivano un “looping effect” (Hacking 1995): le persone si riconoscono (o vengono riconosciute) in una categoria, modificano i propri comportamenti, e così cambiano il significato stesso di quella categoria. Gli “autistici”, le persone affette da disturbo di personalità multipla, gli “emarginati” sono esempi di come la conoscenza scientifica, una volta socializzata, ritorni a modellare i soggetti di cui parla.
Oggi, nell’epoca dei dati e dell’intelligenza artificiale, quel meccanismo non scompare: diventa automatico. I classificatori non sono più medici, insegnanti o sociologi, ma algoritmi che apprendono dai dati e costruiscono, in tempo reale, categorie dinamiche e opache. Gli individui vengono profilati come “clienti ad alto rischio”, “utenti influenti”, “potenziali truffatori”, “studenti fragili”: categorie fluide e provvisorie, che tuttavia producono conseguenze concrete – accesso a un credito, visibilità su una piattaforma, sospetto da parte di un’amministrazione pubblica.
Dal looping effect ai profili algoritmici del Webfare
In questo nuovo regime, nascono quelli che potremmo chiamare “kinds digitali”: tipi sociali generati non da decisioni consapevoli, ma da correlazioni statistiche. Non c’è più bisogno di un gruppo che si riconosca, né di un linguaggio condiviso: bastano i dati. Gli algoritmi non “descrivono” la società, la prefigurano. Operano secondo una logica predittiva e performativa, anticipando comportamenti, orientando scelte, costruendo aspettative. Gli utenti sono etichettati, ma restano perlopiù all’oscuro delle etichette che li profilano e sembrano perdere ogni ruolo attivo, al di là di quello di produttore di dati.
Questa trasformazione solleva un problema ontologico e politico: può esistere un “tipo sociale” senza intenzionalità collettiva? Può una comunità nascere da un calcolo? Hacking pensava che per dar vita a un “tipo umano” servisse un atto di riconoscimento reciproco, una consapevolezza condivisa. Oggi, la società digitale sembra contraddirlo: la maggior parte delle nostre appartenenze è implicita, calcolata, non scelta.
Un esempio emblematico è il funzionamento dei sistemi di raccomandazione come quello di TikTok. La pagina “For You” costruisce per ogni utente un profilo comportamentale a partire da microinterazioni – il tempo di visione, la velocità di scroll, le pause. Da queste tracce, l’algoritmo deduce interessi, preferenze, stati emotivi, e offre contenuti sempre più affini. Nel tempo, l’utente finisce per diventare ciò che l’algoritmo ha previsto che fosse. La classificazione, invisibile e impersonale, si trasforma in identità. È una forma di looping effect automatizzato: non c’è più bisogno che qualcuno ti chiami in un certo modo, basta che il sistema reagisca alle tue azioni come se tu lo fossi.
Algoritmi predittivi, rischio e crisi del welfare novecentesco
La stessa logica si estende ben oltre i social network. I sistemi di welfare, credito e sicurezza pubblica utilizzano modelli predittivi per identificare “rischi” e “profili anomali”. Il caso olandese del progetto SyRI (System Risk Indication) ha mostrato le conseguenze di questa automazione: un algoritmo che incrociava dati fiscali, lavorativi e residenziali per segnalare “potenziali frodi” nei sussidi pubblici. Nessuno sapeva di essere classificato, e nessuno poteva contestarlo. Quando nel 2020 la Corte dell’Aia ha dichiarato SyRI incostituzionale, ha riconosciuto che quel sistema minava le basi della cittadinanza democratica: il diritto di sapere perché si è giudicati in un certo modo.
Questo è il punto di frattura tra il welfare novecentesco e la nuova economia dell’algoritmo. Il welfare tradizionale si basava su una certa opacità del rischio: la solidarietà era possibile perché nessuno conosceva esattamente la probabilità di ammalarsi, perdere il lavoro o invecchiare male. Oggi, i dati dissolvono quel velo d’ignoranza. Sapendo tutto di tutti, gli algoritmi possono differenziare premi, tutele e diritti con precisione chirurgica, minando il principio stesso della mutualità (Iversen e Rehm 2022).
Webfare come infrastruttura di dati e beni comuni digitali
Eppure, la stessa infrastruttura che minaccia la solidarietà può diventare la base di un nuovo modello. È qui che entra in gioco la nozione di Webfare (Ferraris 2024). L’idea, introdotta da Ferraris ma qui reinterpretata in chiave ontologica, è che i dati – queste tracce che ci classificano – possano essere trattati come beni comuni digitali, e non solo come strumenti di controllo o profitto.
In altre parole: se ogni cittadino, con la propria attività online, contribuisce alla produzione di conoscenza e valore, allora quelle tracce costituiscono una nuova forma di capitale collettivo. Il Webfare immagina di redistribuire quel valore, trasformando la classificazione algoritmica in un meccanismo di cooperazione. Invece di subire i nostri profili, potremmo partecipare alla loro costruzione; invece di essere oggetti di “sorveglianza”, potremmo diventare soggetti di governance dei dati.
Cittadinanza, governance dei dati e Webfare partecipativo
Perché questo avvenga, serve una doppia consapevolezza. Da un lato, che le categorie digitali non sono innocue: producono realtà sociali, influenzano vite, definiscono opportunità. Dall’altro, che non sono immutabili: possono essere rese trasparenti, negoziabili, partecipative. Il passaggio dal welfare al Webfare non è solo tecnico, ma politico e culturale: significa riconoscere che la cittadinanza oggi si esercita anche nella gestione delle proprie tracce digitali.
L’obiettivo, allora, non è tornare a un’epoca pre-algoritmica, ma costruire una nuova forma di solidarietà informata. Se il welfare nasceva dall’ignoranza condivisa, il Webfare nasce dalla consapevolezza condivisa del valore dei dati. Ciò che oggi alimenta la disuguaglianza – la concentrazione algoritmica del potere informativo – può diventare il fondamento di un’economia della partecipazione, dove le classificazioni non chiudono, ma aprono possibilità.
Filosofia, ontologia sociale e futuro del Webfare
In conclusione, la teoria di Hacking trova nella società digitale una sorprendente attualità: continuiamo a “fare le persone”, ma attraverso infrastrutture che classificano automaticamente, incessantemente e su scala globale. Il compito della filosofia, oggi, è rendere visibile questa nuova ontologia sociale e proporre forme di controllo democratico sulle macchine che la governano. Il progetto Webfare indica una possibile direzione: trasformare l’automatismo del looping algoritmico in un processo di riconoscimento reciproco, restituendo al cittadino la capacità di intervenire nella definizione dei propri confini digitali.
Solo così l’ambiente digitale potrà diventare non un luogo di etichettamento e sorveglianza, ma uno spazio di cittadinanza, dove l’essere classificati significa anche poter prendere parte alla costruzione del mondo comune.
L’articolo è un prodotto del progetto FISA (Fondo Italiano per le Scienze Applicate) con codice identificativo FISA-2022-00908.
Riferimenti
Ferraris, Maurizio (2024). Webfare. A Manifesto for Digital Well-being. Transcript.
Hacking, Ian (1986). “Making Up People”.In Thomas C. Heller, Morton Sosna e David E. Wellbery (a cura di), Reconstructing Individualism: Autonomy, Individuality, and the Self, Stanford University Press, pp. 222–236.
Hacking, Ian (1995).“The Looping Effects of Human Kinds”. In Dan Sperber, David Premack e Ann James Premack (a cura di), Causal Cognition: A Multidisciplinary Debate. Oxford University Press, pp. 351–383 (1995)
Iversen, Torben e Philippe Rehm (2022). Big Data and the Welfare State. How the Information Revolution Threatens Social Solidarity. Cambridge University Press.










