Le società AI simulate rappresentano oggi una delle sfide più radicali per le scienze sociali. Non si tratta soltanto di un aggiornamento tecnologico degli strumenti di ricerca, ma di una trasformazione epistemologica profonda: per la prima volta nella storia della disciplina, il comportamento umano può essere replicato, interrogato e manipolato all’interno di ambienti computazionali, senza che un solo essere umano partecipi consapevolmente all’esperimento.
L’avvento degli agenti AI generativi basati su Large Language Models (LLM) sta determinando uno slittamento epistemologico nelle scienze sociali: dalla sociologia dell’osservazione alla sociologia della simulazione.
Assistiamo all’emergere di ecosistemi sintetici, come quelli sviluppati dalla start-up Simile e dai gruppi di ricerca di Stanford, in cui agenti computazionali dotati di architetture di memoria cognitiva interagiscono in società simulate. Attraverso l’analisi dei “gemelli digitali” e della loro accuratezza predittiva (85%), si valuta la validità del “Silicon Sample” come sostituto del campionamento umano, discutendo le implicazioni etiche della risoluzione dei conflitti algoritmica e la tensione tra determinismo statistico e l’imprevedibilità dell’agire sociale.
Indice degli argomenti
Il tramonto del paradigma osservativo nella sociologia classica
Per oltre un secolo, la sociologia si è autodefinita attraverso il rigore dell’osservazione del “fatto sociale” (Durkheim, 1895), sia che si trattasse di etnografia partecipante sia di analisi quantitativa su larga scala, l’ancoraggio ontologico era sempre la realtà antropica, il corpo umano, situato in uno spazio e in un tempo definiti. Oggi, questo ancoraggio appare scosso da un’innovazione che non proviene dalle facoltà di scienze sociali, ma dai laboratori di Palo Alto.
L’annuncio della start-up Simile, che nel febbraio 2024 ha raccolto 100 milioni di dollari per “modellare il comportamento umano in qualsiasi situazione”, non è soltanto una notizia finanziaria, ma l’annuncio di una potenziale sostituzione metodologica.
Se possiamo creare società sintetiche dove agenti IA negoziano, votano e consumano, la domanda non è più “cosa fanno gli esseri umani”, ma “quanto fedelmente la nostra simulazione riflette la loro essenza”. Il rischio, o l’opportunità, è il passaggio da una sociologia che descrive il mondo a una sociologia che lo sostituisce con un suo simulacro digitale (Baudrillard, 1985).
Architetture cognitive degli agenti generativi: memoria e pianificazione
Il salto qualitativo rispetto ai vecchi modelli basati su agenti (ABM) risiede nell’architettura cognitiva. I lavori di Park et al. (2023) hanno introdotto il concetto di “Generative Agents”. A differenza dei modelli di Schelling (1971), dove gli agenti erano particelle elementari con poche regole logiche, gli agenti attuali possiedono una “corrente di coscienza” (stream of consciousness) sintetizzata attraverso gli LLM (Large Language Models).
Questi agenti non si limitano a rispondere a stimoli; essi pianificano. In una simulazione di 25 agenti, i ricercatori hanno osservato fenomeni di diffusione dell’informazione e coordinamento sociale spontaneo: l’invito a una festa di San Valentino, ad esempio, si è propagato tra gli agenti, i quali hanno autonomamente deciso di partecipare, regolando i propri impegni quotidiani per esserci (Park et al., 2023). Qui la simulazione smette di essere un grafico statistico e diventa una narrazione collettiva.
L’agente IA “vive” in una temporalità lineare, ricorda le interazioni passate e le usa per informare quelle future, mimando la costruzione dell’identità descritta da Mead (1934).
Il “Silicon Sample”: accuratezza dell’85% e i suoi limiti metodologici
Il dato più dirompente della ricerca recente riguarda l’esperimento sui 1.052 individui umani “clonati” digitalmente. Questi agenti, addestrati su interviste qualitative profonde, hanno risposto a survey sociologiche con un’accuratezza dell’85% rispetto alle loro controparti umane (Park et al., 2023). Da un punto di vista metodologico, questo solleva il problema della “rappresentatività sintetica”.
Se l’85% del comportamento è prevedibile attraverso il linguaggio depositato nei modelli, la sociologia deve interrogarsi su quanto dell’agire umano sia effettivamente “libero” e quanto sia invece una reiterazione di pattern linguistici e culturali preesistenti. Tuttavia, è proprio in quel 15% di scarto che si annida la resistenza del sociale: l’imprevisto, l’irrazionale, il trauma incarnato che l’IA non può esperire, ma soprattutto implementare. Il “Silicon Sample” (Argyle et al., 2023) offre una velocità di esecuzione senza precedenti, ma rischia di appiattire la sociologia su un piano puramente performativo, dove il “senso comune” del modello (spesso occidentale e tecnocratico) sostituisce la varietà fenomenologica del reale.
Simulazione dei conflitti politici e il miraggio della neutralità algoritmica
Uno degli obiettivi dichiarati di Simile è l’utilizzo di queste società AI per modellare la risoluzione dei conflitti e il processo decisionale politico. L’idea è seducente: testare l’impatto di una riforma fiscale o di un trattato di pace su una popolazione di agenti IA prima di applicarla al mondo reale.
Tuttavia, la sociologia del potere (Foucault, 1975) ci impone di chiederci: chi scrive il codice della pace simulata? Se gli agenti sono addestrati su dataset che riflettono asimmetrie di potere storiche, la simulazione non farà che cristallizzarle, presentandole come “risultati oggettivi”.
La politica, nella sua essenza, è il luogo del dissenso e dell’invenzione del nuovo; una simulazione basata su dati passati è, per definizione, conservatrice. Modellare il processo decisionale attraverso l’IA potrebbe portare a una “tecnocrazia dell’algoritmo” in cui le decisioni vengono prese non perché giuste, ma perché “hanno funzionato bene in passato e nella simulazione”.
L’economia sintetica: homo economicus digitale e i limiti del consumo simulato
Oltre alla politica, i mercati di consumo sono il terreno di caccia principale per queste nuove società AI. Le aziende non avranno più bisogno di focus group umani, spesso costosi e soggetti a bias di desiderabilità sociale, esse potranno interrogare migliaia di “gemelli digitali”. Qui si palesa il concetto di homo economicus sintetico. Sebbene l’IA possa simulare la razionalità limitata (Simon, 1955), essa fatica a replicare il desiderio pulsionale o l’influenza della materialità fisica sulla scelta.
Un agente IA non ha fame, non prova stanchezza fisica, non percepisce l’odore di un prodotto. La simulazione del consumo rischia di diventare un dialogo tra algoritmi di marketing e algoritmi di risposta, un circuito chiuso che esclude l’esperienza sensoriale, fondamento della sociologia dei consumi (Simmel, 1900).
Il sé algoritmico: identità fluida e coerenza biografica nelle società AI
Un elemento cardine della sociologia dell’interazione è la coerenza del “Sé” nel tempo (Goffman, 1959). Nelle simulazioni di Park e del team di Stanford, l’innovazione risiede nell’architettura di archiviazione e recupero della memoria (Memory Stream). Gli agenti non sono più tabule rase a ogni interazione; essi sintetizzano i ricordi in riflessioni di alto livello, costruendo ciò che potremmo definire una “biografia sintetica”. Tuttavia, qui emerge una tensione ontologica fondamentale. Mentre l’essere umano costruisce la propria identità attraverso il corpo e il trauma, elementi non codificabili, l’agente IA la costruisce attraverso stringhe di testo.
La coerenza osservata nell’85% dei casi (Park et al., 2023) suggerisce che gran parte della nostra “personalità” pubblica sia in realtà un costrutto linguistico altamente prevedibile. Ma cosa accade nel restante 15%? È qui che risiede l’errore sistemico o, forse, l’essenza dell’imprevedibilità umana? Se un agente “dimentica” un dettaglio biografico o testimonia una relazione mai avvenuta, la società simulata entra in una fase confusa di entropia informativa. La sfida per Simile e altre start-up di Palo Alto sarà stabilizzare questo “Sé” digitale senza renderlo una macchietta deterministica.
Bias strutturali e profezie che si autoavverano: lo specchio deformante dell’algoritmo
Non si può analizzare la nascita di società AI senza invocare una critica della cecità algoritmica (Benjamin, 2019). Le società simulate sono, per definizione, estrazioni di dataset storici. Se addestriamo agenti a imitare il comportamento umano “in qualsiasi situazione”, essi erediteranno inevitabilmente i pregiudizi strutturali (razziali, di genere, di classe) depositati nelle interviste e nei testi di addestramento. Il rischio è la creazione della famosa “profezia che si autoavvera” (Merton, 1948). Se una simulazione politica suggerisce che una determinata minoranza reagirà con violenza a una misura di austerity, e i decisori politici agiscono sulla base di questa previsione sintetica, la realtà finirà per conformarsi al modello attraverso meccanismi di controllo preventivo. La “società AI” non è uno spazio neutro di sperimentazione, ma un laboratorio dove i bias del presente vengono proiettati e amplificati nel futuro simulato. Come sottolineato da O’Neil (2016), questi modelli possono diventare “armi di distruzione matematica” se non vengono sottoposti a un audit sociologico rigoroso che ne smonti le pretese di oggettività.
Verso un’etnografia sintetica: nuove frontiere metodologiche ed etiche
La domanda che scuote i dipartimenti di sociologia è: possiamo fare “ricerca sul campo” all’interno di un server? Se le interazioni tra agenti producono fenomeni sociali emergenti, come la nascita di gerarchie o la formazione di coalizioni, allora questi ambienti diventano oggetti di studio etnografico. Stiamo assistendo alla nascita di una “etnografia sintetica”.
La ricerca sul campo nei mondi simulati
Il ricercatore non osserva più gli esseri umani, ma osserva il modo in cui le macchine li interpretano. Questo sposta il focus dalla comprensione dell’agire alla comprensione della rappresentazione dell’agire. Se un gruppo di agenti in una simulazione di Simile decide di boicottare un mercato virtuale, ciò non ci dice necessariamente cosa farebbero gli umani, ma ci dice molto su come i nostri modelli di linguaggio hanno categorizzato e attualizzato il concetto di “protesta”, generando, di fatto, una sociologia di secondo grado, ossia lo studio di come l’umanità si specchia nell’astrazione computazionale.
La questione etica del gemello digitale
Inoltre, l’utilizzo di 1.052 individui reali per creare “gemelli digitali” (Park et al., 2023) apre un baratro etico. Se il mio “gemello digitale” viene utilizzato da una start-up per testare la mia reazione a un licenziamento o a una diagnosi medica senza che io ne sia a conoscenza, i miei diritti civili sono stati violati? La sociologia del diritto deve affrontare la questione della “personalità sintetica”. Se un’azienda utilizza agenti che imitano perfettamente una determinata classe sociale per manipolare i prezzi di mercato, si tratta di ricerca di mercato o di una nuova forma di sfruttamento estrattivo? Il concetto di habitus di Bourdieu viene qui trasformato in un asset finanziario. La nostra identità sociale, una volta esternalizzata in un agente IA, diventa un prodotto commerciale che può essere venduto, interrogato e torturato psicologicamente, in termini di simulazione, all’infinito, senza il nostro consenso esplicito.
La sociologia come metaosservatore delle società AI
Le società AI non sono più un esperimento di nicchia, infatti, con i finanziamenti massicci a realtà come Simile, esse stanno diventando delle vere e proprie infrastrutture decisionali. La somiglianza con l’essere umano è, al momento, una funzione della nostra capacità di auto-descriverci attraverso il linguaggio. Il raggiungimento di un’accuratezza dell’85% è un traguardo tecnico formidabile, ma, in modo speculare, un fallimento sociologico se interpretato come “sostituzione”. Il futuro della disciplina non risiede nel rifiuto di queste tecnologie, ma nella loro interpretazione e integrazione critica. La sociologia deve rivendicare il ruolo di metaosservatore, cioè di “osservatore dell’osservatore”. Se le decisioni del futuro verranno prese su popolazioni sintetiche, il compito del sociologo sarà quello di garantire che quelle simulazioni non dimentichino mai la carne, il sangue e l’irrazionalità, ossia l’essenza squisitamente antropica che rende l’essere umano qualcosa di più di una sequenza di probabilità statistiche schematizzate in un modello linguistico.
Bibliografia
- Argyle, L. P., Busby, E. C., Fulda, N., Gubler, J. R., Rytting, C., Wingate, D. (2023). Out of One, Many: Using Language Models to Simulate Human Samples. Political Analysis, 31(3), 337-351. [
- Baudrillard, J. (1985). Simulacres et Simulation. Paris: Éditions Galilée.
- Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Cambridge: Polity Press.
- Bourdieu, P. (1979). La Distinction: Critique sociale du jugement. Paris: Éditions de Minuit.
- Foucault, M. (1975). Surveiller et punir: Naissance de la prison. Paris: Gallimard.
- Goffman, E. (1959). The Presentation of Self in Everyday Life. New York: Anchor.
- Henrich, J., Heine, S. J., & Norenzayan, A. (2010). The weirdest people in the world? Behavioral and Brain Sciences, 33(2-3), 61-83.
- Merton, R. K. (1948). The Self-Fulfilling Prophecy. Antioch Review, 8(2), 193-210.
- O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown Publishing Group.
- Park, J. S., O’Brien, J. C., Cai, C. J., Morris, M. R., Liang, P., Bernstein, M. S. (2023). Generative Agents: Interactive Simulacra of Human Behavior. In: Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology (UIST ’23).
- Salganik, M. J. (2017). Bit by Bit: Social Research in the Digital Age. Princeton: Princeton University Press.
- Schelling, T. C. (1971). Dynamic Models of Segregation. Journal of Mathematical Sociology, 1(2), 143-186.
- Simon, H. A. (1955). A Behavioral Model of Rational Choice. The Quarterly Journal of Economics, 69(1), 99-118.
- Suchman, L. (2007). Human-Machine Reconfigurations: Plans and Situated Actions. Cambridge: Cambridge University Press.











