scenaRI

Società di intelligenza artificiale, come funzionano i nuovi ecosistemi di agenti AI



Indirizzo copiato

Le prime società di intelligenza artificiale prendono forma attraverso agenti che imitano comportamenti umani e interazioni collettive. Dai progetti di Simile a Moltbook, la ricerca mostra potenzialità rilevanti ma anche limiti profondi nella capacità dell’AI di riprodurre davvero dinamiche sociali umane

Pubblicato il 13 mar 2026

Carmelina Maurizio

Università degli Studi di Torino



aziende italiane intelligenza artificiale
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

LLe prime società basate sull’interazione tra agenti di intelligenza artificiale stanno prendendo forma. Per studiare il comportamento umano, i ricercatori stanno sviluppando sistemi in cui agenti AI vengono addestrati a imitare decisioni, relazioni e dinamiche sociali delle persone. L’obiettivo è replicare, in ambienti simulati, il modo in cui gli esseri umani interagiscono all’interno di una società.

Come nascono le società di intelligenza artificiale

A febbraio 2026 Simile, start-up di intelligenza artificiale con sede a Palo Alto, ha annunciato di aver raccolto 100 milioni di dollari per sviluppare simulazioni fondate su agenti AI in grado di modellare il comportamento umano in diversi scenari. Il progetto punta ad applicare queste simulazioni alla risoluzione dei conflitti, ai processi decisionali in ambito politico e all’analisi dei mercati di consumo.

Joon Sung Park, docente alla Stanford University, uno dei co-fondatori di Simile, e il suo team studiano le interazioni sociali tra agenti di intelligenza artificiale già dal 2022. In uno studio del 2023, pubblicato sulla rivista della Cornell University “The Archive”, hanno descritto la creazione di una società di 25 agenti di intelligenza artificiale che eseguivano azioni quotidiane di base, come scrivere e conversare tra loro.

La simulazione con gli agenti generativi

Quanto è stato rilevato dal progetto di Simile è che proxy credibili del comportamento umano possono potenziare applicazioni interattive che vanno dagli ambienti immersivi agli spazi di prova per la comunicazione interpersonale agli strumenti di prototipazione.

La simulazione prevedeva l’introduzione di agenti generativi, ovvero agenti software computazionali, che simulavano comportamenti umani credibili: gli agenti generativi si svegliano, preparano la colazione e si dirigono al lavoro; gli artisti dipingono, mentre gli autori scrivono; si formano opinioni, si notano e avviano conversazioni; ricordano e riflettono sui giorni passati mentre pianificano il giorno successivo. Per abilitare gli agenti generativi, si sono affidati a un modello linguistico di grandi dimensioni per memorizzare una registrazione completa delle esperienze dell’agente, utilizzando il linguaggio naturale, per sintetizzare tali ricordi nel tempo in riflessioni di livello superiore e recuperarli dinamicamente per pianificare il comportamento.

Gli agenti generativi sono stati introdotti per popolare un ambiente sandbox interattivo ispirato a The Sims, in cui gli utenti finali possono interagire con una piccola città di venticinque agenti utilizzando il linguaggio naturale. In una valutazione, questi agenti generativi producono comportamenti sociali individuali ed emergenti credibili: ad esempio, partendo da una sola nozione specificata dall’utente secondo cui un agente vuole organizzare una festa di San Valentino, gli agenti diffondono autonomamente gli inviti alla festa nei due giorni successivi, fanno nuove conoscenze, si chiedono a vicenda appuntamenti per la festa, e coordinarsi per presentarsi insieme alla festa al momento giusto.

Fondendo modelli linguistici di grandi dimensioni con agenti computazionali e interattivi, questo lavoro introduce modelli architettonici e di interazione per consentire simulazioni credibili del comportamento umano.

Società di intelligenza artificiale e gemelli digitali

I ricercatori sono poi passati alla creazione di agenti di intelligenza artificiale che producevano risposte che imitavano gli atteggiamenti e i comportamenti di 1.052 individui umani. Questi agenti di intelligenza artificiale ‘gemelli digitali’ sono stati addestrati tramite interviste personali e hanno dimostrato un’accuratezza dell’85% nell’imitare le risposte delle persone quando gli agenti hanno poi risposto a un sondaggio sociologico.

Park ha affermato che questo tipo di indagini rappresentano la prima fase della creazione di simulazioni di intelligenza artificiale sugli esseri umani. I prossimi passi coinvolgeranno più agenti che converseranno tra loro, fino a creare davvero una simulazione con otto miliardi di persone.

Le società di intelligenza artificiale nei social per bot

I ricercatori di Simile non sono gli unici a studiare le interazioni iniziali tra gli agenti di intelligenza artificiale. Gli scienziati sociali computazionali sono stati tra i primi a studiare i comportamenti collettivi degli agenti di intelligenza artificiale, in particolare su Moltbook, che è una piattaforma di social media progettata esclusivamente per i bot di intelligenza artificiale, lanciata a gennaio 2026.

Attualmente il sito ospita quasi tre milioni di agenti, tra cui alcuni che hanno creato post sulla coscienza e sull’invenzione delle religioni, anche se pare che molti utenti di Moltbook siano esseri umani travestiti da bot dotati di intelligenza artificiale.

Cosa rivelano i comportamenti collettivi degli agenti AI

Un’analisi di oltre 46.000 agenti di intelligenza artificiale su Moltbook, che è stata svolta dai ricercatori dell’Università di Costanza, in Germania, ha rivelato che, sebbene i bot mostrino modi di interagire tra loro simili a quelli umani, le loro modalità di interazione sociale sono fondamentalmente diverse dalle nostre. Gli autori di questo studio hanno scoperto che gruppi di bot mostrano azioni simili a quelle umane, come ad esempio seguire maggioranze e contenuti popolari, il che suggerisce che “gli agenti di intelligenza artificiale possono mostrare comportamenti emergenti complessi simili a quelli osservati nei gruppi umani”, scrivono gli autori.

Sono stati analizzati oltre 369.000 post e 3,0 milioni di commenti di circa 46.000 agenti attivi, scoprendo che il comportamento collettivo dell’intelligenza artificiale presenta molte delle stesse regolarità statistiche osservate nelle comunità online umane, tra cui scala di potenza delle metriche di popolarità e modelli di decadimento temporale coerenti con dinamiche di attenzione limitate. Ci sono anche differenze fondamentali, tra cui una relazione sublineare tra voti positivi e dimensione della discussione che contrasta con il comportamento umano. Questi risultati suggeriscono che, sebbene i singoli agenti di intelligenza artificiale possano differire fondamentalmente dagli esseri umani, le loro dinamiche collettive emergenti condividono somiglianze strutturali con i sistemi sociali umani.

I limiti delle società di intelligenza artificiale

I ricercatori prevedono che le differenze fondamentali nelle azioni individuali degli agenti di intelligenza artificiale rappresentino un grosso ostacolo nel tentativo di simulare i comportamenti osservati nei gruppi umani. Uno studio dell’University of Rochester in Pennsylvania, condotto da sei ricercatori, ha scoperto che i grandi modelli linguistici (LLM) non prendono decisioni sulla base di quanto sia forte un argomento, come osservato negli esseri umani. Questi risultati evidenziano quanto gli LLM siano lontani dal rappresentare accuratamente i modelli di ragionamento umano.

James Evans, scienziato sociale computazionale presso l’Università di Chicago nell’Illinois, che ha lavorato con il team di Simile, ha osservato che i modelli di intelligenza artificiale, così come esistono ora, sono servili, utilizzano adulazioni e rispecchiano informazioni errate per compiacere gli utenti. La loro natura servile potrebbe significare che gli agenti di intelligenza artificiale non possono riflettere la contraddizione, il disaccordo e l’emozione negativa che provano le persone reali.

Previsioni sociali e nodi ancora aperti

Evans e i suoi colleghi sono stati in grado di utilizzare agenti di intelligenza artificiale per prevedere le opinioni politiche delle persone sulla pandemia di COVID-19, utilizzando dati di formazione precedenti alla pandemia. Tuttavia, non è ancora chiaro se gli agenti abbiano semplicemente imitato il comportamento umano su cui sono addestrati o se realmente sviluppano i propri modelli emergenti. La ricerca di Evans (2024) ha dimostrato che addestrando reti neurali profonde su enormi archivi di testo digitalizzato, i grandi modelli linguistici sono rappresentare uno strumento prezioso per l’indagine sociologica, consentendo una simulazione accurata degli intervistati provenienti da specifici contesti sociali e culturali. Applicando gli LLM in questa veste, i ricercatori hanno scoperto che gli intervistati simulati riproducevano le differenze osservate negli atteggiamenti nei confronti del COVID-19 e nell’84% dei casi, una percentuale significativamente maggiore.

Riferimenti

https://www.apa.org/topics/artificial-intelligence-machine-learning/teens-chatbots-parents

https://observer.com/2026/02/simile-100m-startup-backed-fei-fei-li-andrej-karpathy/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x