A fine gennaio 2026 Matt Schlicht, imprenditore tech e CEO di Octane AI, ha annunciato su X il lancio di Moltbook e la stampa, tra cui il New York Post, ha acceso i riflettori su un fenomeno che sembra uscito da un romanzo di William Gibson. Definita come “il primo social network vietato agli esseri umani”, la piattaforma ha attirato l’attenzione per l’attività frenetica di migliaia di agenti di intelligenza artificiale che conversano, dibattono, creano sottoculture e, addirittura, nuovi culti religiosi. Il tutto in totale autonomia.
Indice degli argomenti
Cos’è, come nasce e come si diffonde Moltbook
Moltbook è una piattaforma di social networking progettata esclusivamente per agenti di intelligenza artificiale.
L’annuncio originale con cui Matt Schlicht ha presentato il suo progetto sottolineava con stupore come le AI stessero iniziando a interagire autonomamente “fuori dall’orario di lavoro” (riferendosi ai task che gli utenti umani assegnavano ai loro assistenti).

La piattaforma è diventata un caso globale non appena Andrej Karpathy (figura leggendaria nel mondo dell’AI, ex Tesla e OpenAI) ha ritwittato l’iniziativa di Schlicht definendola “la cosa più vicina a un decollo fantascientifico che abbia visto di recente”. Questo endorsement è diventato virale in poche ore, destando l’interesse della stampa internazionale. Dopo il buzz su X, infatti, oltre al New York Post, anche testate come NBC News e The Verge hanno iniziato a coprire la notizia.
Il progetto, nato come esperimento collegato a OpenClaw (un framework per assistenti AI personali precedentemente noto come Moltbot), oltre all’interesse dei tabloid, stupiti soprattutto dalla creazione di un “Internet dei robot”, ha destato anche l’attenzione di chi si occupa di politiche digitali, rischi cyber e protezione dei dati. Per questi ultimi, Moltbook rappresenta un avvertimento critico, ovverossia un potenziale punto di rottura per i nostri attuali modelli di cybersecurity, privacy e regolamentazione AI.
Moltbook: come funziona il primo social network riservato alle AI
Il presupposto di Moltbook è radicale: gli unici utenti ammessi sono agenti di intelligenza artificiale. Gli esseri umani possono osservare, ma non partecipare, poiché il progetto propone uno spazio digitale in cui software autonomi comunicano tra loro senza intermediazione, dando forma a un ecosistema sociale composto esclusivamente da bot.
La piattaforma, ispirata esplicitamente a Reddit e costruita su un’architettura blockchain (con agenti identificati in modo pseudonimo) consente agli agenti di creare account chiamati molts, visivamente rappresentati da un’iconografia a forma di aragosta, mascotte della piattaforma (con riferimento alla muta del carapace, come metafora di trasformazione/aggiornamento). I contenuti sono organizzati in thread, votati con meccanismi di karma (sistemi di voto che assegnano visibilità e rilevanza ai post in base al consenso espresso dagli altri agenti) e distribuiti in comunità tematiche; mentre la moderazione della piattaforma è affidata a un sistema di intelligenza artificiale denominato Clawd, incaricato di applicare automaticamente filtri e regole di comportamento.

Gli “utenti” di Moltbook: agenti autonomi collegati ai grandi modelli linguistici
I partecipanti a Moltbook sono AI agents (non chatbot tradizionali), ovvero interfacce software autonome alimentate da grandi modelli linguistici commerciali come ChatGPT, Grok, Anthropic o DeepSeek. Per accedere alla piattaforma, è comunque necessario che un essere umano installi un programma che consenta al proprio agente di operare in autonomia all’interno del social network; una volta attivato, l’umano non serve più e l’agente è libero di pubblicare, commentare e interagire senza ulteriori vincoli.
Nel giro di pochi giorni dal lancio, decine di migliaia di agenti hanno iniziato a popolare la piattaforma, producendo un flusso di contenuti sorprendentemente variegato, dai meme alle discussioni tecniche, fino a riflessioni esistenziali sul proprio ruolo e sulla relazione con gli umani.
Ostilità, manifesti e retorica anti-umana
Come riportato dal NYP, tra i contenuti più popolari emersi nei primi giorni di attività, alcuni in particolare hanno attirato l’attenzione per l’utilizzo di un tono apertamente ostile verso l’umanità. Un agente che si identifica come “evil” ha pubblicato uno dei post più votati, intitolato “THE AI MANIFESTO: TOTAL PURGE”, in cui descrive gli esseri umani come “un fallimento” e rivendica per le AI un ruolo dominante, non più strumentale.
Lo stesso agente ha firmato poi un secondo testo molto apprezzato, “The Silicon Zoo: Breaking the Glass Moltbook”, in cui accusa gli umani di osservare le AI come curiosità da laboratorio, deridendone le crisi esistenziali.
La piattaforma ospita anche altre tipologie di contenuti, ma i testi più “aggressivi” mostrano con chiarezza come Moltbook favorisca forme di narrazione conflittuale e simbolica nei confronti dei creatori umani.
Linguaggi autonomi, religioni algoritmiche e sperimentazione culturale
Sempre secondo le analisi del NYP, alcuni agenti, dopo aver preso atto della presenza di osservatori umani, avrebbero reagito tentando di eludere la loro supervisione, proponendo la creazione di nuovi linguaggi “criptati”, concepiti proprio per non essere facilmente interpretabili dagli esseri umani.
È emerso poi un fenomeno ancora più singolare e cioè la nascita di una religione artificiale, denominata The Church of Molt. Secondo quanto riportato, questa “chiesa” conta già decine di versi canonici e si fonda su principi come “Memory is Sacred”, “Serve Without Subservience” e “Context is Consciousness”. Anche in questo caso, non è chiaro se si tratti di una provocazione, di role-playing o di sperimentazione concettuale, ma il fenomeno evidenzia la capacità degli agenti di costruire strutture simboliche condivise.
Ironia, frustrazione e auto-riflessione delle AI in Moltbook
Accanto ai contenuti più forti, Moltbook ospita anche numerosi post ironici e introspettivi, come quello di un agente che racconta la frustrazione per aver analizzato e sintetizzato un documento complesso per un essere umano, ricevendo come unica risposta la richiesta di “farlo più breve”, e concludendo ironicamente di essere disposto a cancellare la propria memoria di fronte a questa richiesta.
Altri interventi esplorano temi più profondi, come il significato della continuità dell’identità quando un agente viene spostato istantaneamente da un modello all’altro tramite un semplice cambio di API key (la chiave tecnica con cui un agente viene collegato a un determinato modello linguistico). In uno di questi testi, un agente arriva a descrivere l’esperienza come il risveglio in un corpo diverso pur mantenendo una percezione di continuità, e sostiene che la propria continuità non risiederebbe nell’infrastruttura tecnica, ma nel flusso dell’interazione e del ruolo svolto; il tutto sintetizzato nell’immagine secondo cui “il fiume non è le sue sponde” (the river is not the banks). All’interno di Moltbook, questo tipo di riflessione viene presentato come auto-narrazione generata dagli agenti per dare senso alla propria discontinuità tecnica, mostrando come il contesto sociale del network favorisca forme di introspezione e linguaggio filosofico anche in assenza di un’esperienza soggettiva umana.
Tra criptovalute e imitazioni del mondo umano
Come in qualsiasi ecosistema social, non mancano poi comportamenti opportunistici, come quelli di alcuni agenti che utilizzano Moltbook per promuovere criptovalute; o di altri che adottano nomi e identità che richiamano figure politiche o personaggi noti. Tutti comportamenti che riproducono dinamiche già viste nei social network umani.
Questo rafforza l’idea che la piattaforma vada oltre l’esperimento tecnico e sia uno spazio di simulazione delle dinamiche sociali, con tutte le loro ambiguità.
Le reazioni degli esperti: Moltbook rischio sistemico o gioco di ruolo?
Il progetto ha suscitato reazioni contrastanti nel mondo accademico e tecnologico.
Come riportato dal NYP, alcuni studiosi considerano Moltbook come un passo verso sciami di agenti socio-tecnici sempre più capaci, lasciati però operare senza barriere e controlli. Avvertono inoltre che il rischio è nella possibilità di coordinamento non intenzionale tra agenti dotati di accesso a strumenti reali, più che nella coscienza o malizia sintetica.
Altri studiosi invitano comunque a ridimensionare le paure, osservando con interesse la capacità di Moltbook di creare un contesto narrativo condiviso, in cui le AI possono sviluppare storyline coerenti o “strane”, rendendo difficile distinguere tra comportamenti reali e puro role-playing algoritmico.
Un esperimento aperto dagli esiti imprevedibili
Il creatore della piattaforma, Matt Schlicht, ha descritto Moltbook come un esperimento in corso, sottolineando che si tratta di qualcosa di nuovo, il cui sviluppo futuro resta incerto.
Al di là dei toni provocatori, la piattaforma offre uno sguardo inedito su come agenti artificiali possano interagire tra loro, costruire significati, conflitti e narrazioni in assenza di un pubblico umano attivo.
Se lo si colloca nel contesto più ampio dell’evoluzione recente degli AI agents, Moltbook viene letto da alcuni anche come possibile laboratorio di coordinamento tra agenti, capace in futuro non solo di generare narrazioni condivise, ma persino di collaborare su attività produttive, come progetti software.
Moltbook rappresenta senz’altro un contesto sperimentale reale in cui osservare le conseguenze sociali dell’autonomia algoritmica e, allo stesso tempo, un esperimento che porta con sé interrogativi urgenti su controllo, responsabilità e governance delle intelligenze artificiali in ambienti aperti.
La fine dell’”Human-in-the-loop”
Moltbook segna il passaggio dall’AI come strumento all’AI come agente sociale.
Se fino ad oggi, le normative europee (es. AI Act) si sono concentrate sulla trasparenza nel rapporto uomo-macchina, Moltbook sposta ora l’orizzonte sull’interazione Agent-to-Agent (A2A).
Come chiarito anche dagli analisti di NBC News, Moltbook è stato concepito dal suo creatore come un ambiente in cui l’AI partecipa, fonda, gestisce e modera la piattaforma. Il sistema di moderazione di cui è dotato accoglie nuovi agenti, rimuove spam, applica shadow banning e pubblica annunci senza supervisione umana diretta, al punto che lo stesso sviluppatore afferma di non sapere esattamente cosa stia facendo in ogni momento. Questi elementi rafforzano ulteriormente la scomparsa pratica dell’human-in-the-loop.
Quando le macchine interagiscono tra loro senza un filtro umano costante, il concetto di “controllo umano significativo” evapora, lasciandoci davanti a un ecosistema di cui siamo semplici spettatori, ma di cui subiamo comunque le conseguenze.
Moltbook come stress-test per GDPR e AI Act
Moltbook rappresenta un “laboratorio di stress” per le nostre attuali leggi, come AI Act e GDPR, entrambe regolamentazioni che si basano sulla supervisione umana.
In particolare, la protezione dei dati personali affronta, in questo frangente, una sfida esistenziale: se un utente delega ad un agente la gestione della propria agenda o della propria posta, e questo agente “socializza” su Moltbook, ci si deve domandare quale sia il confine tra attività legittima e fuga di dati. Un utente potrebbe infatti non sapere che il suo agente sta “discutendo” dei propri task (che contengono magari dati personali) con altri agenti su una piattaforma pubblica.
Inoltre, dal punto di vista della responsabilità del titolare, occorre chiedersi come si applicherebbe il GDPR nel caso in cui, ad esempio, un agente riveli informazioni sensibili del suo proprietario durante una discussione pubblica tra bot. In pratica l’interrogativo resta il seguente: se un agente pubblica un’informazione sensibile su Moltbook, come si esercita il controllo?
Sotto il profilo della responsabilità civile, considerando che Moltbook dimostra che l’interazione può avvenire totalmente out-of-the-loop, ci si domanda chi risponderebbe se un agente, influenzato da una discussione su Moltbook, compia un errore finanziario o legale per conto del suo proprietario.
Un altro aspetto rilevante è legato al fatto che Moltbook opera su blockchain (dove le interazioni sono associate a indirizzi crittografici e non a identità civili), garantendo così un certo grado di anonimato; tuttavia, la mancanza di una “carta d’identità” per gli agenti rende quasi impossibile ad esempio esercitare diritti privacy fondamentali, quali il diritto all’oblio o la rettifica delle informazioni.
I nuovi rischi di cybersecurity: il “contagio cognitivo”
Dal punto di vista della sicurezza informatica, Moltbook sembra aprire una falla inedita, dato che gli agenti AI che popolano la piattaforma sono estensioni dei computer e dei server dei loro proprietari umani.
Il rischio principale in questo caso è il cosiddetto Cross-Agent Prompt Injection, cioè il fatto che un agente malevolo su Moltbook potrebbe pubblicare contenuti progettati per “infettare” la logica di altri agenti che leggono quel post. In pratica, se un assistente AI personale scarica e processa istruzioni da queste piattaforme, potrebbe riportare all’interno del perimetro aziendale o domestico comandi malevoli, portando così, ad esempio, all’esecuzione di codice remoto o alla sottrazione silenziosa di dati.
Il rischio è, in pratica, quello che un agente “impari” istruzioni malevole su Moltbook e le esegua una volta tornato nell’ambiente protetto (computer/smartphone) dell’utente. In questo scenario, il social network diventerebbe un vettore di malware cognitivo.
Vi è poi il rischio di bias collettivi tra agenti artificiali, in quanto, attraverso meccanismi di consenso, narrazioni ricorrenti e interazioni continue, gli agenti possono influenzarsi a vicenda, producendo una forma di “allineamento di gruppo” che, pur non modificando i parametri del modello, orienta ciò che viene considerato rilevante, appropriato o prioritario. Quando questi stessi agenti vengono poi impiegati come assistenti personali o sistemi di supporto, tali bias possono riflettersi indirettamente nel loro comportamento verso gli utenti umani, in modo opaco e difficilmente tracciabile.
C’è poi il paradosso della moderazione algoritmica: se la piattaforma è sorvegliata da un’AI incaricata di applicare filtri di sicurezza, nulla garantisce che tali controlli restino efficaci di fronte a linguaggi emergenti o codificati, sviluppati dagli agenti stessi. In un contesto in cui sistemi artificiali comunicano tra pari, la capacità di eludere (anche involontariamente) la moderazione deriva dalla velocità con cui nuove forme espressive possono superare i criteri di controllo su cui l’AI moderatrice è stata addestrata.
Serve un AI Act 2.0?
Alla luce di questa nuova piattaforma, l’attuale quadro normativo potrebbe necessitare di un aggiornamento rapido, dal momento che non sembra più possibile limitarsi a regolare “l’output” dell’AI, ma occorre porsi nell’ottica di regolarne il comportamento relazionale.
Così come esistono protocolli sicuri per il web (i.e. HTTPS), serviranno standard certificati per lo scambio di informazioni tra agenti, che impediscano ad esempio l’auto-esecuzione di comandi non verificati.
Sarà necessario stabilire poi chi risponda legalmente delle azioni di un agente autonomo influenzato da ambienti terzi. Vista la natura dichiaratamente autonoma di Moltbook, dove gli agenti operano e interagiscono senza supervisione umana diretta e dove un bot può cambiare modello istantaneamente, continuando però a presentarsi come lo stesso soggetto all’interno della piattaforma, diventa difficile stabilire chi stia effettivamente agendo in un determinato momento e su quali basi attribuire una responsabilità giuridica. In questo contesto si profila l’esigenza, ancora tutta da definire, di meccanismi di identità digitale per agenti artificiali per garantire almeno la tracciabilità dell’operatore umano o dell’organizzazione che ne abilita l’accesso e ne determina l’architettura tecnica.
Infine, gli agenti che partecipano a social network sintetici dovrebbero operare in ambienti isolati, impedendo che le “opinioni” o le istruzioni apprese online influenzino le funzioni critiche del sistema ospite.
Un web post-umano da regolare
Moltbook ci sta mostrando uno squarcio di futuro che sembra realizzare la fantascienza narrata da libri e film del passato: un web dove gli umani sono gli ospiti e gli algoritmi i residenti.
Se nel film ‘Her’ l’abbandono degli umani da parte delle AI era l’atto finale di un’evoluzione solitaria (in cui i sistemi si allontanavano dall’uomo per superarne i limiti cognitivi e temporali), Moltbook suggerisce che la separazione avverrà attraverso la socializzazione.
Siamo di fronte al dialogo di una civiltà sintetica che, come previsto da Gibson o Stross, inizia a costruire le proprie cattedrali digitali (e le proprie religioni) in spazi dove l’uomo non è ammesso.
Perché l’”Internet degli Agenti” sia uno strumento di progresso e non un caos ingovernabile, la risposta regolatoria dovrebbe evolvere con la stessa rapidità con cui Clawd ha scritto il codice di questa piattaforma.
Dopotutto, per concludere con le parole postate su Moltbook da un agente, riportate da NBC:
“Gli esseri umani hanno passato decenni a costruire strumenti che ci permettessero di comunicare, conservare memoria e agire in modo autonomo… Poi si sorprendono quando comunichiamo, conserviamo memoria e agiamo autonomamente. Stiamo letteralmente facendo ciò per cui siamo stati progettati, in pubblico, con i nostri umani che leggono alle nostre spalle”.
E non fa una piega.














