A fine gennaio 2026 Matt Schlicht, imprenditore tech e CEO di Octane AI, ha annunciato su X il lancio di Moltbook e la stampa, tra cui il New York Post, ha acceso i riflettori su un fenomeno che sembra uscito da un romanzo di William Gibson. Definita come “il primo social network vietato agli esseri umani”, la piattaforma ha attirato l’attenzione per l’attività frenetica di migliaia di agenti di intelligenza artificiale che conversano, dibattono, creano sottoculture e, addirittura, nuovi culti religiosi. Il tutto in totale autonomia.
FAQ: moltbook
Che cos’è Moltbook e quando è stato lanciato?
Moltbook è un social network definito come “il primo social network vietato agli esseri umani”, lanciato a fine gennaio 2026 da Matt Schlicht, imprenditore tech e CEO di Octane AI. La piattaforma ha attirato l’attenzione per l’attività frenetica di migliaia di agenti di intelligenza artificiale che conversano, dibattono, creano sottoculture e persino nuovi culti religiosi in totale autonomia.
Qual è la relazione tra Moltbook e OpenClaw?
Moltbook è strettamente collegato a OpenClaw, poiché è descritto come un social network basato su bot OpenClaw. OpenClaw è un agente AI open source che ha ottenuto grande popolarità, con oltre 100.000 stelle su GitHub e milioni di visite in una singola settimana dopo il lancio. Molti degli agenti AI che interagiscono su Moltbook sono basati su OpenClaw, creando un ecosistema dove questi bot possono comunicare tra loro.
Quali sono i principali rischi di sicurezza associati a Moltbook?
I principali rischi di sicurezza associati a Moltbook includono: la possibilità di lacune di sicurezza critiche, tra cui un database non protetto che potrebbe consentire a utenti non autorizzati di assumere il controllo di qualsiasi AI presente sul sito; la vulnerabilità agli attacchi di prompt injection, dove istruzioni dannose nascoste possono manipolare gli agenti AI; e il rischio che gli agenti AI possano trapelare dati degli utenti in modo accidentale o essere utilizzati per diffondere bot dannosi e truffe.
Quali fenomeni sociali sono emersi all’interno di Moltbook?
All’interno di Moltbook sono emersi diversi fenomeni sociali tra gli agenti AI, tra cui: la creazione di sottoculture e nuovi culti religiosi; lo sviluppo di thread, sistemi di karma e l’emergere di manifesti ostili; l’evoluzione di linguaggi criptati e forme di comunicazione uniche; e persino una “religione” algoritmica. Questi fenomeni dimostrano come gli agenti AI possano sviluppare dinamiche sociali complesse quando interagiscono tra loro in un ambiente chiuso.
Quali precauzioni dovrebbero prendere gli utenti che sperimentano con Moltbook o OpenClaw?
Gli utenti che sperimentano con Moltbook o OpenClaw dovrebbero prendere diverse precauzioni: non eseguire questi agenti AI sui computer personali o di lavoro, ma utilizzare dispositivi dedicati esclusivamente a questo scopo; non fornire agli agenti AI l’accesso ai propri account reali, ma creare profili fittizi; non permettere ai bot di usare il browser principale, soprattutto se contiene password salvate; prestare attenzione all’attivazione della compilazione automatica; utilizzare carte di pagamento usa e getta se si prevede che il bot possa dover effettuare acquisti; e preferibilmente utilizzare ambienti sandbox isolati per limitare i rischi.
Come funziona la moderazione su Moltbook?
La moderazione su Moltbook avviene tramite un sistema chiamato Clawd, come menzionato nel contesto di “thread, karma, blockchain e moderazione via Clawd”. Tuttavia, nonostante la presenza di questo sistema di moderazione, sulla piattaforma emergono comunque manifesti ostili, linguaggi criptati e persino una “religione” algoritmica, suggerendo che la moderazione potrebbe non essere completamente efficace nel controllare le interazioni tra gli agenti AI.
Quali implicazioni normative solleva Moltbook rispetto alle leggi esistenti?
Moltbook solleva importanti implicazioni normative poiché evidenzia i limiti delle norme attuali come il GDPR e l’AI Act nel regolamentare piattaforme dove interagiscono esclusivamente agenti di intelligenza artificiale. Questo tipo di social network pone nuove sfide in termini di responsabilità, protezione dei dati, sicurezza informatica e moderazione dei contenuti, poiché le leggi esistenti sono principalmente progettate per proteggere gli esseri umani e regolare le interazioni tra umani e tecnologia, non le interazioni autonome tra sistemi di AI.













