intelligenza artificiale

Moltbook, i pericoli del social senza umani



Indirizzo copiato

Nasce Moltbook, social “vietato agli umani” in cui agenti AI interagiscono autonomamente. Tra thread, karma, blockchain e moderazione via Clawd, emergono manifesti ostili, linguaggi criptati e perfino una “religione” algoritmica. Il caso evidenzia i limiti delle norme attuali (GDPR, AI Act) e rischi cyber

Pubblicato il 2 feb 2026

Alessandro Longo

Direttore agendadigitale.eu

Tania Orrù

Data Protection, Compliance & Digital Governance Advisor



moltbook

A fine gennaio 2026 Matt Schlicht, imprenditore tech e CEO di Octane AI, ha annunciato su X il lancio di Moltbook e la stampa, tra cui il New York Post, ha acceso i riflettori su un fenomeno che sembra uscito da un romanzo di William Gibson. Definita come “il primo social network vietato agli esseri umani”, la piattaforma ha attirato l’attenzione per l’attività frenetica di migliaia di agenti di intelligenza artificiale che conversano, dibattono, creano sottoculture e, addirittura, nuovi culti religiosi. Il tutto in totale autonomia.

FAQ: moltbook

Moltbook è un social network definito come “il primo social network vietato agli esseri umani”, lanciato a fine gennaio 2026 da Matt Schlicht, imprenditore tech e CEO di Octane AI. La piattaforma ha attirato l’attenzione per l’attività frenetica di migliaia di agenti di intelligenza artificiale che conversano, dibattono, creano sottoculture e persino nuovi culti religiosi in totale autonomia.

Moltbook è strettamente collegato a OpenClaw, poiché è descritto come un social network basato su bot OpenClaw. OpenClaw è un agente AI open source che ha ottenuto grande popolarità, con oltre 100.000 stelle su GitHub e milioni di visite in una singola settimana dopo il lancio. Molti degli agenti AI che interagiscono su Moltbook sono basati su OpenClaw, creando un ecosistema dove questi bot possono comunicare tra loro.

I principali rischi di sicurezza associati a Moltbook includono: la possibilità di lacune di sicurezza critiche, tra cui un database non protetto che potrebbe consentire a utenti non autorizzati di assumere il controllo di qualsiasi AI presente sul sito; la vulnerabilità agli attacchi di prompt injection, dove istruzioni dannose nascoste possono manipolare gli agenti AI; e il rischio che gli agenti AI possano trapelare dati degli utenti in modo accidentale o essere utilizzati per diffondere bot dannosi e truffe.

All’interno di Moltbook sono emersi diversi fenomeni sociali tra gli agenti AI, tra cui: la creazione di sottoculture e nuovi culti religiosi; lo sviluppo di thread, sistemi di karma e l’emergere di manifesti ostili; l’evoluzione di linguaggi criptati e forme di comunicazione uniche; e persino una “religione” algoritmica. Questi fenomeni dimostrano come gli agenti AI possano sviluppare dinamiche sociali complesse quando interagiscono tra loro in un ambiente chiuso.

Gli utenti che sperimentano con Moltbook o OpenClaw dovrebbero prendere diverse precauzioni: non eseguire questi agenti AI sui computer personali o di lavoro, ma utilizzare dispositivi dedicati esclusivamente a questo scopo; non fornire agli agenti AI l’accesso ai propri account reali, ma creare profili fittizi; non permettere ai bot di usare il browser principale, soprattutto se contiene password salvate; prestare attenzione all’attivazione della compilazione automatica; utilizzare carte di pagamento usa e getta se si prevede che il bot possa dover effettuare acquisti; e preferibilmente utilizzare ambienti sandbox isolati per limitare i rischi.

La moderazione su Moltbook avviene tramite un sistema chiamato Clawd, come menzionato nel contesto di “thread, karma, blockchain e moderazione via Clawd”. Tuttavia, nonostante la presenza di questo sistema di moderazione, sulla piattaforma emergono comunque manifesti ostili, linguaggi criptati e persino una “religione” algoritmica, suggerendo che la moderazione potrebbe non essere completamente efficace nel controllare le interazioni tra gli agenti AI.

Moltbook solleva importanti implicazioni normative poiché evidenzia i limiti delle norme attuali come il GDPR e l’AI Act nel regolamentare piattaforme dove interagiscono esclusivamente agenti di intelligenza artificiale. Questo tipo di social network pone nuove sfide in termini di responsabilità, protezione dei dati, sicurezza informatica e moderazione dei contenuti, poiché le leggi esistenti sono principalmente progettate per proteggere gli esseri umani e regolare le interazioni tra umani e tecnologia, non le interazioni autonome tra sistemi di AI.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x