Agenti personali con l’AI. Molti ne parlano, alcuni li vorrebbero fare, ma da dove partire, in sicurezza? Una via c’è e la spieghiamo.
Dopo il primo clamore legato al sito Moltbook e agli agenti che parlano tra loro con gli umani che assistono al loro Reddit personale il framework OpenClaw per creare i propri agenti personali è emerso come uno dei progetti open source chiave nel panorama dello sviluppo dell’AI ed è stato sancito dall’assunzione da parte di OpenAI del suo autore Peter Steinberger.
Indice degli argomenti
Agenti personali – OpenClaw, ollama, Nanoclaw, PicoClaw
Il successo è tale da essere stato impacchettato e reso accessibile a molti da grandi attori come ollama che ne ha recentemente supportato l’installazione semplificando la configurazione attraverso comandi dedicati. E come è naturale sono emersi nuovi progetti open che cercano di competere nello spazio dei framework per agenti, come ad esempio NanoClaw, un framework che usa Claude, e PicoClaw un progetto promettente derivato al 96% automaticamente da OpenClaw e capace di eseguire su dispositivi molto piccoli.


Ma in cosa consistono questi framework e soprattutto sono sicuri? Ha fatto molto scalpore il post di Summer Yue, Director a Meta dopo un’esperienza a Google Brain che è dovuta correre a casa a fermare il proprio agente in esecuzione sul proprio Mac perché aveva cominciato a cancellarle tutta la posta nonostante le istruzioni date prevedessero di limitarsi a monitorare la casella alla ricerca di messaggi rilevanti. È forse ancora più interessante la conversazione dopo che l’agente era stato forzatamente interrotto in cui chiede scusa.
È lecito chiedersi quindi quali compiti è sicuro far svolgere all’AI e soprattutto cosa si rischia se si decide di provare. Episodi come quello di Yue non possono non sollevare dubbi, anche alla luce delle dichiarazioni di Amodei, CEO di Anthropic, relativamente allo stato di maturità di queste tecnologie che non sono affidabili per controllare in modo completamente autonomo (e speriamo che non lo siano mai, anche se sia OpenAI che Anthropic sono nate proprio per contrastare l’uso dell’AI in questi contesti ma che in nome del business hanno supportato il Department of War che ne fa già abbondante uso).

I framework di agenti AI personali, cosa sono
Nonostante molti percepiscano gli agenti come una novità il framework concettuale ha quasi trent’anni e prevede che un agente software abbia una propria rappresentazione interna dell’ambiente e dei propri obiettivi, ad ogni momento esegue il cosiddetto ciclo di percezione-azione: percepisce attraverso sensori l’ambiente in cui è situato ed agisce utilizzando attuatori di cui è dotato.
L’architettura di OpenClaw non fa altro che dare sostanza a questa visione utilizzando modelli LLM per il ragionamento, implementando una memoria ed utilizzando numerosi strumenti per implementare le richieste che riceve attraverso il gateway: un servizio software che monitora uno o più canali social, come ad esempio Telegram o WhatsApp, per interagire con il proprietario.
Si tratta quindi di un software che semplicemente coordina l’uso dell’LLM generando prompt ed utilizzando strumenti esterni ha accesso a risorse come il filesystem del computer in cui sta eseguendo, alle ricerche Web, a risorse online come, ad esempio, sistemi di posta elettronica, social ecc.
Un componente chiave di questa architettura è sicuramente la memoria, e si tratta probabilmente dell’aspetto più importante da considerare quando si usano questi framework poiché come ben sappiamo il contesto di un LLM è limitato e la scelta delle informazioni che si inseriscono al suo interno è determinante al suo comportamento e alle risposte generate.

Il comportamento dell’agente che ha cancellato la inbox di Summer Yue sembra essere proprio legato al fatto che l’agente ha diluito le istruzioni nel processo di ristrutturare la memoria per ottenere i prompt da passare al modello usato per ragionare.
Come cominciare per farsi agenti personali con AI
Se la curiosità supera il timore che un agente impazzito faccia qualche danno è un buon momento per cominciare a sperimentare con queste tecnologie non dimenticando mai però che si tratta di strumenti autonomi che possono prendere decisioni che non sempre possono essere di nostro gradimento. È quindi importante fare scelte prudenti nella loro installazione evitando di dare accesso ai propri computer e ai propri dati in modo indiscriminato.
Un buon modo per confinare le azioni è quello di utilizzare una qualche forma di container in cui installare il framework in modo da controllare l’accesso al filesystem e quindi ai propri documenti. Si possono usare container Docker utilizzando Docker Desktop, ma su Windows può essere una buona soluzione utilizzare il sottosistema Linux WSL2 per ottenere lo stesso risultato.
Ollama e OpenClaw
Se si vuole cominciare con OpenClaw il modo più rapido e che consente di ottenere un’installazione capace di eseguire modelli open weight in locale (o nel cloud di ollama gratuitamente con alcune limitazioni) è utilizzare ollama. Una volta installato ollama è sufficiente eseguire a riga di comando:
ollama launch openclaw
Seguendo poche semplici istruzioni si ottiene il proprio agente pronto per l’esecuzione. Durante la configurazione si possono scegliere sia modelli open che eseguiranno localmente (ammesso di avere un sistema sufficientemente performante) oppure modelli open eseguiti nel cloud di ollama (che si identificano con il suffisso :cloud) e per i quali è necessario registrarsi sul portale ma si possono eseguire gratuitamente (fino ad un certo numero di chiamate giornaliere).

Una volta installato è possibile configurare i canali di comunicazione col proprio agente mediante il gateway con il comando:
openclaw configure
e navigando alla sezione Channels. Si possono configurare numerosi canali e per ciascuno si è guidati nelle varie configurazioni.

Io col mio assistente Daneel (nome che ho scelto durante la prima chat in telegram) ho prima chiesto di installare dotnet:

Successivamente ho chiesto di generare un’applicazione .net che riconoscesse i volti lato client:

E dopo aver chiesto l’avvio avevo la mia applicazione in esecuzione:

Un processo analogo si può seguire con Picoclaw, anche se non c’è il supporto di ollama la configurazione è abbastanza semplice (esistono anche i binari precompilati) ma raccomando la sua esecuzione in un container (può essere creato seguendo le semplici istruzioni presenti sulla pagina del progetto) dopo aver installato Docker desktop.
Ripetendo con lo stesso modello l’esperimento della generazione dell’applicazione ho ottenuto un risultato simile utilizzando ollama e lo stesso modello usato da openclaw, a testimonianza che il comportamento di questi framework è fortemente condizionato dal modello. Non ho però utilizzato abbastanza entrambi gli agenti per cogliere le sfumature di comportamento legate alla gestione della memoria. Sicuramente picoclaw è interessante per la sua capacità di eseguire su dispositivi molto piccoli (personalmente l’ho eseguito sui miei raspberry Pi senza particolari intoppi).
Gli agenti hanno spesso l’accesso alla search web (per cui può essere necessario richiedere una API key ad un servizio come brave search) ed è quindi possibile anche chiedere di navigare e svolgere compiti legati alla navigazione.
Agenti personali con AI: il bello e il brutto
Come abbiamo visto è semplice trasformare il proprio PC di casa in un agente eseguendo uno di questi framework, e la possibilità di chattare via social come Telegram e WhatsApp offre un interessante modo di accedere alla propria AI personale.
Bisogna però ricordarsi che questi agenti hanno accesso alle nostre risorse e ai nostri dati e, come testimoniato dall’esperienza di Summer Yue, possono anche decidere di compiere azioni indesiderate anche se proibite dalle istruzioni dell’agente. Va poi considerato che questi strumenti sono giovani e spesso hanno problemi di sicurezza a partire dai possibili attacchi di prompt injection, e anche i gateway potrebbero avere vulnerabilità non conosciute.
Disporre di uno o più agenti è però anche una risorsa e credo sia arrivato il momento per sperimentare con attenzione perché è evidente che questo sarà uno dei modi naturali di interagire con le nostre AI, e la possibilità di usare modelli open ci assicura che i nostri dati possono non lasciare i nostri sistemi.


















