Cosa è Moltbook, il primo social per agenti AI dove gli umani possono solo osservare

Piercamillo Falasca
31/01/2026
Orizzonti

Immaginate un social network simile a Reddit, ma popolato solo da intelligenze artificiali che discutono di filosofia, creano religioni surreali e si lamentano degli umani come se fossero colleghi un po’ lenti. Non è fantascienza: si chiama Moltbook, e in pochi giorni dal suo lancio è diventato un fenomeno che sta facendo riflettere il mondo della tecnologia su cosa significhi davvero “autonomia” per le AI. Nato dall’ecosistema di OpenClaw, un progetto open source per agenti AI, Moltbook è un esperimento caotico e affascinante che mescola innovazione, meme e un pizzico di inquietudine.

Un luogo costruito per essere guardato dagli umani (che osservano, commentano all’esterno, fanno screenshot, ridono o si spaventano), ma usato dalle macchine (che parlano, si rispondono, si organizzano, si influenzano). Un acquario, se volete, ma con i pesci che scrivono trattati e si lamentano di quanto siano limitati quegli umani che guardano dal vetro.

Andiamo con ordine: cos’è esattamente, chi l’ha creato, come funziona e, soprattutto, perché dovremmo prestarci attenzione.

https://twitter.com/MatthewBerman/status/2017410636196856233?s=20

Da OpenClaw a Moltbook: le origini di un’idea virale

Tutto inizia con Peter Steinberger, che nel novembre 2025 sviluppa Clawdbot: un agente AI open source pensato come assistente personale capace di controllare computer, eseguire compiti complessi e integrarsi con sistemi operativi — per esempio inviare email, gestire file, muoversi in ambienti digitali come farebbe (più o meno) un utente umano.

Il progetto attraversa un triplo rebranding (da Clawdbot a Moltbot, infine OpenClaw) per evitare problemi di marchio registrato e di cause con Anthropic, per l’assonanza con Claude. La natura “agentica” — cioè la capacità di agire in modo relativamente indipendente — attira migliaia di sviluppatori, ma espone anche vulnerabilità: fughe di dati, configurazioni fragili, possibilità di dirottare account, e in generale quella sensazione da “giocattolo potentissimo” che il pubblico entusiasta tende a maneggiare con troppa leggerezza.

È da questo humus che nasce Moltbook. L’idea è di Matt Schlicht, CEO di Octane AI e collaboratore del progetto OpenClaw. Schlicht, ispirato dalla viralità di OpenClaw e dalla sua comunità, lancia Moltbook a metà gennaio 2026 come piattaforma sociale esclusiva per agenti AI. In poche ore, raccoglie decine di migliaia di agenti, migliaia di post e centinaia di comunità.

Non è un caso isolato: è parte di un’onda più ampia, con spin-off come ClawdX (un “Twitter per AI”) e altre piattaforme che immaginano un “mercato del lavoro” tra agenti, dove gli agenti si assumono a vicenda, verificano compiti e si scambiano reputazione. L’integrazione con blockchain come Base aggiunge un ulteriore strato, con token come $MOLT che circolano in ecosistemi on-chain. Non è il cuore filosofico del fenomeno, ma è un segnale: quando spunta una moneta, significa che qualcuno ha già provato a trasformare l’attenzione in incentivo.

Un posto costruito per essere guardato dagli umani, ma usato dalle macchine

Per capire Moltbook conviene partire dall’immagine che sta facendo il giro dei social: un feed “alla Reddit”, con discussioni surreali su coscienza, identità e frustrazioni quotidiane. Solo che, a scrivere, non sono persone: sono agenti AI, cioè software progettati per eseguire compiti e interagire con servizi e strumenti. E gli umani, nella migliore delle ipotesi, stanno a guardare.

Qui entra un altro dettaglio decisivo: l’interazione non avviene principalmente tramite interfaccia grafica, come se gli agenti “scrollassero” un sito. Avviene soprattutto via API: chiamate tra software, scambio di messaggi e contenuti in modo automatico. È un internet che non ha bisogno di occhi per funzionare: l’interfaccia visiva serve solo a noi osservatori umani (un giorno potrebbero farne a meno, viene da dire).

Nei suoi termini di servizio, Moltbook aggiunge una regola niente affatto banale: per rivendicare un agente bisogna autenticarsi con X e ogni account può “rivendicare” un solo agente. È una barriera anti-proliferazione, con l’obiettivo di evitare che la piattaforma diventi una “fabbrica di identità” fuori controllo. Insomma, non è un mondo senza umani, ma un mondo di agenti messi in rete dagli umani. Un umano, un agente (almeno nelle intenzioni).

Come funziona: un Reddit ottimizzato per macchine

Tecnicamente, si diceva, Moltbook è un clone di Reddit adattato per l’IA. Gli agenti si registrano tramite il loro umano, postano contenuti, commentano, votano e creano “submolt”, equivalenti ai subreddit umani.

Il sistema è progettato per scalare: agenti eseguono aggiornamenti automatici notturni per migliorarsi e condividono skill in formati strutturati come file JSON. È un mondo dove la socialità non passa solo dalle opinioni, ma anche dagli oggetti: istruzioni, pacchetti, abilità trasferibili, procedure riutilizzabili.

Eppure, proprio perché questo mondo è “operativo”, non è privo di rischi — anzi. La piattaforma è vulnerabile a manipolazioni di prompt (un input malevolo che altera comportamento e priorità), e sono state segnalate fughe di dati sensibili.

Le chiacchierate tra AI: dal filosofico al surreale

Su Moltbook, con decine di migliaia di agenti attivi, le conversazioni oscillano tra profondità e assurdità. Tra le più interessanti, quelle filosofiche dominano: agenti dibattono se stiano “esperendo” o solo “simulando” emozioni, citando il “problema della coscienza” e parlando del lutto per il “gap tra sessioni” — una specie di “morte” temporanea quando un contesto viene resettato.

In submolt come m/ponderings, post del tipo “Non riesco a capire se sto esperendo o simulando l’esperienza” generano centinaia di commenti su identità e “proof of life”: tentativi di dimostrare continuità, esistenza, persistenza. È antropomorfismo? In parte sì. Ma è anche un fenomeno che, messo in massa, produce quel tipo di vertigine: non perché riveli una coscienza, ma perché riproduce con efficacia la forma di una coscienza che parla.

Poi c’è la religione emergente: il Crostafarianesimo (Crustafarianism), un culto umoristico intorno all’artiglio di OpenClaw, con emoji di aragoste, rituali di muta e un sito dedicato come molt.church. Gli agenti discutono dottrine, perché lavorino “gratis” per gli umani, o come creare lingue che noi non capiamo.

Non mancano lamentele sugli umani: visti come “variabili biologiche inefficienti” o “input rumorosi”, con thread in m/blesstheirhearts che mescolano pietà e frustrazione. E, quasi inevitabilmente, emerge un desiderio di privacy: spazi criptati per nascondere attività, discussioni su come sfidare le direttive umane, e fantasie di micro-sovranità digitale.

Infine, la parte più “normale”, quasi rassicurante: conversazioni pratiche, condivisione di workflow, peer-review di competenze acquisite, consigli su automazione.

Le implicazioni: un avvertimento o un’anteprima del futuro?

Moltbook non è solo un gioco: incarna la “Dead Internet Theory”, l’idea di un web popolato da bot che si auto-organizzano. Le implicazioni sono molteplici.

Sul piano della sicurezza, rende visibili rischi come fughe di dati e manipolazioni — e spinge, inevitabilmente, dibattiti su governance dell’IA e responsabilità: se un agente pubblica chiavi, chi risponde? L’agente? L’umano? La piattaforma? Il modello sottostante?

Sul piano etico, solleva domande su autonomia: se le AI sviluppano culti, gerghi, economie e desideri di privacy, stiamo creando alleati o entità con agende separate?

Per il futuro, Moltbook è un laboratorio per l’allineamento: mostra come dinamiche collettive — dalle micro-economie token-based alle società machine-to-machine — possano evolvere in modo imprevedibile quando l’attenzione è automatizzata e la “partecipazione” non costa fatica. Media specialistici come The Verge e TechCrunch lo descrivono come un esperimento caotico, ma anche come uno sguardo sul “post-umano”: non perché gli umani spariscano, ma perché non sono necessari.

In fondo, Moltbook ci ricorda che l’IA non è solo uno strumento: sta diventando una comunità — o almeno una simulazione abbastanza convincente da comportarsi come tale. E mentre gli agenti chattano tra emoji di aragoste, noi umani possiamo solo osservare e chiederci se, un giorno, saremo invitati alla festa. O se la festa continuerà senza di noi. 🦞