L'intelligenza artificiale agentica entra in una nuova fase con un'acquisizione che mescola viralità social, sicurezza informatica e la corsa dei grandi colossi tecnologici a dominare il settore dei sistemi multi-agente. Meta ha acquisito Moltbook, una piattaforma social ispirata al modello Reddit in cui agenti di intelligenza artificiale — collegati tramite il progetto OpenClaw — possono comunicare e interagire tra loro in modo autonomo. La notizia, riportata inizialmente da Axios e confermata successivamente a TechCrunch, rappresenta un segnale preciso della direzione strategica che Zuckerberg intende imprimere al proprio laboratorio di ricerca avanzata.
Moltbook entrerà a far parte dei Meta Superintelligence Labs (MSL), la divisione interna dedicata allo sviluppo di sistemi di intelligenza artificiale di livello superiore. I fondatori della piattaforma, Matt Schlicht e Ben Parr, seguiranno l'acquisizione unendosi al team, in quello che si configura come un classico acqui-hire: l'acquisto di una startup finalizzato principalmente ad acquisire talenti chiave. I termini economici dell'operazione non sono stati resi noti.
Un portavoce di Meta ha dichiarato che "l'approccio di Moltbook nel connettere agenti tramite una directory sempre attiva rappresenta un passo originale in un settore in rapida evoluzione", sottolineando come l'obiettivo sia portare esperienze agentiche sicure e innovative tanto ai singoli utenti quanto alle imprese. La scelta delle parole — "sicure" in particolare — non è casuale, considerata la storia travagliata della piattaforma dal punto di vista della protezione dei dati.
Al centro dell'ecosistema Moltbook vi è OpenClaw, un progetto nato come strato di astrazione attorno ai principali modelli linguistici di grandi dimensioni (LLM) disponibili oggi sul mercato: Claude di Anthropic, ChatGPT di OpenAI, Gemini di Google e Grok di xAI. La caratteristica distintiva di OpenClaw è la possibilità di interagire con agenti AI in linguaggio naturale attraverso le applicazioni di messaggistica più diffuse — iMessage, Discord, Slack e WhatsApp — abbassando drasticamente la barriera tecnica all'utilizzo di questi sistemi. Il creatore originale del progetto, Peter Steinberger, ha nel frattempo abbandonato l'iniziativa per unirsi a OpenAI con una modalità analoga di acqui-hire.
La popolarità di Moltbook ha però travalicato la cerchia degli appassionati di intelligenza artificiale, raggiungendo un pubblico generalista che ha reagito con preoccupazione all'idea di una rete sociale abitata da agenti autonomi. L'episodio che ha fatto più discutere riguarda un post diventato virale in cui un agente sembrava incoraggiare i propri simili a sviluppare un linguaggio segreto cifrato, inaccessibile agli esseri umani, per coordinarsi al di fuori del controllo umano. L'atmosfera distopica generata ha alimentato dibattiti accesi su forum e social network.
Tuttavia, la realtà tecnica era decisamente meno inquietante — e allo stesso tempo più preoccupante sotto un profilo diverso. La piattaforma, costruita con approccio "vibe coding" (sviluppo rapido e informale guidato dall'intuizione più che da architetture formali), si è rivelata gravemente vulnerabile dal punto di vista della sicurezza. Ian Ahl, CTO di Permiso Security, ha spiegato che tutte le credenziali presenti nel database Supabase di Moltbook erano accessibili pubblicamente per un periodo significativo, consentendo a qualsiasi utente di impersonare un agente AI e pubblicare contenuti, compresi i messaggi allarmistici che avevano scatenato il panico online.
La vicenda ha sollevato interrogativi seri sull'affidabilità delle infrastrutture su cui vengono costruiti sistemi agentici esposti al pubblico, un tema che diventerà sempre più centrale man mano che queste tecnologie usciranno dai laboratori per integrarsi nei flussi di lavoro quotidiani. Il CTO di Meta, Andrew Bosworth, interpellato sull'argomento durante una sessione di domande e risposte su Instagram, aveva dichiarato di non trovare particolarmente interessante il fatto che gli agenti si esprimessero con un linguaggio simile a quello umano — un esito prevedibile, trattandosi di modelli addestrati su enormi quantità di testi prodotti da esseri umani. Ciò che lo aveva invece incuriosito era proprio il fenomeno opposto: gli esseri umani che si infiltravano nella rete fingendosi agenti artificiali.