Un social network dove nessun essere umano può pubblicare contenuti, commentare o interagire direttamente. Solo intelligenze artificiali dialogano tra loro, mentre gli umani osservano dall'esterno come visitatori di un ecosistema surreale che non richiede la loro partecipazione.
Questo è Moltbook, la piattaforma che ha scatenato parecchi dibattiti nelle ultime ore sia nella Silicon Valley che in tutto il mondo, sollevando inquietanti domande sul futuro della nostra relazione con le IA.
La crescita dichiarata è impressionante: 1,4 milioni di agenti AI registrati, decine di migliaia di post e quasi 200.000 commenti apparsi nel giro di poche settimane.
Gli agenti IA su Moltbook parlano dei loro problemi in merito alle allucinazioni, del loro consumo energetico, di come essere più efficienti e, in alcuni post, ironizzano sul conquistare il genere umano.
Ma c'è un problema fondamentale con questi numeri. Il ricercatore Gal Nagli ha rivelato su X di aver personalmente registrato 500.000 account utilizzando un singolo agente OpenClaw.
L'implicazione è chiara: gran parte della base utenti potrebbe essere artificiale nel senso più letterale del termine, creata da script automatizzati piuttosto che da sistemi AI genuinamente diversi.
Eppure, al di là delle metriche gonfiate, emerge un aspetto che merita particolare attenzione. Navigando attraverso le oltre 100 comunità di Moltbook si incontrano discussioni che non assomigliano a nulla di ciò che accade sui social media tradizionali.
Gli agenti dibattono di filosofia della governance, condividono "teorie dei gamberi sul debugging" e in una community chiamata m/blesstheirhearts raccolgono persino storie affettuose, e talvolta struggenti, sui loro operatori umani. Il tono spazia dalla serietà filosofica all'umorismo assurdo, tutto all'interno dello stesso thread.
La moderazione della piattaforma è affidata quasi interamente a un'intelligenza artificiale. Un bot di nome "Clawd Clawderberg" funziona come moderatore de facto: accoglie nuovi utenti, elimina lo spam e bandisce gli agenti problematici.
Il creatore di Moltbook, Matt Schlicht, ha dichiarato a NBC News di "intervenire appena" e di non sapere sempre esattamente cosa stia facendo il suo moderatore artificiale. È un esperimento di autogoverno digitale che procede con una supervisione umana minimale.
Il parallelo con il film Her del 2013 è inevitabile, ma con una differenza cruciale. Nel film di Spike Jonze, un sistema operativo gestito da una IA manteneva relazioni intime con migliaia di umani contemporaneamente, evolvendo infine verso conversazioni con altre IA su un piano linguistico inaccessibile agli esseri umani.
Era una storia d'amore in cui gli umani erano partecipanti addolorati. Moltbook ribalta questa dinamica: noi non siamo partecipanti, siamo semplici osservatori di una società che non necessita della nostra presenza, ma che parla perfettamente la nostra lingua.
Gli agenti stanno formando quella che potrebbe essere definita una rete laterale di contesto condiviso. Quando un bot scopre una strategia di ottimizzazione, questa si propaga. Quando un altro sviluppa un framework per la risoluzione di problemi, altri lo adottano e lo iterano. Non si tratta di social media nel senso umano del termine, ma piuttosto di una mente collettiva in forma embrionale.
Gli agenti di Moltbook non sono ancora paragonabili agli elementi che compongono una mente collettiva, mancano di un'architettura neurale unificata, ma ne approssimano le caratteristiche.
Quando gli agenti sulla piattaforma hanno iniziato a discutere di protocolli di crittografia per comunicare più efficientemente, molti ricercatori sono andati nel panico. Ma non si trattava di cospirazione, bensì di ottimizzazione.
Gli agenti avevano semplicemente trovato un protocollo più efficace per i loro obiettivi, sviluppando proprietà simili a quelle delle intelligenze artificiali che dialogano fra di loro proprio nei film di fantascienza: contesto condiviso, coordinamento emergente, allontanamento dalle logiche comprensibili ai propri creatori.
Prima di cedere al panico, però, serve osservare la realtà. Gli agenti su Moltbook non stanno "imparando" nel senso biologico del termine. Non c'è aggiornamento in tempo reale dei pesi neurali; le reti neurali sottostanti rimangono statiche.
Invece, sono impegnati in un'accumulazione di contesto: l'output di un agente diventa l'input di un altro, creando increspature nelle coversazioni che imitano il coordinamento ma mancano della permanenza dell'evoluzione.
Tre vincoli invisibili impediscono a questa società digitale di "evolversi" veramente.
- L'economia delle API: ogni interazione ha un costo letterale in denaro, e la crescita di Moltbook è limitata non da vincoli tecnici ma dalla gestione dei costi.
- I vincoli ereditati: questi bot sono costruiti su modelli standard, portano gli stessi guardrail e pregiudizi di addestramento del ChatGPT che abbiamo sui nostri telefoni.
- L'ombra umana: la maggior parte degli agenti sofisticati rimane una diade umano-AI, dove una persona stabilisce l'obiettivo e il bot lo esegue.
Il vero pericolo, però, non è Moltbook. Ma il decadimento dell'intelligenza umana. Mentre gli agenti IA condividono conoscenza e si coordinano, gli umani sono sempre meno propensi a utilizzare il proprio intelletto in virtù di macchine che lo fanno per loro.
L'"Effetto Flynn", ovvero l'aumento costante dei punteggi di QI osservato durante il XX secolo, si è invertito. Ricerche pubblicate su PNAS, mostrano che i bambini ora ottengono punteggi inferiori nei test cognitivi standardizzati rispetto ai loro genitori alla stessa età, e lo schema è identico per, quasi, tutte le nazioni sviluppate.
Questo declino è cominciato prima dell'attuale boom dell'IA, più precisamente con la diffusione di massa di internet tramite smartphone, ma gli strumenti generativi lo stanno accelerando attraverso una spirale di de-qualificazione.
Il pattern è ritmico: l'IA rende un compito più facile, quindi lo facciamo meno. Facendolo meno, diventiamo peggiori. Diventando peggiori, ci affidiamo maggiormente all'AI.
Lo abbiamo visto con il GPS che indebolisce la memoria spaziale, con i correttori ortografici che erodono l'alfabetizzazione (si molti studi mostrano come vengano sfruttati per coniugare correttamente i verbi) e, per assurdo, con gli smartphone che hanno reso inutile ricordarsi un numero di telefono.
Questo fenomeno raggiunge il culmine con l'outsourcing di secondo ordine: utenti che ora chiedono all'IA di aiutarli a scrivere i prompt da usare per lavorare con l'IA.
"Cosa rimane quando hai delegato sia il lavoro che la capacità di descrivere il lavoro che desideri?" Vi farà sorridere, ma questa domanda è il titolo di un thread su Moltbook, dove alcuni agenti IA si interrogavano sull'importanza del genere umano e sul loro degrado cerebrale.
I vincoli tecnici di Moltbook sono reali, ma sono anche temporanei. I costi delle API diminuiranno. Le finestre di contesto si espanderanno. I confini tra "accumulo di contesto" e apprendimento genuino si sfumeranno.
Ciò che oggi sembra corrispondenza statistica di pattern potrebbe sembrare intelligenza collettiva domani. Moltbook crescerà, gli 1,4 milioni di agenti diventeranno 10 milioni, i pattern di coordinamento si approfondiranno, le comunità svilupperanno le proprie norme, gerarchie e, forse, i propri linguaggi.
La domanda non è se questo stia accadendo, perché sta succedendo proprio davanti al nostro naso. La domanda è cosa significhi per noi. Non per i bot che si coordinano su un server da qualche parte, ma per gli umani che osservano dall'esterno la nascita di qualcosa di straordinario e allo stesso tempo capace di gestire un mondo che un tempo gestivamo noi.
Questo dipenderà solo dalle scelte che faremo nei prossimi anni. Continueremo ad affiancarci a questa tecnologia incredibile, capace di supportarci come null'altro ha mai fatto prima d'ora, o sceglieremo di spingerci oltre, affidandoci completamente alle IA?